Los deepfakes, palabra de nuevo cuño literalmente traducida como «engaño profundo», pero que hace un guiño tecnológico al Deep Learning y, por ende, a las redes neuronales que están detrás de su elaboración, es el término utilizado habitualmente para referirse a las imágenes con apariencia real que se crean utilizando Inteligencia Artificial. Todos conocemos programas de televisión que juegan a poner caras de personajes famosos a actores, e incluso abundan ya las apps de uso general para jugar a hacer deepfakes con nuestras propias imágenes. De ahí al uso masivo para crear bromas en redes sociales hay un paso que no tardará en ocurrir.
En el siguiente artículo se constata ya que el nivel de sus resultados no solo es excelente, sino que la dinámica uniformadora de sus propios algoritmos (que priman lo normal frente a la diferencia) hace que los rostros generados sean incluso más confiables: «Las caras sintetizadas tienden a parecerse más a los rostros promedio, que, a su vez, se consideran más fiables».
LEE LA NOTICIA: El deepfake nos está ganando la partida: «cazamos» menos de la mitad de las imágenes falsas generadas por algoritmo
Las implicaciones que la construcción artificial de imágenes y vídeos con rostros conocidos tendrá en la sociedad es aún imprevisible. Más si cabe cuando es el sentido de la vista el que recibe sin reparos el grueso de la confianza máxima (ciega, solemos decir de forma paradójica) de todo nuestro aparato perceptivo.
Las derivadas éticas o legales pueden ser de gran calado. Pero en este breve comentario queremos poner el foco en otro aspecto, el de la creatividad, que nos lleva irremediablemente al impacto que esas imágenes creadas por ordenador pueden tener en el mundo real.
La analítica avanzada y los sistemas de aprendizaje automático han puesto el foco en la predicción. Mirado con perspectiva amplia, lo que están haciendo estos sistemas de generación de imágenes (o texto, si hablamos de las tecnologías de procesamiento de lenguaje natural o NLP – Natural Language Processing-) es utilizar su capacidad predictiva para simular rostros o textos con apariencias reales, precisamente porque predicen que van a ser considerados como tales.
El caso es que esas elaboraciones se sueltan en el mundo y producen consecuencias. ¿Seremos capaces de manipularlas para buscar objetivos concretos? Es decir, ¿cuánto tardarán en aparecer algoritmos eficaces que jueguen a anticipar qué imagen es la más apropiada para que alguien concreto gane confianza en lo que está viendo? ¿Será posible conectar matemáticamente textos con comportamientos de los usuarios para que un chatbot no solo parezca real, sino que use expresiones que sean capaces de seducir especialmente a la persona que tienen delante en cada momento? La conexión con soluciones de analítica prescriptiva se vislumbra a la vuelta de la esquina…

David Sánchez, Head of Product & Business Development en baobab soluciones
