Cómo olvidar cuando vimos los primeros videojuegos y películas con movimientos tan realistas que daba una sensación incómodas sólo verlos. Esto comenzó con la llegada de la tecnología de transferencia de expresiones faciales, donde la inteligencia artificial fue capaz de capaz de leer las expresiones faciales de un actor y transferirlas a un personaje tridimensional.
Pero sin dudas, el parteaguas de esta tecnología lo vimos en la película “Avatar”, donde pudimos ver un trabajo asombrosamente pulido, combinado con una tecnología altamente realista de estructuras orgánicas.
Es decir, dejamos de ver personajes claramente generados por computadora cuando el nivel de detalle alcanzó a mostrar hasta pequeñas arrugas, poros en la piel y movimientos altamente realistas que engañaron a nuestro cerebro.
¿Cómo sabemos que llegamos a un grado de perfección de efectos especiales? Simplemente cuando eres capaz de ver una película con personajes generados por computadora y olvidarte por completo que son seres ficticios de lo realista que es, adentrándonos a ese mundo sin detenerse a pensar en esos errorcillos o falta de calidad.
Y la producción de Avatar realmente se lo ha currado si tomamos en cuenta que fue desarrollado desde la década de los noventas, pero no fue hasta 2009 que se estrenó porque no existía la tecnología necesaria para desarrollarla hasta mucho después, y hubo un equipo de investigación y desarrollo detrás de ello.
Hoy, con el salto inmenso que hemos dado en cuestiones de tecnología en tan corto tiempo, la inteligencia artificial que antes estaba restringido para el sector industrial, pasó a estar en nuestras computadoras y luego en nuestros dispositivos móviles.
Seguimiento de caras, la tecnología del sector industrial que ya tienes en tu teléfono
¿Quién no se ha puesto un filtro antes de tomarse una foto o vídeo? Ya no hace falta maquillarse, ponerse lentillas de colores o gastar en tatuajes para poder lucirlos gracias a los filtros que podemos encontrar en aplicaciones como Snapchat, Snow o TikTok.
Esta tecnología revolucionaria tiene toda una ciencia detrás de tanta diversión, y se llama “seguimiento de caras”, una de las funciones que podemos lograr gracias al video tracking. Pero, ¿cómo funciona?
Básicamente consta de dos pasos, la primera es la detección facial que es posible gracias a la tecnología de localización facial, es decir, el sistema primero debe ser capaz de reconocer tu cara al detectar un patrón bastante específico: encontrar tus ojos, nariz y boca. Una vez detectado, será capaz de poner el filtro en el lugar correcto.
El segundo paso consiste en el seguimiento facial, gracias a este paso es que nuestro filtro podrá seguirnos e interactuar con movimientos naturales como cerrar los ojos, abrir la boca, cambiar de ángulo y voltear sin que desaparezca, a menos que nuestro rostro esté completamente oculto.
A este tipo de seguimiento es tridimensional, pues permite seguirnos hasta en seis grados de libertad, es decir, hacia todas las direcciones que podemos mover nuestro rostro. Pero antes de esto, algunas cámaras web más antiguas ya tenían seguimiento 2 y medio D, que permitía ponernos una máscara plana y estática, como si tuviéramos una máscara de cartón en la cara.
Entre otras tecnologías que vienen implícitas también encontramos la búsqueda de patrones, definición del flujo óptico que hace posible los filtros de cambio de color de ojos, por ejemplo. También integrales proyectivas y análisis de color.
De los memojis, a los deepfake. ¿Conoces qué son y sus diferencias?
Aunque tuvimos disponibles varias aplicaciones para jugar con filtros que podían cambiarnos el rostro, sin duda la tecnología de Apple en este campo sorprendió a todo el mundo gracias a su precisión de reconocimiento facial.
Mientras que las aplicaciones gratuitas de filtros hacían un magnífico trabajo cambiándonos el rostro, no era del todo perfecta. Por ejemplo, eran incapaces de capturar el movimiento de nuestra boca y ojos a la perfección, haciendo que el personaje hiciera expresiones raras aunque graciosas.
Con la llegada de los Memojis para iPhone y iPad, pudimos tener nuestro avatar con un seguimiento facial y óptico bastante pulido, capaz de leer nuestros labios y ubicar nuestras pupilas en el lugar correcto en nuestro avatar.
Los filtros fueron evolucionando rápidamente hasta llegar a la tecnología del deepfake (ultrafalso, como se le conoce en español), un acrónimo que significa aprendizaje profundo de falsificación.
Esta tecnología empezó capturando las expresiones faciales de videos pre grabados y colocando un filtro con un nivel de detalle impresionantes gracias a la inteligencia artificial y su habilidad de crear rostros ultra realistas capturando estructuras de fotografías de personas reales.
Un ejemplo bastante conocido de la tecnología deepfake la vimos en la película “Rápidos y Furiosos 7”, cuando el equipo decidió añadir un tributo a Paul Walker, usando un actor para poner el rostro del actor fallecido sobre este y darle una digna despedida en la escena final.
Esta tecnología se pulió mejor con la llegada de la película “Rogue One una historia de Star Wars” del 2016, cuando vimos a una princesa Leia completamente joven como cuando se filmaron las películas en la década de los 70, con un acabado mucho más realista.
Un Luke Skywalker joven también se pudo ver para la serie de The Mandalorian de la franquicia de Star Wars, haciéndonos ver que el deepfake empezó a expandirse a sectores del entretenimiento más pequeños.
Las deepfake se han vuelto hasta más naturales que un rostro humano real, los expertos de ciberseguridad no están felices
En internet ya circulan varios vídeos realizados con la inteligencia artificial del deepfake que han dado mucho de qué hablar sobre cómo la tecnología finalmente está llegando a un punto en donde nos puede engañar.
No importa cuántas veces lo veas, si lo observas de cerca o lejos, en cámara rápida o lenta, cada vez los rostros falsos creados por inteligencia artificial se vuelven tan realistas como el de un ser humano.
La noticia ha llegado a investigadores que han estado siguiendo de cerca este nuevo fenómeno al que nos estaremos enfrentando: el ser capaces de identificar un rostro falso. ¿Te hubieras imaginado tener que lidiar con esto hace diez años?
Algunos estudios al respecto realizados con voluntarios han concluido que el ojo humano sólo puede identificar un rostro falso en un 48% de los casos. En términos de estadística, prácticamente tendríamos las mismas probabilidades de adivinarlo si lanzamos una moneda al aire.
Este estudio publicado en Pnas.org, realizado por Sophie Nightingale y Hany Farid del Departamento de Ingeniería Eléctrica y Ciencias Computacionales de la Universidad de California, utilizaron 800 fotografías con fondos neutros, con imágenes de personas reales y sintéticas mezcladas.
Las imágenes sintéticas fueron realizadas por StyleGAN2, y un novedoso algoritmo de inteligencia artificial de Nvidia, donde 315 personas las analizaron junto con las fotos reales, obteniendo un acierto de 48% antes mencionados.
El estudio se realizó en una segunda ocasión, esta vez los voluntarios fueron instruidos con nociones sobre cómo identificar una imagen falsa, y se les volvió a mostrar una colección de imágenes mezcladas, esta vez acertando un 59%.
Aunque les fue mucho mejor luego de ser instruidos, estadísticamente sigue estando dentro del rango del azar, es decir, bien pudieron obtener el mismo número de aciertos si seleccionaban al azar y hasta sin ver cuáles eran las falsas.
¿Cómo es esto posible? La inteligencia artificial detrás de las deepfake no solo se basa en crear imágenes altamente realistas, también tienen una psicología detrás que es capaz de burlar nuestro cerebro.
El estudio aclara que los rostros sintéticos han sido creados para tener una apariencia de una persona promedio, dando una sensación de ser más fiables. Así que una foto de una persona real con facciones que destacan del resto bien podría ser considerada como sintética.
Científicos han notado que estos rostros promedio que no destacan del resto y que además han sido construidos con expresiones que generar confianza podrían ser bastante peligrosos si dicha tecnología cayera en malas manos.
Así como la IA es capaz de generar rostros ficticios, también es capaz de generar rostros de personas reales a partir de fotografías, como resultado, podría ser capaz de hacer que esta foto creada pueda tener cualquier expresión facial o ángulo.
En la ciber delincuencia, esto podría ser utilizado para efectuar extorsiones amenazando a la víctima de publicar fotografías íntimas o sensibles con su rostro pero generado por computadora, o bien utilizarlo como arma para hacer fraudes de robo de identidad.
Con la llegada de la pandemia de la desinformación, el deepfake también podría ser utilizado para hacer creer a la gente de que el presidente de una nación ha realizado algo que jamás hizo con solo generar una fotografía con su rostro, al grado de generar pánico o incluso hacer cambiar de opinión al público en eventos determinantes.