Según un nuevo estudio “los rostros generados sintéticamente no sólo son fotorrealistas, sino que son casi indistinguibles de los reales y se consideran más fiables”. Los investigadores detrás de este trabajo advierten que este tipo de tecnologías tipo ‘Deepfake’ han llegado a un punto de realismo que las hace extremadamente peligrosas —pueden generar imágenes que propaguen la desinformación o actividades como el fraude y las extorsiones y piden que cese por completo su desarrollo.
Un nuevo estudio asegura que los rostros creados por las inteligencias artificiales ya no son solo indistinguibles de los reales sino que también generan más confianza entre la gente.
Cuando vemos la imagen de Messi o Mbappé en un videojuego sentimos que, aunque cada vez están más logradas, hay algo que no acaba de cuadrar del todo. Ni su mirada ni las muecas de sus rostros son realistas. Esa sensación se conoce entre los creadores gráficos como el ‘valle inquietante’ y es el límite entre creer que un personaje es de carne y hueso o simplemente un humanoide hecho en 3D que da un poco de grima.
Las nuevas generaciones de gráficos generados por inteligencia artificial han roto esa barrera y han llegado a traspasar ese ‘valle inquietante’, aseguran los investigadores del nuevo estudio. Además con la tecnología actual se puede crear fácilmente una foto o un video gracioso de Tom Cruise haciendo magia con una moneda o una imagen tuya, no tan graciosa, en la que apareces masturbándote aunque en realidad no seas tú, y que los delincuentes utilizan para extorcionarte amenazando con hacerlo público si no pagas lo que te piden.
Aunque el video está todavía por detrás de las imágenes fijas en cuanto a calidad, los resultados obtenidos por los investigagores también son una prueba más de que es necesaria la creación de herramientas que sean capaces de detectar y avisar cuándo una imagen ha sido generada por ordenador. Meta, la antigua Facebook, anunció este verano que ya tiene un software para la detección de videos ‘fake’ aunque no sabemos si ha empezado a implementarlo para analizar el contenido publicado en sus plataformas.
Aun así el avance exponencial de esta tecnología es imparable y cada vez será más complicado de detectar. Un estudio publicado por un grupo de investigadores internacionales hace unos días hace referencia a los distintos métodos que se pueden implementar para el análisis forense de los medios digitales.