Una imagen falsa de la Torre Eiffel ardiendo se viralizó en TikTok: ¿cómo detectar la manipulación de la IA y los deepfakes?

Una foto tomada en la noche del 26 de abril de 2022 muestra una vista de la Torre Eiffel iluminada. (Foto de AFP) (Foto de -/AFP vía Getty Images)
Una foto tomada en la noche del 26 de abril de 2022 muestra una vista de la Torre Eiffel iluminada. (Foto de AFP) (Foto de -/AFP vía Getty Images)

A principios de enero, millones de personas vieron una foto generada por Inteligencia Artificial (IA) de la Torre Eiffel en llamas, lo que hizo que muchos presenciaran las enormes capacidades de esta tecnología.

La imagen manipulada de la Torre Eiffel, que ahora ha sido eliminada de TikTok, donde apareció por primera vez, tuvo más de 4,5 millones de “me gusta” y miles de compartidos y comentarios.

Cuando la imagen se volvió viral, varios creadores expresaron su decepción por la cantidad de personas que pensaban que la escena era real.

“Me estás diciendo que había más de 4,7 millones de personas que creían que una torre hecha de acero estaba envuelta en llamas”, preguntó Wyatt Hoover (@hoovess) en una publicación. “Lo entiendo. Parece muy real, pero es horrible pensar en ello”.

Manipulación mediante IA y deepfakes

Existen muchas variantes de manipulación con IA, como los llamados deepfakes, que son una combinación de las palabras en inglés deep learning (aprendizaje profundo) y fake (falso). Cabe aclarar que por imágenes manipuladas se entiende “cualquier medio audiovisual que haya sido manipulado digitalmente para reemplazar la imagen de una persona de manera convincente con la de otra”. El término para la tecnología se acuñó en 2017, según una publicación de noticias del MIT, y ha ido ganando popularidad desde entonces.

De cara a la temporada electoral de 2024, cinco estados han prohibido los deepfakeselectorales durante este ciclo. Por supuesto, la creación de deepfakes no está prohibida, pero su uso inadecuado podría ser ilegal.

Algunos ejemplos de vídeos deepfake incluyen imitaciones de famosos como Tom Cruise, Tom Hanks y Taylor Swift. Aunque muchos deepfakes se hacen con intenciones maliciosas, como engañar a las personas para que divulguen información confidencial, a veces se crean solo con fines de entretenimiento.

Además de los vídeos, la IA también tiene la capacidad de recrear la voz de una persona, una tecnología que se puede usar en estafas para recopilar información o robar dinero. De hecho, antes de que se celebraran las elecciones primarias de enero en Nuevo Hampshire, circuló una llamada automática falsa con la voz de Joe Biden diciéndole a la gente que se quedara en casa y no acudiera a las urnas.

Mia Blume, experta en IA y entrenadora de diseño tecnológico en San Francisco, habló con Yahoo Noticias para explicar cómo las personas pueden aprender a detectar el contenido generado por IA.

“No me sorprende. La IA está volviéndose muy buena en la generación de imágenes que parecen bastante reales”, comentó en una entrevista. “Sin duda, es preocupante”.

Algunas plataformas de redes sociales han tomado medidas para ayudar a los usuarios a identificar el contenido generado por IA y el real. LinkedIn identifica y notifica a los usuarios cuando una foto es generada por IA, y X, anteriormente conocido como Twitter, tiene una opción para que la comunidad añada notas, lo cual permite que los usuarios agreguen contexto a diferentes publicaciones. Hasta que las personas no aprendan a diferenciar entre los medios reales y los falsos, Blume afirma que las plataformas deben proporcionar ese contexto.

“Creo que las plataformas tienen la responsabilidad de ayudar a las personas a entender de dónde proviene el contenido”, dijo Blume. “Si en realidad viene de una fuente de noticias, deberíamos saberlo. Si es generado por IA, también deberíamos saberlo. Pero todavía no hemos llegado a ese punto”.

¿Cómo detectar un deepfake?

Aunque Blume cree que la IA generativa, un modelo de aprendizaje profundo capaz de crear texto, imágenes y otros contenidos de alta calidad, puede generar fotos increíblemente realistas, las personas pueden fijarse en algunos detalles para distinguir la diferencia.

“Podemos fijarnos en detalles como la pixelización o la presencia de dedos adicionales o imágenes en las que parece como si la cabeza no encajara en el cuerpo”, puntualizó. Algunos modelos de IA generativa también han recibido críticas por la forma en que gestionan las variaciones del tono de piel y los diversos orígenes culturales, lo que permite a las personas formarse una idea de sus limitaciones.

Aunque detectar un video deepfake no es una ciencia exacta, Matt Groh, profesor asistente de la Universidad del Noroeste y ex asistente de investigación en el MIT Media Lab, le dijo a Ideas Made to Matter del MIT que las personas deben prestar atención a la cara del sujeto (“¿el cabello está fuera de lugar?”), el audio (“¿la voz de alguien no coincide con su apariencia?”) y la iluminación (“los deepfakesa menudo no representan bien las leyes físicas de la iluminación natural”).

Sin pistas como esas, puede ser difícil para los usuarios determinar qué es real o no. En 2023, una influencer generada por IA, Milla Sofía, captó la atención de las redes sociales. Actualmente, Sofía tiene más de 130 000 seguidores en Instagram.

Incluso en el caso de perfiles hiperrealistas como el de Sofía, existen formas de averiguar si lo que ves en línea es real e incluso hay sitios web dedicados a determinar si una imagen ha sido generada por IA o no. Según el sitio web Is It AI?, la herramienta utiliza un modelo entrenado con un conjunto de datos de imágenes que fueron etiquetadas como reales o generadas por IA. A partir de ahí, comenzó a detectar las pistas para diferenciar las imágenes reales de las creadas por Inteligencia Artificial.

Google también actualizó su búsqueda de imágenes en 2023 para agregar una función “Acerca de esta imagen”, que brinda detalles sobre cuando la foto apareció por primera vez en Internet y se indexó. Ahora, al cargar una foto para realizar una búsqueda inversa, los usuarios pueden obtener información sobre la imagen, detalles que podrían ayudarlos a llegar a una conclusión.

La IA generativa es un sector en auge: Pitchfork informó que las empresas tecnológicas y los inversores de riesgo destinaron más de 10 mil millones de dólares en 2023. Además, Statista proyecta que el mercado crecerá a más de 66 mil millones en 2024.

“Creo que es clave ir a las noticias y verificar las fuentes, aunque no es fácil”, afirmó Blume. “Hay que esforzarse mucho para validar o comprender el origen del contenido”.

Donnavan Smoot