IA

Inteligencia Artificial: el difícil desafío de identificar qué es real y qué no

El vertiginoso avance de esta herramienta ha cambiado la percepción de la veracidad visual lo que genera que cada vez sea más difícil descifrar qué imágenes son auténticas.
. .
Julieta Andrade 01-07-2024
Compartir

La Inteligencia Artificial (IA) creció a pasos agigantados. Hace tan solo unos años se podía identificar fácilmente qué imágenes, vídeos o audios habían sido creados con esta herramienta ("es re trucho, mirá eso" o "está re photoshopeado", por ejemplo), pero con el paso del tiempo las plataformas se fueron perfeccionando lo que produjo que sea más difícil notar la diferencia. 

El 2022 fue un punto clave para la IA, no solo porque se originan los primeros software generativos, sino también porque aparece en escena Chat GPT, una aplicación que alcanzó millones de usuarios en un breve período de tiempo, creciendo a niveles más acelerados que redes sociales como Tik Tok. 

Con el auge de estas plataformas también vinieron los problemas: no solo eran mucho más sencillos de utilizar, sino que las simulaciones se volvieron cada vez más perfectas. De esta manera empezaron a surgir contenidos falsos con distintas finalidades: manipular campañas electorales, difundir fake news, llevar a cabo estafas y robos de identidad, entre otras.

Desde el Papa hasta Donald Trump y Taylor Swift: algunos casos de imágenes generadas con IA

Una de las imágenes que más controversia generó en el último tiempo fue cuando comenzó a difundirse la foto del Papa con un abrigo muy moderno que captó la atención de muchas personas. Sin embargo, pocas horas después se supo que había sido elaborada con IA por los dedos de su mano, siendo este uno de los puntos más débiles de estas plataformas.

La imagen del Papa Francisco fue una de las que más controversia generó en el último tiempo.

Otro caso representativo fueron las imágenes de Donald Trump escapando de la policía y finalmente siendo arrestado. Estas fotos se dieron en un contexto en el que la fiscalía de Manhattan investigaba al ex presidente de los Estados Unidos sobre los presuntos sobornos de la actriz porno Stormy Daniels. 

Sin embargo, al prestar atención a las manos de Trump y los policías se pudo identificar con facilidad que habían sido elaboradas con IA. Luego se supo que fueron generadas con la versión más reciente de la plataforma AI Midjourney

Esta herramienta, dirigida por David Holz, cofundador de LeapMotion, se destaca por su nivel de calidad ya que tiene la capacidad de generar imágenes de hasta 1.792 x 1.024 píxeles.

Donald Trump en el momento de su arresto. La imagen, elaborada con IA, se hizo viral luego de que la compartiera en X Eliot Higgins, uno de los fundadores de Bellingcat.

Este problema puede escalar a mayores teniendo en cuenta que estos software pueden generar imágenes pornograficas falsas (también llamadas "deepfake"), como fue el caso de la cantante pop Taylor Swift. Una de las imágenes que se viralizaron alcanzó 47 millones de vistas en la red social X, la cual estuvo disponible durante 17 horas antes de su eliminación. 

Según una investigación citada por la revista Wired, en los primeros nueve meses de 2023 se subieron 113.000 vídeos "deepfake" a los sitios web pornográficos más populares.

Pero la inteligencia artificial no solo puede generar imágenes con el fin de desinformar, sino que también se está utilizando con el fin de crear personas que parezcan reales. En el último tiempo se dio un insólito fenómeno en el que algunas personas crearon influencers virtuales con IA. 

De acuerdo a un informe difundido por la empresa Emerald Insights, estas influencers, diseñadas a partir de técnicas de aprendizaje automático, están hechas con un alto nivel de detalle con el fin de lograr una apariencia lo más cercana a la realidad. 

Un ejemplo es el de Lil Miquela, una influencer digital con 3,6 millones de seguidores en TikTok y 2,6 millones en Instagram, quien puede llegar a cobrar hasta US$ 10.000 por una publicación en Instagram. Además, se espera que para el año 2025 este sector alcance un crecimiento del 26%. 

Lil Miquela es una de las influencers digitales más famosas hechas con inteligencia artificial.

¿Cómo identificar si una imagen fue creada con IA?

Según un estudio que realizó la Universidad de Waterloo en Canadá, el 40% de los encuestados no fue capaz de diferenciar si las fotos eran auténticas o eran generadas por una inteligencia artificial

Ante este escenario, cada vez son más las plataformas que están tomando medidas al respecto. 

Tal es el caso de algunas redes sociales como Tik Tok, Youtube o X que comenzaron a implementar distintas etiquetas para que los usuarios sepan qué contenidos son reales y cuáles no. A pesar de esto, todavía existen algunos mecanismos manuales para descifrar la veracidad  del contenido. 

  • El primer paso es buscar la fuente. Por ejemplo, en el caso de una imágen se puede buscar en internet si tiene los créditos de algún fotógrafo o alguna agencia de noticias.
  • Otra manera es observar con detenimiento los detalles de las imágenes ya que la mayoría de estos software todavía conservan algunos errores. Un ejemplo pueden ser las manos: hay que prestar atención a los elementos que sostienen y si tienen sentido en relación con las posiciones de las personas. Otra parte del cuerpo a observar es la cara y la textura de la piel, además de las orejas, dientes, cabello, la mirada y expresiones de los ojos. Henry Ajder, especialista en Medios Manipulados o Generados Artificialmente, dijo que "el software de inteligencia artificial los suaviza demasiado y los hace lucir demasiado brillantes". También se recomienda chequear la repetición de los elementos, ya que muchas veces sucede que hay demasiados dedos o demasiados dientes.
  • Una de las maneras más eficaces -aunque no es 100% infalible- es utilizar webs como AI or Not o Maldita.es que analizan las imágenes para reconocer si la IA intervino o no en el proceso de creación de la imagen.