CIBERTENDENCIAS: La polémica imagen que ganó un premio de fotografía hecha por Inteligencia Artificial

The Electrician by Boris Eldagsen

"The Electrician", de Boris Eldagsen Credit: eldagsen.com/Boris Eldagsen

Un fotógrafo alemán ha causado un gran revuelo en el mundo de los concursos de fotografía, al revelar que su foto, ganadora de uno de los más prestigiosos premios en su categoría, había sido creada por inteligencia artificial, es decir, las personas que aparecen en la imagen nunca existieron, ni el lugar, ni la situación.


Puntos destacados:
  • El artista, Boris Eldagsen, dijo que fue claro con los organizadores del concurso Sony World Photography Awards sobre su uso de un algoritmo para crear una imagen. El artista ha rechazado el galardón.
  • La imagen se titula Pseudoamnesia: The Electrician e incluye a dos mujeres de frente en un estilo antiguo y en blanco y negro.
  • Eldagsen dijo en entrevistas que su intención fue provocar debate en torno a la IA.
Boris Eldagsen ha convertido su participación en el Sony World Photography Awards en un escenario de debate. El fotógrafo alemán, en lugar de presentar una imagen capturada con una cámara y retocada digitalmente para adaptarla a la categoría correspondiente, lo ha hecho recurriendo completamente a herramientas de inteligencia artificial.

El artista participó de la categoría creativa del concurso con una imagen creada por IA titulada ‘The Electrician’ que utiliza un estilo visual de la década de 1940 para representar falsos recuerdos también conocidos como “pseudomnesia”, es decir, imágenes de eventos pasados que nunca ocurrieron y que por lo tanto nadie pudo fotografiar.

No solo resultó ser la ganadora de la categoría creativa, sino que también se alzó con el máximo reconocimiento del concurso al consagrarse ganadora general, lo que según el reglamento se traducía en un premio de $5.000 y equipos de Sony.

Para sorpresa de todos, el artista alemán publicó una carta abierta en su página web contando que rechazaría el premio y los motivos que le llevaron a tomar aquella decisión.

Detectar una imagen generada por IA

La manera más sencilla y directa de saber si un texto o imagen han sido generados por inteligencia artificial es que el propio autor del prompt (el conjunto de indicaciones en texto que se suministra a la inteligencia artificial para que genere el texto o imagen deseados) así lo indique a la hora de compartirlo.

Esta información se encuentra a menudo en el propio título o nombre de archivo de las imágenes, en su texto alternativo o en la entrada de blog o el perfil de la red social en la que se haya compartido. Otras veces es la sección de comentarios donde el autor puede haberlo mencionado, o en las respuestas a la publicación original en el caso de redes como Twitter o Facebook.

El problema surge cuando la imagen es compartida y otros usuarios de la red se apropian de ella o la difunden en sus cuentas sin precisar su procedencia, por lo que seguir el recorrido hasta su origen puede ser casi imposible. De hecho, el motivo original de las imágenes que mostraban la detención de Trump era precisamente denunciar la increíble capacidad de la IA para generar desinformación.

Marcas de Agua

En el caso de las IAs generativas, algunas han apostado por incluir marcas de agua en sus imágenes para que sean fácilmente identificables. Por ejemplo, DALL-E coloca una marca de agua en cada foto que descargas de su web. Se sitúa en la esquina inferior derecha de la imagen y consiste en cinco pequeños cuadrados de color amarillo, turquesa, verde, rojo y azul.

Pero existen maneras relativamente fáciles de eliminar la marca de agua, también con herramientas como Photoshop, que dejan en evidencia lo fácil que es sortear esta medida de seguridad.

Lo que demuestra que en este terreno, de momento, no hay más ley que la de la selva, ya que algunos generadores de imágenes con IA han 'fabricado' imágenes que incluyen versiones distorsionadas de las marcas de agua más habituales, las que utilizan bancos de imágenes como Getty Images, Alamy o Shutterstock. De hecho, Getty denunció en febrero a Stability AI (responsables de Stable Diffusion), de utilizar ilegalmente más de 12 millones de sus fotos para entrenar su software.



Share