Los peligros de las imágenes creadas por IA y cómo identificarlas
Con la escalada impactante de la capacidad que poseen las inteligencias artificiales, surge la necesidad de empezar a diferenciar lo “real” de lo “ficticio”.
El ojo entrenado y los contextos permiten discernir en parte el origen de las imágenes.
El crecimiento de ChatGPT, su fuerte como herramienta conversacional y el acceso disponible prácticamente para cualquier usuario no debe opacar la influencia que pueden alcanzar las inteligencias artificiales más avanzadas en el campo de imágenes y videos.
Con Midjourney o Dall-e como unas de las IA de referencia, estas herramientas ya han logrado confundir a miles de personas y poner sobre la mesa de manera definitiva el debate sobre los riesgos que poseen.
La capacidad de “crear realidad” escaló a niveles en los cuáles resulta complejo determinar si efectivamente se trata de un fake o no.
Similitudes que impactan
Obras de arte o emulaciones de estilos de grandes artistas ya habían establecido la discusión ética de que un objeto deshumanizado tenga la posibilidad de ser una fuente artística.
En consonancia con su agilizado ritmo, dicha polémica parece haber pasado a segundo plano ante la aparición de supuestas fotografías de grandes personalidades del mundo en situaciones no convencionales.
Donald Trump detenido a la fuerza (episodio al alcance) o el papa Francisco con vestimenta de trapero fueron dos de los principales ejemplos de imágenes creadas por IA que llegaron a engañar a ciertos usuarios, al menos por unas horas.
Ahora el debate recae en el peligro que implican a nivel comunicacional y en el campo de las redes sociales, donde con un pequeño gancho se da lugar a la posverdad.
El papa Francisco ha sido el sujeto de prueba más elegido.
Ser engañado o engañar es cada vez más fácil mediante simples comandos, sin siquiera incluir en la problemática una posible autonomía a futuro o interacción de las propias inteligencias artificiales.
Cómo identificar
Ya se convierte de suma importancia poder identificar estas fotografías “falsas” o creadas por IAs para poder continuar el consumo diario de contenido en redes sin caer en la desinformación. Al menos en esta categoría.
A pesar de que a simple vista sorprenden y dan la impresión de ser copias casi perfectas, estas herramientas aún presentan fallas en los detalles.
La más conocida se encuentra a la hora de representar las extremidades. Habitualmente tienen complicaciones para dibujar las manos, aumentando el tamaño de las mismas, extendiendo el largo de los dedos o incluso fusionándolas con objetos que son agarrados.
En las últimas semanas se ha vuelto menos cotidiano este fallo y dependiendo de los usuarios, pueden corregirse sobre la marcha.
No tan susceptible de ser percibido con rapidez son los detalles del fondo. La gran mayoría de imágenes creadas plantean un elemento principal en detalle y el resto en segundo plano con menor desarrollo.
Hacer foco en los objetos secundarios permite, de momento, no caer en engaños.
Resulta normal observar personas sin rostros en los fondos, carteles con leyendas que no hacen referencia a ningún idioma o desperfectos en las sombras.
Otro punto más abstracto a tener en cuenta es la sensación de incomodidad o rechazo que generan los elementos que se acercan en extremo a lo humano, pero sin alcanzarlo del todo.
El término que se utiliza para este tipo de situaciones es el del “valle inquietante”. Aplica con mayor exactitud a la robótica o animación en 3D, pero quizás se necesario incluir dentro a las creaciones de las IAs.
En caso de que todos los puntos previos no basten, Google posee una herramienta ya antigua que permite buscar una fotografía en su buscador de internet.
Haciendo clic derecho sobre la imagen y seleccionando la opción “Buscar imagen con Google” se despliega el recuadro de Google Lens. Este permite hallar el origen de la imagen dentro del buscador, con el fin de determinar si efectivamente proviene de un sitio web oficial o un tercero que lo publicó en sus redes sociales. No se trata tampoco de una solución definitiva ya que no brinda seguridad completa del lugar de proveniencia.
Es un bot alojado en Discord y de código abierto. Es el origen de la mayoría de imágenes engañosas de las últimas semanas. Posee un nivel gratuito limitado y niveles de pago con beneficios.
De la misma empresa de ChatGPT y uno de las primeras en tomar popularidad. La versión actual mejoró hasta cuatro veces su capacidad de interpretación y calidad de imágenes.
Dejanos tu comentario
Los comentarios realizados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de las sanciones legales que correspondan. Evitar comentarios ofensivos o que no respondan al tema abordado en la información.
Dejanos tu comentario
Los comentarios realizados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de las sanciones legales que correspondan. Evitar comentarios ofensivos o que no respondan al tema abordado en la información.