Los resultados de Google, ante el desafío de combatir el "slop" de la IA y salvar el tráfico a los medios oficiales
Los artículos escritos por periodistas profesionales no son la prioridad en las búsquedas. Más bien, los contenidos generados por inteligencia artificial que imitan y plagian estos artículos lo son. El tráfico, una parte clave de los ingresos de los medios, está en riesgo y la empresa no da respuestas concretas.
Los resultados de Google, ante el desafío de combatir el "slop" de la IA y salvar el tráfico a los medios oficiales
La inteligencia artificial, además de traer creatividad y oportunidades, también trae la generación de contenido inútil, engañoso o malicioso. El problema es que este tipo de contenidos, hoy llamados "slop", muchas veces es priorizado por el buscador de Google al momento de ofrecer una respuesta.
En detalle, "slop" va en el mismo sentido que el spam: se refiere a los contenidos creados por inteligencia artificial generativa no deseados y de mala calidad que circulan en internet. La generación y publicación nunca están supervisadas por un humano y su principal objetivo es aparentar ser un contenido creado por humanos, beneficiarse de los ingresos publicitarios y dirigir la atención de los motores de búsqueda hacia otros sitios.
De acuerdo con un artículo de Wired, esto afecta principalmente al periodismo, ya que muchos de los trabajos periodísticos son tomados sin consentimiento por la inteligencia artificial y reproducidos en sitios casi sin crédito notable. La cuestión toma gravedad cuando Google, en vez de ofrecer el contenido original, posiciona mejor en los resultados al que la IA plagió sin permiso.
Por ejemplo, un periodista de Wired buscó en Google sobre la reciente polémica que tiene Adobe en relación al entrenamiento de su inteligencia artificial y la utilización de contenidos de artistas sin permiso. Al apretar enter, vio que la cobertura de su medio sobre el tema aparecía en segundo lugar. El primer lugar había sido tomado por Syrus Blog con un artículo que tenía un título muy similar y el contenido casi idéntico: todo generado con IA.
Imagen ilustrativa. Crédito: Steve Marcus/Reuters
“Quiero leer las historias originales escritas por periodistas que realmente investigaron y hablaron con fuentes primarias. Cualquier adicto a las noticias lo haría", afirmó Brian Penny, un escritor en Internet que fue uno de los primeros en señalar a 404 Media algunos de los artículos aparentemente generados por IA en enero del año pasado.
Otra situación en relación a esto fue reportada por The New York Post. En una prueba reciente, buscaron en Google información sobre Melissa Holyoak, una nominada a la Comisión Federal de Comercio. La redacción había hecho un artículo exclusivo del tema, sin embargo, este estaba posicionado debajo de una página que ofrecía una copia idéntica.
Este artículo falso, publicado bajo el nombre genérico de Business News en el dominio sospechoso "biz.crast.net", incluía el mismo arte visual y referencias a The Post en su contenido reciclado. El autor ficticio "Shawn Johnson" está asociado con más de 17,800 páginas de resultados, indicando una producción masiva de artículos generados por IA que plagan la plataforma.
“Este es un problema realmente rampante en Google en este momento, y es difícil responder específicamente por qué está sucediendo", expresó en diálogo con Wired Lily Ray, directora senior de optimización de motores de búsqueda en la agencia de marketing Amsive. "Es frustrante, porque vemos que intentamos hacer lo correcto y luego vemos tantos ejemplos de este material de baja calidad y con IA que nos supera”, profundizó.
Lo que reportó The New York Post o Wired son solo uno de los tantos ejemplos que se pueden ver que sucede con otros medios como TechCrunch o Reuters. Lo negativo es que este fenómeno no solo afecta la visibilidad y el tráfico hacia sitios con contenido original y de calidad, sino que también socava la confianza del usuario en los resultados que presenta Google.