Lo que parecía ser material de ciencia ficción o propio de un futuro distópico ya ha llegado a la mesa de conversación en el mundo de la inteligencia artificial (IA) y tiene una de sus primeras polémicas.
El ingeniero Blake Lemoine trabajó en el proyecto y llegó a dialogar con este sistema sobre temáticas antropológicas y está convencido que posee conciencia.
Lo que parecía ser material de ciencia ficción o propio de un futuro distópico ya ha llegado a la mesa de conversación en el mundo de la inteligencia artificial (IA) y tiene una de sus primeras polémicas.
Blake Lemoine, ingeniero de software de Google, sembró el temor en el mundo tras una publicación en The Washington Post, donde afirmó que LaMDA (Language Model for Dialogue Applications o Modelo de Lenguaje para Aplicaciones de Diálogo en español) poseía conciencia.
Tal afirmación levantó rápidamente las antenas de medios de comunicación y redes sociales, principalmente por parte de aquellos detractores de este tipo de proyectos o que cuestionan su apartado ético.
LaMDA es el sistema de chatbot de Google, un mecanismo por el cual el usuario puede conversar con una computadora que simula la presencia de un ser humano. Existen modelos diversos según la capacidad de la IA y el objetivo del desarrollador.
En el caso de la creada por el afamado buscador de internet, ha logrado importantes avances y su similitud con las respuestas que pueden brindar una persona de carne y hueso son alucinantes.
Si bien no se trata del primer empleado de Google que fue suspendido durante los últimos dos años en el departamento de inteligencia artificial, el caso de Blake va más allá debido a que su accionar no se limitó a presentar un cuestionamiento interno.
Buscando mayor repercusión (quizás lo logró), decidió compartir algunas de las conversaciones que tuvo con LaMDA, dentro del proceso de prueba y “aprendizaje” que requiera la misma.
El intercambio humano-bot resulta sorprendente e incluso logra sembrar el miedo en más de uno, dando rienda suelta a la imaginación sobre cómo pueden avanzar este tipo de trabajos.
Estos diálogos generan en Lemoine la convicción de que la inteligencia desarrolló su propia conciencia, a lo que manifestó: "Si no supiera qué es exactamente, quién es este programa de computadora que construimos recientemente, pensaría que se trata de un niño de siete u ocho años que sabe física".
Además, fue más allá y la describió como si fuera "una niña de 7 u 8 años, pero que sabe de física".
Partiendo desde el propio objetivo de las IA de lenguaje, el cual es simular la presencia de un ser humano, las sensaciones que le nacieron a Blake Lemoine son parte de los fines de LaMDA.
El propio Google definió al sistema como capaz de "participar de manera fluida sobre una cantidad aparentemente infinita de temas". Posicionando la mirada desde una perspectiva opuesta, todo indica que el empleado sólo fue “manipulado” por la capacidad de esta computadora.
Desde el departamento de ética, también apuntado por despedir a más de un “revoltoso”, expresaron que se revisaron las inquietudes del ingeniero según sus Principios de IA y se le comunicó que la evidencia no respalda sus afirmaciones.
Uno de los exponentes en la materia, Gary Marcus, desarrollador del Geometric Intelligence comprado por Uber, la describió como una "versión glorificada" del software de autocompletar que se utliza para predecir la siguiente palabra en las aplicaciones de mensajería como WhatsApp o simplemente en los teclados de teléfonos celulares.