ChatGPT se adueñó de la mayoría de los debates tecnológicos del último mes y se posiciona como la gran discusión del año 2023, adentrándose de una vez por todas en la vida cotidiana de las personas.
Tras causar una revolución, parece introducirse en la vida cotidiana de muchas personas. Expertos de la UNL y Conicet desarrollaron sus virtudes.
ChatGPT se adueñó de la mayoría de los debates tecnológicos del último mes y se posiciona como la gran discusión del año 2023, adentrándose de una vez por todas en la vida cotidiana de las personas.
La inteligencia artificial creada por la compañía OpenAI y desde hace unos meses financiada millonariamente por Microsoft, que planea utilizarla junto a Bing.
Se trata de una aplicación desarrollada en lenguaje Phyton sobre el modelo GPT 3.5, que traducido al español significa.
Transformador Preentrenado Generativo
Una red neuronal entrenada con una gran cantidad de datos para generar texto, predecirlo y traducirlo en distintos idiomas, con un nivel de precisión, complejidad y coherencia propio de un cerebro humano.
“Es una arquitectura de red neuronal que surgió hace muy pocos años, con ciertas características que la hacen muy buena para generar modelos predictivos, particularmente en procesamiento de lenguaje natural. Se entrena con enormes cantidades de texto para que aprenda a predecir una palabra en un determinado contexto. Funciona como el predictor de texto de un celular, pero es millones de veces mejor. GPT es una tecnología superadora, que simula ser una persona”, explicó Leandro Di Persia, director de la carrera Inteligencia Artificial de la Facultad de Ingeniería y Ciencias Hídricas (FICH) de la Universidad Nacional del Litoral (UNL) e investigador del Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional (sinc(i)), de UNL-CONICET, con sede en dicha facultad.
Según el investigador, el ChatGPT se creó sobre este modelo de lenguaje, que permite generar texto, utilizando otro método de Inteligencia Artificial denominado «aprendizaje por refuerzo», mediante el cual se le enseña al modelo a interactuar y responder preguntas. “Tiene una memoria donde se va guardando todo lo que fue interactuando con el usuario, a fin de interpretar pedidos y generar respuestas acordes”, puntualizó Di Persia, tras comentar que uno de los trayectos en que se divide la carrera que dirige aborda el aprendizaje automático, siendo el procesamiento del lenguaje natural una de las asignaturas claves, esto es, lo que hace precisamente el ChatGPT.
Los modelos de lenguaje no son elementos nuevos de la Inteligencia Artificial. Algunos comenzaron a utilizarse hace mucho tiempo en reconocimiento del habla. “En un principio eran modelos probabilísticos. Se entrenaban y calculaban las probabilidades de uso de cada palabra después de otras. Luego llegaron los modelos de lenguaje o modelos numéricos basados en redes neuronales, con millones y millones de parámetros, que permiten predecir una palabra según una secuencia anterior y generar textos largos que tengan sentido semántico y sintáctico, al punto que parecen generados por una persona. Son modelos más realistas y completos porque pueden captar el contexto en el que se está hablando (científico, académico, etc.)”, explicó Di Persia.
Por ejemplo, un modelo basado en GPT se diferencia de un buscador porque no rastrea información indexada, alojada en alguna base de datos, sino que genera texto nuevo, de acuerdo a lo que aprendió. “La inteligencia artificial como disciplina existe hace más de 50 años. Se armaba un árbol de preguntas hasta llegar a una conclusión. Ante la respuesta ‘a’, sucede ‘b’, y así sucesivamente. Se modelaba explícitamente el conocimiento, utilizando sistemas de diagnóstico automático. Esta rama clásica de la Inteligencia Artificial luego abrió paso al paradigma basado en redes neuronales, donde no se modela el conocimiento, sino lo que ‘contiene’ al conocimiento. Se aplica el aprendizaje supervisado, es decir, se aportan al modelo millones de ejemplos de un caso para que se entrene solo; no le decimos cómo hacer las cosas, sino que vamos corrigiendo los parámetros internos hasta que pueda encontrar la solución correcta al problema”, detalló el investigador.
El principal problema de ChatGPT reside justamente en la característica que lo distingue y lo vuelve revolucionario frente a otros modelos de lenguaje: su apariencia humana. “En general, todo lo que dice es verosímil, pero no necesariamente cierto. No cuenta con la corroboración de veracidad”, advirtió Di Persia. De ahí la polémica, en determinados ámbitos como el académico-científico, por utilizar esta herramienta para la producción de publicaciones o tesis, y el debate acerca de cómo hacer uso responsable de este tipo de tecnologías.
Otro tema de análisis que aflora cuando irrumpe en la escena cotidiana este tipo de avance tecnológico suele responder a preguntas como: ¿tiene techo la Inteligencia Artificial? ¿Cuáles son sus máximas aspiraciones? ¿Qué la define como tal?
“Hay una frontera borrosa y móvil de lo que consideramos Inteligencia Artificial. Hace 100 años podía considerarse que una calculadora era inteligencia artificial; hace 20 años, el reconocimiento del habla… De modo que vamos resignificando el concepto según se corre el límite de lo posible. Pensamos que algo es inteligente cuando está más allá de lo que podemos lograr hoy”, reflexionó el investigador, y seguidamente acotó: “de acuerdo al test de Turing, una máquina es inteligente cuando se puede mantener una conversación con un software como si fuera una persona. Esto estaría pasando hoy con el ChatGPT”.