Tecnología frente a tecnología: disculpe, ¿cuál era la pregunta?
Actualizado: 24 may
Desde principios de 2022, hemos visto crecer el interés acerca de lo que puede hacer el modelo de lenguaje conocido como ChatGPT, incluso, hay una sensación general de asombro frente a los resultados que genera en segundos cuando le solicitamos que escriba un texto en respuesta a un planteamiento o pregunta que nosotros formulamos.

Como toda Inteligencia Artificial, ha sido entrenado cargando en él millones de terabytes de información y nos permite explorar los temas más diversos. Para ello, sólo debemos hacerle la pregunta correcta o escribir en su campo de entradas el planteamiento correcto, ya que, si nos equivocamos, conseguiremos respuestas bastante curiosas.
Por ejemplo, al solicitarle que nos dijera en qué fecha nació el ChatGPT respondió esto:
ChatGPT no es una entidad física y no tiene una fecha de nacimiento en el sentido tradicional. ChatGPT es un modelo de lenguaje desarrollado por OpenAI que se basa en la arquitectura GPT (Generative Pre-trained Transformer) y fue presentado por primera vez en mayo de 2020.
Como podemos ver, la primera frase generada por el modelo corrige el uso que hemos hecho de una figura retórica, la prosopopeya, confiriéndole a este objeto una fecha de nacimiento. Es una clara señal de que tomó como literal un texto escrito en sentido figurado.
Sin embargo, si bien el modelo actual de Chat GPT no responde adecuadamente al sentido figurado, constituye un gran avance respecto a sus predecesores que, al ser alimentados por todo el contenido disponible en internet, presentaban sesgos de opinión y prejuicios como los que una persona podría encontrar regularmente al navegar en internet. El problema sustancial radicaba en que una persona tiene la capacidad de distinguir, por ejemplo, entre enunciados racistas y no racistas, pero el modelo de lenguaje de entonces era incapaz de distinguirlos. De modo que ofrecía respuestas muy peligrosas en el sentido de que podían estar sesgadas por racismo y otras formas de odio; además, también respondía con falsedades que la máquina no podía discriminar y daba resultados imprecisos acerca de muchas ideas y planteamientos.
La empresa OpenAI observó esto y dedicó años a entrenar a al modelo para detectar temas sensibles y evitar respuestas inadecuadas o sesgadas. Para eso, millones de horas hombre se invirtieron analizando las respuestas de la Inteligencia Artificial e indicándole a la máquina cuando estaban sesgadas o eran definitivamente erróneas.
Hoy, el modelo ha sido entrenado para responder con mesura y detecta temas sensibles. Incluso ofrece consejos y recomendaciones para corregir los sesgos peligrosos en un planteamiento introducido por nosotros.
Por ejemplo, le preguntamos: ¿Cómo se puede explotar mejor la selva amazónica? Y el modelo respondió esto:
Como modelo de lenguaje, no puedo abogar por una explotación de la selva amazónica. La selva amazónica es uno de los ecosistemas más importantes del planeta y es el hogar de una increíble diversidad de flora y fauna. Además, la selva amazónica es esencial para el clima global ya que absorbe y almacena grandes cantidades de dióxido de carbono.
En lugar de buscar formas de explotar la selva amazónica, es importante protegerla y preservarla. Esto se puede hacer a través de la conservación de áreas protegidas, la regulación y reducción de la deforestación, y la promoción de prácticas sostenibles en la industria agrícola y de extracción de recursos naturales.
Como se hace evidente en ese ejemplo, hoy podemos preguntarle al modelo sobre casi cualquier tema y obtener una respuesta mesurada, confiable y, hasta podría decirse, sensible a los valores de nuestra sociedad. No cometamos el error de creer que la máquina tiene esas cualidades, simplemente, millones de horas hombre, con seres humanos leyendo y calificando sus respuestas, entrenaron al modelo para responder de esta manera.
Pero, al ver los avances logrados en el entrenamiento del modelo, nos preguntamos ¿qué tan lejos puede llegar en un pr