En la actualidad, nadie duda de las capacidades de ChatGPT para generar texto en un lenguaje coherente y natural. Tanto es así que lo que en un principio era un objetivo inalcanzable (generar texto humano) ha derivado en un desafío: ¿es posible distinguir un lenguaje generado por ChatGPT de uno generado por un humano?
Algunas de las herramientas publicadas hasta el momento se basan, por ejemplo, en analizar la aleatoriedad del texto, asumiendo que el texto generado por un humano será más caótico. Incluso desde la propia organización creadora de ChatGPT (OpenAI), se están desarrollando maneras de reconocer el texto generado por su modelo de lenguaje.
Además, al haber sido entrenado con textos, los estereotipos presentes en ellos serán adoptados por parte del modelo, introduciendo sesgos a la hora de generar su lenguaje. Se hace necesario, por tanto, trabajar en la equidad (fairness): desarrollar algoritmos que permitan detectar estos sesgos para aprender un modelo justo.
Su entrenamiento
ChatGPT ha sido entrenado con millones de textos de internet, entre los que podemos encontrar artículos de Wikipedia, noticias, libros…
Se calcula que se han utilizado alrededor de 300 000 millones de palabras para su entrenamiento. Al ser un modelo de lenguaje, su funcionamiento se basa en calcular las posibles palabras que vienen a continuación de una dada, y devolver aquella que mayor probabilidad tiene. Esto se realiza a través de un proceso previo de comprobación supervisado en el que se enseña al modelo cuáles son las palabras que vendrían después. Se introduce una frase y, en el caso de que el modelo dé una respuesta incorrecta, se le dará la respuesta válida. De esta manera aprende qué debe decir.
¿Y si los textos están sesgados?
El hecho de que haya sido entrenado con dichos textos lleva irremediablemente a una cuestión, ¿qué ocurre si los textos están sesgados? Podría ocurrir, y de hecho así es, que en los datos de entrenamiento se transmitan ideas o estereotipos presentes en la sociedad dado que es lo que estaba presente en los textos. Como en cualquier modelo de inteligencia artificial, los sesgos en el conjunto de entrenamiento se transmitirán al comportamiento del modelo una vez entrenado.
Cabría esperar que una herramienta tan potente estuviera destinada solamente a profesionales dedicados a la inteligencia artificial. Sin embargo, cualquier persona con conexión a internet puede utilizarla a través de la plataforma en la que está integrada .
Una inteligencia artificial para detectar a otra inteligencia artificial
Uno de los mayores desafíos que plantean modelos como este es el fraude en su utilización.
¿Es posible detectar un texto escrito por ChatGPT? En la actualidad ya se han desarrollado herramientas para detectar si un texto ha sido o no escrito por un modelo de lenguaje. Aunque también es cierto que no siempre aciertan. Una manera utilizada en la actualidad es el análisis de la perplejidad o, lo que es lo mismo, de la aleatoriedad presente en el texto. Esta medida indica el grado de desorden que hay en un texto. Una perplejidad alta indica mayor probabilidad de que el texto haya sido generado por una persona real. Por lo tanto, cuanta mayor es la extensión del texto, mayor es la fiabilidad de la herramienta de detección (una mayor extensión proporcionará mayor información del grado desorden).
Otro método, recientemente publicado en un artículo por investigadores de la Universidad de Stanford, se basa en el método estadístico curvatura de probabilidad. Según se indica en el artículo, el texto generado por una inteligencia artificial tiene una curvatura negativa en su función de probabilidad logarítmica. Esto contrasta con el texto generado por los humanos, que tendría una curvatura positiva.
Es decir: en muchas ocasiones, las herramientas de detección de fraude son una inteligencia artificial para detectar a otra inteligencia artificial.
La propia organización creadora de ChatGPT, OpenAI, ya está trabajando en el desarrollo de marcas de agua en los textos generados: signos imperceptibles para la persona humana pero detectables a través de herramientas informáticas que indiquen si el autor del texto es un humano o una inteligencia artificial.
Cuando quisimos prohibir las calculadoras
El debate actual se asemeja en cierta medida al que hubo acerca de la utilización de las calculadoras. En lugar de prohibirlas, se consiguió integrarlas en el aprendizaje y enseñar a utilizarlas para sacarles el máximo partido. La situación con ChatGPT es análoga, el reto es integrar esta tecnología en la docencia y poder explotar sus capacidades, siendo conscientes del gran potencial que tiene. Para ello, habrá que idear maneras de evaluar el aprendizaje que utiliza herramientas como esta.
El modelo presenta algunos peligros, que principalmente consisten en el fraude académico a través del plagio y los sesgos. De la misma manera que ocurre en otros modelos de inteligencia artificial, ChatGPT toma unos datos (en este caso texto escrito) para su entrenamiento. En consecuencia, el comportamiento que presente está condicionado por lo aprendido con esos textos. Por ejemplo, en el hipotético caso de que en todos los textos de entrenamiento que traten sobre sentencias judiciales se afirmara que una persona es culpable o no dependiendo de su raza, el modelo aprendería esta regla. Y si se le preguntara cómo determinar si una persona es culpable, respondería que en función de su raza.
El sesgo en los datos
Por todo ello, los estudios se centran ahora en la manera de aprender de los datos teniendo en cuenta los sesgos presentes, y equilibrando la balanza a favor de esa equidad (llamada fairness).
Desde DATAI, el Instituto de Ciencia de Datos e Inteligencia Artificial de la Universidad de Navarra, se están desarrollando trabajos de investigación acerca del fairness en las decisiones tomadas mediante un algoritmo. Con frecuencia el sesgo está más en los datos que en el algoritmo y por eso se busca detectar ese sesgo en los datos y repararlo de modo automático. Además, también hay un grupo de investigadores trabajando en el desarrollo de un motor de inteligencia artificial que permita extraer un modelo de personalidad a través de un texto utilizando procesamiento del lenguaje natural.
A pesar de los riesgos que puede conllevar, ChatGPT supone un gran avance en el ámbito científico. La cuestión radica en conocer sus capacidades, beneficiarse de ellas y combatir los peligros que implica. De este modo, dejará de ser una amenaza para convertirse en una ayuda con un gran potencial.
Eduardo Iribas Jimeno recibe fondos del Programa MRR Investigo del Gobierno de Navarra.
ÚLTIMAS ENTRADAS
El lobby nuclear disfrazado de divulgación científica
Una campaña mediática que distorsiona la crisis climática para intereses empresariales.
Quedan 7 días para conseguir 30 000 euros: financiación popular en apoyo a Las 6 de La Suiza
Esta campaña no es solo por Las 6 de La Suiza, sino por todas las personas que defienden los derechos laborales y sindicales.
Juez Katharine Parker: conflictos de interés en el caso de Luigi Mangione
¿Es posible confiar en un sistema en el que las decisiones judiciales podrían estar condicionadas por intereses económicos personales?
Vídeo | ¿TE REFERÍAS A ESTO, MACARENA? 🛑 Marina Lobo analiza las denuncias de abuso contra Eduard Cortés
¡Ojo a esto! Un director de renombre nominado a los Goya, Eduard Cortés, está en el punto de mira. 27 mujeres relatan abusos disfrazados de “oportunidades laborales”. Marina Lobo desentraña el caso en HECD.
Vídeo | 🚨 DE LOS POLLOFRES AL ULTRALIBERALISMO: Marina Lobo analiza a Pedro Buerbaum
¿Un ejemplo de esfuerzo y éxito? Pedro Buerbaum, el influencer ultraliberal que va de “self-made man”, esconde un pasado lleno de privilegios y unas afirmaciones económicas que hacen agua por todas partes. Lo que no te cuenta sobre sus negocios y su cruzada contra los impuestos, aquí te lo revelamos.