lunes, febrero 26, 2024

Divertidas discrepancias con el Chat GPT


El lunes pasado os escribí sobre el abuso de las IA en la creación de ilustraciones y textos, en detrimento de los humanos. Y hoy me gustaría llevar a vuestro conocimiento una anécdota muy curiosa que me ha sucedido mientras jugueteaba con la aplicación Chat GPT. 

Abrí el programa en cuestión, más que nada, animado por la molicie a la hora de completar un artículo cuyo destino puede ser una revista cualquiera en un imaginativo supuesto o, más probablemente, este mismo blog. Durante mi investigación anterior topé con un personaje que me llamó y mucho la atención, un tal Rudolf Erbach, diseñador del primer submarino mercante de la Historia, el U-Deutschland. Pero es que el Sr. Erbach es muy esquivo y poco dadivoso en Internet, y si recurrí a este programa fue por encontrar algo más que unos contados datos extraídos como percebes de una pared de roca digitalizada.

Así que me dije: 

«Mira, vamos a probar esto del Chat GPT, a ver qué sacamos».

Se me ocurrió la siguiente orden: 

«Quiero la biografía del ingeniero naval alemán Rudolf Erbach». 

Tras unos instantes mágicos, el programa me ofreció algo “parecido” a lo que pedí, pues empecé a leer cosas muy raras. Lo cierto es que no coincidían las fechas de nacimiento y de fallecimiento con los datos que ya tenía anotados y contrastados, como tampoco lugar de estudios y profesión

Me pareció harto extraño. Pero lo dejé pasar, sin darle mayor importancia. Me quedé con lo que ya tenía. Sin embargo, triste de mí, había otras personas sobre las que me concernía tratar en el artículo. Así que tiré del hilo con respecto a Paul Konig, el primer comandante del U-Deutschland. Por pura comodidad escribí: 

«Hazme una biografía de Paul Konig, comandante del submarino Deutschland».

Lleno de regocijo, fui viendo como los párrafos se iban atropellando unos a otros, componiendo un texto más que llamativo sobre un tipo que había participado en la IGM como comandante de submarinos en la Marina imperial alemana, comprometiendo gravemente el tráfico mercante aliado; un tipo que, durante el periodo de entreguerras, estuvo en la reserva, pero que con el ascenso del nazismo fue rehabilitado y se la asignó el mando de sumergibles durante la IIGM, conflicto en el que fue capturado por los británicos; un tipo que, tras la rendición de Alemania, sufrió prisión en un campo aliado durante unos años… Y que murió en 1971.

La exclamación estaba asegurada. Como un pez que se traga hasta el plomo, me puse a buscar información más detallada de este señor en cierta base de datos de comandantes de submarinos que hay por ahí.

Entré en la web y, sin hacer uso del índice biográfico, di con el tal Paul Konig. Y sí, comandó submarinos en la IGM, pero murió en 1933, no en 1971, por lo tanto no pudo estar en la IIGM ni haber sido capturado por los británicos. 

Pensé que esta discrepancia se debería a que Paul Konig es un nombre que se antoja bastante común en Alemania, y a que podría existir otro oficial con mismo nombre y apellido… Pero no lo había.

¡Ostras! Esto es una locura. ¿Cómo puede ser que Chat GPT se saque un texto que contradiga datos que incluso vienen de un sitio tan conocido como es la Wikipedia? ¿De dónde obtiene una información tan dispar? Pronto sabría la respuesta. Pero no nos anticipemos.

Con este regusto amargo en el paladar, probé otros nombres. Ya que me he sentido atraído recientemente por la vida y obra de Jona “Klop” von Ustinov, el padre del actor Peter Ustinov, quien fue espía del MI5, volví a caer en la misma trampa: 

«Dame una biografía completa de Jona von Ustinov».

Y vaya… De fechas no acertó ni una. Es más, el Chat GPT creía que Jona era una mujer, llegando al dislate de atribuir a Klop peripecias atribuidas a otros familiares, como su madre.

Muy raro.

Pero seguí trabajando con el Chat GPT, esta vez en otros menesteres, concretamente para este mundo del Derecho al que tengo “tanto aprecio”. Tengo entre manos un asunto del que no soy capaz de encontrar nada potable; ni en la base de datos doctrinales y jurisprudenciales, ni en ningún otro sitio. Por seguir jugando un poco con el programa, le pregunté si se podía hacer tal cosa, y el GPT me responde «¡oh, sí que se puede!, porque la sentencia del Tribunal Superior de Justicia de Cataluña de fecha tal dice que es esto así y asá».

Y yo en plan… Vale. Genial.

Le vuelvo a chinchar: «¿Puedes decirme más sentencias?»

Y me replica: «Oh, no puedo acceder a bases de datos, porque blablabla», pero insistiéndole, obtuve un mensaje de un tenor parecido al siguiente: «Te puedo dar estas tres sentencias», y me reseña tres resoluciones de dos Tribunales Superiores de Justicia y del Supremo, con fecha, número y un reducido resumen de su contenido. Ufano de mí, me puse a buscarlas en la base de datos que pagamos religiosamente mes a mes pues, con la fecha de la sentencia y el número de la mano, cosa extraña es que no dé uno con su objetivo.

¿Os extrañaría saber que no encontré ni una sola?

No es la primera vez que se detectaría un error sobre el día, mes u año. Pasa en un montón de lugares. Pero, ni corto ni perezoso, le pregunto al GPT: «¿De dónde has sacado estas sentencias, que nos las encuentro?»

A lo que me suelta, de forma tan campante: «Ah, mira, perdona la confusión, pero es que esto era un ejemplo».

Es decir: se las inventó, con órgano emisor, fecha, número de resolución y resumen.

Esto me recordó a una historia que pululó en su día por Internet acerca de un abogado estadounidense que presentó un escrito generado por una IA y que había sido sancionado por negligencia por la simple razón de que había reseñado hasta normativa inexistente. Y con los resultados que he obtenido consultando y jugueteando con el Chat GPT no me extraña lo más mínimo, porque si le pido que me diga si hay una sentencia sobre tal cosa y se la inventa…

Una cosa es que, durante las consultas de las fuentes confundas datos o que éstas se contradigan entre sí. Es algo que sucede en demasiadas ocasiones. Pero es que este programa ha mezclado y ha inventado y me pregunto si esto es en verdad inteligencia.

Habrá quien me discuta que es un programa en sus inicios y todo eso. De acuerdo. Yo, con esto del Derecho estoy muy fogueado con los buscadores de las bases de datos que confunden churras con merinas. Por ejemplo, hará unos 15 años, buscaba resoluciones sobre un determinado arrendamiento urbano y me salían sentencias de etarras: ni coincidía la jurisdicción ni nada. Entonces el buscador sería más torpe y yo también.

Como no, me hace especial gracia que exista gente por ahí vendiendo la moto de que utiliza Chat GPT a fecha presente, así como otras herramientas del estilo, para sus trabajos rutinarios (que así los llaman). Me parto cuando leo en RRSS, como Linkedin, posts escritos no por bocazas de a pie, sino por profesionales del mundo del Derecho e, incluso, de la edición que afirman que echan mano de este programa para liberarse del trabajo repetitivo. Me parto, insisto, cuando me encuentro con abogados que dicen vivir en simbiosis con la IA (siempre según sus palabras), y que le piden un escrito tal, de estos que son dos párrafos pero para los que te tiras un cuarto de hora porque tienes que ir rellenando datos, etc., por mucho sea un copia-pega… Pero, ¿a eso no se le llamaba utilizar libros de formularios? No sé, porque aquí en el despacho siempre ha habido, de toda la vida, vetustos libros de formularios que ahora han sido relegados por las bases digitales de datos, donde se ofrecen decenas de miles de textos actualizados.

Formularios, señores.

Pero si luego estás escribiendo una demanda y le pides a la IA una sentencia porque el tiempo no te da para más, por rellenar con algo, lo que sea, el apartado de fundamentos jurídico materiales (el fondo), con una línea en plan “ex. Sentencia de la Audiencia X, de fecha XXXX”, pero resulta que es una invención… pues quedas como un imbécil.

Esto de sacarse de la chistera resoluciones que nunca vieron la luz es algo que ya se dio en tiempos pretéritos, con abogados protagonizando supuestos de comedia de situación. Se valían de trabajar en una época en la que las recopilaciones jurisprudenciales venían en volúmenes con obesidad mórbida, papel biblia y un tipo de letra que causó más de una ceguera. Por supuesto, sin la posibilidad del atajo Ctrl+F.

Sin embargo, ahora es muy sencillo consultar tal y cual sentencia. Otra cosa son las contradicciones entre las distintas bases de datos, que “habelas, hailas”.

Antes de todo esto, tan solo había utilizado Chat GPT un minuto o dos, por eso de saber qué demonios era eso de lo que todo el mundo habla, y me olvidaba. Y con estos experimentos dedicados a la investigación histórica y a mi profesión, pues me he quedado un poco aplatanado por no decir algo más contundente o culto.

Entiendo yo que para ser considerado inteligente, el GPT debería ser capaz de hacer algo tan básico como, si le pido la biografía de Jona von Ustinov, no confundir el sexo o atribuir al hijo hechos protagonizados por su madre, por sus hermanos o por su hijo.

Le “llamas la atención” a dicho respecto y responde con un «¡Ah! Perdona. Es que mis fuentes puedes estar equivocadas porque mi última actualización es de “noséqué” fecha».

No puede ser. 

En conclusión: que cada uno haga lo que considere más oportuno, utilizando su propia inteligencia o la ajena.


No hay comentarios: