Tanto estruendo, que llovió: cerca del revuelo mediático (y político) vinculado a la llegada de la GenAI generativa, llega el casus belli, que nos permitirá enfrentarnos de frente a una serie de cuestiones relacionadas con el desarrollo y el uso de ChatGPT y sus socios.
Nada más y nada menos que el New York Times, que presentó una citación contra Open AI y Microsoft el 27 de diciembre, impulsó el juicio. Tema: compensación por los daños que el NYT cree haber sufrido debido a la implementación de ChatGPT y Bing Search.
Más allá del posible impacto económico, que las partes del NYT ni siquiera han definido en términos de solicitudes, la causa tendrá sin duda importantes repercusiones. Lo interesante de la historia es que el Times, en la cita, aborda una serie de temas que, hasta el día de hoy, han permanecido «pendientes» o, al menos, han sido archivados con cierta superficialidad.
Si añadimos a la ecuación el hecho de que el proceso (excluyendo la posibilidad de mediación) está casi seguro de llegar al Tribunal Supremo y que, debido a las peculiaridades del sistema judicial estadounidense, una sentencia de este nivel definiría gran parte del marco legislativo vinculado a la IA, es evidente que nos encontramos ante algo que podría extender sus consecuencias mucho más allá de las fronteras estadounidenses.
¿La relación entre la GenAI y el periodismo?
La importante citación presentada por el NYT se refiere, como era de esperar, principalmente a la relación entre la IA generativa y la publicación. Una relación terriblemente complicada, que ya ha suscitado un acalorado debate entre personas con información privilegiada y que probablemente esté destinada a evolucionar en los próximos meses (o años) en direcciones que no son nada predecibles.
En esencia, los abogados del periódico neoyorquino cuestionan que los chatbots compiten con los periódicos tradicionales. En concreto, los casos en los que ChatGPT reproduce textos extraídos parcial o totalmente de artículos publicados por The Times han acabado bajo la lente de los abogados, tanto por el uso de los mismos textos para entrenar el algoritmo, como por la facilidad con la que es posible sortear los «bloqueos» que deberían impedir que el chatbot denuncie artículos protegidos por derechos de autor o, incluso, por el paywall.
El impacto vinculado al capítulo de Wirecutter, una sección del Times que publica reseñas de cualquier tipo de producto, es más sutil. En este caso, el problema es que utilizar un chatbot para obtener información sobre las sugerencias publicadas acaba excluyendo los enlaces que normalmente se insertan en los artículos. Un gran problema para el Times, ya que Wirecutter utiliza el sistema de enlaces de afiliados, que exige que la revista recaude un porcentaje de cada venta online realizada a través de los enlaces antes mencionados. En resumen: en este caso, el impacto de la IA generativa no se refiere directamente a la violación de los derechos de autor, sino más bien al debilitamiento de un modelo de negocio que ahora está muy extendido en la web.
Alucinaciones y entrenamiento
Los aspectos más «estructurales», sin embargo, son otros. El primero se refiere a las llamadas «alucinaciones», es decir, a las verdaderas meteduras de pata que ChatGPT comete con bastante frecuencia. En la citación, los abogados sostienen que la atribución de noticias, declaraciones e investigaciones inexistentes al NYT representa un elemento perjudicial para la autoridad del periódico.
Una decisión favorable en este sentido tendría consecuencias importantes, más que cualquier otra cosa con vistas a dar lugar a posibles reclamaciones similares por parte de cualquier tipo de sujeto. Por ahora, de hecho, las alucinaciones de ChatGPT han sido tratadas como «pecados veniales» y la orientación predominante es que la difusión de información falsa producida por la IA generativa es responsabilidad de quienes utilizaron el chatbot sin realizar los controles adecuados.
Una interpretación que muchos ya han calificado de «cuestionable», dado que el simple hecho de mostrar información falsa en un motor de búsqueda basado en la IA es más que suficiente para socavar la reputación de cualquier persona, incluso sin que se incluya en un artículo o texto en línea.
Por último, está el tema de la formación. Simplificando la cuestión, lo que afirma el NYT es el hecho de que OpenAI y Microsoft han ganado millones de dólares gracias a una herramienta (ChatGPT y Bing Search) que se creó con material creado en gran medida por el periódico estadounidense. Según la información recopilada por los abogados de la empresa neoyorquina, de hecho, en el conjunto de datos utilizado por OpenAI, el Times sería la tercera fuente por orden cuantitativo.
Hasta ahora, OpenAI se había basado en el concepto de «uso justo» para justificar el uso de material protegido por derechos de autor en el entrenamiento de algoritmos. Sin embargo, esto fue antes de que la IA generativa se convirtiera en un negocio multimillonario y cuando la propia OpenAI se presentó como una empresa exclusivamente sin fines de lucro. Parece que han pasado siglos…
Fuente: Zerouno (Digital360)