Sam Altman, en Davos, advierte de mayor estrés por la AI

NOTICIA

“A medida que el mundo se acerque a la AGI, el estrés aumentará”: Sam Altman



Dirección copiada

El CEO de OpenAI dijo que la AI es “buena en algunas cosas, pero no buena en situaciones de vida o muerte”.

Publicado el 18 ene 2024

Francisco Iglesias

Director editorial de Netmedia



Sam-Altman-WEF-2024
Altman: "Desde el enfoque tecnológico, hay lugar para el optimismo". Crédito: WEF

Davos, para Sam Altman, fue un confesionario, en el que más allá de compartir su opinión sobre la inteligencia artificial (AI, por sus siglas en inglés), limitaciones y futuro; habló de temas polémicos como lo que aprendió en su corta salida de OpenAI o la disputa que la empresa mantiene con The New York Times (NYT).

“A medida que el mundo se acerca a la AGI [la inteligencia artificial general, capaz de comprender, aprender y aplicar conocimientos como el ser humano] lo que está en juego, el estrés, el nivel de tensión… todo eso aumentará”, advirtió.

Al participar en el panel “Tecnología en un mundo turbulento”, el CEO de OpenAI indicó que “cada paso que damos, que nos acerca a una poderosa AI, brinda 10 puntos más de locura a las personas. Es algo muy estresante”.

En su visión, “es bueno que la gente tenga miedo de las desventajas de esta tecnología, que estemos hablando de ello. Es bueno que a nosotros y a los demás se nos exija un alto nivel”.

En el panel también participaron los presidentes y CEO de Salesforce, Marc Benioff, de Accenture, Julie Sweet, y de Pfizer, Albert Bourla, así como el ministro de Hacienda del Reino Unido, Jeremy Hunt.

Altman dijo tener “mucha empatía por el nerviosismo general y el malestar del mundo hacia empresas como nosotros” en las que se está confiando el futuro de la humanidad, aunque aseguró que el beneficio “tremendo” que han demostrado lo justifica.

“Depende de nosotros encontrar una manera de integrar los aportes de la sociedad sobre cómo vamos a tomar estas decisiones, no sólo sobre cuáles son los valores del sistema, sino cuáles son los umbrales de seguridad y qué tipo de coordinación global necesitamos para garantizar que las cosas que suceden en un país no tienen un impacto muy negativo en otro”, señaló.

Sam Altman se negó a regresar a OpenAI al principio

En su última intervención en la reunión anual del Foro Económico Mundial, Altman reflexionó sobre sus aprendizajes tras el conflicto —“tan ridículo”, como lo calificó— con la junta directiva de OpenAI, que lo separó de su cargo por unos días.

“En algún momento solo tienes que reírte”, dijo, mientras pensaba qué podía decir. Luego, expresó: “No conoces los problemas importantes, pero no urgentes, que existen”.

Abundó que “sabíamos que nuestra junta directiva se había vuelto demasiado pequeña y que no teníamos el nivel de experiencia que necesitábamos, pero el año pasado fue un año intenso en tantos sentidos que simplemente lo descuidamos”.

Sin embargo, afirmó que su mayor aprendizaje fue darse cuenta de la fuerza de su equipo, que incluso la compañía podría seguir sin él. “Fue algo muy satisfactorio”, dijo.

“Cuando la junta me preguntó por primera vez, el día después de despedirme, si quería hablar sobre regresar, mi respuesta inmediata fue no, porque simplemente estaba muy enojado por muchas cosas”, admitió.

Datos del NYT, no los necesitamos, pero estamos abiertos

A finales de 2023, el diario The New York Times demandó a OpenAI y Microsoft, su principal inversor, por infracción de derechos de autor, al argumentar que se utilizaron millones de sus artículos para entrenar chatbots que ahora compiten contra él.

Altman rechazó el jueves dicha versión: “En realidad no necesitamos entrenar con sus datos”. Y señaló que es diferente el entrenamiento y lo que muestran cuando un usuario envía una consulta.

“Algo que la gente no entiende es cualquier fuente de entrenamiento en particular no nos mueva la aguja mucho”, comentó.

Sobre la demanda, expresó que “nos sorprendió tanto como cualquier otra persona leer que nos estaban demandando. Yo había entendido que estábamos en negociaciones productivas con ellos. Queríamos pagarle mucho dinero para mostrar su contenido”.

El CEO de OpenAI insistió en que “nosotros, estamos abiertos a entrenar con datos de The New York Times, pero no es nuestra prioridad”.

Artículos relacionados

Artículo 1 de 3