OpenAI detiene operaciones que buscaban influir en elecciones

CIBERSEGURIDAD

OpenAI detiene más de 20 operaciones con sus modelos que buscaban influir en elecciones



Dirección copiada

En un reporte de 54 páginas, la compañía también reveló que desmanteló una campaña de phishing en su contra.

Publicado el 10 oct 2024



Vancouver,,Canada,-,Apr,15,2023,:,ìour,Approach,To
Crédito: Archivo ShutterStock

El creador de ChatGPT, OpenAI, reveló que ha interrumpido “más de 20 operaciones y redes engañosas de todo el mundo” que intentaron usar sus modelos para influir en elecciones democráticas de distintos países.

En un informe titulado “Influencia y ciberoperaciones: una actualización”, publicado el miércoles, la startup indicó que la actividad iba desde artículos de sitios web generados por inteligencia artificial (AI, por sus siglas en inglés) hasta publicaciones en redes sociales de cuentas falsas.

El reporte de 54 páginas se publica a menos de un mes de las elecciones presidenciales de Estados Unidos y a meses de que termine uno de los años más significativos en términos electorales a nivel global.

De acuerdo con el Integrity Institute, para 2024 se esperaban 83 procesos electorales en 78 países, que incluyen a México, Reino Unido, India, Indonesia, Taiwán, así como el Parlamento Europeo.

El reporte de OpenAI detalló que el contenido de las redes sociales estaba relacionado principalmente con las elecciones en EU y Ruanda, y en menor medida, con las de India y la Unión Europea. México no es mencionado.

OpenAI: Impacto limitado en elecciones

OpenAI señaló que su reporte tiene la intención de proporcionar una “instantánea” de lo que está viendo e identificar “un conjunto inicial de tendencias que creemos que pueden informar el debate sobre cómo la AI encaja en el panorama de amenazas más amplio”.

La empresa que dirige Sam Altman explicó que aunque los actores de amenazas continúan evolucionando y experimentando con sus modelos, “no hemos visto evidencia de que esto conduzca a avances significativos en su capacidad para crear malware sustancialmente nuevo o generar audiencias virales”.

Abundó que dicho “impacto limitado” también se aplica al conjunto de redes que publicaron contenido sobre las elecciones en el mundo este año.

OpenAI desmantela campaña en su contra

En su reporte, OpenAI también advirtió que las propias empresas de AI pueden ser el objetivo de actividades hostiles. Como ejemplo señaló que desmanteló un supuesto actor de amenazas con sede en China conocido como “SweetSpecter”, que surgió en 2023.

La compañía dijo que realizó “ataques de phishing no exitosos” contra las direcciones de correo electrónico personales y corporativas de los empleados de OpenAI.

“Entendemos que esta es la primera vez que se identifica públicamente que sus objetivos incluyen a una empresa de inteligencia artificial con sede en Estados Unidos, y que su actividad anterior se había centrado en entidades políticas en Medio Oriente, África y Asia”, detalló.

Artículos relacionados

Artículo 1 de 5