El senador de Morena, Ricardo Monreal, propuso regular por nivel de riesgo el uso de sistemas de inteligencia artificial (AI, por sus siglas en ingles), un sentido similar al adoptado por la legislación de la Unión Europea.
La propuesta, publicada el martes en la Gaceta del Senado, explica que los sistemas de inteligencia artificial (SIA) han evolucionado y generado múltiples beneficios, pero también representan grandes retos para la sociedad.
La iniciativa señala que busca establecer el “primer marco jurídico en materia de sistemas de inteligencia artificial, que por un lado permita a nuestro país aprovechar los beneficios que presenta su utilización en los diversos campos de su aplicación, mientras que por el otro se protejan los derechos de terceros, de los usuarios y del público en general”
Los objetivos de la legislación son regular el desarrollo, comercialización y utilización de los SIA, garantizar el respeto a los derechos humanos de consumidores o usuarios y evitar cualquier forma de discriminación, proteger los derechos de propiedad intelectual, y facilitar el desarrollo nacional de SIA.
A través de un video en redes sociales, Monreal afirmó que “resulta indispensable establecer reglas claras que, por un lado, permitan su desarrollo e implementación [de la AI] y, por el otro, ayuden a mitigar los riesgos derivados de su aplicación”.
Riesgos de la AI
Los artículos que van del 7 al 13 describen diferentes niveles de riesgo de la AI: Inaceptable, alto y bajo, por lo que destacan la importancia de regularla.
El documento establece que son de riesgo inaceptable aquellos SIA que “puedan provocar o provoquen graves perjuicios físicos o psicológicos a las personas, así como su uso para la identificación biométrica”.
Se considera riesgo inaceptable el uso de AI destinada a alterar de forma sustancial el comportamiento de cualquier persona; que saquen provecho de las vulnerabilidades de grupos de personas; que puedan evaluar o clasificar a las personas según su conducta social; que pueden identificar biométricamente y de forma remota en espacios públicos a individuos sin su consentimiento y con los que se pueda alterar archivos de voz o imagen de una persona para modificar el contenido original sin autorización.
Alto riesgo son los sistemas que pueden causar un perjuicio a la salud o a la seguridad de las personas, que produzcan un daño o menoscaben los derechos humanos.
Se consideran sistemas de alto riesgo aquellos que permiten hacer identificación biométrica de personas en espacios privados; la gestión del suministro de agua, gas y energía eléctrica; el acceso a escuelas y la evaluación de estudiantes; la contratación de trabajadores; la evaluación de personas para acceder a prestaciones, servicios públicos o programas sociales; la evaluación de la solvencia económica de las personas, entre otras.
Bajo riesgo son los sistemas cuya utilización no implica un peligro a la salud o la seguridad de las personas, o un daño o menoscabo de los derechos humanos.
Sanciones y sus “asegunes”
Si bien quedan prohibidos los SIA de riesgo inaceptable, la propuesta le da potestad a las autoridades competentes a que utilicen sistemas de AI capaces de manipular o alterar un contenido si su fin es la detección, prevención, investigación o procesamiento de delitos.
Lo mismo sucede en el caso de los sistemas de identificación biométrica de forma remota en espacios públicos, que podrían ser usados, de acuerdo con la regulación, “casos de interés público o seguridad nacional, debidamente justificados y publicitados por la autoridad responsable”.
Para poder operar, los proveedores de SAI de alto riesgo deberán cubrir estos requisitos:
- Contar con un sistema de gestión de calidad.
- Elaborar y difundir la documentación técnica del sistema.
- Cuando estén bajo su control, conservar los archivos de registro que sus sistemas generen automáticamente.
- Asegurarse de que los sistemas sean sometidos a los procedimientos de evaluación y control humano que determine la autoridad competente antes de su introducción en el mercado o puesta en servicio.
- Cumplir con las obligaciones de registro ante la autoridad competente.
Todos los proveedores, sin importar el nivel de riesgo de su sistema de AI, deberán informar a sus usuarios que están interactuando con esta tecnología y también deben garantizar que sus sistemas puedan ser vigilados por la autoridad competente.
Quien incumpla estas disposiciones podría ser sancionado con amonestación pública; una multa de hasta 5% de los ingresos anuales del proveedor; suspensión temporal o cancelación de la autorización o suspensión temporal o destitución del cargo si se trata de funcionarios públicos.
Organismos responsables de regular la AI
Independientemente del tema de los riesgos, de ser aprobada, los desarrolladores y proveedores de sistemas AI tendrían que solicitar autorización a la autoridad competente – el Instituto Federal de Telecomunicaciones, IFT – para comercializar ese tipo de soluciones en el territorio mexicano.
Adicionalmente, el proyecto contempla la creación de una Comisión Nacional de Inteligencia Artificial, que sería un órgano consultivo del IFT. Según la propuesta, dicha Comisión debería estará integrada por “cinco científicos de reconocido prestigio en materia de desarrollo IT y su participación tendrá carácter honorífico”.
La perspectiva de riesgos de la AI a la que se refiere esta propuesta recuerda a la que ha adoptado en los últimos meses la Unión Europea, que ha mostrado reservas acerca del uso de herramientas de AI.
Diputados interesados en uso ético de AI
Por otro lado, en la Cámara de Diputados, el fin de semana, la Comisión de Ciencia, Tecnología e Innovación recibió una iniciativa que propone crear la Estrategia Nacional para el uso adecuado y ético de la AI.
La diputada Ana Karina Rojo expresó que la estrategia debe alinearse con el Plan Nacional de Desarrollo y que sea el instrumento rector de la política pública de la Federación, entidades federativas y municipios en materia de AI.
De acuerdo con Rojo, dicha política pública “debería estar fundada en principios de transparencia, equidad, respeto, seguridad y responsabilidad. Mientras que la estrategia nacional debe contener elementos éticos para el diseño, desarrollo y aplicación de los sistemas tecnológicos, mecanismos de evaluación y mitigación de riesgos asociados con el uso de la AI y su desarrollo”.