6 de noviembre de 2023 - 16:53 Por Sarai Avila El lunes 30 de octubre los siete países que conforman el G7 (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido), firmaron lo que llamaron un Código de Conducta, perteneciente al “Proceso de IA De Hiroshima”, que comenzó en mayo del corriente año.
El objetivo de este código es regular el desarrollo de los sistemas de Inteligencia Artificial (IA) y los riesgos que éstos pueden implicar. La adhesión afecta a empresas e instituciones que desarrollen IA. Además, los miembros del G7 declaran que el Código Internacional de Conducta “promoverá una vía segura, protegida y fiable en todo el mundo y proporcionará orientaciones voluntarias para las acciones de las organizaciones que desarrollan los sistemas de IA”.
Los líderes de los siete países se comprometieron con los once principios rectores que son base del Código y que ponen en el centro de la discusión a las firma y su responsabilidad con la IA, teniendo estas que garantizar su transparencia, evaluar y mitigar riesgos y vulnerabilidad, compartir la información de manera responsable e implementar medidas para proteger datos y propiedad intelectual. Los once principios aceptados son:
- Tomar medidas adecuadas durante todo el desarrollo de sistemas avanzados de IA, incluso antes y durante su implementación y colocación en el mercado, para identificar, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA
- Identificar y mitigar vulnerabilidades y, cuando corresponda, incidentes y patrones de uso indebido, después del despliegue, incluida la comercialización
- Informar públicamente las capacidades, limitaciones y dominios de uso apropiado e inapropiado de los sistemas avanzados de IA, para ayudar a garantizar una transparencia suficiente, contribuyendo así a aumentar la rendición de cuentas
- Trabajar para compartir información responsablemente y reportar incidentes entre organizaciones que desarrollan sistemas avanzados de IA, incluso con la industria, los gobiernos, la sociedad civil y el mundo académico
- Desarrollar, implementar y divulgar políticas de gestión de riesgos y gobernanza de la IA, basadas en un enfoque basado en el riesgo, incluidas políticas de privacidad y medidas de mitigación
- Invierta e implemente controles de seguridad sólidos, incluida la seguridad física, la ciberseguridad y las salvaguardias contra amenazas internas durante todo el ciclo de vida de la IA
- Desarrollar e implementar mecanismos confiables de autenticación y procedencia de contenido, cuando sea técnicamente posible, como marcas de agua u otras técnicas para permitir a los usuarios identificar contenido generado por IA
- Priorizar la investigación para mitigar los riesgos sociales y de seguridad y priorizar la inversión en medidas de mitigación efectivas
- Priorizar el desarrollo de sistemas avanzados de IA para abordar los mayores desafíos del mundo, en particular, entre otros, la crisis climática, la salud global y la educación
- Avanzar en el desarrollo y, en su caso, adopción de normas técnicas internacionales
- Implementar medidas apropiadas de entrada de datos y protecciones para datos personales y propiedad intelectual
- El Código y los principios trabajarán en conjunto con la Ley de Inteligencia Artificial de la Unión Europea (UE), sancionada en junio de este año. La principal diferencia entre ambos es que mientras que la segunda es una ley, el Código es un acuerdo voluntario. La Ley tiene como objetivo convertir a Europa en el centro mundial de IA fiable y para ello elaboró una clasificación jerárquica del riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo. De esta forma, la UE trabaja en un nuevo marco legal que refuerza la regulación sobre los usos y desarrollos de la Inteligencia Artificial.
La presidenta de la UE, Von der Leyen, expresó que los beneficios potenciales de la inteligencia artificial para los ciudadanos y la economía son enormes. Sin embargo, la aceleración de la capacidad de la inteligencia artificial también plantea nuevos retos. La UE, que ya es pionera en la regulación gracias a la Ley de Inteligencia Artificial, también está contribuyendo a la vigilancia y la gobernanza de la inteligencia artificial a escala mundial. "Me congratulo del acuerdo sobre los principios rectores internacionales del G-7 y el código de conducta voluntario, que reflejan los valores de la UE para fomentar una inteligencia artificial fiable. Pido a los desarrolladores de inteligencia artificial que firmen y cumplan este código de conducta lo antes posible”, afirmó Von der Leyen. Asimismo, publicó en X “ahora me complace dar la bienvenida a los Principios Rectores internacionales del G7 y al Código de Conducta voluntario para una IA confiable.”
https://publish.twitter.com/oembed?url=https%3A%2F%2Ftwitter.com%2Fvonderleyen%2Fstatus%2F1718929467215655073%3Fs%3D20&partner=&hide_thread=false
Las Naciones Unidas no se quedaron atrás y comunicaron que los miembros del Órgano Asesor sobre IA. El organismo se reunió el jueves 26 de octubre para “examinar los riesgos, las oportunidades y la gobernanza internacional de esta tecnología”. António Guterres, noveno Secretario General de las Naciones Unidas, dijo que la IA “podría ampliar y amplificar el trabajo de los gobiernos, la sociedad civil y las Naciones Unidas, desde la predicción y la respuesta a las crisis, hasta el despliegue de servicios públicos de salud y educación”.
Paralelamente al Código de Conducta, el Presidente estadounidense, Joe Biden, firmó una orden ejecutiva para controlar el desarrollo de los sistemas de IA y su aplicación. Biden declaró que "la IA es la tecnología más trascendental de la historia reciente, con aplicaciones a todos los campos de la ciencia, la economía y la sociedad" pero que al presentar muchos riesgos debe ser controlada: “necesitamos controlar esta tecnología y no hay forma de evitarlo”. Añadió que “ya que los desafíos y las oportunidades de la IA son globales, vamos a mantener el progreso del liderazgo estadounidense globalmente”.