

Apoyo a los profesionales de la IA para hacer frente a los riesgos críticos - lanzamiento del Manual sobre innovación responsable en IA para la paz y la seguridad internacionales
5 de agosto de 2025
Impulsados por factores como los grandes avances en el aprendizaje automático, el acceso a los datos y las innovaciones en hardware, los avances en IA se están empleando en campos que van desde el descubrimiento de fármacos hasta la gestión de la cadena de suministro. Sin embargo, esos mismos avances también presentan riesgos reales para la paz y la seguridad internacionales.
Aunque algunos de ellos se derivan del potencial de la IA para fines militares, incluso los desarrollos de la IA destinados exclusivamente a un uso civil pueden ser reutilizados con fines maliciosos o perjudiciales, desde campañas de desinformación y ciberataques hasta operaciones terroristas. La tecnología no es intrínsecamente neutral, y las decisiones tomadas a lo largo del ciclo de vida de la IA, así como las acciones que ésta facilita, también están destinadas a repercutir en la paz y la seguridad internacionales.
Puede resultar difícil para los profesionales de la IA prever cómo su trabajo puede tener consecuencias negativas no intencionadas, pero dada su posición en el ciclo de vida de la IA, están especialmente bien situados para ayudar a abordar estos riesgos y pueden desempeñar papeles fundamentales para mitigarlos. Desde principios de 2023, la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA) y el Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI) han trabajado con profesionales de la IA, tanto del mundo académico como de la sociedad civil y la industria, de todo el mundo para probar y desarrollar materiales educativos que puedan introducirse en la educación STEM y ayudar a los futuros profesionales de la IA a abordar los riesgos para la paz y la seguridad internacionales en su origen.
Basándose en este trabajo, la UNODA y el SIPRI lanzaron en julio el Manual sobre innovación responsable en IA para la paz y la seguridad internacionales, un valioso recurso para educadores y estudiantes de IA que quieran innovar de forma responsable. El manual se diseñó para ayudar a los profesionales de la IA a ser conscientes de cómo su trabajo puede tener consecuencias derivadas para la paz y la seguridad internacionales, ayudar a mitigar los riesgos que su trabajo pueda presentar y participar en debates sobre el nexo entre la IA y la paz y la seguridad internacionales. El manual está diseñado para ser utilizado por educadores que deseen integrar el material en sus planes de estudios, así como por lectores individuales. El manual es uno de los resultados de un proyecto más amplio, Promover la innovación responsable en inteligencia artificial para la paz y la seguridad, llevado a cabo por la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA) y el Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI), con el generoso apoyo de la Unión Europea.
Hacer que la IA sea segura para la IA para el Bien - abordar los riesgos que presenta para la paz y la seguridad internacionales el uso indebido de la Inteligencia Artificial civil
10 de julio de 2025
¿Es posible abordar en su origen los riesgos que presenta para la paz y la seguridad internacionales el uso indebido de la Inteligencia Artificial (IA) civil? La UNODA subió al escenario de las soluciones en la cumbre anual AI for Good de Ginebra, organizada por la Unión Internacional de Telecomunicaciones, para abordar esta cuestión.
Muchos en la comunidad civil de la IA no se dan cuenta de que las innovaciones actuales de la IA podrían tener graves consecuencias para la paz y la seguridad internacionales. Sin embargo, los profesionales de la IA pueden desempeñar por sí mismos un papel fundamental en la mitigación de los riesgos, especialmente del uso indebido de los productos de la IA civil, y hacerlo en las primeras fases del ciclo de vida de la IA.
Ante una audiencia de más de 200 personas, Charlie Ovink (UNODA), Jules Palayer (Instituto Internacional de Estocolmo para la Investigación de la Paz) y Vivianne Manlai(Talos Network) subrayaron que el cambio debe empezar por la educación de los profesionales de la IA, y ofrecieron las perspectivas de expertos, educadores y estudiantes de IA sobre lo que se necesita. Con el generoso apoyo del Servicio Europeo de Acción Exterior, el SIPRI y la UNODA han estado trabajando con educadores y estudiantes de IA de todo el mundo para abordar este reto, y otros, como parte del proyecto "Promoción de la innovación responsable en IA para la paz y la seguridad".




¿Cómo puede la educación STEM ayudar a los futuros profesionales de la IA a enfrentarse a los riesgos para la paz y la seguridad internacionales? Expertos civiles en IA se reúnen en Nueva York
10 de mayo de 2025
Los días 8 y 9 de mayo de 2025, la UNODA, el SIPRI y la Universidad de Nueva York reunieron a destacados investigadores, educadores y estudiantes de IA en la NYU Tandon y en la sede de las Naciones Unidas para celebrar un taller de dos días centrado en la innovación responsable en IA, y en proporcionar a la comunidad civil de la IA -especialmente a la próxima generación de profesionales de la IA- los conocimientos y medios necesarios para participar en una innovación responsable y ayudar a garantizar la aplicación pacífica de la tecnología civil de la IA. El primer día exploró la integración de la concienciación sobre el doble uso y otros riesgos en los planes de estudios STEM y proporcionó una plataforma para que los participantes compartieran las mejores prácticas en la educación sobre IA. El segundo día ofreció un diálogo de alto nivel con miembros de la comunidad política, entre ellos Amandeep Gill (Secretario General Adjunto y Enviado Especial del Secretario General para las Tecnologías Digitales y Emergentes, ODET), Adedeji Ebo (Director y Adjunto del Alto Representante para Asuntos de Desarme, UNODA) y Maritza Chan Valverde (Presidenta de la Primera Comisión de la Asamblea General de la ONU). El taller fue posible gracias al generoso apoyo de la Unión Europea, y se llevó a cabo en el marco del proyecto "Promoción de la innovación responsable en inteligencia artificial para la paz y la seguridad".




Involucrar a la comunidad civil de la IA para ayudar a prevenir el uso indebido de las tecnologías de la IA
8 de mayo de 2025
¿Cómo puede la comunidad civil de la IA ayudar a prevenir el uso indebido de las tecnologías de la IA? El 7 de mayo de 2025, la UNODA, el SIPRI, el NYU Center for Responsible AI y el NYU Center for Robotics and Embodied Intelligence reunieron a un grupo de profesionales internacionales de la IA, académicos, delegados de los Estados miembros y otras personas para mantener un intenso debate sobre la mitigación de los riesgos del uso indebido de la IA civil. El acto incluyó una visita interactiva al Centro de Robótica e Inteligencia Corporal de la NYU, seguida de un dinámico panel y un debate abierto en el que los expertos compartieron sus puntos de vista sobre la innovación responsable, los retos del doble uso y el papel de la educación y la colaboración internacional en el proceso de mitigación de riesgos. Este acto forma parte del proyecto "Fomento de la innovación responsable en inteligencia artificial para la paz y la seguridad", que ha sido posible gracias a la generosa contribución de la Unión Europea.



La UNODA, el SIPRI y la UE, lideran el diálogo sobre la IA responsable en un acto paralelo de la Primera Comisión de la AGNU
8 de noviembre de 2024

18 de octubre de 2024
El 18 de octubre, la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA), en colaboración con el Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI) y la Unión Europea, organizó un acto paralelo de la Primera Comisión de la Asamblea General de las Naciones Unidas centrado en la innovación responsable en Inteligencia Artificial (IA) para la paz y la seguridad. El acto, titulado "IA responsable para la paz y la seguridad: Haciendo frente a los riesgos que presenta el uso indebido de la IA civil", reunió a más de 60 partes interesadas diversas del mundo académico, la sociedad civil, la industria y las organizaciones internacionales.
Discurso de apertura:
La Sra. Marketa Homolkova, Jefa de la Sección Política de Desarme y No Proliferación de la Delegación de la UE en Ginebra, y la Sra. Radha Day, Jefa de la Subdivisión de Desarme Regional, Información y Divulgación de la UNODA, inauguraron el acto. La Sra. Homolkova habló del apoyo de la UE a los proyectos de desarme, señalando la necesidad de adaptar los esfuerzos de control de armas a las tecnologías emergentes y a la creciente amenaza del uso indebido de la IA en áreas como las armas químicas y biológicas. La Sra. Day hizo hincapié en que la IA es un "área candente" en los debates sobre desarme, señalando la necesidad de un compromiso multilateral y de conocimientos especializados para hacer frente a los retos que la IA plantea para la paz y la seguridad internacionales.
Debate principal:
El panel exploró tres cuestiones centrales planteadas por el moderador, el Sr. Charles Ovink, Oficial de Asuntos Políticos de la UNODA: el impacto de la IA civil en la paz y la seguridad internacionales, los actuales esfuerzos de gobernanza y las formas de reforzar las conexiones entre las estructuras de gobernanza.

El Sr. Vincent Boulanin, Director del Programa de Gobernanza de la IA del SIPRI, esbozó tres categorías de riesgos: los riesgos accidentales derivados de fallos en el diseño de la IA, los riesgos políticos derivados del uso indebido de la IA y los riesgos físicos, incluidos los derivados de su integración en la robótica militar. Destacó la Ley de Inteligencia Artificial de la UE y la Ley de Transparencia de la IA de California como ejemplos de importantes avances normativos recientes. El Sr. Boulanin también mencionó el Órgano Asesor de Alto Nivel sobre IA del Secretario General de la ONU como un avance fundamental para supervisar el impacto de las aplicaciones civiles de la IA, incluso para la paz y la seguridad internacionales.
Procedente del sector privado, el Sr. Chris Meserole, Director Ejecutivo del Frontier Model Forum, habló de las lecciones aprendidas de anteriores avances tecnológicos y subrayó que las empresas están preparadas para participar en prácticas responsables de IA. Destacó la reciente colaboración del gobierno estadounidense con las principales empresas de IA para promover principios de seguridad, protección y confianza en el desarrollo de la IA. Este compromiso, según el Sr. Meserole, ilustra el reconocimiento por parte de la industria de la necesidad de establecer límites normativos para garantizar un avance seguro de la IA.
La Sra. Julia Stoyanovich, profesora asociada de la Tandon School of Engineering & Center for Data Science de la Universidad de Nueva York, abordó los retos de la seguridad de la IA automatizada. Defendió la importancia de una conversación intersectorial para establecer valores compartidos en el desarrollo de la IA. Stoyanovich señaló que la responsabilidad de la educación en IA recae tanto en los desarrolladores como en los responsables políticos y que un diálogo equilibrado es esencial para garantizar la seguridad y las consideraciones éticas en los sistemas de IA.
Kerstin Vignard, analista principal del Laboratorio de Física Aplicada de la Universidad Johns Hopkins, criticó la noción de que la "innovación" es inherentemente frágil o beneficiosa, e instó a que el desarrollo de la IA se guíe por normas reguladoras sólidas y a que la innovación se alinee con un conjunto común de valores éticos, especialmente en las aplicaciones militares. Vignard señaló que muchos investigadores desconocen el interés de la gobernanza en la cooperación y subrayó la necesidad de que los responsables políticos comuniquen eficazmente los retos de la IA.
Temas y resultados clave:
En respuesta a las preguntas sobre la mejora de la colaboración entre las partes interesadas, los panelistas coincidieron en la necesidad de una supervisión reglamentaria y de un enfoque multidireccional de la alfabetización en IA. La Sra. Stoyanovich subrayó la importancia de la educación y de una perspectiva de futuro sobre los impactos de la IA, mientras que el Sr. Meserole hizo hincapié en que la alfabetización normativa debe ser entendida mutuamente tanto por la comunidad de la IA como por los usuarios finales. La Sra. Vignard subrayó la importancia de atraer a expertos técnicos para apoyar los esfuerzos políticos y comunicar las complejidades de la IA a nivel internacional.
El acto concluyó con un llamamiento al diálogo continuo y a la cooperación entre las partes interesadas para garantizar que la innovación en IA apoye la paz y la seguridad, reforzando el compromiso de la ONU con una gobernanza responsable de la IA.
Este acto paralelo formaba parte del proyecto Promoción de la innovación responsable en inteligencia artificial para la paz y la seguridad, que ha sido posible gracias a la generosa financiación de la Unión Europea. Para más información, póngase en contacto con el Sr. Charles Ovink, Oficial de Asuntos Políticos, en charles.ovink@un.org
Convocatoria de estudiantes: taller educativo sobre IA responsable para la paz y la seguridad
La Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA) y el Stockholm
Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI) ofrecen a un grupo seleccionado de
la oportunidad de participar en un taller educativo de 2 días sobre IA responsable para la paz
y la seguridad.
■ Cuándo y dónde 20-21 de noviembre de 2024, VUB AI Experience Centre, Bruselas
■ Quién puede solicitarlo Estudiantes de doctorado y estudiantes de máster en IA, robótica y disciplinas relacionadas en ciencia, tecnología, ingeniería y matemáticas (por ejemplo, informática, ciencia de datos, ingeniería mecánica) afiliados a universidades de Europa, África, América Central y del Sur, Oriente Medio, Oceanía y Asia.
■ Cómo: Los gastos de viaje y alojamiento de los estudiantes no locales serán cubiertos por la iniciativa Promover la innovación responsable en IA para la paz y la seguridad
Al igual que ocurre con las repercusiones de la inteligencia artificial (IA) en la vida cotidiana de las personas, las repercusiones para la paz y la seguridad internacionales incluyen oportunidades y retos amplios y significativos. La IA puede ayudar a alcanzar los Objetivos de Desarrollo Sostenible de la ONU, pero su naturaleza de doble uso significa que las aplicaciones pacíficas también pueden utilizarse indebidamente con fines perjudiciales como la desinformación política, los ciberataques, el terrorismo o las operaciones militares. Mientras tanto, quienes investigan y desarrollan la IA en el sector civil siguen siendo con demasiada frecuencia inconscientes de los riesgos que el uso indebido de la tecnología de IA civil puede suponer para la paz y la seguridad internacionales e inseguros sobre el papel que pueden desempeñar para hacerles frente.
En este contexto, la UNODA y el SIPRI lanzaron, en 2023, una iniciativa educativa de tres años sobre la Promoción de la Innovación Responsable en IA para la Paz y la Seguridad. La iniciativa, que cuenta con el apoyo del Consejo de la Unión Europea, pretende apoyar un mayor compromiso de la comunidad civil de la IA para mitigar las consecuencias no deseadas de la investigación y la innovación en IA civil para la paz y la seguridad.
Como parte de esa iniciativa, el SIPRI y la UNODA están organizando una serie de talleres de desarrollo de capacidades para estudiantes de STEM (a nivel de doctorado y máster). Estos talleres pretenden ofrecer a los profesionales prometedores de la IA la oportunidad de trabajar juntos y con expertos para aprender sobre a) cómo la investigación y la innovación pacíficas en IA pueden generar riesgos para la paz y la seguridad internacionales; b) cómo podrían ayudar a prevenir o mitigar esos riesgos mediante una investigación y una innovación responsables; c) cómo podrían apoyar la promoción de una IA responsable para la paz y la seguridad.
El cuarto taller de la serie se celebrará en Bruselas, Bélgica, los días 20 y 21 de noviembre de 2024, en colaboración con el centro AI Experience de la VUB.
El taller está abierto a estudiantes afiliados a universidades de Europa, América Central y del Sur, Oriente Medio y África, Oceanía y Asia.
Se invita a los estudiantes interesados a enviar su interés a través de este formulario en línea:
https://forms.office.com/e/Wb1t8bEE6F
El SIPRI y la UNODA seleccionarán a los participantes en función de su motivación, así como teniendo en cuenta la diversidad (incluida la representación geográfica, el equilibrio de género, el enfoque disciplinario y las aspiraciones profesionales). Tenga en cuenta que el conocimiento previo de la ética de la IA o de la paz y la seguridad internacionales no es un requisito, y no se asignará ningún trabajo fuera del taller. La iniciativa cubrirá los gastos de viaje y proporcionará alojamiento a los estudiantes que tengan que desplazarse a Bruselas.
Todos los participantes que completen con éxito los talleres recibirán un certificado de participación de las Naciones Unidas.
El taller se organiza en colaboración con el VUB AI Experience Centre, y está financiado por la Unión Europea

Mesa redonda en el Instituto Superior Técnico sobre la innovación responsable para la paz y la seguridad y la educación de los futuros profesionales de la IA
16 de agosto de 2024
La Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA) y el Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI), en colaboración con el Instituto Superior Técnico de la Universidad de Lisboa, organizaron una mesa redonda tras la conclusión de la4ª Conferencia Fundación de la IA fiable: integración del aprendizaje, la optimización y el razonamiento (TAILOR). La mesa redonda tuvo lugar bajo la Regla de Chatham House el 5 de junio de 2024, en el Instituto Superior Técnico de la Universidad de Lisboa en Portugal. La reunión congregó a un grupo diverso que incluía a expertos en IA, educadores especializados en el desarrollo de planes de estudios de IA y representantes de los gobiernos.

Los participantes en la mesa redonda debatieron sobre la integración de las consideraciones relativas a la paz y la seguridad en la formación sobre IA en el Instituto Superior Técnico de la Universidad de Lisboa. Los participantes en la mesa redonda debatieron con el personal del proyecto la integración de las consideraciones relativas a la paz y la seguridad en la formación en materia de IA. Los debates se centraron en la integración de las consideraciones sobre los riesgos para la paz y la seguridad en la formación de los futuros profesionales de la IA. Los participantes exploraron estrategias para integrar la ética de la IA y los principios de innovación responsable en los marcos educativos, al tiempo que abordaron los retos de gobernanza relacionados con la prevención del uso indebido de las tecnologías civiles de IA.
La mesa redonda subrayó el papel fundamental de la colaboración y el diálogo en la conformación de prácticas responsables de IA, destacando el compromiso de las partes interesadas con el avance de las normas éticas en el desarrollo de la IA.
Esté atento a más actualizaciones sobre las iniciativas que impulsan el futuro de la educación y la gobernanza de la IA. Si desea más información sobre las actividades de Innovación Responsable e IA de la Oficina de Asuntos de Desarme, póngase en contacto con el Sr. Charles Ovink, Oficial de Asuntos Políticos, en charles.ovink@un.org
Capacitación de jóvenes profesionales de la IA en el Taller sobre Paz y Seguridad de Lisboa
16 de agosto de 2024
Como parte de los esfuerzos internacionales para fomentar el desarrollo responsable de la inteligencia artificial (IA), la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA) y el Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI) organizaron un taller de capacitación sobre IA responsable para la paz y la seguridad, del 6 al 7 de junio de 2024, en Lisboa, Portugal. Este evento marcó un hito en un proyecto en curso destinado a abordar los riesgos que plantean la investigación y la innovación en IA civil para la paz y la seguridad internacionales.

El taller, realizado con la ayuda del Instituto Superior Técnico de la Universidad de Lisboa, reunió en Lisboa a un selecto grupo de jóvenes profesionales de la IA de todo el mundo en un taller de dos días de duración para el desarrollo de capacidades.
El taller, el tercero de una serie prevista de cuatro organizados por la UNODA y el SIPRI, tenía como objetivo dotar a los jóvenes profesionales de la IA de los conocimientos y habilidades necesarios para hacer frente a los riesgos que la investigación y la innovación en IA civil pueden plantear para la paz y la seguridad internacionales. A lo largo de dos días, los participantes se involucraron en sesiones interactivas diseñadas para mejorar su comprensión de los riesgos potenciales que la investigación y la innovación en IA civil plantean para la paz y la seguridad internacionales. Los métodos para prevenir o mitigar estos riesgos mediante la investigación y la innovación responsables, y cómo contribuir a la promoción de una IA responsable para la paz y la seguridad, fueron importantes temas de debate.
El taller proporcionó a los participantes una mayor exposición a las prácticas de IA responsable a través de debates y sesiones interactivas, incluido un ejercicio de trabajo en equipos rojos y azules. Además de ofrecer a los participantes la oportunidad de realizar sus propias evaluaciones de riesgos, cuestionar ideas y comprometerse de forma creativa, los participantes en el taller también exploraron las implicaciones para la paz y la seguridad del posible uso indebido de la IA civil y el panorama de la gobernanza internacional.
El acto reunió a 18 participantes de 11 países, entre ellos Alemania, Brasil, China, Francia, India, Italia, México, Portugal, la República de Corea, Siria y Vietnam. El grupo, compuesto por ocho mujeres y diez hombres, representaba una cohorte diversa e inclusiva.
Este taller forma parte de una iniciativa financiada por la UE cuyo objetivo es Promover la innovación responsable en la IA para la paz y la seguridad. Esta iniciativa forma parte de un esfuerzo más amplio para implicar a los estudiantes de Ciencia, Tecnología, Ingeniería y Matemáticas (STEM) y ofrecerles oportunidades de capacitación en persona. El objetivo es presentarles los riesgos para la paz y la seguridad que plantea el desarrollo de la IA civil y cómo pueden identificarse, prevenirse o mitigarse estos riesgos mediante procesos responsables de investigación y gobernanza.
El próximo y último taller contará con sesiones centradas en educadores, desarrolladores de planes de estudios, la industria de la IA y otras partes interesadas.
Para más información sobre las actividades de Innovación Responsable e IA de la Oficina de Asuntos de Desarme, póngase en contacto con el Sr. Charles Ovink, Oficial de Asuntos Políticos, en charles.ovink@un.org
Diálogo público entre múltiples partes interesadas: Abordar el riesgo de uso indebido: ¿qué puede aprender la comunidad de la IA de la industria biotecnológica?
29 de mayo de 2024
Nuestro reciente acto público ahondó en el fascinante solapamiento entre la Inteligencia Artificial y la Biotecnología. Reunimos a destacados expertos, como Eleonore Pauwels, Rik Bleijs y Clarissa Rios, para diseccionar la convergencia de estos campos y los riesgos que conlleva. A través de interesantes debates, exploramos estrategias para la innovación responsable y la mitigación de riesgos.
La próxima generación de profesionales de la IA de todo el mundo se reúne en Estonia para aprender sobre la innovación responsable de la IA para la paz y la seguridad
Marzo de 2024
Los días 14 y 15 de febrero, un selecto grupo de jóvenes profesionales de la Inteligencia Artificial (IA) de todo el mundo se reunió en Tallin para participar en un taller de capacitación de dos días sobre la IA responsable para la paz y la seguridad, organizado por la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA) y el Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI), en colaboración con la Universidad Tecnológica de Tallin.

El taller -el segundo de una serie de cuatro- tenía como objetivo ofrecer a los jóvenes profesionales de la IA la oportunidad de aprender a abordar los riesgos que la investigación y la innovación en IA civil pueden plantear para la paz y la seguridad internacionales. A lo largo de dos días, los jóvenes participantes de diversas procedencias se involucraron en actividades interactivas destinadas a aumentar su comprensión de (a) cómo la investigación y la innovación en IA civil pueden plantear riesgos para la paz y la seguridad internacionales; (b) cómo podrían ayudar a prevenir o mitigar esos riesgos mediante la investigación y la innovación responsables; y (c) cómo podrían contribuir a la promoción de una IA responsable para la paz y la seguridad.
A través de seminarios interactivos, encuestas en directo y ejercicios de "red-teaming" y "blue-teaming" basados en escenarios, el taller proporcionó a los participantes una base en el campo de la IA responsable, las dimensiones particulares de paz y seguridad del uso indebido de la IA civil, el entorno de gobernanza internacional y la oportunidad de trabajar en sus propias evaluaciones de riesgos, cuestionar ideas y comprometerse de forma creativa.
El acto reunió a 18 participantes de 13 países: China, Egipto, Estonia, Grecia, India, Indonesia, Irán, Italia, Lituania, Filipinas, Rumanía, Singapur y Turquía.

El taller forma parte de una iniciativa financiada por la UE sobre la Promoción de la innovación responsable en IA para la paz y la seguridad, y forma parte de un pilar en curso centrado en el compromiso con diversos conjuntos de estudiantes de Ciencia, Tecnología, Ingeniería y Matemáticas (STEM) y en proporcionar un desarrollo de capacidades en persona para presentarles cómo pueden identificarse, prevenirse o mitigarse los riesgos para la paz y la seguridad que plantea el desvío y el uso indebido del desarrollo civil de la IA por parte de actores irresponsables en el proceso de investigación e innovación o a través de otros procesos de gobernanza.
La exitosa serie de talleres continuará a lo largo de 2024, junto con pilares centrados en educadores y desarrolladores de planes de estudios, así como en la industria de la IA y otros.
Para más información sobre las actividades de Innovación Responsable e IA de la Oficina de Asuntos de Desarme, póngase en contacto con el Sr. Charles Ovink, Oficial de Asuntos Políticos, en charles.ovink@un.org.
Expertos en IA de todo el mundo se conectan para un diálogo multilateral sobre la IA responsable para la paz y la seguridad
25 de septiembre de 2023
Los días 13 y 14 de septiembre, la Oficina de Asuntos de Desarme de las Naciones Unidas y sus socios del Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI) reunieron durante dos días de debate a 15 expertos en inteligencia artificial (IA) procedentes de la industria, el mundo académico, la sociedad civil y la gobernanza. En el transcurso del diálogo entre múltiples partes interesadas, los participantes exploraron las tendencias en la investigación e innovación en IA que pueden generar riesgos para la paz y la seguridad, y estudiaron cómo pueden mitigarse dichos riesgos, entre otras cosas mediante la promoción de prácticas de innovación responsables leer más..
Compromiso del SIPRI y la UNODA con la próxima generación de profesionales de la IA
4 de diciembre de 2023

Del 16 al 17 de noviembre, el Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI) y la Oficina de las Naciones Unidas para Asuntos de Desarme (UNODA) organizaron un taller de capacitación de dos días sobre "IA responsable para la paz y la seguridad" para un selecto grupo de estudiantes de STEM.
El taller -el primero de una serie de cuatro- tenía como objetivo ofrecer a los futuros profesionales de la Inteligencia Artificial (IA) la oportunidad de aprender a abordar los riesgos que la investigación y la innovación en IA civil pueden plantear para la paz y la seguridad internacionales.
El acto, celebrado en Malmö en colaboración con la Universidad de Malmö y la Universidad de Umeå, contó con 24 participantes de 17 países, entre ellos Alemania, Australia, Bangladesh, China, Ecuador, Estados Unidos, Francia, Finlandia, Grecia, India, México, Países Bajos, Reino Unido, Singapur y Suecia.
A lo largo de dos días, los participantes se involucraron en actividades interactivas destinadas a aumentar su comprensión sobre(a) cómo la investigación y la innovación en IA con fines pacíficos pueden plantear riesgos para la paz y la seguridad internacionales;(b) cómo podrían ayudar a prevenir o mitigar esos riesgos mediante la investigación y la innovación responsables; y(c) cómo podrían contribuir a la promoción de una IA responsable para la paz y la seguridad.
El acto contó con la participación de profesores de la Universidad de Umeå y de la Universidad de Malmö.
La serie de talleres, que continuará en 2024, forma parte de una iniciativa financiada por la Unión Europea sobre "Innovación responsable en IA para la paz y la seguridad", llevada a cabo conjuntamente por el SIPRI y la UNODA.
La próxima iteración del taller se celebrará del 14 al 15 de febrero de 2024, en Tallin, Estonia, en colaboración con la Universidad Tecnológica de Tallin.
Financiación
Este programa ha sido posible gracias al generoso apoyo de la Unión Europea
