Los sistemas de IA se entienden como sistemas que tienen la capacidad de procesar automáticamente datos e información de una manera que se asemeja al comportamiento humano inteligente y, por lo general, incluyen aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control. (Imagen: Fuente externa).

Sin embargo, junto con múltiples ventajas, estas tecnologías también generan riesgos y desafíos a la baja, derivados del uso malicioso de la tecnología o de la profundización de las desigualdades y divisiones.

Nueva York, EEUU — La inteligencia artificial tiene impactos positivos y negativos profundos y dinámicos en las sociedades, el medio ambiente, los ecosistemas y las vidas humanas, incluida la mente humana, en parte debido a las formas en que su uso influye en el pensamiento humano, la interacción y la toma de decisiones.

Puede ser una fuerza positiva para abordar los problemas más urgentes del mundo y utilizarse para acelerar el progreso hacia el logro de los Objetivos de Desarrollo Sostenible y la Agenda Común del Secretario General.

Sin embargo, junto con múltiples ventajas, estas tecnologías también generan riesgos y desafíos a la baja, derivados del uso malicioso de la tecnología o de la profundización de las desigualdades y divisiones.

Para garantizar que el sistema de las Naciones Unidas utilice la IA para el mayor interés de las personas a las que sirve, para beneficiar a la humanidad y al planeta, se han desarrollado Principios para el uso ético de la inteligencia artificial en el Sistema de las Naciones Unidas para guiar el diseño, el desarrollo y la implementación. y uso de la IA.

Basados ​​en la recomendación Ética de la IA de la UNESCO , los principios proporcionan una base para un marco para el uso ético de la inteligencia artificial (IA) por parte de las organizaciones del sistema de las Naciones Unidas en todas las etapas del ciclo de vida de un sistema de IA: desde la investigación, el diseño y el desarrollo hasta la adquisición, despliegue y uso, incluido el mantenimiento, la operación, el comercio, la financiación, el seguimiento y la evaluación, la validación, el final del uso, el desmontaje y la terminación.

Deben leerse junto con las políticas, los principios o la orientación pertinentes desarrollados para las entidades del sistema de las Naciones Unidas, en particular: la Política de diligencia debida en materia de derechos humanos de las Naciones Unidas, los Principios de privacidad y protección de datos personales de las Naciones Unidas y la Guía operativa del IASC sobre la responsabilidad de los datos en la acción humanitaria .

Los sistemas de IA se entienden como sistemas que tienen la capacidad de procesar automáticamente datos e información de una manera que se asemeja al comportamiento humano inteligente y, por lo general, incluyen aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control. Un “enfoque ético” del uso de la inteligencia artificial (“ética de la IA”) se define como aquel que:

  • sea ​​coherente con la Carta de las Naciones Unidas, respetando todas las normas aplicables del derecho internacional de los derechos humanos, incluido el derecho a la privacidad, así como con los principios identificados a continuación, y
  • eso implica la evaluación de dicha consistencia en todas las etapas del ciclo de vida de la IA.

Los principios desarrollados por el Grupo de Trabajo Interinstitucional sobre IA del HLCP tienen como objetivo proporcionar una base para que las organizaciones del sistema de las Naciones Unidas tomen decisiones sobre cómo desarrollar, diseñar, implementar y utilizar sistemas de IA, incluidos múltiples sistemas de IA que interactúan, de una manera que sea confiable y pone en el centro la dignidad humana, la igualdad de todos los seres humanos, la preservación del medio ambiente, la biodiversidad y los ecosistemas, el respeto por la diversidad cultural y la responsabilidad de los datos.

10 Principios para el Uso Ético de la Inteligencia Artificial

Cada entidad del sistema de las Naciones Unidas debe aplicar los Principios para el uso ético de la inteligencia artificial en el sistema de las Naciones Unidas , que son complementarios y se refuerzan mutuamente, de conformidad con los valores, propósitos y principios de la Carta de las Naciones Unidas y sus respectivos mandatos individuales, instrumentos rectores, normas, reglamentos y procedimientos, y sin perjuicio de las prerrogativas e inmunidades de las organizaciones pertinentes del sistema de las Naciones Unidas.

1. No hagas daño

Los sistemas de IA no deben usarse de manera que causen o exacerben daños, ya sean individuales o colectivos, incluidos los daños a los entornos sociales, culturales, económicos, naturales y políticos. Todas las etapas del ciclo de vida de un sistema de IA deben operar de acuerdo con los propósitos, principios y compromisos de la Carta de las Naciones Unidas.

Todas las etapas del ciclo de vida de un sistema de IA deben diseñarse, desarrollarse, implementarse y operarse de manera que respeten, protejan y promuevan los derechos humanos y las libertades fundamentales. El impacto intencionado y no intencionado de los sistemas de IA, en cualquier etapa de su ciclo de vida, debe monitorearse para evitar causar o contribuir al daño, incluidas las violaciones de los derechos humanos y las libertades fundamentales.

2. Finalidad definida, necesidad y proporcionalidad

El uso de sistemas de IA, incluidos los métodos de IA específicos empleados, debe estar justificado, ser apropiado en el contexto y no exceder de lo necesario y proporcionado para lograr objetivos legítimos que estén de acuerdo con los mandatos de cada organización del sistema de las Naciones Unidas y sus respectivos instrumentos rectores, normas, reglamentos y procedimientos.

3. Seguridad y protección

Los riesgos de seguridad y protección deben identificarse, abordarse y mitigarse a lo largo del ciclo de vida del sistema de IA para prevenir, cuando sea posible, y/o limitar, cualquier daño potencial o real a los seres humanos, el medio ambiente y los ecosistemas. Los sistemas de IA seguros y protegidos deben habilitarse a través de marcos sólidos. Estos pueden incluir, por ejemplo, el desarrollo o la mejora de a) marcos de acceso a datos sostenibles y protegidos de la privacidad, b) salvaguardas adecuadas contra el avance de funciones, y c) capacitación, validación y mantenimiento justos e inclusivos de modelos de IA que utilizan datos de calidad.

4. Equidad y no discriminación

Las organizaciones del sistema de las Naciones Unidas deben aspirar a promover la equidad para garantizar la distribución equitativa y justa de los beneficios, los riesgos y los costos, y evitar los prejuicios, la discriminación y la estigmatización de cualquier tipo, de conformidad con el derecho internacional. Los sistemas de IA no deben dar lugar a que las personas sean engañadas o menoscabadas injustificadamente en sus derechos humanos y libertades fundamentales.

5. Sostenibilidad

Cualquier uso de la IA debe tener como objetivo promover la sostenibilidad ambiental, económica y social. Con este fin, los impactos humanos, sociales, culturales, políticos, económicos y ambientales de las tecnologías de IA deben evaluarse continuamente y deben tomarse medidas adecuadas de mitigación y/o prevención para abordar los impactos adversos, incluso en las generaciones futuras.

6. Derecho a la privacidad, protección de datos y gobierno de datos

La privacidad de las personas y sus derechos como interesados ​​deben respetarse, protegerse y promoverse durante todo el ciclo de vida de los sistemas de IA. Al considerar el uso de sistemas de IA, se deben establecer o mejorar marcos de protección de datos y mecanismos de gobernanza de datos adecuados de acuerdo con los Principios de privacidad y protección de datos personales de las Naciones Unidas también para garantizar la integridad de los datos utilizados.

7. Autonomía humana y control

Las organizaciones del sistema de las Naciones Unidas deben asegurarse de que los sistemas de IA no anulen la libertad y la autonomía de los seres humanos y deben garantizar la supervisión humana. Todas las etapas del ciclo de vida del sistema de IA deben seguir e incorporar prácticas de diseño centradas en el ser humano y dejar una oportunidad significativa para la toma de decisiones humana. La supervisión humana debe garantizar la capacidad humana para supervisar la actividad general del sistema de IA y la capacidad de decidir cuándo y cómo usar el sistema en cualquier situación particular, incluso si se debe usar un sistema de IA y la capacidad de anular una decisión tomada por un sistema. . Como regla general, las decisiones de vida o muerte u otras decisiones que afecten los derechos humanos fundamentales de las personas no deben cederse a los sistemas de IA, ya que estas decisiones requieren la intervención humana.

8. Transparencia y explicabilidad

Las organizaciones del sistema de las Naciones Unidas deben garantizar la transparencia y la explicabilidad de los sistemas de IA que utilizan en todas las etapas de su ciclo de vida y de los procesos de toma de decisiones relacionados con los sistemas de IA. La explicabilidad técnica requiere que los seres humanos puedan entender y rastrear las decisiones tomadas por un sistema de IA. Las personas deben estar significativamente informadas cuando una decisión que puede o afectará sus derechos, libertades fundamentales, derechos, servicios o beneficios, se basa en algoritmos de IA o se basa en ellos, y deben tener acceso a los motivos de una decisión y la lógica involucrada. La información y las razones de una decisión deben presentarse de manera comprensible para ellos.

9. Responsabilidad y rendición de cuentas

Las organizaciones del sistema de las Naciones Unidas deben contar con mecanismos apropiados de supervisión, evaluación del impacto, auditoría y diligencia debida, incluida la protección de los denunciantes, para garantizar la rendición de cuentas por los impactos del uso de los sistemas de IA a lo largo de su ciclo de vida.

Deben establecerse o mejorarse estructuras de gobernanza adecuadas que atribuyan la responsabilidad ética y legal y la rendición de cuentas de las decisiones basadas en la IA a seres humanos o entidades jurídicas, en cualquier etapa del ciclo de vida del sistema de IA. Los daños causados ​​por y/o a través de los sistemas de IA deben investigarse y tomarse las medidas apropiadas en respuesta. Los mecanismos de rendición de cuentas deben difundirse ampliamente en todo el sistema de las Naciones Unidas a fin de crear recursos y capacidades de conocimientos compartidos.

10. Inclusión y participación

Al diseñar, implementar y utilizar sistemas de inteligencia artificial, las organizaciones del sistema de las Naciones Unidas deben adoptar un enfoque inclusivo, interdisciplinario y participativo que promueva la igualdad de género. Deben realizar consultas significativas con todas las partes interesadas relevantes y las comunidades afectadas, en el proceso de definir el propósito del sistema de IA, identificar los supuestos subyacentes, determinar los beneficios, riesgos, daños e impactos adversos, y adoptar medidas de prevención y mitigación.