El Alto Comisionado de la ONU para los Derechos Humanos, Volker Türk, advirtió sobre el peligro de que la inteligencia artificial se convierta en un "monstruo de Frankenstein" si no se implementan salvaguardas adecuadas. Durante una cumbre en Nueva Delhi, destacó que el desarrollo superficial de la IA podría profundizar desigualdades y amplificar prejuicios, afectando a grupos vulnerables. Türk instó a gobiernos y empresas a realizar evaluaciones de impacto en derechos humanos y a asegurar un desarrollo inclusivo de la tecnología. También mencionó el riesgo de desinformación y polarización social, enfatizando la necesidad urgente de regulación en este campo.
El Alto Comisionado de la ONU para los Derechos Humanos ha lanzado una advertencia contundente sobre el potencial de la inteligencia artificial (IA) para convertirse en un verdadero «monstruo de Frankenstein». Durante su intervención en la Cumbre sobre el Impacto de la IA, celebrada en Nueva Delhi, Volker Türk subrayó que la falta de comprensión profunda de los principios éticos y sociales por parte de quienes desarrollan esta tecnología puede llevar a consecuencias devastadoras.
«Cuando los desarrolladores tienen un conocimiento muy superficial de los principios fundamentales, me recuerda un poco al monstruo de Frankenstein: desarrollas algo que ya no controlas», afirmó Türk. En este contexto, enfatizó que la ignorancia sobre los peligros y riesgos asociados con la IA puede causar estragos significativos.
El representante de derechos humanos instó a gobiernos y empresas a implementar salvaguardias inmediatas para prevenir que el avance tecnológico profundice las desigualdades existentes, amplifique prejuicios y cause daños en el mundo real.
Türk identificó la inequidad como uno de los problemas más urgentes relacionados con el desarrollo de la IA. Celebró que la cumbre se realizara en India, un país donde es crucial asegurar que estas herramientas sean utilizadas y desarrolladas globalmente. «Si los datos se recogen únicamente desde una parte del mundo o si solo hombres están detrás del desarrollo de la IA, inevitablemente se incorporarán sesgos inconscientes», advirtió.
El Alto Comisionado destacó la importancia de prestar atención a grupos vulnerables y minorías, quienes a menudo son excluidos del proceso de creación y aplicación de tecnologías avanzadas.
Comparando el avance descontrolado de la IA con «dejar salir el genio de la botella», Türk mencionó el caso alarmante de Myanmar, donde las plataformas digitales han exacerbado el discurso de odio contra los rohinyás. Además, alertó sobre cómo la desinformación puede fracturar el tejido social: «Crea sociedades divididas y polarizadas donde cada uno vive en su propia burbuja».
También hizo eco del creciente problema de misoginia en línea: «Muchas mujeres me han expresado su deseo de abandonar la política debido a lo que enfrentan en las redes sociales».
Türk comparó la necesidad urgente de regulación en el ámbito tecnológico con las estrictas normativas que rigen la industria farmacéutica. «En relación con las herramientas de IA, debemos exigir a las empresas realizar una evaluación del impacto sobre derechos humanos al diseñar, lanzar y comercializar sus productos», indicó.
Recordó que algunas compañías tecnológicas poseen presupuestos mayores que muchos países pequeños, lo cual les otorga un poder global significativo. Este poder puede ser utilizado para fines positivos —como salud, educación y desarrollo sostenible— o para propósitos negativos como armas autónomas letales o difusión de desinformación y odio.
Al ser cuestionado sobre cómo podría ser una IA responsable dentro de cinco años, Türk visualizó un futuro caracterizado por un «desarrollo inclusivo», donde el poder no esté concentrado en unas pocas empresas norteamericanas y donde la IA refleje la riqueza y diversidad cultural global.
«Si no presentamos una visión optimista para un mundo mejor», concluyó Türk, podríamos enfrentar una polarización aún mayor y conflictos fuera del control humano, lo cual representa un riesgo considerable.
El principal riesgo identificado es que la inteligencia artificial puede convertirse en un "monstruo de Frankenstein" si quienes la desarrollan no comprenden profundamente los principios éticos y sociales fundamentales, lo que podría causar estragos en el mundo real.
Se deben establecer salvaguardas urgentes por parte de gobiernos y empresas para evitar que la tecnología profundice la desigualdad, amplifique los sesgos y genere daños en el mundo real.
Si los datos solo se recogen de una parte del mundo o si solo hombres desarrollan la IA, se incorporarán sesgos inconscientes. Es crucial prestar atención a grupos vulnerables y minorías que a menudo quedan excluidos del desarrollo de la IA.
Türk compara la necesidad de regulación de la IA con la industria farmacéutica, sugiriendo que las empresas deben realizar una evaluación de impacto sobre derechos humanos al diseñar, lanzar y comercializar herramientas de IA.
Türk imagina un escenario donde el desarrollo de IA sea inclusivo, con poder distribuido más equitativamente y donde se construya sobre la riqueza y diversidad de todas las sociedades, evitando así una mayor polarización y conflictos descontrolados.