7 enero 2025

La adopción generalizada de plataformas de inteligencia artificial (IA) generativa como ChatGPT y DALL-E tras la pandemia de COVID-19 ha transformado muchas facetas de nuestra vida digital. Mediante el uso de la generación de lenguaje natural (NLG) y los grandes modelos de lenguaje (LLM), la IA generativa se ha convertido en una herramienta de productividad eficiente para crear una amplia gama de contenido (desde artículos hasta elementos visuales, informes, videos y voces en off) sin instrucciones explícitas. Al igual que sazonar un plato con sal, la IA mejora el rendimiento, pero requiere un control meticuloso.

Sin duda, la aparición de la IA generativa ha aumentado la producción, la eficacia y la creatividad, pero también conlleva riesgos importantes, especialmente en lo que respecta a la integridad de la información y los derechos humanos, ya que los sistemas de IA se están incorporando cada vez más a las plataformas digitales.

Los riesgos que plantea la IA generativa a la integridad de la información

El contenido generado o mediado por IA puede ser muy creíble, difícil de detectar, además de propagarse rápidamente. Cuando dicho contenido transmite información falsa o enga?osa, puede profundizar los déficits de confianza.

Las herramientas de IA se utilizan ampliamente no solo por la mayor calidad de sus resultados, sino también por sus interfaces más fáciles de usar y su mayor accesibilidad. Estos factores pueden producir resultados tanto favorables como desfavorables. Por el lado positivo, los avances en IA brindan mayor eficiencia, conveniencia y un cierto grado de democracia. Por otro lado, es importante entender que los LLM no están destinados a comunicar la verdad. En cambio, sin garantizar la precisión o la información fáctica, brindan afirmaciones probables basadas en patrones en los datos con cuales están entrenados. Debido a que muchos usuarios ignoran este aspecto de los LLM, tienen la capacidad de mezclar , tratando ambas de manera idéntica, lo que compromete la integridad de la información.

La sociedad suele seguir las tendencias sin cuestionarlas, lo que permite que valores esenciales como los derechos humanos sean relegados al segundo plano.

Además, las plataformas digitales y la inteligencia artificial generativa son una combinación maravillosa para difundir información falsa y enga?osa, ya que los algoritmos de la mayoría de las plataformas digitales priorizan el contenido con mayor interacción del usuario por sobre la precisión de este. El mayor uso de material generado por IA como arma para distorsionar los hechos podría conducir a una propagación más rápida de información falsa. Aunque las tecnologías de verificación de datos han avanzado, las plataformas digitales y los algoritmos de IA aún carecen de mecanismos confiables para confirmar la legitimidad del material de manera regular. Además, las diferentes plataformas y jurisdicciones tienen , lo que significa que incluso cuando se encuentra material inexacto, puede llevar horas o días rectificarlo.

Si el proceso de verificación de datos de material digital continúa funcionando de esta manera, la difusión de información errónea y desinformación podría aumentar, lo que generaría más inquietudes sobre la autenticidad, el sesgo, la privacidad de la información y más. La difusión de esa información también pone en peligro las instituciones democráticas y los derechos humanos fundamentales.

Hay que ser humano para entender los derechos humanos

El artículo 19 de la Declaración Universal de Derechos Humanos establece que “toda persona tiene derecho a la libertad de opinión y de expresión”. Pero esa libertad no debe ser objeto de abuso ni de distorsión para perjudicar a otras personas o comunidades. Lamentablemente, el contenido generado por inteligencia artificial se ha utilizado cada vez más para difundir discursos de odio, xenofobia y retórica discriminatoria dirigidos contra poblaciones vulnerables, como y las minorías étnicas.

Un estudio de 2019 realizado por Deeptrace, una empresa de ciberseguridad con sede en ?msterdam, reveló que . Además, , dirigido especialmente a mujeres y ni?os para atraerlos a la explotación.

También existen desafíos en materia de derechos humanos desde el punto de vista tecnológico. Los algoritmos de aprendizaje de la IA se basan principalmente en enormes cantidades de datos recopilados de extensas plataformas digitales y de redes sociales, que son cargados por humanos o generados a través de interacciones humanas. Dado el gran volumen de datos acumulados, es casi imposible para los humanos repasar minuciosamente o incluso echar un vistazo a cada pieza de información. Los modelos de IA utilizan estos datos para identificar tendencias, generar pronósticos y crear contenido sintético, pero . Esta falta de sofisticación en los modelos de IA podría conducir a la difusión de sesgos perjudiciales e información directamente enga?osa que podría violar los derechos humanos.

Otra fuente potencial de violaciones de los derechos humanos es el entorno laboral del personal encargado del mantenimiento y el entrenamiento de los sistemas de inteligencia artificial. A menudo, están mal pagados y expuestos a contenidos perturbadores, y trabajan en condiciones que pueden provocar angustia psicológica, un problema que ha empezado a llamar la atención recientemente. , más de 150 trabajadores de los sistemas de inteligencia artificial de Facebook, TikTok y ChatGPT se reunieron en Nairobi y se comprometieron a establecer el primer Sindicato Africano de Moderadores de Contenido.

La sociedad suele seguir las tendencias sin cuestionarlas, lo que permite que valores esenciales como los derechos humanos sean relegados al segundo plano. Podríamos ser especialmente vulnerables en el caso de la IA, ya que se está arraigando cada vez más en nuestra vida diaria. Esta rápida expansión de las plataformas de IA generativa pone de relieve los desafíos éticos, en particular en lo que respecta a los derechos humanos. Actualmente, la debilidad de las políticas hace vulnerables la privacidad y la autonomía de las personas, permitiendo a las empresas tecnológicas explotar los espacios digitales con fines de generar ganancias.  

A medida que la sociedad se vuelve más dependiente de las plataformas y servicios digitales, abordar estas preocupaciones, en particular las relacionadas con los derechos humanos, se vuelve cada vez más urgente.

Somos humanos después de todo.

El camino que queda por delante es, sin duda, largo y difícil, y, a medida que la IA sigue evolucionando, es fundamental adoptar un enfoque responsable que alinee la innovación tecnológica con la preservación de la verdad, la dignidad y los derechos humanos. Es imprescindible adoptar un enfoque multifacético para mitigar los riesgos que plantea la IA generativa.

Los propietarios de plataformas digitales deberían rendir cuentas por el contenido que comparten, en particular en el contexto de la desinformación amplificada por la IA.

Desde un punto de vista técnico, para que el contenido de IA sea preciso y confiable, los desarrolladores deben comenzar con pruebas exhaustivas para detectar sesgos, errores y vulnerabilidades en la etapa de desarrollo. La transparencia en relación con los datos, los algoritmos y la toma de decisiones es esencial para generar confianza y abordar el impacto de la IA en la integridad de la información, ya que el uso de conjuntos de datos diversos ayuda a evitar sesgos perjudiciales y conduce a un contenido más equilibrado. Como se recomienda en los Principios Globales de las Naciones Unidas para la Integridad de la Información, las empresas tecnológicas deben dar a los usuarios la posibilidad de hacer aportaciones y comentarios sobre todos los aspectos relacionados con la confianza y la seguridad, la política de privacidad y el uso de los datos, reconociendo los derechos de privacidad de los usuarios. Se deben mejorar las opciones y el control de los usuarios, junto con la compatibilidad con una variedad de servicios de diversos proveedores.

En lo que respecta a los derechos humanos, las autoridades jurídicas y los grupos de derechos humanos deben apoyar activamente el desarrollo y el uso de la IA de una manera que respete la privacidad y la dignidad individuales. Como parte de esta labor, debería aplicarse una normativa de protección de datos más estricta para proteger a las personas de la recopilación intrusiva de datos e impedir que los sistemas de IA utilicen datos personales para sus propios fines sin permiso. Los organismos de control de los derechos humanos deben incorporar la ética de la IA en los marcos de derechos humanos existentes, al tiempo que garantizan que las aplicaciones de IA respeten los derechos individuales, como la privacidad, la libertad de expresión y el derecho a la no discriminación. Las protecciones especiales son cruciales para los grupos vulnerables, incluidas las mujeres, los ni?os, los adultos mayores, las personas con discapacidad, los pueblos indígenas, los refugiados, las personas LGBTIQ+ y las minorías étnicas o religiosas.

Los propietarios de plataformas digitales deberían rendir cuentas por el contenido que comparten, en particular en el contexto de la desinformación amplificada por la IA. Se deberían desarrollar sistemas de monitoreo de contenido más avanzados que puedan identificar y eliminar o etiquetar rápidamente la desinformación generada por la IA. Las plataformas digitales también podrían garantizar que las personas comprendan cómo se elige y promueve el contenido siendo más transparentes sobre sus algoritmos y prácticas de recopilación de datos.

Juntos podemos garantizar que la IA generativa se utilice de forma adecuada en el futuro y que sus beneficios se obtengan sin poner en peligro la integridad de la información y los derechos humanos. El llamamiento a favor de prácticas de IA responsables no es solo una mera alternativa, sino una necesidad para garantizar un futuro digital justo y equitativo.

 

Este artículo se ha publicado con la ayuda de traducción automática; se han hecho esfuerzos razonables para garantizar su precisión. Las Naciones Unidas no se responsabilizan de las traducciones incorrectas o inexactas ni de otros problemas que puedan derivarse de la traducción automática. Si surgen preguntas relacionadas con la exactitud de la información contenida en esta traducción, consulte la versión original del artículo en inglés.

?

La Crónica?ONU??no?constituye un registro oficial. Tiene el privilegio de acoger a los altos funcionarios de las Naciones Unidas, así como a distinguidos colaboradores de fuera del sistema de las Naciones Unidas cuyas opiniones no son necesariamente las de las Naciones Unidas. Del mismo modo, las fronteras y los nombres que se muestran y las designaciones utilizadas en los mapas o en los artículos no implican necesariamente un apoyo o una aceptación por parte de las Naciones Unidas.?