Tres retos de la IA para entidades sociales
Temática:
- Transformación digital
Anteriormente hemos hablado sobre las oportunidades y herramientas de Inteligencia Artificial (IA) que pueden facilitar el día a día en el trabajo de comunicación de una entidad social.
Sin embargo, como toda nueva tecnología, la IA no está exenta de riesgos y desafíos que es necesario abordar para asegurarnos de que se convierta en una aliada real y no en un obstáculo, especialmente cuando trabajamos en la defensa de los derechos humanos.
En este artículo, analizaremos tres de esos retos enfocados en la comunicación de entidades sociales:
1. El sesgo en la IA: un desafío ético
La inteligencia artificial tiene un enorme potencial para optimizar procesos, especialmente en la creación de contenidos. Sin embargo, también encierra un riesgo significativo para la diversidad: el sesgo. Al fin y al cabo, la IA se alimenta de contenido preexistente, lo que a menudo significa que perpetúa las desigualdades, prejuicios y exclusiones que ya existen en nuestra sociedad.
Un ejemplo claro de este fenómeno se observa en la generación de imágenes mediante herramientas como DALL·E. Muchos bancos de imágenes predominan en representaciones de personas blancas, delgadas y sin discapacidades visibles. La IA, al alimentarse de estas bases de datos, tiende a reproducir esos patrones limitados. En 2023, Bloomberg analizó más de 5.000 imágenes generadas por IA y reveló un preocupante sesgo: al representar profesiones, las personas de piel clara, mayoritariamente hombres, ocupaban los puestos mejor remunerados, mientras que las posiciones peor pagadas eran asignadas a personas de piel oscura.
Algo similar ocurre cuando utilizamos la inteligencia artificial para buscar referencias sobre autores, estudios o informes. Es probable que la IA priorice fuentes ampliamente citadas o populares, dejando en segundo plano voces minoritarias que se apartan del discurso dominante. Sin embargo, estas perspectivas alternativas pueden ofrecer una visión valiosa y enriquecedora sobre determinadas problemáticas.
¿Qué podemos hacer?
Realizar siempre una revisión crítica de los resultados. Debemos analizar si realmente reflejan la diversidad que buscamos y cuestionarnos si están incluyendo perspectivas y representaciones que se ajusten a los valores y objetivos de nuestra organización.
Si identificamos que los resultados son limitados o excluyentes, ajustar nuestras solicitudes a la IA para incorporar la diversidad que falta. Por ejemplo, para que incluyan personas de diferentes edades, géneros, razas, tipos de cuerpo o con discapacidades visibles en las imágenes generadas.
Pedirle que priorice puntos de vista alternativos o voces minoritarias al buscar referencias o desarrollar contenidos, garantizando así que nuestra comunicación sea más representativa de la realidad.
2. Falta de emoción en los mensajes
La IA es una herramienta especialmente valiosa para organizar ideas o estructurar contenidos. Si has utilizado herramientas como ChatGPT con este fin, sabrás a qué nos referimos. Sin embargo, cuando se utiliza para crear mensajes, estos pueden carecer de la emocionalidad necesaria para conectar con las audiencias.
Este es un gran desafío en el ámbito social, donde la comunicación no solo busca informar, sino también movilizar, inspirar y fomentar el compromiso de las personas. A esto se suma que cada organización social tiene una voz propia, que a menudo resulta difícil de replicar para una IA.
Este desafío también se extiende al uso de chatbots basados en inteligencia artificial. Si bien tienen la ventaja de proporcionar respuestas rápidas a quienes buscan información, a menudo carecen de la capacidad para ofrecer una atención personalizada o abordar preguntas más complejas que requieren empatía o un enfoque humano.
¿Qué podemos hacer?
Trabajar sobre los mensajes propuestos por la IA, adaptándolos al estilo propio de cada organización. Es importante utilizarlos como una base sobre la que trabajar y darles el toque humano necesario.
Pedirle a la IA que genere los contenidos a partir de una propuesta inicial o ejemplos concretos que reflejen el estilo que buscamos. Por ejemplo, puedes escribir un borrador con el tono adecuado y pedirle a la IA que lo mejore o lo amplíe, en lugar de dejar que genere mensajes en bruto sobre un tema desde cero.
En el caso de los chatbots, es conveniente asegurar que haya una supervisión humana y ofrecer a las personas usuarias la posibilidad de contactar con una persona cuando necesiten información más detallada o atención personalizada.
3. Protección de datos y privacidad
La protección de datos y la privacidad son aspectos fundamentales en el uso de la inteligencia artificial y generan una de las mayores preocupaciones asociadas a estas tecnologías. Herramientas como ChatGPT recogen información al crear una cuenta, interactuar con los servicios ofrecidos o comunicarse con la misma mediante el envío de instrucciones (prompts).
Por ello, ChatGPT ya está siendo objeto de investigación, tanto a nivel nacional como europeo, para asegurar que cumple con el Reglamento General de Protección de Datos (RGPD). En junio de 2023, el Comité Europeo de Protección de Datos publicó un informe sobre este tema con una serie de concusiones preliminares sobre las preocupaciones y desafíos relacionados con el cumplimiento del RGPD.
ChatGPT asegura que, mediante procesos automáticos, filtran y eliminan los datos personales aportados por las personas usuarias. Evita así que dicha información se utilice para entrenar la herramienta o para generar respuestas para otras personas. Sin embargo, siempre queda la incertidumbre sobre la efectividad de estos mecanismos.
Uno de los retos clave radica en determinar qué constituye un dato personal. Mientras que elementos como el nombre o los apellidos claramente se identifican como datos sensibles, otros, como una historia o experiencia personal, pueden no ser reconocidos como tales. Aunque estas historias sean despersonalizadas o anonimizadas, podrían seguir formando parte de la base de datos utilizada para el entrenamiento de la IA o para sugerir respuestas.
La misma precaución aplica a la información interna que compartimos sobre nuestra propia organización. Por este motivo, algunas empresas han optado por prohibir a su personal el uso de herramientas como ChatGPT dentro de su actividad laboral para proteger datos sensibles y estratégicos.
¿Qué podemos hacer?
A falta de conclusiones más claras sobre el cumplimiento de la RGPD por parte de la IA, por el momento es fundamental:
Verificar si la herramienta de IA que utilizamos ofrece funciones para proteger la información aportada. Por ejemplo, en el caso de ChatGPT, desde 2023 existe un "modo incógnito" que permite inhabilitar el uso de los datos compartidos para entrenar al modelo.
Definir a nivel interno unas pautas claras sobre el uso de herramientas de IA. Estas directrices deberían especificar qué tipo de información sobre la organización y su trabajo está permitida compartir y, por el contrario, qué datos deberían quedar completamente restringidos.
Estar al día de las últimas novedades al respecto. A nivel europeo, ya se ha publicado un Reglamento de Inteligencia Artificial. En España es conveniente seguir el trabajo de la Agencia Española de Protección de Datos que ya ha publicado varios artículos en su blog y una guía de “Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial”.
Te recordamos que puedes consultar nuestro post sobre herramientas IA para entidades sociales y nuestro taller “Herramientas IA para la comunicación de las entidades sociales”.