Tenemos un “elefante en la oficina”. Una parte importante de los equipos de las Organizaciones sin Fines de Lucro están usando herramientas de inteligencia artificial (IA) para diversas tareas. Sin embargo, la adopción de políticas formales (qué se puede hacer, qué no) es aún muy limitada.
Un poco de contexto
Según el “2024 Nonprofit Communications Trends Report”, de las más de 200 organizaciones encuestadas Solo el 19% de los encuestados indicó que no utiliza IA en absoluto en sus tareas diarias. Esto implica que una mayoría significativa, aproximadamente el 81%, utiliza IA de alguna manera en sus esfuerzos de comunicación.
¿Cuáles son los usos más comunes?
- Mejorar la legibilidad, el tono o el estilo (34 %)
- Volver a publicar en diferentes canales de comunicación (26 %)
- Optimizar para conversiones u otros llamados a la acción (14 %)
Otros usos que surgen de la encuesta de este año incluyen:
- Resumir documentos largos en artículos más breves (21 %)
- Desarrollar planes y cronogramas de campañas (11 %)
- Redactar respuestas a preguntas frecuentes (8 %)
Algunos de estos usos ya lo habíamos abordados en nuestro post “¿Cómo usar ChatGPT en tu ONG? pero lo cierto es que los posibles usos aumenta día a día.
Ahora bien, de la encuesta también surge este dato: solo el 4% de las ONG encuestadas tienen una política formal sobre el uso de IA, mientras que el 93% no cuenta con ninguna. El restante 3% está en “proceso” de generalas.
¿Por qué es necesario tener una “Política de AI”?
Herramientas como Chat GPT y Claude son muy poderosas y pueden ahorrarnos mucho tiempo de trabajo en la gestión de nuestras comunicaciones, también tienen problemas inherentes no resueltos.
Palabras más palabras menos, todos los LMM tienen un disclaimer parecido a este de Claude:
En un intento por ser un asistente útil, Claude puede ocasionalmente producir respuestas que son incorrectas o engañosas.Esto se conoce como información “alucinatoria” y es un subproducto de algunas de las limitaciones actuales del modelo de IA generativa de vanguardia.
Las preocupaciones sobre el uso de IA en las ONG (y en todo tipo de organización) incluyen:
- Mala información y sesgos: existe el riesgo de que el contenido generado por IA contenga errores o sesgos dañinos, lo que puede afectar la credibilidad de la organización. O también: fuentes no verificadas o uso ilegal de información privada o con derechos de autor.
- Deshumanización de la comunicación: hay temor de que la automatización elimine el toque humano en la comunicación, lo que puede resultar en mensajes que carecen de autenticidad y conexión emocional.
- Inconsistencias en el uso: sin una política clara, puede haber variaciones en cómo los colaboradores utilizan la IA, lo que lleva a resultados inconsistentes.
Otro estudio (AI Readiness and Adoption in the Nonprofit Sector in 2024) también identifica desafíos similares y divide sus respuestas en estos grupos:
- La mitad de la muestra ha probado la IA en dos o más casos de uso.
- La mitad de la muestra tiene inquietudes sobre la IA, específicamente sobre las violaciones de datos, el sesgo de los modelos y el robo de propiedad intelectual.
- La mitad de la muestra no sabe cómo evaluar los riesgos de la IA o cree que los riesgos y los beneficios son aproximadamente iguales.
Por todo esto consideramos que es cada vez más importante que las ONGs primero aborden el tema y luego formalicen al menos guías generales de uso.
Ejemplos de políticas de AI existen en otras industrias que podrían ser aplicables a las ONG
Como mencionamos en la introducción, las Fundaciones casi no tienen desarrollos de políticas del cual tomar ejemplos.
Es por eso que relevamos algunos ejemplos de políticas de IA de diferentes sectores con fines de lucro, que podrían ser aplicables a las ONG, junto con elementos clave que deben considerarse al desarrollar estas políticas.
Deloitte: Trustworthy AI™ Framework
- Enfoque: Deloitte ha desarrollado un marco que enfatiza la ética y la responsabilidad en el uso de IA. Su política se centra en la transparencia, la equidad, la privacidad y la seguridad.
- Aplicación: Las ONG pueden adoptar este marco para asegurar que sus iniciativas de IA sean justas y respeten la privacidad de los datos de los beneficiarios, alineándose con sus valores y misión.
Más información en Deloitte AI Institute.
Google: Principios de Responsabilidad
- Enfoque: Google establece principios claros para el desarrollo y uso de IA, asegurando que la tecnología se utilice de manera que beneficie a la sociedad y se alinee con normas éticas.
- Aplicación: Las ONG pueden adoptar estos principios para guiar el desarrollo de proyectos de IA, asegurando que se consideren las necesidades y preocupaciones de las comunidades a las que sirven.
Más información en el blog de Google.
Un posible acercamiento al Desarrollo de Políticas de IA en ONGs
Considerando la creciente adopción de IA, es importante que las organizaciones definan sus propias políticas para su uso. También es fundamental que los colaboradores reciban formación sobre cómo usar la IA de manera efectiva y ética, asegurando que comprendan sus limitaciones y puedan identificar problemas en el contenido generado.
Yendo al “marco regulatorio” consideramos que se deben tener en cuenta estos componentes:
- Delimitar los objetivos:
Precisar con claridad la razón de emplear ChatGPT (o cualquier otra AI) es esencial. Ya sea para la relación con los voluntarios, generación de contenido o asistencia interna, tener una meta específica genera un uso más efectivo y una interacción eficiente. - Adiestrar a AI adecuadamente:
Afina el modelo base utilizando un caudal significativo de datos específicos de alta calidad de la organización. Esto facilita que el/los “Large Language Model” capten el contexto y ofrezcan respuestas más precisas. Tanto CahtGPT como Claude (y otras herramientas nuevas de Google como “NotebookLM”) permiten cargar contenidos propios para mejorar el contexto de las respuestas. - Establecer directrices claras:
Formulá pautas para el uso de las AI que aseguren coherencia y cumplimiento con las políticas de la organización. Estas directrices deben abordar el contenido aceptable, el tono y las posibles limitaciones. - Supervisar y moderar:
Revisar periódicamente las conversaciones entre los modelos y los usuarios para garantizar que proporciona respuestas precisas y adecuadas. Idealmente, implementar un sistema de moderación que detecte posibles problemas o sesgos en el contenido generado por la IA. - Preservar la privacidad del usuario:
Resguardar la privacidad de los datos de nuestros usuarios (voluntarios, donantes) implementando medidas de seguridad adecuadas. Debemos asegurarnos de que la información sensible no se comparta en las conversaciones con ChatGPT ni otros modelos similares. - Verificar y corroborar la información regularmente:
Incentivar a aquellos colaboradores que usen AI como parte de su trabajo cotidiano a verificar la información generada por la AI. Utilizar fuentes confiables, realizar referencias cruzadas para validar la precisión y fiabilidad de las respuestas del modelo que estemos usando.
Plantilla de Políticas de uso AI
Para facilitarles la tarea, les compartimos un borrador de “Política de Uso Interno de IA para ONGs“. Es un documento de Google doc que para usar deberán generar una copia (que podrán editar y modificar de acuerdo a sus necesidades).
La idea de este documento “borrador” es que les sirva como guía para cubrir los tópicos principales (Usos, Directivas, Cumplimiento) y que puedan adaptarlo a la realidad del trabajo de su Fundación.
Conclusión
Desarrollar e implementar políticas de IA no es solo una cuestión de eficiencia operativa, sino también de integridad organizacional y responsabilidad social. Al establecer directrices claras, las ONGs pueden aprovechar el potencial de la IA mientras mitigan sus riesgos, asegurando que su uso se alinee con los valores y la misión de la organización.
Ahora bien, más allá de las directrices propuestas, este momento particular de la tecnología invita a una reflexión más profunda: ¿Cómo pueden las organizaciones mantenerse fieles a su misión humanitaria en un mundo cada vez más automatizado? ¿Qué papel juega la autenticidad en la era de la comunicación asistida por IA? ¿Cómo podemos asegurar que la tecnología amplifique, en lugar de diluir, el impacto social?
Son muchas preguntas que cinco años atrás no tenían sentido, ahora son difíciles de contestar y un futuro (muy cercano) serán de respuesta obligada. Las organizaciones que asuman hoy el desafío tendrán un liderazgo en la temática que ayudará al resto de los ONGs en los próximos años.