Garantizar estos derechos implica que las empresas asuman responsabilidad activa y continua sobre sus sistemas de IA, por lo que deben diseñar estructuras internas de gobernanza tecnológica, por ejemplo:
- Política corporativa de IA responsable - definir los principios de uso de IA alineados con valores empresariales y marcos internacionales. Debe establecer límites, responsabilidades y criterios de supervisión.
- Comité de Ética de IA - un grupo multidisciplinario (legal, tecnología, negocio, riesgos, experiencia del cliente) que evalúe los proyectos de IA antes de su implementación. Su función es garantizar coherencia ética, transparencia y mitigación de sesgos.
- Evaluación de impacto algorítmico - antes del despliegue de un modelo, se debe realizar una auditoría de impacto en privacidad, equidad y reputación. Esto permite prevenir daños a usuarios y reducir riesgos legales o regulatorios.
- Supervisión humana y auditoría continua - mantener monitoreo de decisiones automatizadas y revisar desviaciones éticas. Los modelos deben tener trazabilidad y controles ante el “drift” de datos o comportamiento.
- Comunicación y educación - capacitar a empleados en ética de IA y crear canales de comunicación con los clientes para resolver dudas o apelaciones sobre decisiones automáticas.
En el contexto corporativo, ya se habla de derechos de clientes y usuarios frente a las organizaciones que implementan inteligencia artificial, existen incluso definiciones de estos derechos basados en convergencia de marcos internacionales, regulatorios y éticos desarrollados entre 2019 y 2024 por organismos multilaterales, gobiernos y entidades técnicas.
Entre algunos de los marcos se pueden denotar el Reglamento de Inteligencia Artificial del 2024 de la Unión Europea (AI Act), Carta de Derechos de la IA (AI Bill of Rights) EE. UU del 2022, Recomendación sobre la Ética de la Inteligencia Artificial, UNESCO del 2021, Principles on Artificial Intelligence de la OCDE del 2019, Framework Convention on AI, Human Rights, Democracy and Rule of Law de Consejo de Europa en el 2024, entre otros.
El GDPR General Data Protection Regulation fue el primer marco legal en incluir el derecho a no ser objeto de decisiones exclusivamente automatizadas (Artículo 22). Esto significa que, si un algoritmo decide algo que afecta significativamente a una persona, como negar un préstamo o filtrar candidatos laborales, el individuo tiene derecho a una explicación y a revisión humana.
La Ley 81 de 2019 – Protección de Datos Personales (Panamá) aplica a toda persona natural o jurídica que trate datos personales en territorio panameño.
- Obliga a las empresas que usen IA (por ejemplo, para analizar clientes o transacciones) a informar claramente al usuario sobre el uso de sus datos.
- Requiere consentimiento explícito para usar datos personales en modelos de aprendizaje automático.
- Permite al usuario oponerse al uso de sus datos o solicitar su eliminación.
- Exige seguridad y anonimización cuando los datos se usan para entrenamiento de IA.
Dentro de los derechos más relevantes se podrían listar:
- Derecho a la información - informar cuándo y cómo se usa IA en los servicios o decisiones. Toda persona debe saber cuándo interactúa con un sistema de IA y con qué propósito. Los algoritmos no pueden actuar en la sombra: el uso de IA debe notificarse de forma clara, especialmente en contextos sensibles como banca, salud o justicia.
- Derecho a la explicación - comunicar las razones detrás de decisiones automatizadas que afecten al usuario. Si una decisión automatizada afecta al individuo - por ejemplo, la negación de un crédito o el rechazo de una solicitud -, la persona tiene derecho a recibir una explicación comprensible sobre cómo y por qué el sistema llegó a ese resultado.
- Derecho a la revisión humana - permitir apelaciones o revisión por personal humano en decisiones críticas. Ninguna IA debería tener la última palabra en decisiones que afecten los derechos fundamentales de una persona. Debe existir siempre la posibilidad de revisión o reversión por parte de un humano responsable.
- Derecho a la privacidad - garantizar protección de datos, anonimización y uso responsable de la información. Ningún modelo puede usar información personal sin consentimiento informado ni con fines distintos a los declarados.
- Derecho a la no discriminación - evitar sesgos en modelos que afecten oportunidades o precios. Los modelos deben ser entrenados y auditados para evitar sesgos de género, edad, raza o condición socioeconómica. Un algoritmo justo es aquel que refleja diversidad en sus datos y equidad en sus resultados.
- Derecho a la transparencia del modelo - dar visibilidad general del uso de IA, sus fines y alcance. Las organizaciones deben poder explicar qué sistemas de IA utilizan, con qué datos fueron entrenados y bajo qué criterios toman decisiones. Esto genera confianza, rendición de cuentas y cultura ética tecnológica.
- Derecho a la reparación - ofrecer mecanismos de reclamo y compensación si la IA causa perjuicio. Si una IA causa daño económico, moral o reputacional, la persona afectada debe tener acceso a mecanismos de reclamación, revisión y compensación. La responsabilidad final recae siempre en los humanos y las instituciones que operan el sistema.
- Derecho al bienestar y sostenibilidad - la IA debe orientarse al bienestar colectivo y no contribuir a la exclusión, la vigilancia abusiva o la degradación del empleo humano. Una tecnología ética debe servir a la sociedad, no reemplazarla.
Desde hace varios años ya han existido casos a nivel mundial donde el uso no ético de la IA generó impactos reputacionales, legales y económicos graves en empresas globales, con multas millonarias, implementando escenarios de uso de IA como:
- Uso IA para reclutamiento con sesgo de género debido a que sus datos históricos tenían más empleados hombres que mujeres.
- Otorgamiento de límites de crédito muy distintos a hombres y mujeres con perfiles financieros similares.
- Segmentación discriminatoria en anuncios y ofertas de inmobiliarias.
- Modelos internos de scoring crediticios usados sin explicar criterios a los clientes.
- Uso indebido de datos biométricos con imágenes extraídas sin consentimiento en redes sociales.
- Sistemas de IA para despidos automáticos de personal sin intervención humana.
- Abuso de datos personales para manipulación política.
Todos estos casos han generado lecciones importantes, por ejemplo:
- Entrenar modelos sin control ético ni diversidad de datos puede amplificar prejuicios históricos y puede causar un daño reputacional profundo.
- Las decisiones automatizadas sin transparencia pueden ser vistas como discriminación institucional, generando pérdida de confianza y críticas públicas.
- La IA de marketing también requiere gobernanza: los sesgos pueden convertirse en violaciones legales y exposición a denuncias por discriminación
- En banca, la falta de explicabilidad se considera una violación legal, no solo técnica, generando una violación del principio de “decisiones explicables” bajo GDPR (art. 22).
- Recolectar o usar datos sin consentimiento explícito viola derechos de privacidad y destruye la confianza institucional.
- La automatización sin supervisión humana directa viola derechos laborales y normativas de IA responsable.
- La IA aplicada a seguridad requiere controles éticos y validación de precisión antes de su despliegue.
Las empresas que asumen la ética de la IA no solo evitan sanciones; crean diferenciación de marca. Además, los inversores y socios estratégicos, especialmente en entornos internacionales, empiezan a exigir criterios ESG (Environmental, Social & Governance) que incluyan IA responsable. La ética algorítmica ya es parte del gobierno corporativo moderno.
Regular la IA es necesario, pero actuar éticamente es una decisión estratégica, la ética de la IA no es una opción moral, sino un requisito de sostenibilidad corporativa.