20 nov 2025

Hacia una Inteligencia Artificial Ética en el Entorno Empresarial

Jairo Solano 2.png
Jairo Solano Monge
VP de Negocios para Centroamérica y el Caribe
blogAbstractMinutes
blogAbstractTimeReading
gft-image-mood-16.jpg
Transformación Digital
Sectores
IA
Innovación
contact
share
La adopción de inteligencia artificial (IA) ya no es exclusiva de los gigantes tecnológicos. Bancos, aseguradoras, retailers y plataformas digitales la utilizan para automatizar decisiones, personalizar servicios y reducir costos.

En el entorno empresarial moderno, la ética de la IA se convierte en un factor de competitividad y reputación. Las empresas que gestionen su IA con transparencia, equidad y responsabilidad no solo cumplirán con las regulaciones que vienen, sino que construirán relaciones más sólidas y sostenibles con sus clientes.

La confianza es el nuevo capital de las organizaciones. En la era algorítmica, esa confianza depende de cómo las empresas usan los datos y las decisiones automatizadas.  Un cliente que siente que fue rechazado por un algoritmo sin explicación, o que su información fue usada sin consentimiento, pierde confianza y fidelidad.  Por eso, las compañías deben establecer principios éticos y derechos digitales empresariales, donde la IA sea un instrumento de servicio justo, no de exclusión ni manipulación.

gft-image-mood-21.jpg

Garantizar estos derechos implica que las empresas asuman responsabilidad activa y continua sobre sus sistemas de IA, por lo que deben diseñar estructuras internas de gobernanza tecnológica, por ejemplo:

  • Política corporativa de IA responsable - definir los principios de uso de IA alineados con valores empresariales y marcos internacionales.  Debe establecer límites, responsabilidades y criterios de supervisión.
  • Comité de Ética de IA - un grupo multidisciplinario (legal, tecnología, negocio, riesgos, experiencia del cliente) que evalúe los proyectos de IA antes de su implementación.  Su función es garantizar coherencia ética, transparencia y mitigación de sesgos.
  • Evaluación de impacto algorítmico - antes del despliegue de un modelo, se debe realizar una auditoría de impacto en privacidad, equidad y reputación.  Esto permite prevenir daños a usuarios y reducir riesgos legales o regulatorios.
  • Supervisión humana y auditoría continua - mantener monitoreo de decisiones automatizadas y revisar desviaciones éticas.  Los modelos deben tener trazabilidad y controles ante el “drift” de datos o comportamiento.
  • Comunicación y educación - capacitar a empleados en ética de IA y crear canales de comunicación con los clientes para resolver dudas o apelaciones sobre decisiones automáticas.

En el contexto corporativo, ya se habla de derechos de clientes y usuarios frente a las organizaciones que implementan inteligencia artificial, existen incluso definiciones de estos derechos basados en convergencia de marcos internacionales, regulatorios y éticos desarrollados entre 2019 y 2024 por organismos multilaterales, gobiernos y entidades técnicas.

Entre algunos de los marcos se pueden denotar el Reglamento de Inteligencia Artificial del 2024 de la Unión Europea (AI Act), Carta de Derechos de la IA (AI Bill of Rights) EE. UU del 2022, Recomendación sobre la Ética de la Inteligencia Artificial, UNESCO del 2021, Principles on Artificial Intelligence de la OCDE del 2019, Framework Convention on AI, Human Rights, Democracy and Rule of Law de Consejo de Europa en el 2024, entre otros.

El GDPR General Data Protection Regulation fue el primer marco legal en incluir el derecho a no ser objeto de decisiones exclusivamente automatizadas (Artículo 22).  Esto significa que, si un algoritmo decide algo que afecta significativamente a una persona, como negar un préstamo o filtrar candidatos laborales, el individuo tiene derecho a una explicación y a revisión humana.

gft-image-mood-22.jpg

La Ley 81 de 2019 – Protección de Datos Personales (Panamá) aplica a toda persona natural o jurídica que trate datos personales en territorio panameño.

  • Obliga a las empresas que usen IA (por ejemplo, para analizar clientes o transacciones) a informar claramente al usuario sobre el uso de sus datos.
  • Requiere consentimiento explícito para usar datos personales en modelos de aprendizaje automático.
  • Permite al usuario oponerse al uso de sus datos o solicitar su eliminación.
  • Exige seguridad y anonimización cuando los datos se usan para entrenamiento de IA.

 

Dentro de los derechos más relevantes se podrían listar:

  • Derecho a la información - informar cuándo y cómo se usa IA en los servicios o decisiones.  Toda persona debe saber cuándo interactúa con un sistema de IA y con qué propósito. Los algoritmos no pueden actuar en la sombra: el uso de IA debe notificarse de forma clara, especialmente en contextos sensibles como banca, salud o justicia.
  • Derecho a la explicación - comunicar las razones detrás de decisiones automatizadas que afecten al usuario.  Si una decisión automatizada afecta al individuo - por ejemplo, la negación de un crédito o el rechazo de una solicitud -, la persona tiene derecho a recibir una explicación comprensible sobre cómo y por qué el sistema llegó a ese resultado.
  • Derecho a la revisión humana - permitir apelaciones o revisión por personal humano en decisiones críticas.  Ninguna IA debería tener la última palabra en decisiones que afecten los derechos fundamentales de una persona.  Debe existir siempre la posibilidad de revisión o reversión por parte de un humano responsable.
  • Derecho a la privacidad - garantizar protección de datos, anonimización y uso responsable de la información.  Ningún modelo puede usar información personal sin consentimiento informado ni con fines distintos a los declarados.
  • Derecho a la no discriminación - evitar sesgos en modelos que afecten oportunidades o precios.  Los modelos deben ser entrenados y auditados para evitar sesgos de género, edad, raza o condición socioeconómica.  Un algoritmo justo es aquel que refleja diversidad en sus datos y equidad en sus resultados.
  • Derecho a la transparencia del modelo - dar visibilidad general del uso de IA, sus fines y alcance.  Las organizaciones deben poder explicar qué sistemas de IA utilizan, con qué datos fueron entrenados y bajo qué criterios toman decisiones. Esto genera confianza, rendición de cuentas y cultura ética tecnológica.
  • Derecho a la reparación - ofrecer mecanismos de reclamo y compensación si la IA causa perjuicio.  Si una IA causa daño económico, moral o reputacional, la persona afectada debe tener acceso a mecanismos de reclamación, revisión y compensación. La responsabilidad final recae siempre en los humanos y las instituciones que operan el sistema.
  • Derecho al bienestar y sostenibilidad - la IA debe orientarse al bienestar colectivo y no contribuir a la exclusión, la vigilancia abusiva o la degradación del empleo humano. Una tecnología ética debe servir a la sociedad, no reemplazarla.

 

gft-image-mood-27.jpg

Desde hace varios años ya han existido casos a nivel mundial donde el uso no ético de la IA generó impactos reputacionales, legales y económicos graves en empresas globales, con multas millonarias, implementando escenarios de uso de IA como:

  • Uso IA para reclutamiento con sesgo de género debido a que sus datos históricos tenían más empleados hombres que mujeres.
  • Otorgamiento de límites de crédito muy distintos a hombres y mujeres con perfiles financieros similares.
  • Segmentación discriminatoria en anuncios y ofertas de inmobiliarias.
  • Modelos internos de scoring crediticios usados sin explicar criterios a los clientes.
  • Uso indebido de datos biométricos con imágenes extraídas sin consentimiento en redes sociales.
  • Sistemas de IA para despidos automáticos de personal sin intervención humana.
  • Abuso de datos personales para manipulación política.

 

Todos estos casos han generado lecciones importantes, por ejemplo:

  • Entrenar modelos sin control ético ni diversidad de datos puede amplificar prejuicios históricos y puede causar un daño reputacional profundo.
  • Las decisiones automatizadas sin transparencia pueden ser vistas como discriminación institucional, generando pérdida de confianza y críticas públicas.
  • La IA de marketing también requiere gobernanza: los sesgos pueden convertirse en violaciones legales y exposición a denuncias por discriminación
  • En banca, la falta de explicabilidad se considera una violación legal, no solo técnica, generando una violación del principio de “decisiones explicables” bajo GDPR (art. 22).
  • Recolectar o usar datos sin consentimiento explícito viola derechos de privacidad y destruye la confianza institucional.
  • La automatización sin supervisión humana directa viola derechos laborales y normativas de IA responsable.
  • La IA aplicada a seguridad requiere controles éticos y validación de precisión antes de su despliegue.

 

Las empresas que asumen la ética de la IA no solo evitan sanciones; crean diferenciación de marca.  Además, los inversores y socios estratégicos, especialmente en entornos internacionales, empiezan a exigir criterios ESG (Environmental, Social & Governance) que incluyan IA responsable.  La ética algorítmica ya es parte del gobierno corporativo moderno.

Regular la IA es necesario, pero actuar éticamente es una decisión estratégica, la ética de la IA no es una opción moral, sino un requisito de sostenibilidad corporativa. 

El futuro de los negocios dependerá de su capacidad para humanizar la inteligencia artificial, integrando valores, derechos y confianza en cada interacción con el cliente. Las empresas que logren equilibrar tecnología con ética no solo cumplirán con la ley: liderarán la economía digital del mañana.

Jairo Solano
Regional Commercial Vice President en Costa Rica

Fabián Salazar

Fabian.png
Su especialista
CEO of GFT for Central America and the Caribbean
message
dataProtectionDeclaration