No sólo construimos IA. La construimos de forma responsable.

En GFT Technologies, la "IA responsable" no es sólo un eslogan, sino una parte integral de nuestras operaciones empresariales basadas en la IA.
gft-image-mood-16.jpg

Normas que refuerzan, no limitan

No consideramos las normas legales y éticas de la IA como barreras. Consideramos estas normas simplemente como un conjunto especial de requisitos que nos ayudan a garantizar la confianza y la sostenibilidad de nuestras soluciones de inteligencia artificial. La responsabilidad no se añade después, sino que se incorpora desde el principio.

La responsabilidad empieza desde la raíz

La IA ofrece un inmenso potencial, pero su impacto duradero depende de algo más que del progreso técnico. Nuestro proceso de desarrollo integra el pensamiento de la IA responsable desde el primer día, no como una lista de comprobación, sino como una forma de trabajar. La reflexión ética, la concienciación sobre los riesgos y la transparencia son compromisos continuos en cada etapa. Lideramos a través de la IA responsable, por diseño, no por defecto.

Más allá del cumplimiento, hacia el impacto

Vamos más allá de lo que exige la normativa: nos ajustamos a normas internacionales como la Recomendación de la UNESCO sobre la ética de la inteligencia artificial y nos anticipamos de forma proactiva a la Ley de Inteligencia Artificial de la UE.

Nuestro objetivo es respaldar sistemas que reflejen tanto la conciencia jurídica como la responsabilidad ética, contribuyendo al debate más amplio sobre la IA responsable.

Como uno de los primeros firmantes del Pacto por la IA de la Unión Europea, no esperamos a que nos digan cómo hacer lo correcto: ¡ayudamos a definirlo!

Construimos teniendo en cuenta los derechos humanos, para evitar prejuicios y promover la sostenibilidad a largo plazo, tanto tecnológica como socialmente.

gft-image-mood-34.jpg

Cómo creamos una inteligencia artificial que inspira confianza

Nuestro compromiso con la IA responsable se extiende a todos los niveles de nuestra innovación.

1. Concienciación y aptitudes en materia de IA

Fomentamos la alfabetización en IA en todos los equipos, garantizando que cada persona comprenda tanto el poder como la responsabilidad de trabajar con IA. Gracias a la formación y a unas directrices claras, la responsabilidad forma parte de la toma de decisiones cotidiana.

2. Gobernanza de la IA

Integramos la equidad, la responsabilidad y la supervisión en cada solución, garantizando el cumplimiento de la normativa internacional. Nuestro marco hace hincapié en la transparencia algorítmica, la privacidad por diseño y una sólida protección de datos, desde la primera línea de código.

3. Gestión de riesgos de la IA

Mantenemos un inventario transparente de los sistemas de IA y realizamos rigurosas evaluaciones de riesgos a lo largo de su ciclo de vida, especialmente para los casos de uso de alto riesgo. Todos los casos de uso de IA incluidos en las categorías de alto riesgo, según la definición de la Ley de IA de la UE, se someten a evaluaciones de impacto específicas, evaluaciones éticas y controles de gobernanza independientes antes de su aprobación.

Liderazgo reconocido en IA responsable

En 2024, presentamos las Directrices de GFT para una IA responsable como parte de nuestro Informe de Protección de Datos, reforzando nuestro liderazgo en la intersección de la IA y la protección de datos.

Ese mismo año, recibimos con orgullo el Premio PICCASO a la Iniciativa de Privacidad ESG, un reconocimiento a nuestro compromiso constante con la creación de sistemas de IA seguros, éticos y fiables.

Los sistemas de IA necesitan grandes cantidades de datos para ser potentes y, al mismo tiempo, deben diseñarse para ser justos, explicables y seguros. Por eso en GFT Technologies creemos que la innovación y la responsabilidad son inseparables.

gft-image-ernst-oliver-wilhelm-1.png
Ernst-Oliver Wilhelm
Director de Protección de Datos, GFT Technologies SE

Explore nuestro Informe sobre protección de datos

Hitos en nuestro viaje hacia la IA responsable

2020

Se publican las primeras directrices de IA y ML del Grupo GFT sobre transparencia algorítmica y rendición de cuentas.

Se publican las primeras directrices de IA y ML del Grupo GFT sobre transparencia algorítmica y rendición de cuentas.

2023

Grupo de trabajo creado para establecer orientaciones sobre el uso de herramientas de IA generativa como ChatGPT.

Grupo de trabajo creado para establecer orientaciones sobre el uso de herramientas de IA generativa como ChatGPT.

2024

Se añade una sección sobre IA responsable a la Política de Protección de Datos del Grupo y se publica una directriz dedicada a la IA responsable; GFT Technologies firma los Compromisos Básicos del PACTO de IA de la UE, Ganador del Premio PICCASO a la excelencia en privacidad e innovación responsable.

Se añade una sección sobre IA responsable a la Política de Protección de Datos del Grupo y se publica una directriz dedicada a la IA responsable; GFT Technologies firma los Compromisos Básicos del PACTO de IA de la UE, Ganador del Premio PICCASO a la excelencia en privacidad e innovación responsable.

2025

Lanzamiento oficial del Centro de Excelencia de IA (CoE). Dirigido por un liderazgo global y apoyado por equipos de expertos, el CoE impulsa la innovación, la adopción interna y la habilitación de la IA, garantizando una IA responsable, segura y escalable en GFT Technologies.

Lanzamiento oficial del Centro de Excelencia de IA (CoE). Dirigido por un liderazgo global y apoyado por equipos de expertos, el CoE impulsa la innovación, la adopción interna y la habilitación de la IA, garantizando una IA responsable, segura y escalable en GFT Technologies.

Pregunta a nuestro expertoErnst-Oliver Wilhelm

gft-image-ernst-oliver-wilhelm-1.png
TU CONTACTO
Chief Privacy Officer
message
dataProtectionDeclaration