No sólo construimos IA. La construimos de forma responsable.

En GFT Technologies, la "IA responsable" no es sólo un eslogan, sino una parte integral de nuestras operaciones empresariales basadas en la IA.
gft-image-mood-16.jpg

Normas que refuerzan, no limitan

No consideramos las normas legales y éticas de la IA como barreras. Consideramos estas normas simplemente como un conjunto especial de requisitos que nos ayudan a garantizar la confianza y la sostenibilidad de nuestras soluciones de inteligencia artificial. Nuestro enfoque de la IA se centra en el valor a largo plazo, la seguridad y un diseño cuidadoso. La responsabilidad no se añade después, sino que se incorpora desde el principio.

La responsabilidad empieza desde la raíz

La IA ofrece un inmenso potencial, pero su impacto duradero depende de algo más que del progreso técnico. Requiere cuidado, intención y una mentalidad que anteponga a las personas. Nuestro proceso de desarrollo integra el pensamiento de IA responsable desde el primer día, no como una lista de verificación, sino como una forma de trabajar. La reflexión ética, la conciencia del riesgo y la transparencia son compromisos continuos en cada etapa. Lideramos a través de la IA responsable, por diseño, no por defecto.

Más allá del cumplimiento, rumbo al impacto

Vamos más allá de lo que exige la normativa: nos ajustamos a normas internacionales como la Recomendación de la UNESCO sobre la ética de la inteligencia artificial y nos anticipamos de forma proactiva a la Ley de Inteligencia Artificial de la UE.

Nuestro objetivo es respaldar sistemas que reflejen tanto la conciencia jurídica como la responsabilidad ética, contribuyendo al debate más amplio sobre la IA responsable.

Como uno de los primeros en firmar el Pacto por la IA de la Unión Europea, no esperamos a que nos digan cómo hacer lo correcto: ¡ayudamos a definirlo!

Construimos teniendo en cuenta los derechos humanos, para evitar prejuicios y promover la sostenibilidad a largo plazo, tanto tecnológica como socialmente.

gft-image-mood-34.jpg

Cómo creamos una inteligencia artificial que inspira confianza

Nuestro compromiso con la IA responsable se extiende a todos los niveles de nuestra innovación.

1. Conciencia y habilidades en la IA

Fomentamos el dominio de la IA en todos los equipos, asegurándonos de que cada persona comprende tanto el poder como la responsabilidad de trabajar con IA. A través de la capacitación y de lineamientos claros, la responsabilidad se convierte como parte de la toma de decisiones diaria.

2. Gobernanza de la IA

Integramos la equidad, la responsabilidad y la supervisión en cada solución, garantizando el cumplimiento de la normativa internacional. Nuestro marco hace hincapié en la transparencia algorítmica, la privacidad desde el diseño y la protección sólida de los datos, desde la primera línea de código.

3. Gestión de riesgos de la IA

Mantenemos un inventario transparente de los sistemas de la IA y realizamos rigurosas evaluaciones de riesgos a lo largo de su ciclo de vida, especialmente para los casos de uso de alto riesgo. Todos los casos de uso de la IA incluidos en categorías de alto riesgo, según la definición de la Ley de IA de la UE, se someten a evaluaciones de impacto específicas, evaluaciones éticas y controles de gobernanza independientes antes de su aprobación.

Liderazgo reconocido en IA responsable

En 2024, presentamos la guía de GFT para una IA responsable como parte de nuestro Informe sobre Protección de Datos, reforzando así nuestro liderazgo en la unión entre la IA y la protección de datos.

Ese mismo año, recibimos con orgullo el Premio PICCASO a la Iniciativa de Privacidad ESG, un reconocimiento a nuestro compromiso constante con la creación de sistemas de IA seguros, éticos y fiables.

Los sistemas de IA necesitan grandes cantidades de datos para ser potentes y, al mismo tiempo, deben diseñarse para ser justos, explicables y seguros. Por eso en GFT Technologies creemos que la innovación y la responsabilidad son inseparables.

gft-image-ernst-oliver-wilhelm-1.png
Ernst-Oliver Wilhelm
Director de Protección de Datos, GFT Technologies SE

Explora nuestro Informe sobre protección de datos

Hitos en nuestro viaje hacia la IA responsable

2020

Se publican las primeras guías de la IA y ML del Grupo GFT sobre la transparencia y la responsabilidad algorítmica.

Se publican las primeras guías de la IA y ML del Grupo GFT sobre la transparencia y la responsabilidad algorítmica.

2023

Creamos un grupo de trabajo para establecer pautas sobre el uso de herramientas de IA generativa como ChatGPT.

Creamos un grupo de trabajo para establecer pautas sobre el uso de herramientas de IA generativa como ChatGPT.

2024

Se incorporó una sección sobre IA responsable a la Política de Protección de Datos del Grupo y se publicó de una guía específica sobre la IA responsable; GFT Technologies firma los Compromisos Básicos del PACTO de IA de la UE, Ganador del Premio PICCASO a la excelencia en privacidad e innovación responsable.

Se incorporó una sección sobre IA responsable a la Política de Protección de Datos del Grupo y se publicó de una guía específica sobre la IA responsable; GFT Technologies firma los Compromisos Básicos del PACTO de IA de la UE, Ganador del Premio PICCASO a la excelencia en privacidad e innovación responsable.

2025

Lanzamiento oficial del Centro de Excelencia de IA (CoE). Dirigido por un liderazgo global y apoyado por equipos de expertos, el CoE impulsa la innovación, la adopción interna y la habilitación de la IA, garantizando una IA responsable, segura y escalable en GFT Technologies.

Lanzamiento oficial del Centro de Excelencia de IA (CoE). Dirigido por un liderazgo global y apoyado por equipos de expertos, el CoE impulsa la innovación, la adopción interna y la habilitación de la IA, garantizando una IA responsable, segura y escalable en GFT Technologies.

Pregunta a nuestro expertoErnst-Oliver Wilhelm

gft-image-ernst-oliver-wilhelm-1.png
TU CONTACTO
Chief Privacy Officer
message
dataProtectionDeclaration