26 nov 2025

AI Culture: il lato umano dell'intelligenza artificiale tra opportunità, rischi e responsabilità

L'adozione dell'intelligenza artificiale nelle organizzazioni non è più una scelta, ma una necessità competitiva. Eppure, mentre investiamo in infrastrutture, modelli e integrazioni tecnologiche, troppo spesso trascuriamo la componente più critica di tutto il processo: noi, l'essere umano.
gft-contact-davide-coccia.png
Davide Coccia
Chief Technology Officer
blogAbstractMinutes
blogAbstractTimeReading
iStock-2162033572.jpg
AI
IA responsabile
contact
share

L'AI non è non è un mero strumento plug-and-play che genera valore per il solo fatto di essere implementato, e non è “neutrale” nei suoi output. È un amplificatore: moltiplica le competenze di chi la usa, ma amplifica anche lacune, bias e rischi quando viene utilizzata senza la dovuta consapevolezza

 

Per questo motivo, costruire una AI Culture solida è oggi prioritario quanto scegliere il modello linguistico più performante o l’infrastruttura. 

Il problema del prompting inefficace

Uno dei rischi più sottovalutati nell'uso quotidiano dell'intelligenza artificiale è la qualità dell'output, legata a doppio filo alla qualità dell'input: e già questo concetto, purtroppo, non è così considerato come dovrebbe. Un prompt generico, superficiale o mal strutturato, infatti, produce risultati altrettanto generici, superficiali e mal strutturati: testi standardizzati, analisi banali, contenuti che replicano pattern testuali o, peggio, bias presenti nei dati di addestramento…

Il fenomeno è evidente soprattutto nell'uso personale dell'AI per attività di produttività quotidiana: scrivere email e comunicazioni interne, preparare report o analizzare dati. Senza una formazione adeguata, i dipendenti rischiano di utilizzare l'AI come uno strumento che permette di ottenere solo velocità, penalizzando l'interpretazione strategica, ottenendo così output ripetitivi, privi di profondità e facilmente riconoscibili. Peggio ancora: rischiano di affidarsi acriticamente a risposte che contengono errori, imprecisioni o bias cognitivi radicati nei modelli, senza nemmeno accorgersene e senza prendere in considerazione l’idea che ogni nuova informazione restituita dai chatbot AI vada sempre sottoposta a una scrupolosa attività di revisione e fact-checking

La conseguenza non è solo un abbassamento della qualità del lavoro, ma anche un appiattimento del pensiero critico: se l'AI diventa una scorciatoia cognitiva invece che uno strumento di potenziamento, l'organizzazione perde valore invece di guadagnarlo.

Shadow AI: il rischio invisibile nelle organizzazioni

C'è un rischio, forse ancora più insidioso, che riguarda la sicurezza dei dati aziendali: la cosiddetta Shadow AI

Con questo termine si intende l'uso non regolamentato di strumenti di intelligenza artificiale da parte dei dipendenti, al di fuori dei canali aziendali ufficiali. Un collaboratore che copia un contratto riservato dentro ChatGPT o NotebookLM per farlo riassumere, un sales manager che inserisce dati sensibili dei clienti in un tool di automazione esterno, un analista che carica file finanziari confidenziali su una piattaforma Cloud pubblica per farli processare da un LLM: sono tutti esempi di condivisione di dati aziendali in contesti esterni, con troppe zone d’ombra per essere sicuri. 

Il problema è duplice: 

  1. Mancanza di consapevolezza, poiché molti dipendenti non sanno che condividere dati aziendali su strumenti open comporta rischi concreti. Non è malafede, è solo ignorare il pericolo. Nessuno ha mai spiegato loro cosa significa "dato sensibile" nel contesto dell'AI, quali informazioni possono essere condivise e quali no, quali piattaforme sono sicure e quali no;

  2. Assenza di governance, ossia mancanza di policy chiare, strumenti aziendali dedicati e controlli adeguati che possano impedire alla Shadow AI di proliferare. I dipendenti cercano autonomamente soluzioni per essere più produttivi, ma lo fanno in modo non strutturato, esponendo l'organizzazione a fughe di dati, violazioni di compliance e rischi reputazionali. 

Le conseguenze possono essere davvero gravi: perdita di informazioni strategiche, violazione di normative (GDPR, NIS2, normative di settore etc.) o persino compromissione di segreti industriali. E tutto questo avviene spesso senza che l'IT o il management ne siano consapevoli. 

La soluzione: strumenti chiusi, formazione capillare e cultura della responsabilità

La risposta a questi rischi non è vietare l'uso dell'AI, cosa impossibile e controproducente oggi, ma governarla con intelligenza. Tre i pilastri fondamentali: 

1. Strumenti aziendali dedicati e sicuri - Fornire ai dipendenti piattaforme di AI regolamentate e chiuse, configurate specificamente per l'uso aziendale, è il primo passo. Questi strumenti garantiscono che i dati rimangano all'interno del perimetro di sicurezza dell'organizzazione, senza essere utilizzati per addestrare modelli esterni o essere esposti a terze parti. Un ambiente controllato riduce drasticamente il rischio di Shadow AI, perché elimina la necessità di cercare alternative esterne.

2. Formazione trasversale e continua - Non basta installare un tool. Serve una formazione capillare, che coinvolga tutti i livelli aziendali: dall'HR al finance, dal marketing al sales, dal legal all'IT. Ogni funzione deve comprendere:

  • Come utilizzare l'AI in modo efficace (tecniche di prompting, pensiero critico, verifica delle fonti);
  • Quali sono i rischi etici e operativi (bias, allucinazioni, dipendenza dall'automazione);
  • Quali dati possono essere condivisi e quali no (classificazione delle informazioni, policy di data governance).

La formazione non deve essere un evento una tantum, ma un processo continuo, dato che l'AI evolve rapidamente, dunque con essa devono evolvere competenze e consapevolezza. 

3. Una cultura della responsabilità - La vera AI culture si costruisce quando ogni dipendente si sente responsabile dell'uso che fa della tecnologia. Non è solo una questione di compliance, ma di etica professionale: comprendere che l'AI è uno strumento potente, che può generare valore o danno a seconda di come viene impiegato. Significa interrogarsi sulla qualità degli output, verificare le fonti e saper riconoscere pattern e bias. 

GFT: un caso d'uso di AI adoption

GFT non si limita a progettare soluzioni di intelligenza artificiale per i propri clienti nei settori più competitivi sul mercato. È anche un esempio concreto di come implementare una AI culture responsabile all'interno della propria organizzazione

La piattaforma di AI assistant in uso in GFT è regolamentata e chiusa: si tratta di un agente AI istruito e configurato con modelli enterprise di Azure OpenAI, configurata specificamente per l'uso interno, con garanzie di sicurezza, privacy e controllo dei dati stringenti. Nessuna informazione condivisa con l'assistente esce dal perimetro aziendale o viene utilizzata per addestrare modelli pubblici. 

Parallelamente, GFT ha investito in un programma di formazione trasversale, che ha coinvolto tutte le funzioni aziendali. Ogni team ha ricevuto training specifico su come utilizzare l'AI in modo consapevole, efficace e sicuro, adattato alle esigenze del proprio ambito operativo. 

Il risultato è un'organizzazione in cui l'intelligenza artificiale è integrata nei processi quotidiani in modo controllato, produttivo e responsabile: un modello che GFT porta anche ai propri clienti, accompagnandoli non solo nell'implementazione tecnologica, ma nella costruzione di una cultura dell'AI matura e sostenibile

L'AI ha bisogno di noi, non il contrario

L'intelligenza artificiale non sostituisce l'essere umano. Lo affianca, lo potenzia, lo libera da task ripetitivi per permettergli di concentrarsi su attività a maggior valore. Ma solo se l'essere umano è formato, consapevole e responsabile

Ignorare il lato umano dell'AI significa esporsi a rischi concreti: output di bassa qualità, bias non riconosciuti, fughe di dati, violazioni normative. Investire in AI culture significa invece trasformare l'intelligenza artificiale in un vero vantaggio competitivo. 

L'intelligenza artificiale è una questione di cultura, prima che di tecnologia. 

Hai domande?
Ti rispondiamo!
Davide Coccia

gft-contact-davide-coccia.png
IL TUO ESPERTO | Tecnologia
Chief Technology Officer
message
dataProtectionDeclaration