27 ott 2025

Ottenere valore di business dall'AI: dal potenziale all'impatto

In questa serie di articoli abbiamo analizzato alcuni dei passaggi fondamentali per assicurare che i progetti di intelligenza artificiale generino reale valore per il business.
gft-author-alastair-gill.png
Alastair Gill
Principal Data Scientist
blogAbstractMinutes
blogAbstractTimeReading
gft-image-mood-08.jpg
AI
contact
share
In quest’ultimo articolo affrontiamo il tema dell’implementazione. A questo punto potrebbe sembrare che il più sia fatto: tutti i componenti sono stati pianificati con cura e le interfacce tra i vari elementi sono completamente documentate. Tuttavia, i progetti di intelligenza artificiale non sono per i deboli di cuore: richiedono risorse adeguate e un insieme diversificato di competenze, che spaziano dal data science al data engineering, fino all’infrastructure engineering e al project management. La dimensione e la complessità del progetto possono determinare l’ampiezza di questi team, ma la presenza di tali ruoli - insieme a un accesso costante agli stakeholder - è fondamentale per garantire il successo dell’iniziativa.

Una volta costituito il team di progetto, è importante ricordare che le iniziative di intelligenza artificiale presentano caratteristiche peculiari e richiedono un approccio diverso rispetto alle consuete best practice di project management.

La principale differenza rispetto a un tipico progetto software risiede nel maggior livello di incertezza: la disponibilità dei dati, la coerenza dei modelli e dei comportamenti attesi, così come la loro adeguatezza per lo sviluppo della soluzione (inclusi i modelli di AI sottostanti), sono tutti elementi che possono variare sensibilmente.

Per questo motivo, è fondamentale che project manager e stakeholder siano consapevoli di tali variabili, così da prevenire spiacevoli sorprese e prevedere tempi e margini di imprevisto adeguati.

Per ulteriori approfondimenti sulla gestione dei progetti di AI, si rimanda a Gestione dei progetti di apprendimento automatico:From Design to Deployment.

In questa serie di articoli ho riunito i diversi tipi di intelligenza artificiale - dalla Generative AI alle forme più “tradizionali”, come il machine learning (ML) e l’elaborazione del linguaggio naturale (NLP) - poiché, in linea generale, i componenti di una soluzione di AI condividono caratteristiche comuni. In tutti i casi, infatti, si parte da un input definito dal business (per esempio dati strutturati o una richiesta testuale) che genera un determinato output (come una previsione numerica o un testo prodotto), passando attraverso il resto della soluzione fino a integrarsi nei processi aziendali.

A questo punto, tuttavia, vale la pena fare una breve digressione per sottolineare la principale differenza tra le diverse tipologie di AI: il modo in cui il modello viene sviluppato. Questa distinzione ha implicazioni importanti per le fasi pratiche di sviluppo e implementazione di una soluzione di intelligenza artificiale.

I modelli di AI tradizionali, come quelli basati su machine learning, partono da un dataset di addestramento (spesso costruito appositamente) che viene combinato con un algoritmo selezionato per lo scopo. Il risultato è un modello addestrato su quei dati specifici e adattato all’applicazione per cui è stato sviluppato. Riprendendo l’esempio dell’articolo precedente sull’identificazione del customer churn, i dati utilizzati sarebbero propri dell’organizzazione e il modello risultante sarebbe ottimizzato per quello specifico caso d’uso.

Naturalmente, questa è una semplificazione del processo di sviluppo di un modello di machine learning, con cui i data scientist hanno fin troppa familiarità. Uno dei primi ostacoli è quasi sempre l’ottenimento dei dati necessari per l’addestramento, che può rappresentare una sfida significativa in molte aziende. Le fasi successive includono l’esplorazione dei dati, la selezione degli algoritmi e degli approcci più adeguati, quindi l’addestramento e il test delle varie iterazioni del modello. Si tratta di un processo complesso e spesso lungo, considerato da molti tanto un’arte quanto una scienza, e non è raro che il data scientist scopra che nei dati non c’è alcun segnale utile per prevedere il fenomeno atteso.

Un vantaggio degli approcci tradizionali all’AI, come il machine learning, è che esistono processi ormai (relativamente) maturi e consolidati per lo sviluppo, il test e la messa in produzione dei modelli. Celebre, in questo senso, è un documento del 2014 che rappresentò una vera e propria “chiamata alle armi” per molti professionisti del settore. Ciò non significa che manchino le difficoltà (le incertezze restano numerose, soprattutto rispetto ai progetti software tradizionali) ma una volta che il modello è stato adeguatamente testato e approvato - cioè “funziona” -, può essere distribuito seguendo le best practice di MLOps.

D’altro canto, gli approcci di Generative AI partono da un modello di base già pre-addestrato, come i Large Language Model (LLM) o, più in generale, i foundation model, che viene poi adattato alla specifica applicazione tramite informazioni fornite nel prompt (per esempio la formulazione del testo o dati specifici dell’organizzazione). L’obiettivo è orientare l’output del modello di base verso il risultato desiderato.

Anche in questo caso, la descrizione rimane a un livello alto e non tiene conto di molti dettagli. La fase iniziale, ad esempio, può richiedere l’esplorazione di diversi modelli pre-addestrati e la sperimentazione con vari prompt e dati contestuali per valutarne la fattibilità. Successivamente, è necessario inquadrare correttamente il problema, mappando la soluzione rispetto all’esigenza di business, seguita dalla raccolta ed elaborazione dei dati pertinenti.

In sostanza, con la Generative AI è spesso più semplice creare rapidamente un prototipo, poiché non è necessario disporre di un dataset di addestramento. Tuttavia, la fase di inquadramento del problema, ovvero il modo in cui la soluzione si collega al business, può risultare meno immediata e richiedere più tempo. Allo stesso modo, anche la valutazione delle prestazioni del modello o della soluzione è meno standardizzata: a differenza del machine learning, dove si usano metriche consolidate come precision o recall, i criteri di valutazione della Generative AI sono più soggettivi e richiedono ulteriori iterazioni. Lo stesso vale per l’implementazione e il monitoraggio, che tendono a essere più complessi proprio per la natura fortemente personalizzata di queste soluzioni.

Figure-1 7.png
Figura 1: Fasi tipiche dello sviluppo di approcci di AI tradizionali e di AI generative

Tutto ciò presuppone che la soluzione di AI utilizzi un modello di base già pronto, come GPT-4.5 di OpenAI, Gemini 2.5 di Google o R1 di DeepSeek, che può essere interrogato dallo sviluppatore tramite API. Sebbene sia possibile costruire un modello di base da zero, è probabile che la maggior parte delle organizzazioni non prenda in considerazione questa opzione. La messa a punto (fine-tuning) di un modello esistente rappresenta un approccio più realistico, ma rimane comunque relativamente poco diffuso.

Perché è importante questa digressione sulle differenze tra la “vecchia” AI e la GenAI? Ritengo che lo sia per almeno due motivi.

In primo luogo, è fondamentale comprendere dove possono emergere le diverse sfide e, di conseguenza, quali fasi di un progetto possano richiedere tempi e risorse maggiori. L’analisi della Figura 1 mostra chiaramente dove potrebbero concentrarsi gli sforzi, sia per il team di progetto interno sia per gli stakeholder esterni, nei diversi tipi di iniziative di AI.

In secondo luogo, poiché la prototipazione rapida è relativamente semplice nei progetti di GenAI, i problemi legati alla comprensione e all’accesso ai dati aziendali, da sempre una criticità nei progetti di AI tradizionali, tendono a emergere solo in una fase successiva, ad esempio dopo lo sviluppo dei prototipi iniziali. In molti casi, le difficoltà nella mappatura del prototipo di AI all’interno di una soluzione completa, capace di integrarsi realmente con il problema di business e con i dati disponibili, possono impedire il passaggio in produzione e portare al fallimento di numerosi progetti.

Allo stesso modo, gli elementi personalizzati del progetto possono risultare complessi, forse il più importante è la fase di testing della soluzione, essenziale per garantire che l’organizzazione approvi il rilascio in produzione e la messa in servizio. Altri aspetti, come i processi più meccanici di implementazione e monitoraggio, possono anch’essi rivelarsi impegnativi.
Prima di coinvolgere gli stakeholder senior e approvare i finanziamenti, è quindi cruciale assicurarsi che queste fasi siano effettivamente realizzabili.

In sintesi,

Mentre gli approcci tradizionali all'AI concentrano gli sforzi nelle prime fasi di reperimento dei dati e di costruzione del modello (spesso impiegando più tempo del desiderato per arrivare a questo punto), gli approcci di AI possono mostrare rapidi progressi iniziali nella prototipazione, ma potenzialmente richiedono maggiori investimenti nelle fasi successive di un progetto. Come sempre, si tratta di generalizzazioni, ma si spera di illustrare i modelli generali di questi progetti.

Tornando al punto di partenza di questa serie, il ROI sembra essere in calo per i progetti di AI. Forse questo è legato all'aumento dei progetti di AI e alla capacità di realizzare rapidamente prototipi, anche prima dell'impegno con il business? Questo potrebbe portare a un'errata allocazione delle risorse, dato che le dimostrazioni convincenti che non possono essere convertite in applicazioni utili ottengono finanziamenti e attenzione a scapito di progetti meno ambiziosi e attraenti che sono in realtà più pratici e utili? Questa, ovviamente, è una pura speculazione da parte mia, ma la risposta è sempre la stessa ed è l'insegnamento chiave di questa serie di articoli, a prescindere dal tipo di AI, ovvero l'impegno con il business per capire le esigenze e il contesto circostante di ogni potenziale soluzione che intendiamo costruire.

In conclusione,

In questa serie di articoli ho illustrato alcune delle principali fasi che chi intraprende un progetto di intelligenza artificiale deve affrontare, al di là della costruzione vera e propria del modello. Gli articoli si sono concentrati in particolare sulla comprensione del problema di business, sul dialogo con gli stakeholder, sulla mappatura della soluzione rispetto alla logica aziendale e sulle buone pratiche di gestione di un progetto di AI.


L’obiettivo è sempre stato quello di garantire che ogni iniziativa di intelligenza artificiale generi reale valore per il business, un punto di partenza che, mi auguro, possa essere utile a chi si appresta a intraprendere lo stesso percorso.

Hai domande?
Ti rispondiamo!

contactFormTitle

topic*
dataProtectionDeclaration