Secondo una ricerca globale condotta da McKinsey, The state of AI in early 2024: Gen AI adoption spikes and starts to generate value, il 65% delle aziende utilizza regolarmente l’AI generativa, quasi il doppio rispetto a soli 10 mesi prima. Questo rapido tasso di adozione evidenzia il potenziale di trasformazione dell’AI, ma anche la complessità di implementarla in modo efficace e sicuro, specialmente in contesti regolamentati dove la conformità e la protezione dei dati sono priorità assolute.
Per queste aziende, la scelta tra un modello AI “pronto all’uso” e uno sviluppato su misura non è una decisione semplice. Il contesto regolamentato impone un livello elevato di trasparenza, controllo e governance sui dati, portando le aziende a scegliere un approccio che bilanci flessibilità, costi e compliance.
- Meglio affidarsi a una soluzione pre-addestrata, facile e veloce da implementare?
- O investire nello sviluppo di un modello completamente personalizzato, costruito per rispondere alle esigenze specifiche dell’azienda?
- Esiste una soluzione intermedia che combini i vantaggi di entrambe le opzioni?
La risposta non è scontata. Ogni approccio ha i suoi punti di forza e di debolezza, e la scelta dipende da fattori come il budget, le competenze tecniche disponibili, l’infrastruttura IT e i requisiti di sicurezza e privacy.
In questo articolo, analizzeremo le caratteristiche dei modelli AI pre-addestrati, di quelli personalizzabili, o sviluppati da zero. Esploreremo i vantaggi e i limiti di ciascun approccio, con un focus particolare sui settori regolamentati.
Definizione e ruolo dei modelli AI
Per comprendere quale sia il modello più adatto, è importante prima capire come funzionano i processi di base dell’AI. Se conosci già cos’è un modello AI, come costruirlo e addestrarlo, vai direttamente alla sezione “Come scegliere i modelli di AI per la tua azienda”.
Un modello di Intelligenza Artificiale è un sistema computazionale addestrato per svolgere compiti come la previsione, la classificazione o la generazione di contenuti, grazie all’identificazione di patterns in un insieme di dati. I modelli poi trasformano i dati ricevuti come input nei compiti o output richiesti.
I modelli di AI operano in modo autonomo, facendo previsioni e prendendo decisioni basate sui dati con cui sono stati addestrati. La qualità dei dati di addestramento, pertanto, influisce direttamente sulla precisione e accuratezza del modello, aspetto cruciale per le aziende dei settori regolamentati, come i servizi finanziari o le assicurazioni, dove attività come il rilevamento delle frodi o l’analisi di contratti legali richiedono livelli di affidabilità impeccabili.
Ad esempio, per addestrare un modello a riconoscere i prodotti in una linea di produzione, è necessario fornire un elevato numero di immagini categorizzate come “prodotto generico” o “prodotto di marca”. Questi dati permettono al modello di riconoscere e distinguere le caratteristiche distintive di un prodotto generico rispetto a uno di marca di un brand specifico.
Ma c’è di più. Sviluppare modelli per settori altamente regolamentati richiede sfide specifiche tra cui: la disponibilità e accessibilità dei dati, e il mantenimento della riservatezza e della privacy delle informazioni aziendali, cosa che rende più difficile avere a disposizione grandi insiemi di dati (datasets) subito pronti all’uso.
Senza contare che questi modelli devono rispettare standard estremamente rigorosi, perché in contesti aziendali come quelli dei settori altamente regolamentati non esiste margine di errore, da cui l’importanza di avere a disposizione modelli che siano al tempo stesso sicuri, affidabili e accurati.
Come costruire un modello di AI
Ora che è chiaro come funzioni un modello AI, è utile sapere come costruirlo. Il ciclo di vita di un modello di AI si compone di tre fasi principali:
Fase 1: Preparazione dei dati
In questa fase, l’azienda raccoglie, pulisce e valuta la qualità dei propri dati e se ci sono bias presenti per poi prepararli per il processo di addestramento, nel rispetto degli standard aziendali.
Fase 2: Addestramento del modello
Durante questa fase, il modello apprende dai dati preparati nella Fase 1 utilizzando tecniche supervisionate o non supervisionate.
Con l’apprendimento supervisionato, il modello viene addestrato osservando input e output e imparando dai propri errori. Ad esempio, in un modello per il riconoscimento di immagini, come quello che abbiamo citato prima per distinguere tra prodotto generico e prodotto di marca, il processo inizia con risposte casuali. Successivamente, il modello aggiusta di volta in volta i suoi parametri (noti anche come pesi) per migliorare l’accuratezza. L’algoritmo alla base di questo processo – tipicamente la Update Rule – utilizza la backpropagation per ottimizzare i pesi del modello. Grazie ai labeled data (o ground truth), il modello può identificare e correggere gli errori nei propri output. Altri modelli, invece, usano processi di apprendimento non supervisionati - ovvero che non si basano su labeled data.
Fase 3: Deployment (Distribuzione)
Una volta addestrato, il modello entra nella fase di deployment, dove viene integrato in un sistema aziendale. La distribuzione di soluzioni come i Large Language Models (LLMs) – con 70 miliardi di parametri o più – è particolarmente complessa, poiché richiede molte risorse computazionali. Al contrario, modelli più piccoli, come computer vision models, possono funzionare su dispositivi embedded o IOT, che dispongono di capacità computazionali più limitate.
Oltre alle risorse computazionali, nella fase di deployment occorre fare attenzione anche alla latenza, specialmente per le applicazioni che devono restituire risultati in tempo reale. Per esempio, un modello VLM (Vision Language Model) supportato da video, deve analizzare e interpretare contenuti visivi e generare istantaneamente risposte accurate in linguaggio naturale.
Al contrario, l’inferenza offline è meno impegnativa in termini di prestazioni, poiché si concentra sul throughput. Un esempio è il sistema di raccomandazione di Netflix, che non si aggiorna in tempo reale, ma in orari programmati, ad esempio durante la notte.
Come addestrare un Large Language Model (LLM)
Ora che hai visto come costruirlo, passiamo alla fase di addestramento per avere un quadro completo. L'addestramento di un LLM (Large Language Model) si articola in tre passaggi principali: pre-training, fine-tuning e alignment.
Pre-training
Oggi, il pre-training consiste nel fare vedere al Large Language Model tutti i dataset disponibili su Internet (trilioni di token), per dare al modello una sorta di "capacità di base". In altre parole, anche una versione “base” di un LLM è dotata di una vasta conoscenza proveniente da Internet. Nella fase di pre-training, il modello impara la distribuzione di probabilità che modella il linguaggio e può completare determinati schemi con risposte che potrebbero essere o meno rilevanti. Ad esempio, se l'input nel modello è “un, due...”, il modello potrebbe restituire “tre” basandosi sugli schemi che ha appreso, indipendentemente dal fatto che la risposta sia o meno corretta.
Fine-tuning
Il fine-tuning consente al modello di specializzarsi. Rispetto al pre-training, richiede una quantità di dati inferiore e si basa su un diverso set di algoritmi. Nel fine-tuning supervisionato (Supervised Fine-Tuning, o SFT), il modello viene addestrato tramite l'inserimento di input affiancati da testi di riferimento, che guidano il processo di apprendimento e ottimizzazione.
Ad esempio, se la domanda in input è “Cosa puoi dirmi sull’e-commerce nel 2024?”, e il testo di riferimento è un report sulle tendenze dell’e-commerce del 2024, l'output iniziale di un modello non ancora addestrato potrebbe essere poco rilevante. A questo punto, l'algoritmo di fine-tuning modificherà i pesi del modello per allineare le sue risposte con i dati del report. Grazie all’iterazione di questo processo, il modello inizierà a fornire risposte via via più rilevanti e a interagire come in una normale conversazione.
Alignment (Allineamento)
L'ultima fase, detta alignment, perfeziona il modello aggiustando le risposte per adattarle a richieste specifiche, come il tono di voce o la capacità di sintesi. Una tecnica usata di solito in questa fase è la Direct Policy Optimization (DPO), che prevede la presentazione al modello di una domanda di input e due risposte, una accettata e l'altra rifiutata.
Ad esempio, la domanda di input potrebbe essere: “Cosa puoi dirmi sulle tendenze dell’e-commerce nel 2024?”, e le risposte potrebbero essere:
- Accettata (versione concisa): L’e-commerce nel 2024 è stato spinto da algoritmi di personalizzazione, pratiche sostenibili ed esperienze omnicanale senza interruzioni.
- Rifiutata (versione verbosa): Certo, posso dirti quello che so sulle tendenze dell’e-commerce nel 2024. Prima di tutto, devi sapere che l’e-commerce...
Secondo McKinsey, ci sono tre archetipi principali per portare l’Intelligenza Artificiale (AI) nei propri flussi aziendali.
Takers: soluzioni di AI pre-addestrate
I Takers utilizzano soluzioni di AI pre-addestrate, offerte da fornitori esterni, senza possibilità di personalizzazione. Queste soluzioni sono ideali per aziende che non hanno budget dedicato, o l’infrastruttura necessaria per implementare un sistema personalizzato, come nel caso di una piccola impresa che desidera integrare un chatbot con un modello pay-per-use. Tuttavia, queste soluzioni non offrono la flessibilità necessaria per casi d’uso più specifici. Le soluzioni preconfigurate si basano principalmente su modelli di linguaggio di grandi dimensioni (LLM).
Vantaggi
- Implementazione rapida
- Nessuna competenza di programmazione richiesta
- Costi ridotti al minimo
Svantaggi
- Rischi per la sicurezza dei dati
- Risultati generici
Come funziona: Richiede un’infrastruttura minima: si tratta di una soluzione plug-and-play che elabora i prompt utilizzando dati esterni.
Shapers: modelli ottimizzati
Gli Shapers migliorano i modelli pre-addestrati utilizzando dati proprietari per fornire risultati su misura. Questi modelli vengono generalmente implementati su infrastrutture private o locali che garantiscono la privacy dei dati. L’ottimizzazione di un modello AI di questo tipo richiede labeled data (vedi “Definizione e ruolo dei modelli AI”), il che rende questa soluzione costosa sia in termini di implementazione che di acquisizione dei dati. Questi modelli sono particolarmente utili per aziende di settori regolamentati, come le società di gestione patrimoniale che utilizzano l’AI per il rilevamento delle frodi.
Vantaggi
- Maggiore sicurezza e controllo dei dati
- Risultati personalizzati e rilevanti per attività specifiche
- Scalabilità e adattabilità
Svantaggi
- Costi elevati per infrastruttura ed expertise tecniche
- Richiede competenze di programmazione ridotte (low-code)
- Complessità nell’integrazione con i sistemi IT esistenti
Come funziona: Ospitato all'interno dell'infrastruttura dell'organizzazione, il modello riceve direttamente i dati e le informazioni necessarie ed è distribuito su piattaforme cloud capaci di aggregare e organizzare i dati provenienti da diverse fonti.
Makers: sviluppo di modelli AI proprietari
I Makers sviluppano modelli di AI da zero, adattando ogni aspetto alle loro esigenze specifiche. Questo approccio richiede vasti archivi di dati interni, competenze avanzate di AI e immense risorse computazionali. Ad esempio, un’azienda sanitaria potrebbe voler costruire da zero un modello AI diagnostico personalizzato per soddisfare esigenze complesse che nessun’altra soluzione potrebbe affrontare.
Vantaggi
- Indipendenza totale dai fornitori esterni
- Sicurezza completa dei dati
- Possibilità di personalizzazione totale del modello
Svantaggi
- Costi elevati
- Investimento significativo in termini di tempo e risorse (necessità di scrivere codice)
- Necessità di competenze tecniche molto avanzate
Come funziona: Il processo richiede lo sviluppo interno del modello, partendo dai dati grezzi, e la gestione autonoma delle infrastrutture e del codice.
In tutti e tre i casi, si fa uso di AutomML (Automatic Machine Learning), che è ormai uno standard grazie a sistemi che possono essere configurati in autonomia. Mentre fino a poco tempo fa erano necessari interventi manuali da parte di specialisti tecnici, oggi, anche per il 10% dei casi in cui AutoML non è sufficiente, il personale tecnico può utilizzare le stesse librerie di machine learning con componenti di base per creare una specifica configurazione.
Perché scegliere Modelli di AI custom
Per molte aziende, specialmente nei settori regolamentati, l'adozione di modelli di AI custom consente di unire i vantaggi dei modelli pre-addestrati con quelli proprietari. Le aziende leader nei vari settori hanno riportato che l'uso di modelli di AI custom ha contribuito fino al 20% del loro EBIT (Earnings Before Interest and Taxes, in italiano Utile Prima di Interessi e Imposte).
Questa strategia prevede l’acquisto di una soluzione di AI custom, arricchita con dati proprietari per soddisfare le specifiche esigenze aziendali. Invece di affrontare i costi elevati di un addestramento completo, tecniche come la Retrieval-Augmented Generation (RAG) permettono di estrarre dati rilevanti da fonti interne senza necessità di riaddestrare il modello, ottimizzando così costi e prestazioni. Al tempo stesso, è possibile implementare il modello sia nell'infrastruttura del cliente o nel cloud del fornitore, garantendo privacy e sicurezza dei dati.
I vantaggi di questo approccio sono diversi.
Sicurezza dei dati
I dati proprietari restano protetti all'interno dell'infrastruttura aziendale, riducendo al minimo il rischio di esposizione esterna. Implementando un modello di AI personalizzato su sistemi sicuri e privati, le aziende possono avere la certezza che le informazioni sensibili rimangano riservate, rispettando i requisiti di privacy e compliance aziendali. Inoltre, questo approccio offre un maggiore controllo su accesso e gestione dei dati, limitando il coinvolgimento di terze parti.
Efficienza finanziaria
Sviluppare un modello di AI da zero è possibile, ma richiede un enorme investimento in termini di costi, competenze, risorse computazionali e tempo. Un modello di AI personalizzato riduce questi costi sfruttando una base preconfigurata, poi adattata alle esigenze specifiche del business. Questo consente alle aziende di accedere a capacità avanzate di AI senza dover affrontare le spese ingenti di uno sviluppo da zero.
Personalizzazione
L’AI custom unisce i punti di forza di una soluzione pre-addestrata con la capacità di adattare i risultati a specifici casi d’uso. Integrando dati proprietari ed esigenze aziendali, le aziende possono ottenere risultati accurati, rilevanti e contestualizzati. Inoltre, la combinazione dell’esperienza del fornitore (ovvero chi vende il modello pre-addestrato) con le personalizzazioni richieste dall’azienda consente alla soluzione in questione di svolgere compiti mirati, come il rilevamento di anomalie o le raccomandazioni personalizzate, differenziandosi dai competitors che utilizzano invece soluzioni uguali per tutti.
Unicorn: Soluzioni AI sicure e personalizzate
Unicorn è una soluzione di AI personalizzata per le aziende dei settori altamente regolamentati che vogliono implementare l’AI in modo sicuro nella propria organizzazione.
Unicorn offre un pacchetto completo: un modello pre-addestrato, la possibilità di ottimizzarlo con i propri dati aziendali, la flessibilità di implementarlo sia nella tua infrastruttura aziendale, che nel cloud di iGenius, e un servizio di supporto clienti costante.
Questa soluzione permette alle aziende di avere un modello proprietario sicuro e affidabile, ma con il valore aggiunto dell’esperienza del team di iGenius.
Collegando le fonti di dati aziendali a un modello custom tramite RAG - senza bisogno di codice -, la tua azienda potrà ottimizzare il proprio modello e ottenere sempre informazioni precise e affidabili, in linea con le esigenze specifiche di business.
Grazie a un modello AI avanzato che “parla la lingua” dell’organizzazione, questo approccio consente alle aziende di generare contenuti e prendere decisioni informate garantendo la massima privacy e sicurezza.
Come abbiamo visto in questo articolo, la decisione di creare un modello di AI o acquistare una soluzione pronta all’uso dipende da tanti fattori diversi. Inizia facendo una corretta valutazione e analisi delle esigenze della tua azienda. Una volta stabilite, valuta il budget disponibile, le risorse e le competenze tecniche a disposizione, l’infrastruttura e i requisiti interni di sicurezza e privacy.
Solo allora potrai scegliere la soluzione AI che si adatta meglio ai tuoi obiettivi aziendali, facendo attenzione a rispettare le normative e a proteggere la privacy e la sicurezza dei tuoi dati.
Tieni presente che optare per modelli AI custom potrebbe essere un’ottima soluzione, in grado di unire l’efficienza dei modelli pre-addestrati con l’ottimizzazione degli stessi grazie ai dati proprietari. Riflettere su questi aspetti aiuterà la tua azienda a scegliere la soluzione AI più adatta agli obiettivi, bilanciando efficienza, costi e personalizzazione.
Domande frequenti
Gli LLM custom (Custom LLMs) sono modelli pre-addestrati ottimizzati con dati proprietari per rispondere a esigenze specifiche di un'organizzazione. Sono particolarmente vantaggiosi perché rappresentano una soluzione conveniente, garantiscono la privacy e la sicurezza dei dati aziendali e possono essere addestrati per svolgere compiti specifici e focalizzati sulle necessità dell'azienda.
L’inferenza è il processo in cui un modello genera un output (come una risposta o un’attività) partendo da un input fornito dall’utente. Basandosi sui dati di addestramento, il modello è in grado di riconoscere degli schemi anche in dati mai visti prima (ad esempio una nuova domanda dell’utente), simulando capacità di ragionamento e previsione simili a quelle umane. Per fare un esempio: dopo essere stato addestrato a identificare correttamente un elemento, l’inferenza è la fase in cui il modello riesce finalmente a identificare quello stesso elemento all’interno di un insieme di dati casuali.
Il Natural Language Processing (NLP) e gli LLM sono fondamentali per potenziare le capacità linguistiche dell’AI. L’NLP comprende le diverse tecniche che i computer utilizzano per comprendere e generare linguaggio umano, concentrandosi sulla semantica e sulle strutture del linguaggio. Gli LLM, invece, sono modelli di grandi dimensioni addestrati su enormi quantità di dati per prevedere quale parola o frase è più probabile che appaia successivamente in una sequenza. In altre parole, gli LLM generano testo basandosi su schemi statistici appresi dai dati. L’NLP mira a comprendere il linguaggio umano, mentre gli LLM si distinguono per la loro capacità avanzata di prevedere e generare testo coerente e contestualizzato su larga scala, pur non comprendendo il linguaggio in senso stretto.