Premessa doverosa: questo testo è stato pensato e scritto da un umano.

Chi usa motori di IA generativa potrebbe capirlo al volo, altri devono fare un atto di fede, e magari cogliere questo come uno stimolo a sviluppare le proprie capacità di valutazione critica, sempre più importanti d’ora in poi nell’interazione con questi strumenti.
Tuttavia ho chiesto all’IA di creare in meno di un minuto un’immagine originale da associare a questo post, che fosse “in stile cartoon in cui si vede un uomo di fronte ad un robot di dimensioni 1,5 volte quella dell’uomo, con l’uomo e il robot che si guardano incuriositi”. Ho usato ChatGPT/Dall-E ma avrei anche potuto usare altri servizi “text-to-image” già disponibili come Gemini/Imagen3, MidJourney, etc.

Questa piccola premessa creativa è forse uno stimolo a focalizzare il confronto, le differenze e il valore aggiunto tra attori umani e controparti artificiali. Il bilancio tra IA e Umani non è solo un aspetto etico o culturale, ma è un tema di valutazione molto pratico e tecnico che, come succede all’arrivo di ogni innovazione dirompente, dovrebbe farci concentrare sui punti di forza e sul valutare i rischi in caso di uso improprio.

L’Intelligenza Artificiale è indubbiamente uno strumento potente, capace di amplificare enormemente le capacità umane. Tuttavia, è basata su software, algoritmi, matematica ed elettronica tradizionali, ovvero soluzioni deterministiche che non potrebbero mai generare coscienza o altre qualità intrinseche e proprie degli esseri viventi evoluti – peraltro, queste ultime, ancora completamente inesplorate e quindi tantomeno ingegnerizzabili. Forse in futuro qualcosa cambierà, man mano che progrediremo in campi ancora poco avanzati (ad es. fisica quantistica) ma questa è tutta un’altra storia.

Il confine tra dove finisce l’IA e inizia l’uomo – o situazioni in cui IA e umani si intervallano in flussi collaborativi più complessi – non è fisso ma varierà nel tempo in funzione dello sviluppo di questa tecnologia, delle applicazioni costruite integrando questa ed altre tecnologie, della qualità dei componenti usati per costruire le soluzioni, e delle esigenze degli utenti finali.

Si tratta di aspetti fondamentali su cui vorrei concentrarmi in futuro, approfondendo specifici casi d’uso.

1- Definire la IA

Una delle definizioni più complete è quella usata nell’AI Act Europeo (2024/1689, Luglio 2024) e condivisa dall’organizzazione OECD, laddove si indicano le capacità chiave di un sistema di IA: autonomia, adattività, generazione di predizioni, contenuti, raccomandazioni o decisioni a partire da input ricevuti, influenza su ambienti fisici e virtuali.

Ma cosa ne “pensano” gli stessi sistemi di IA al momento più evoluti? Provate a chiederlo voi direttamente. Io l’ho chiesto sia a Gemini (Google) che a ChatGPT (OpenAI) e le loro risposte fanno intuire come questi due servizi sono stati addestrati: ChatGPT dà una definizione in cui menziona subito la futura “IA Generale” con capacità cognitive simili a quelle umane, mentre Gemini dà una risposta più pratica, ancorata al presente e a casi specifici, un pò più nello stile pragmatico di Google e meno nello stile di OpenAI, che invece tende a enfatizzare potenzialità future e l’inesorabile approssimarsi alle capacità umane.

Volendo fare una sintesi, proporrei comunque di usare la definizione fornita nel regolamento EU, generalizzando e includendo nel termine “contenuti” tutto ciò che una IA possa generare (quindi anche decisioni e raccomandazioni):
Un sistema di IA è un sistema automatico in grado di generare predizioni e contenuti e con questi influenzare l’ambiente circostante.

2- Migliorare i risultati con IA

Se la definizione è chiara, ora serve “metterla a terra”, con applicazioni concrete per eseguire compiti specifici, tanto da renderli simili al comportamento umano.

Vediamo come costruire queste soluzioni, con un’occhiata ai costi e alle competenze necessari.

3- Risorse!

Un tema trasversale e di cui ormai si parla spesso è quello delle risorse e delle infrastrutture hardware necessarie per eseguire il software, utilizzare i dati e rendere fruibili le applicazioni di IA ad una platea che può raggiungere le centinaia di milioni di utenti, come quelli che già oggi usano servizi come ChatGPT, Gemini, Claude, etc.

Questo tema ha un impatto economico e geopolitico importante perché riguarda la disponibilità di server nei data center (con impiego di migliaia di CPUs e GPUs), il consumo di materie prime per produrre questo hardware, l’energia elettrica necessaria per alimentare il tutto, l’impatto ambientale dovuto alla produzione di tale energia, e non ultimo il monopolio tecnologico da parte di alcuni fornitori, in particolare chi attualmente produce sistemi basati su GPU-Graphics Processing Unit da usare su larga scala (NVIDIA tra i più noti).

Il tema delle risorse riguarda soprattuto i provider di servizi che implementano su larga scala piattaforme utilizzate contemporaneamente da migliaia o milioni di utenti. Siamo passati dai “semplici” problemi di scalabilità e connettività dei portali web Internet che preoccupavano nei primi anni del 2000, alle esigenze attuali e future delle architetture di Intelligenza Artificiale Generativa che oltre a gestire il traffico generato da milioni di utenti, devono essere dimensionate per elaborare moli immense di dati (quantificati come “tokens”) usando una mole altrettanto immensa di “parametri” (proporzionali alla complessità dei modelli), sia in fase di addestramento che di utilizzo (inferenza) del servizio.
Ad esempio LLama3 400B (Meta), uno dei migliori modelli di IA generativa ad oggi disponibili (metà 2024), è addestrato su una base di dati enorme con 15T (trilioni) di tokens equivalenti a circa 11 trilioni di parole (circa 1-2 volte le parole contenute in Wikipedia inglese) usando 400B (miliardi) di parametri: una sola sessione di addestramento di questo modello comporta l’impiego di data center con migliaia di GPUs usate senza sosta per decine di giorni, con consumi di decine di MWh e costi complessivi di decine di Milioni di euro (50M$ o più). E’ evidente che se l’energia usata non fosse di tipo rinnovabile, si porrebbe un problema non trascurabile di impatto ambientale per le tonnellate di CO2e generate.

A differenza di altre tipologie di IA, per cui infrastrutture di calcolo maggiori non sempre migliorano i risultati (generando ad esempio problemi di overfitting), per i modelli di IA generativo (o LLM Large Language Models) il miglioramento dei modelli è proporzionale alla loro dimensione e quindi all’infrastruttura di calcolo sottostante, e non è ancora dimostrata l’esistenza di un limite a questo tipo di miglioramento!
Per questo è ormai partita la corsa al finanziamento e alla realizzazione di data center sempre più estesi e potenti, per cui si stima che l’incidenza del loro consumo energetico in alcune regioni passerà dall’attuale 1-2% al 20% circa nel 2030.

4- Applicazioni e casi d’uso

Vista la molteplicità dei casi d’uso, è importante introdurre una classificazione che, ad esempio, tenga conto del tipo di utenti, della criticità dei dati gestiti, dei costi di realizzazione e d’uso delle applicazioni.

Gli utenti individuali che usano l’IA per produttività personale, hanno già a disposizione vari servizi online basati su LLMs con cui possono, ad esempio:

  • fare ricerche avanzate
  • generare o riassumere contenuti (testi, immagini, suoni, video)
  • scrivere codice
  • tradurre testo
  • analizzare dati
  • generare previsioni
  • pianificare al meglio attività
  • semplificare procedure operative complesse
  • ottenere consulti specialistici (medicina, amministrazione, legale, etc) eventualmente all’interno di ambienti sperimentali (sandboxes) e con l’intermediazione diretta di professionisti umani.

 

E’ importante sottolineare che, quando si usano questi servizi, anche se l’interazione sembra avvenire con il solo assistente virtuale di IA Generativa (LLM), in realtà possono essere impiegati (in modo trasparente per l’utilizzatore) anche altri modelli di ML specialistici, filtri software per limitare input e output, storage per memorizzare le conversazioni, sistemi per registrare e autorizzare gli utenti.

Molti di questi servizi sono disponibili in forma gratuita (con limitazioni) o a pagamento (con minori limitazioni e migliori livelli di servizio). Il modello di business adottato dai providers prevede generalmente la raccolta di dati anonimizzati a scopo di ulteriore ricerca e miglioramento.
In ogni caso, così come già successo con l’introduzione in passato dei motori di ricerca gratuiti sul web, si tratta di un nuovo importante esempio di democratizzazione dell’innovazione.

Passando alle aziende, i casi d’uso assumono caratteristiche ben diverse, soprattutto per la criticità dei dati gestiti, la personalizzazione necessaria, il costo di implementazione.
L’IA arriva ormai anche nelle aziende più “lente”, grazie ai dipendenti che iniziano ad usare spontaneamente gli LLMs online, una volta scoperti i vantaggi per la produttività individuale. Questo dovrebbe far riflettere le aziende che, per policies fin troppo restrittive, tendono addirittura a vietare ai dipendenti l’uso di tali servizi, senza preoccuparsi di innovare e mettendo così a rischio la propria competitività.

Nelle applicazioni di produttività individuale è lo stesso utilizzatore a fare da “integratore manuale”, utilizzando uno o più tools o servizi diversi a seconda dell’obiettivo. Le soluzioni di IA aziendali necessitano invece di personalizzazione e integrazione strutturate, che includano la raccolta di dati, i processi di aggiornamento e training delle applicazioni, le interfacce di fruizione delle funzionalità da parte degli utenti.
Una dimensione importante di analisi, soprattutto in termini di costi, riguarda il tipo di architetture da implementare: conviene usare il cloud e servizi esterni (costruendo architetture SaaS, PaaS o IaaS) o piuttosto propria infrastruttura e software eseguito localmente? Conviene utilizzare software e sistemi proprietari (closed source), o piuttosto applicazioni con licenza open source?
A seconda delle scelte, i costi possono variare anche di 10 volte, tenendo presente che soluzioni completamente locali comportano ulteriori investimenti e spese operative non solo per l’infrastruttura (capacità di calcolo) ma anche per le competenze richieste, spesso ben diverse dal core business delle stesse aziende.
La dimensione delle aziende (grandi, piuttosto che medie, piccole o micro) è un fattore determinante, viste le diverse capacità di investimento e la mole di dati prodotti.
Se ben consapevoli dei costi necessari, è comprensibile che le aziende possano rimettere in discussione eventuali policies interne troppo restrittive (sicurezza, protezione proprietà intellettuale) e valutare meglio i modelli di responsabilità condivisa proposti dai cloud service providers, o il reale valore dei propri dati in gioco nel caso fossero coinvolti in ipotetiche falle di sicurezza.

Volendo elencare alcuni esempi concreti di applicazioni aziendali, potremmo distinguere le seguenti tipologie:

  • Soluzioni per obiettivi specifici (task-based) realizzabili con modelli di IA e Machine Learning già consolidati, come ad esempio:
    • pianificazione attività manifatturiere, gestione materie prime, manutenzione predittiva, R&D, analisi domanda, etc -> uso di modelli di regressione, classificazione e forecasting di dati, analisi di testo, raccomandazione
    • sicurezza, rilevazione guasti, controllo qualità, supporto a produzione e packaging, etc -> oltre ai precedenti, uso di modelli di computer vision, clustering, anomaly detection
    • digital twin aziendali, ovvero simulazione di interi processi produttivi (Industry 4.0) o di ricerca e sviluppo -> opportuna integrazione di più modelli come i precedenti.
 
NB: Nel corso di questi ultimi anni queste soluzioni sono state enormemente migliorate grazie ai risultati ottenuti da ricerca accademica, alcuni grossi provider di servizi (Google, Meta, Apple fino alla più recente OpenAI) o le R&S industriali di alcune aziende. Questi attori, supportati da infrastrutture e cluster di calcolo sempre più performanti, hanno focalizzato ideazione o affinamento di architetture sempre più efficienti e adattate a scopi precisi, con la combinazione – potenzialmente infinita – di “strati” di modelli e algoritmi, diversi tra loro o ripetuti. Con questo lavoro, spesso di pura intuizione e sperimentazione, ad architetture deep neural networks più “tradizionali” si sono aggiunte tipologie come RNN (Recurrent Neural Networks), e CNN (Convolutional Neural Networks), fino ad arrivare ai recenti sviluppi su NLP (Natural Language Processing), Attention Mechanism e Transformers, tanto importanti da generare una tipologia di soluzioni  come la seguente.
 
  • Soluzioni aggiuntive ora realizzabili con aggiunta di modelli di IA Generativa (LLMs), come:
    • assistenti virtuali o co-pilot a disposizione di dipendenti, ovvero la possibilità di aggiungere un’interazione basata su linguaggio naturale a processi, macchine e sistemi di controllo, gestionali di produzione, archivi di dati, etc sfruttando la capacità di questi modelli di elaborare in tempo reale tutte le informazioni disponibili, e generare output immediatamente utilizzabili
    • assistenti virtuali o co-pilot a disposizione di clienti per assistenza diretta pre- e post-vendita, con performance e livelli di accettazione ben superiori ai chat-bot conosciuti finora
    • gestione della knowledge-base aziendale ovvero analisi e digitalizzazione (embedding) continua di dati e documenti aziendali, affinché gli assistenti virtuali possano disporre ed usare al meglio dati aziendali continuamente aggiornati.

 

E’ evidente che le soluzioni di IA ad uso aziendale necessitano di opportuna progettazione, integrazione e preparazione, inclusa la scelta tra adattare o addestrare modelli di IA (costoso) o piuttosto utilizzare modelli già pre-addestrati e dati a runtime, tra usare infrastruttura di calcolo proprietaria (costoso) o piuttosto implementare il tutto su infrastrutture o servizi condivisi in cloud.
Non ultima, la tendenza delle aziende ad aggregarsi nelle proprie filiere per esigenze di performance, competitività e sostenibilità costituirà certamente un ulteriore stimolo a razionalizzare, scegliendo le migliori soluzioni possibili.

Ancora una volta, un modo intelligente di procedere è iniziare nel piccolo, realizzando un progetto pilota che spesso ha costi davvero trascurabili.

 
Photo credits: ChatGPT-DALL-E
 
 
 

Puoi seguirci o contattarci attraverso il tuo canale preferito: Facebook, Twitter, Linkedin.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *