L’entusiasmo iniziale per l’IA, quest’anno, si è placato e le aspettative sono diventate più realistiche [in inglese]. Ciò è particolarmente vero per le implementazioni aziendali, in quanto le capacità dei modelli esistenti, unite alla complessità di molti flussi di lavoro aziendali, hanno portato a progressi più lenti di quanto molti si aspettassero. Al centro di tutto questo c’è la consapevolezza di molti utenti aziendali che non c’è I nell’AI – almeno finora. I modelli linguistici di grandi dimensioni (LLM) sono ottimi nell’individuare modelli in tutti i tipi di dati, e poi a creare artefatti in risposta alle richieste degli utenti che corrispondono a questi modelli. Ma questa non è intelligenza in senso umano. La propensione dei LLM a inventare informazioni plausibili ma imprecise ne è la prova.
Nonostante queste limitazioni e le preoccupazioni dei CIO sui costi dell’AI, quest’anno sono stati compiuti progressi reali e possiamo aspettarci di vederli crescere ulteriormente nel 2025. Vedo che questo si concretizza in 5 aree chiave.
Aumentare i dipendenti, non sostituirli
Che si tratti di tagliare i costi, innovare nuovi prodotti e servizi o migliorare la buyer expertise, la costruzione di un vantaggio competitivo è al centro della maggior parte delle implementazioni tecnologiche, e l’AI non è diversa. Tuttavia, l’ampia disponibilità di LLM, aperti e chiusi, e degli strumenti per implementarli, mette l’AI è a disposizione di tutte le imprese. Come la rivoluzione dei PC degli anni ‘80 e ‘90, e l’ascesa del cloud computing e del SaaS nei primi anni 2000, quando tutti hanno accesso agli stessi strumenti è il modo in cui vengono utilizzati che conferisce un vantaggio competitivo.
Con l’AI, questo significa aumentare la base di competenze esistenti e sfruttare le risorse umane. Le aziende che considerano l’AI come un sostituto dei lavoratori qualificati ed esperti, prenderanno la strada sbagliata. La conoscenza dei dipendenti dei prodotti, dei processi e dei mercati in cui operano e dei clienti a cui vendono è spesso non codificata e tacita. Supponendo che una tecnologia possa catturare questi elementi, fallirà come molte “soluzioni” di gestione della conoscenza negli anni ‘90, cercando di raggiungere l’impossibile. Michael Hobbs, fondatore della piattaforma per il belief e la compliance isAI, concorda. “Si possono ottenere risposte rapide dai sistemi di intelligenza artificiale”, afferma. “Ma i CIO devono chiedersi se si tratta di risposte valide e se stanno facendo crescere la base di competenze all’interno dell’azienda, accrescendola con gli strumenti, o se la stanno fondamentalmente riducendo”.
Se le preoccupazioni sulla saturazione degli LLM sono corrette, possiamo aspettarci rendimenti decrescenti da ogni GPU aggiuntiva utilizzata per creare nuovi modelli. In questo situation, l’utilizzo dell’IA per migliorare le capacità dei dipendenti, basandosi sulla base di conoscenza esistente, sarà fondamentale.
Concentrarsi sulle risorse di dati
Sulla base del punto precedente, nel 2025, le risorse di dati di un’azienda e i suoi dipendenti diventeranno sempre più preziosi. I Basis Mannequin (FM), per loro stessa natura, sono basati su un’ampia gamma di dati raccolti e reperiti da più fonti pubbliche. La scala di questa formazione li rende capaci di fornire risposte a domande generali, ma limita il loro valore alle esigenze specifiche della maggior parte delle aziende. La Retrieval Augmented Era (RAG) offre un percorso per combinare i dati proprietari con le capacità di un LLM per ottenere risultati più mirati e pertinenti. Forrester prevede che i servizi RAG diventeranno un’offerta chiave per la maggior parte dei fornitori di cloud nel 2025, offrendo alle aziende una scelta più ampia di fornitori e, probabilmente, offerte a prezzi competitivi.
Per beneficiare di questa più ampia gamma di servizi RAG, le imprese devono assicurarsi che i loro dati siano pronti per l’AI. Ciò comporta le attività prosaiche ma essenziali di una buona gestione delle informazioni: pulizia dei dati, deduplicazione, convalida, strutturazione e verifica della proprietà. Anche il software program di governance dell’AI diventerà sempre più importante in questo processo, con Forrester che prevede che la spesa per le soluzioni off-the-shelf sarà più che quadruplicata entro il 2030, raggiungendo quasi 16 miliardi di dollari.
Quanto prima le aziende identificheranno le risorse di dati di tutta l’azienda, adotteranno un approccio creativo al loro utilizzo e le porteranno nella condizione di essere pronte per l’AI, tanto prima saranno in grado di trarre vantaggio dai nuovi servizi RAG in arrivo nel 2025.