L'AI non è pronta. Le aziende lo sono ancora meno
L'AI non è pronta. Le aziende lo sono ancora meno

L'AI non è pronta. Le aziende lo sono ancora meno

Perché l'intelligenza artificiale in azienda richiede molto più di un buon modello. Il vero ostacolo all'adozione dell'AI in azienda non è la qualità dei modelli. È la qualità dell'infrastruttura informativa su cui quei modelli devono operare.

Quando un'azienda decide di adottare l'intelligenza artificiale, la prima domanda riguarda quasi sempre il modello: quale scegliere, come addestrarlo, su quale cloud farlo girare. È la domanda sbagliata – o meglio, prematura. Un modello eccellente su dati poveri produce risultati poveri. La metafora viene dalla vecchia informatica: garbage in, garbage out. Nell'era dell'AI, il garbage non è solo rumore nei dati: è frammentazione, ambiguità semantica, conoscenza non strutturata e non governata.

Il problema del dato strutturato: integrazione, qualità, governance

La prima sfida riguarda i dati che vivono negli ERP, CRM, MES e sistemi operativi. Qui le criticità sono tre. La prima è l'integrazione: il vero problema delle aziende non è avere pochi dati, ma averne troppi, dispersi in sistemi non comunicanti, con fogli Excel che fungono da ponte fragile tra tutti. Dare all'AI accesso a questo ecosistema frammentato richiede scelte architetturali strategiche, non solo tecniche.

La seconda è la qualità: dati duplicati, incompleti o non aggiornati producono risposte sbagliate date con sicurezza – uno dei rischi più insidiosi dell'AI enterprise. La terza è la governance dell'accesso: non tutti i sistemi di AI devono poter interrogare tutti i database. Definire chi ha titolo ad accedere a quali dati, in quale contesto, è un requisito sia normativo (GDPR, AI Act) sia organizzativo.

Il contesto semantico: il dato senza significato è rumore

Anche con dati integrati e di qualità, rimane un problema più sottile: il contesto semantico. "Gross margin" per una divisione ha un significato diverso da "gross margin" per un’altra. "Cliente" nell'ERP può avere una definizione diversa da "cliente" nel CRM. Senza un layer semantico condiviso (un glossario aziendale che stabilisca cosa significa ogni termine, in ogni contesto, per ogni divisione) il modello risponderà correttamente alla domanda sbagliata.

Costruire questo layer non è glamour e non appare nei comunicati stampa. Ma è la differenza tra un sistema di AI che risponde e uno che capisce.

La conoscenza non strutturata: ciò che l'azienda sa ma non governa

Accanto ai dati strutturati esiste il patrimonio documentale: contratti, e-mail, presentazioni, proposte, organigrammi, codice sorgente, verbali. È la memoria vivente dell'azienda. I modelli linguistici moderni sono potenti nell'elaborare questi contenuti, ma solo se quella conoscenza è accessibile, organizzata e aggiornata.

Nella realtà, questa conoscenza è dispersa in cartelle condivise, caselle e-mail, intranet obsolete e repository non manutenuti. Non esiste, nella maggior parte delle aziende, un sistema coordinato di knowledge management. Ogni funzione gestisce il proprio sapere con logiche autonome. Il risultato è che l'AI accede a una base documentale caotica e produce risposte caotiche; oppure, peggio, non accede affatto e il patrimonio resta inutilizzato.

Il rischio Shadow AI: quando la conoscenza esce dalla porta

Il leakage non è un rischio futuro. È un rischio presente, che avviene ogni giorno in cui un dipendente copia un documento riservato in una finestra di chat consumer.

Mentre le aziende costruiscono (o rimandano) le proprie infrastrutture AI, le persone trovano soluzioni alternative. Il fenomeno si chiama Shadow AI ed è l'erede diretto del Shadow IT degli anni 2000: dipendenti che usano ChatGPT, Claude o altri sistemi consumer per lavorare, condividendo inconsapevolmente codice sorgente, contratti, dati di clienti, strategie aziendali con sistemi non governati.

La risposta non è il divieto, raramente funziona e crea solo un AI sommersa ancora meno visibile. È costruire alternative interne capaci, sicure e facili da usare, accompagnate da policy di Acceptable Use chiare. Le persone usano strumenti consumer perché funzionano. La soluzione aziendale deve competere su quella dimensione, non solo su quella della sicurezza.

Il paradosso della produttività: più output non è più valore

C'è un ultimo rischio che emerge quando l'AI inizia a funzionare davvero: il paradosso della produttività. L'AI aumenta l'output individuale: più codice, più presentazioni, più analisi. Ma più output non significa più valore.

Il primo effetto è il volume inflation: il costo non scompare, si sposta da chi produce a chi consuma. Chi riceve il codice deve comunque revisionarlo. Chi legge la presentazione deve comunque valutarla. Se il ritmo di consumo non si adegua, si crea overload informativo e rallentamento decisionale.

Il secondo è il boundary blurring: l'AI abbassa le barriere di dominio. Un junior produce architetture software, un commerciale genera analisi finanziarie. I semilavorati sembrano completi ma non lo sono, e chi deve validarli spesso non ha il tempo (né il contesto) per accorgersene. Il terzo effetto è la diffusione dell'accountability: quando tutti producono tutto, la catena di responsabilità si opacizza. Governare l'AI significa anche governare i ruoli: chi può fare cosa, con quale supervisione, con quale responsabilità sull'output.

Tre priorità per chi vuole fare sul serio

  • Investire nel dato prima che nel modello. L'integrazione, la qualità e il layer semantico sono prerequisiti, non optional. Prima di scegliere il modello, l'azienda deve chiedersi: i miei dati sono integrati? Sono semanticamente consistenti? Se la risposta è no, qualsiasi investimento in AI sarà sub-ottimale.
  • Costruire un sistema coordinato di knowledge management. La conoscenza non strutturata è un asset strategico. Trattarla come tale significa investire in sistemi capaci di raccoglierla, organizzarla e mantenerla accessibile. Questo investimento ha valore indipendentemente dall'AI: un'azienda che sa dove si trova la propria conoscenza è più resiliente.
  • Governare l'uso, non solo la tecnologia. La governance dell'AI non è un problema IT. Richiede policy di Acceptable Use, una riflessione sui ruoli e sulle responsabilità, una cultura della supervisione critica. L'AI non elimina il bisogno di giudizio umano, lo trasforma.

Conclusione

L'intelligenza artificiale amplifica ciò che trova. Troverà dati frammentati e li frammenterà ulteriormente. Troverà conoscenza non governata e la renderà ancora più difficile da gestire. Ma troverà anche, dove esiste, un'organizzazione che sa cosa sa e in quel caso genererà valore in misura proporzionale a quella maturità.

L'AI non è un problema tecnologico. È un test di maturità organizzativa. Le aziende che lo passeranno non sono necessariamente quelle con i modelli migliori, ma quelle che avranno fatto i compiti più noiosi e più necessari: integrare i dati, governare la conoscenza, definire i ruoli.

Il momento per fare questi compiti è adesso, prima di scegliere il modello, prima di lanciare il pilota, prima che il problema diventi abbastanza grande da non poter essere ignorato.

 

 Articolo a cura di Alessandro Geraldi, Group CEO Impresoft, pubblicato su HuffPost : https://www.huffingtonpost.it/economia/2026/04/01/news/lai_non_e_pronta_le_aziende_ancora_meno-21578989/ 

Rectangle 67

Scopri i servizi Impresoft per una digitalizzazione sostenibile

Parner 0

Vuoi metterti in contatto con noi?