La Gen AI, un nuovo modo di relazionarsi con la conoscenza
LO SCENARIO
Il nostro rapporto con i dati sta cambiando e, con esso, cambia il modo in cui pensiamo, lavoriamo e interagiamo con la tecnologia. È una rivoluzione alle fondamenta della digital enterprise.
La ricerca dei dati sta passando dal modello “consultazione” al modello “advisor”. Anziché effettuare delle ricerche per poi vagliare i risultati ottenuti, ora le persone chiedono ai chatbot dell’AI generativa di produrre delle risposte. Ricordiamo che OpenAI ha lanciato ChatGPT nel novembre 2022 e, in breve, è diventata l’app a più rapida crescita di sempre. I Large Language Models (LLM) esistono da anni, ma l’abilità con cui ChatGPT risponde alle domande in modo diretto e conversazionale ha fatto la differenza.
I dati sono uno degli elementi più importanti di un business digitale. I nuovi chatbot che sintetizzano enormi volumi di informazioni per fornire risposte e consigli, usano diversi tipi di dati, ricordano conversazioni precedenti e persino suggeriscono la domanda successiva, stanno scardinando i vecchi trend. Alla fine questi chatbot possono operare come advisor LLM e le istituzioni potrebbero mettere questi modelli, e la loro estesa conoscenza dei dati interni, a disposizione di ciascun dipendente. Ciò potrebbe liberare il valore nascosto dei dati e permettere, finalmente, alle imprese di realizzare la promessa del data-driven business.
Il 95% degli executive ritiene che l’AI generativa renderà inevitabile per la loro organizzazione modernizzare l’architettura tecnologica.
RAFFORZARE LA DATA FOUNDATION
Le nuove tecnologie possono aiutare le Istituzioni a rafforzare la loro data foundation e a prepararsi per il data-driven business del futuro. Qualunque sia il punto di partenza di un organizzazione, gli advisor Large Language Model esigeranno una data foundation che sia più accessibile e contestualizzata che mai.
Large Language Model (LLM) è un modello di intelligenza artificiale avanzato che ha lo scopo di comprendere e generare testi naturali in modo simile agli esseri umani
Knowledge graph (grafo della conoscenza) è oggi una delle tecnologie più importanti. Si tratta di un data model strutturato come un grafo che include le entità del mondo reale e illustra la relazione tra di loro. Un knowledge graph non solo può aggregare informazioni da più fonti e supportare una migliore personalizzazione, ma può anche allargare l’accesso ai dati attraverso la ricerca semantica.
In aggiunta ai knowledge graph, data mesh e data fabric sono due modi per aiutare a mappare e organizzare le informazioni che le aziende e le Istituzioni dovrebbero valutare
in fase di aggiornamento della loro architettura complessiva.
Data mesh è un’architettura di dati decentralizzata che organizza i dati in base a uno specifico dominio di business, come marketing, vendite o servizio clienti. In questo modello, i produttori di dati diventano proprietari dei loro dataset, consentendo loro di impostare politiche di governance e garantire la qualità e l’accesso ai dati.
Data fabric è un’architettura che integra diverse fonti di dati e ambienti cloud attraverso sistemi intelligenti e automatizzati1. Questo approccio facilita l’unificazione dei dati, migliora l’efficienza, democratizza l’accesso ai dati e co nsente la protezione dei dati di un organizzazione.
LLM: ALLA SCOPERTA DI UNA NUOVA INTERFACCIA DATI
Knowledge graph, data mesh e data fabric sarebbero già di per sé, un passo avanti per i sistemi di knowledge management. Ma si può ottenere ancora più valore spostandosi dal modello “consultazione” a quello “advisor”. Immaginiamo se i dipendenti, anziché digitare in una barra di ricerca, potessero fare domande in linguaggio naturale e avere risposte chiare su ogni sito web e app di un organizzazione. Con una data foundation accessibile e contestualizzata questo è finalmente possibile.
Prima opzione: le Istituzioni possono addestrare da zero i loro modelli LLM. Questo approccio, tuttavia, è raro perché richiede ingenti risorse.
Una seconda opzione è quella di fare “fine-tuning” di un LLM esistente. Questo significa, in pratica, prendere un LLM più generale e adattarlo a un preciso ambito addestrandolo ulteriormente su un set di documenti domain-specific. Di conseguenza è la scelta migliore in ambiti molto specifici in cui non è necessario disporre di informazioni in tempo reale, come gli output creativi nella progettazione e nel marketing.
Le aziende e le Istituzioni hanno inoltre cominciato il fine-tuning di modelli di linguaggio di dimensioni più piccole (SLM) per casi d’uso specializzati. Questi SLM sono più efficienti, visto che hanno bisogno di meno energia impattando meno sull’ambiente e possono anche essere addestrati più velocemente e usati su dispositivi più piccoli e locali (edge).
Infine, uno degli approcci più utilizzati nella realizzazione di advisor LLM è quello di fare un “grounding” degli LLM pre-addestrati fornendo loro informazioni più rilevanti e specifiche per il singolo caso d’uso, tipicamente tramite la retrieval augmented generation (RAG).
Il settore dell’AI generativa e degli LLM si sta evolvendo rapidamente. Ma, qualunque opzione scegliate di sperimentare, una cosa non cambierà: la vostra data foundation deve essere robusta e contestualizzata o il vostro advisor LLM risulterà poco efficiente.
CAPIRE E MITIGARE I RISCHI
Le imprese e le organizzazioni che esplorano le nuove possibilità aperte dagli advisor LLM devono capire quali sono i rischi associati.
Pensiamo alle “allucinazioni” come una caratteristica quasi intrinseca degli LLM. Siccome sono addestrati per produrre risposte probabilistiche con un alto livello di certezza, a volte questi advisor restituiscono informazioni non corrette ma verosimili.
Anche se le allucinazioni sono forse il rischio più noto degli LLM, ci sono altri problemi che bisogna considerare. Se si usa un modello pubblico, i dati proprietari devono essere attentamente protetti. Anche nei modelli privati i dati non possono essere condivisi con tutti i dipendenti, ma poche persone hanno le conoscenze necessarie per una corretta implementazione di queste soluzioni.
Tuttavia queste sfide non devono essere prese come deterrenti, ma come uno stimolo a implementare la tecnologia con i controlli appropriati.
I dati che vanno nel modello LLM, sia a fini dell’addestramento che attraverso i prompt, dovrebbero essere di alta qualità: aggiornati, classificati correttamente e privati di bias. I dati per l’addestramento dovrebbero essere zero-party e condivisi proattivamente dai clienti oppure first-party e raccolti direttamente da un organizzazione. Inoltre, dovrebbero essere implementati degli standard di sicurezza per proteggere qualunque dato personale o riferito a proprietà intellettuale. Infine, dovrebbero essere istituiti dei permessi per assicurare che l’utente possa accedere a tutti i dati recuperati per l’apprendimento contestualizzato.
Al di là dell’accuratezza, gli output dei chatbot di AI generativa dovrebbero essere allineati con i valori e gli obiettivi del brand. Inoltre, il modello non può rispondere con dati sensibili o linguaggio dannoso e offensivo e deve respingere le domande che esulano dal suo raggio d’azione. In più, le risposte dovrebbero evidenziare se esiste incertezza nell’informazione data o indicare le fonti per ulteriore verifica.
Infine, i chatbot di AI generativa dovrebbero essere sottoposti costantemente a test e supervisione umana. Le aziende dovrebbero investire nell’AI etica e sviluppare standard minimi cui aderire. E' importante raccogliere regolarmente il feedback e condurre attività di formazione per i dipendenti.
Tra le molte altre implicazioni per la sicurezza già descritte per questo trend, le aziende e le Istituzioni dovrebbero anche pensare a come gli advisor LLM potrebbero modificare le dinamiche relative ai dati degli utenti.
Abbiamo l’opportunità di reinventare l’etica della ricerca e ricostruire la fiducia tra le imprese e i loro clienti. Le organizzazioni possono oggi conservare, mettere in sicurezza, analizzare e distribuire i propri dati e le informazioni istituzionali direttamente ai clienti tramite gli advisor digitali. Si tratta di una grande responsabilità: l’organizzazione deve assicurare che i suoi dati restino al sicuro mentre li usa per fornire risposte anche riservate. Ma è un’opportunità ancora più grande: senza i search provider che mediano lo scambio di informazioni, le organizzazioni possono agire da fonte diretta di conoscenza affidabile e riconquistarsi la fiducia dei clienti.
CONCLUSIONE
L’AI generativa è il vero game-changer per dati e software. Gli LLM stanno cambiando il nostro rapporto con l’informazione. Le aziende e le Istituzioni all’avanguardia stanno già abbracciando il trend, immaginando e costruendo la nuova generazione dell’impresa data-driven. Presto questo cambiamento sarà semplicemente il nuovo modo in cui si struttura il digital business.