In questo articolo vengono illustrate alcune riflessioni sull’utilizzo efficace dei modelli di Intelligenza Artificiale, in particolare dei Large Language Model (LLM).
L’idea di partenza è semplice: per ottenere risultati affidabili, ogni applicazione che sfrutta questi strumenti dovrebbe attenersi al principio dello “zero utilizzo della conoscenza pregressa”.
Seguendo questo principio si evita che il modello possa affidarsi a informazioni obsolete o a eventuali bias acquisiti nella fase di training.
Fornendo esplicitamente, al momento dell’interrogazione, tutti i dati necessari per rispondere correttamente alla domanda posta, è possibile incrementare la trasparenza e l’affidabilità del risultato.
Indice degli argomenti
La struttura dei casi d’uso: costruiamo un framework
Per realizzare applicazioni efficaci e controllate, viene proposta una struttura (framework), composta da tre componenti (che chiameremo slot), indispensabili per interagire con un LLM.
Slot 1: contesto (input)
Questo slot deve contenere tutte le informazioni necessarie per mettere il modello nelle condizioni migliori per elaborare la risposta richiesta. Un buon contesto include dettagli sufficienti e pertinenti, che permettono al modello di comprendere chiaramente il quadro generale entro il quale si colloca la domanda. Ad esempio, per ottenere un riepilogo efficace di un report aziendale, è necessario fornire il testo integrale o, quantomeno, i punti salienti del documento, garantendo così una base informativa adeguata su cui il modello può lavorare.
Slot 2: domanda (input)
Questa fase è necessaria per esporre in modo preciso, chiaro e diretto quello che si vuole ottenere dall’“Intelligenza Artificiale”. Una domanda ben strutturata permette di orientare efficacemente l’LLM verso il risultato atteso, riducendo al minimo il rischio di risposte vaghe o fuori contesto. Ad esempio, una domanda come “Quali sono i punti chiave trattati in questo report?” risulta molto più efficace e produttiva rispetto a richieste generiche come “Riassumi questo documento”.
Slot 3: risposta (output)
Rappresenta il risultato generato dal modello sulla base del contesto e della domanda precedentemente forniti. Una corretta formulazione dei due input precedenti favorisce risposte precise, coerenti e soprattutto rilevanti. Un approccio ben strutturato riduce sensibilmente il rischio di ottenere risposte ambigue, errate o fuori tema.
Caso d’uso: rassegna stampa interna (RAG passivo)
Di seguito viene illustrato un primo caso d’uso concreto, relativo alla gestione della rassegna stampa interna in una grande azienda. In contesti aziendali strutturati, spesso la quantità di informazioni disponibili è troppo elevata per essere interamente fruita dagli utenti finali.
Per superare questa difficoltà, è possibile adottare un approccio che combini contenuti specifici per la business unit dell’utente con un riepilogo sintetico di altre notizie aziendali rilevanti.
Obiettivo
L’obiettivo è favorire la diffusione della conoscenza all’interno dell’organizzazione, stimolando la collaborazione e il dialogo tra unità aziendali diverse, senza sovraccaricare gli utenti con informazioni irrilevanti o eccessive.
Fase 1: step algoritmico – Ricerca preliminare dei contenuti
- Input preliminare: Ogni utente ha precedentemente salvato delle keyword rappresentative dei propri interessi professionali e tematici.
- Ricerca: Utilizzando un motore di ricerca full-text, il sistema identifica rapidamente tutte le notizie aziendali che rispondono alle keyword scelte. Queste news costituiscono il materiale informativo, selezionato sia per le notizie della propria business unit sia per gli altri contenuti rilevanti in azienda.
Fase 2: consultare LLM – Generazione della rassegna stampa
- Slot contesto (input): è composto dal testo integrale delle news identificate dal motore di ricerche selezionate nella fase precedente, per fornire al modello una base completa e articolata da elaborare.
- Slot domanda (input): qui viene fornita la richiesta chiara e specifica al modello, “Utilizzando queste notizie aziendali, crea una rassegna stampa sintetica che evidenzi gli argomenti di interesse per l’utente.”
- Slot risposta (output): il modello genera una rassegna stampa, un testo chiaro e sintetico che riassume efficacemente gli argomenti più rilevanti per l’utente. Successivamente, tramite un processo algoritmico, verranno integrati i link alle fonti originali, offrendo così una fruizione approfondita e personalizzata delle informazioni.
Approccio RAG Passivo
Questo metodo possiamo definirlo “RAG passivo” perché la query utilizzata per la ricerca documentale deriva esclusivamente dalle keyword scelte dagli utenti e non è prodotta dall’LLM stesso. Tale approccio consente di combinare la precisione della ricerca full-text con la capacità sintetica e analitica del modello generativo, generando un risultato altamente personalizzato e gestibile.
Caso d’uso: risposta automatizzata alle e-mail dei clienti (RAG attivo)
In questa sezione viene presentato un secondo scenario applicativo: la gestione efficace delle richieste provenienti dai clienti tramite e-mail, utilizzando il framework illustrato precedentemente.
Obiettivo
L’obiettivo è estrarre automaticamente la richiesta espressa in una e-mail del cliente per velocizzare il processo di risposta, evitando attività manuali ripetitive e riducendo il carico operativo per gli utenti coinvolti nella gestione.
Fase 1: identificazione della domanda (prima invocazione LLM)
- Slot contesto (input): include il testo completo dell’e-mail inviata dal cliente. Poiché le e-mail possono essere redatte in formati e stili molto diversi, la presenza di eventuali dettagli, anche se apparentemente secondari, permette una corretta comprensione del quesito.
- Slot domanda (input): viene interrogato l’LLM. “Questa è una e-mail di un cliente, redatta in forma libera. Identifica la domanda principale e riformulala in una domanda esplicita da utilizzare come query per il nostro motore di ricerca interno”
- Slot risposta (output): il modello restituisce una query sintetica e precisa, che sintetizza l’esigenza del cliente
Fase 2: step algoritmico intermedio – ricerca nella knowledge base aziendale
Senza ulteriori invocazioni dell’LLM, la query ottenuta nella fase precedente viene utilizzata per consultare una knowledge base interna che contiene documenti e informazioni aziendali pertinenti. Da questa ricerca vengono selezionati i cinque documenti ritenuti più rilevanti (che è potremmo definire “answer candidates”).
Fase 3: generazione della risposta (seconda invocazione LLM)
- Slot contesto (input): vengono forniti il testo originale dell’e-mail e il contenuto dei documenti “answer candidates” recuperati nella fase algoritmica precedente.
- Slot domanda (input): la nuova richiesta all’LLM. “Il cliente ha inviato questa e-mail e abbiamo a disposizione questi documenti aziendali che dovrebbero contenere la risposta. Se trovi informazioni pertinenti nei documenti, genera una e-mail di risposta. Se non trovi nulla di rilevante, rispondi esattamente ‘HUMAN INTERVENTION NEEDED’.”
- Slot risposta (output): l’LLM genera direttamente il testo della risposta e-mail oppure indica chiaramente la necessità di un intervento umano.
Approccio RAG Attivo
Questo processo viene definito RAG attivo perché, a differenza del precedente, la query utilizzata nella ricerca viene generata direttamente dal modello a partire dal contenuto della e-mail inviata dal cliente. Questo garantisce flessibilità, adattabilità e capacità di gestire richieste eterogenee, rendendo più efficace l’interazione con il cliente finale.
Conclusioni
Questo metodo, fondato sul principio dello “zero utilizzo della conoscenza pregressa”, garantisce trasparenza, controllo e affidabilità dei risultati. Integrando efficacemente modelli generativi e retrieval documentale, consente una gestione ottimizzata delle comunicazioni aziendali interne ed esterne, offrendo risposte puntuali e precise alle esigenze degli utenti.
Le aziende possono valutare questo framework nei propri contesti organizzativi, analizzandone benefici, criticità e opportunità, allo scopo di migliorare i propri processi interni di comunicazione e gestione delle informazioni.
Leggi anche:
Il Futuro dell’AI: cos’è la Retrieval-Augmented Generation (RAG)
Evoluzione dei prodotti basati sui large language model (LLM)
Gemini vs ChatGPT: le differenze tra i due LLM dopo il rebranding di Google Bard
Natural Language Processing: che cos’è e come può aiutare il tuo business
Scopri come costruire un modello di Natural Language Processing:
La costruzione di un modello di Natural Language Processing: dalla raccolta alla pulizia dei dati
La costruzione di un modello di Natural Language Processing: annotazione dei dati
La costruzione di un modello di Natural Language Processing: la data representation
Scopri come estrarre valore dai dati con il Natural Language Processing:
Estrarre valore dai dati con il Natural Language Processing: la Named Entity Recognition