Fine-tuning di Large Language Models per mercati finanziari

La Banca d'Italia pubblica il nuovo numero della collana "Mercati, infrastrutture, sistemi di pagamento".

Fine-tuning di Large Language Models per mercati finanziari

La Banca d'Italia pubblica oggi "Fine-tuning di Large Language Models per mercati finanziari attraverso il ragionamento ontologico", il nuovo numero della collana "Mercati, infrastrutture, sistemi di pagamento".

I Large Language Model (LLM) vengono comunemente sottoposti a un processo di pre-training su ampie raccolte di dati testuali generici, spesso accessibili pubblicamente. Il pre-training consente agli LLM di comprendere la grammatica della lingua, capire il contesto e trasmettere un senso di conoscenza comune. Il pre-training può essere paragonato al training del machine learning: l'LLM viene allenato per prevedere la prossima unità base di testo (ad es. una parola o una sequenza di parole) in base alla sequenza di unità precedentemente osservate. Tuttavia, nonostante le impressionanti capacità di generalizzazione e di interazione simil-umana mostrata nello svolgimento task di Natural Language Processing (NLP), gli LLM pre-allenati mostrano limitazioni significative e forniscono una scarsa accuratezza quando adottati in domini specializzati. Il loro principale limite deriva dal fatto che i dati usati nel pre-training generico spesso non incorporano la conoscenza relativa allo specifico dominio. Per affrontare queste limitazioni, vengono spesso adottate tecniche di fine-tuning: partendo da un modello pre-trained, si applica un raffinamento usando dati specifici del dominio. Le informazioni fattuali vengono estratte dai database aziendali al fine di creare raccolte di testi destinate al fine-tuning del modello. Tuttavia, anche in questo caso, i risultati tendono a essere insoddisfacenti in domini complessi, come i mercati finanziari e la finanza in generale.

Esaminando la questione da una prospettiva diversa, la comunità di Knowledge Representation and Reasoning (KRR) si è concentrata nel produrre formalismi, metodi e sistemi per la rappresentazione di una complessa Enterprise Knowledge. In particolare, gli Enterprise Knowledge Graphs (EKGs) possono sfruttare una combinazione delle informazioni fattuali presenti nei database e della conoscenza di business specificata in modo compatto e formale. Gli EKGs servono allo scopo di rispondere ad interrogazioni specifiche di un dominio attraverso tecniche consolidate come il ragionamento ontologico. La conoscenza di dominio è rappresentata in forme simboliche, ad esempio attraverso linguaggi basati sulla logica, e utilizzata per trarre conclusioni consequenziali dai dati disponibili. Tuttavia, se da una parte gli EKG trovano applicazioni di successo in molti scenari finanziari, dall'altra, essi mancano di flessibilità, senso comune e orientamento linguistico, essenziali per l'NLP.

Questo articolo propone un approccio mirato ad aumentare l'utilità degli LLM per applicazioni specifiche, come quelle legate ai mercati finanziari. L'approccio prevede di guidare il processo di fine-tuning degli LLM attraverso il ragionamento ontologico sugli EKG. In particolare, sfruttiamo il sistema Vadalog e il suo linguaggio, un framework di ragionamento automatico allo stato dell'arte, per sintetizzare un ampio corpus di fine-tuning a partire da una formalizzazione logica della conoscenza di dominio in un EKG. Il nostro contributo consiste in una tecnica, chiamata verbalizzazione, che trasforma l'insieme delle inferenze determinate dal ragionamento ontologico in un corpus per il fine-tuning. Presentiamo un'architettura software completa che applica la verbalizzazione a quattro task di NLP: question answering, cioè fornire risposte accurate in un determinato dominio in buona prosa; explanation, cioè giustificare sistematicamente le conclusioni tratte; translation, cioè convertire specifiche di dominio in una formalizzazione logica; description, cioè spiegare in prosa delle specifiche formali. Applichiamo l'approccio e la nostra architettura nel contesto dei mercati finanziari, presentando una proof of concept che ne mette in luce i vantaggi.

 
 
QUI l'allegato