DeepSeek lancia un nuovo metodo per migliorare il ragionamento degli LLM
DeepSeek ha annunciato una nuova metodologia progettata per migliorare significativamente le capacità di ragionamento dei grandi modelli linguistici. Questo sviluppo, ottenuto in collaborazione con ricercatori dell'Università di Tsinghua, introduce un approccio a due punte che l'azienda afferma superi le tecniche esistenti nel migliorare l'accuratezza e la velocità delle risposte alle query generali.
Secondo un documento di ricerca, il metodo innovativo integra due componenti chiave: la modellazione della ricompensa generativa (GRM) e l'ottimizzazione della critica basata su principi. I ricercatori dietro questa svolta affermano che i modelli DeepSeek-GRM risultanti hanno dimostrato prestazioni superiori rispetto alle attuali tecniche all'avanguardia, ottenendo ciò che descrivono come "prestazioni competitive" quando confrontate con solidi modelli di ricompensa pubblica. Per contestualizzare, la modellazione della ricompensa è un processo cruciale nello sviluppo degli LLM, poiché serve ad allineare il comportamento del modello con le preferenze e le aspettative umane.
LA VIA DELL'OPEN SOURCE
Ad aumentare l'importanza di questo annuncio, DeepSeek ha indicato la sua intenzione di rendere open source questi modelli GRM di recente sviluppo. Pur non avendo una tempistica specifica per l'implementazione, una mossa che segnala l'impegno a promuovere la collaborazione e la trasparenza all'interno della comunità di ricerca sull'intelligenza artificiale. Rendendo accessibili i loro progressi, DeepSeek vuole contribuire al progresso più ampio della tecnologia LLM.
CLICCA QUI PER CONTINUARE A LEGGERE
Qual è la tua reazione?






