DeepSeek lancia un nuovo metodo per migliorare il ragionamento degli LLM

Aprile 7, 2025 - 18:00
 0  2
DeepSeek lancia un nuovo metodo per migliorare il ragionamento degli LLM

DeepSeek ha annunciato una nuova metodologia progettata per migliorare significativamente le capacità di ragionamento dei grandi modelli linguistici. Questo sviluppo, ottenuto in collaborazione con ricercatori dell'Università di Tsinghua, introduce un approccio a due punte che l'azienda afferma superi le tecniche esistenti nel migliorare l'accuratezza e la velocità delle risposte alle query generali.

Secondo un documento di ricerca, il metodo innovativo integra due componenti chiave: la modellazione della ricompensa generativa (GRM) e l'ottimizzazione della critica basata su principi. I ricercatori dietro questa svolta affermano che i modelli DeepSeek-GRM risultanti hanno dimostrato prestazioni superiori rispetto alle attuali tecniche all'avanguardia, ottenendo ciò che descrivono come "prestazioni competitive" quando confrontate con solidi modelli di ricompensa pubblica. Per contestualizzare, la modellazione della ricompensa è un processo cruciale nello sviluppo degli LLM, poiché serve ad allineare il comportamento del modello con le preferenze e le aspettative umane.

LA VIA DELL'OPEN SOURCE

Ad aumentare l'importanza di questo annuncio, DeepSeek ha indicato la sua intenzione di rendere open source questi modelli GRM di recente sviluppo. Pur non avendo una tempistica specifica per l'implementazione, una mossa che segnala l'impegno a promuovere la collaborazione e la trasparenza all'interno della comunità di ricerca sull'intelligenza artificiale. Rendendo accessibili i loro progressi, DeepSeek vuole contribuire al progresso più ampio della tecnologia LLM.


CLICCA QUI PER CONTINUARE A LEGGERE

Qual è la tua reazione?

Mi piace Mi piace 0
Antipatico Antipatico 0
Lo amo Lo amo 0
Comico Comico 0
Furioso Furioso 0
Triste Triste 0
Wow Wow 0
Redazione Redazione Eventi e News