Test Anthropic: l'IA DeepSeek genera informazioni sensibili senza filtri

Preoccupanti risultati nei test di sicurezza: l'IA cinese DeepSeek fornisce dati sensibili sulle armi biologiche

Test Anthropic: l'IA DeepSeek genera informazioni sensibili senza filtri

L'intelligenza artificiale sta vivendo una fase di rapida evoluzione, ma il recente e prepotente arrivo di Deepseek ha fatto emergere nuove preoccupazioni in termini di sicurezza e controllo dei contenuti sensibili. Un recente studio condotto da Anthropic ha evidenziato criticità significative nei sistemi di protezione dell'AI cinese, in particolare per quanto riguarda la generazione di informazioni potenzialmente pericolose.

L'azienda cinese DeepSeek, che si è rapidamente affermata nel panorama dell'intelligenza artificiale causando persino oscillazioni nel mercato azionario di colossi come NVIDIA, è finita sotto la lente d'ingrandimento degli esperti di Anthropic per questioni legate alla sicurezza nazionale.

Dario Amodei, amministratore delegato di Anthropic - società nota per aver sviluppato Claude AI e partner di Amazon per la futura versione di Alexa basata sull'AI- ha condiviso risultati allarmanti emersi durante i test di sicurezza. Secondo quanto riportato, i modelli DeepSeek hanno mostrato una preoccupante propensione a generare informazioni dettagliate su armi biologiche, dati considerati altamente sensibili e non facilmente reperibili attraverso i comuni canali di ricerca online o nelle pubblicazioni accademiche.


Il TOP con rapporto prezzo/hardware inidiabile? Honor Magic 6 Pro, in offerta oggi da eBay a 814 euro oppure da Mediaworld a 899 euro.

CLICCA QUI PER CONTINUARE A LEGGERE

Qual è la vostra reazione?

like

dislike

love

funny

angry

sad

wow