HuggingSnap è l'app per iOS che usa l'AI in locale per descrivere ciò che vediamo
Fa tutto offline.
Con l'idea che l'intelligenza artificiale possa usare la fotocamera per descrivere ciò che vediamo stiamo ormai cominciando a familiarizzare (su Android sta per arrivare Project Astra con la condivisione video su Gemini Live, cambiando lidi). E HuggingSnap, l'ultima app sfornata dall'azienda specializzata in AI HuggingFace, fa proprio questo. E allora cos'ha di speciale? Semplice: a differenza delle soluzioni cui siamo abituati, che interrogano l'AI tramite internet, come alcune di quelle più avanzate di Apple Intelligence, HuggingSnap lavora in locale, completamente offline.
Per tirare fuori l'AI dal cilindro HuggingSnap sfrutta smolvlm2, il modello di visione proprietario di Hugging Face, capace di analizzare ciò che la fotocamera del telefono vede in tempo reale, senza inviare dati al cloud. Basta puntare la fotocamera e porre una domanda o richiedere una descrizione, e HuggingSnap identificherà oggetti, spiegherà scene, leggerà testi e cercherà di dare un senso a ciò che si sta guardando.
Gli sviluppatori sottolineano che l'app, oltre ad agire in locale, risulta efficiente dal punto di vista energetico. HuggingSnap richiede iOS 18 o versioni successive. È anche compatibile con i dispositivi macOS e l'Apple Vision Pro, per chi desidera utilizzarlo su un laptop o un visore.
CLICCA QUI PER CONTINUARE A LEGGERE
Qual è la vostra reazione?






