Perché Apple Intelligence non funziona sugli iPhone più vecchi o su Vision Pro

Quando è stato chiesto perché Apple Intelligence non fosse disponibile sui vecchi iPhone, la società ha risposto che finora i chip semplicemente non erano abbastanza potenti per fornire una buona esperienza. Le risposte potrebbero richiedere molto tempo sui chip più vecchi.

Ma molti hanno detto che se i loro telefoni non fossero all’altezza del compito, perché non utilizzare semplicemente i server Apple Intelligence, noti anche come Private Cloud Compute? Dopotutto, è quello che sta già accadendo oggi con molte richieste di Siri. Ora abbiamo una risposta a questo…

Giovanni Gruber Ne ho parlato con Apple.

Una domanda che mi è stata posta più e più volte è perché i dispositivi che non sono idonei per Apple Intelligence non possono fare tutto tramite Private Cloud Compute. Tutti si rendono conto che se un dispositivo non è abbastanza veloce o potente per l’elaborazione su dispositivo, questo vale. Ma perché gli iPhone più vecchi (o, nel caso dell’iPhone 15 non Pro, gli iPhone più recenti con chip vecchi di due anni) non possono utilizzare il Private Cloud Compute per tutto?

Da quello che ho capito, non è così che Apple Intelligence è stata progettata per funzionare. I modelli eseguiti sul dispositivo sono modelli molto diversi da quelli eseguiti nel cloud e uno di questi modelli sul dispositivo è l’euristica che determina quali attività possono essere eseguite mediante l’elaborazione sul dispositivo e che richiedono uno speciale cloud computing o ChatGPT.

Gruber ammette che probabilmente non è così Appena un motivo; Apple deve già fornire molto calcolo lato server per gestire le richieste che non possono essere gestite sul dispositivo e la domanda del server sarebbe notevolmente più elevata se dovesse gestirle. tutti Richieste da vecchi telefoni. Ma il motivo addotto sembra ragionevole.

READ  Perché due astronauti del Boeing erano bloccati nello spazio? | Novità esplicative

Un’altra rivelazione sorprendente è che Apple Intelligence non sarà supportata dal Vision Pro, anche se il chip M2 è abbastanza potente per farlo. Il motivo, spiega Gruber, è che il chip funziona già alla massima capacità, quindi non ha abbastanza capacità di riserva per l’intelligenza di Apple.

Secondo gli uccellini informati, Vision Pro fa effettivamente un uso massiccio del motore neurale M2 per integrare il chip R1 per scopi di elaborazione in tempo reale: occlusione, rilevamento di oggetti e cose del genere. Con i Mac e gli iPad dotati della serie M, il Neural Engine è nativo ed è completamente disponibile per le funzionalità di Apple Intelligence. Con Vision Pro, viene effettivamente utilizzato.

Ancora una volta, la spiegazione ha senso, anche se è un vero peccato, dal momento che la piattaforma sembra quasi progettata specificamente per l’intelligenza artificiale, un precursore di un eventuale prodotto Apple Glasses che quasi certamente includerà Apple Intelligence.

Un altro estratto dal rapporto di Gruber: preparati a essere costantemente infastidito dal fatto che ti venga chiesto il permesso di consegnare a ChatGPT. Almeno come nelle build interne di Apple, non c’è sempre un’opzione Consenti.

Alcune persone vorranno un’opzione per “consentire sempre” l’invio delle richieste a ChatGPT, ma secondo i rappresentanti Apple con cui ho parlato, tale opzione non esiste ancora.

Sospetto che questo cambierà, poiché diventerà rapidamente un fastidio costante, ma Apple probabilmente vorrà andare sul sicuro sul fronte della privacy nei primi giorni del servizio.

Immagine dalla fotografia AltumCode SU Unsplash

We will be happy to hear your thoughts

Leave a reply