Articolo · Scritto da Costantino Pistagna

L'intelligenza degli altri

Come Apple ha scelto di prendere l'intelligenza di un rivale e farla girare dentro il proprio silicio.

L'intelligenza degli altri

A gennaio, Apple ha annunciato una partnership con Google per portare Gemini dentro Siri. A marzo, un report di The Information ha rivelato che Apple non si limita a usare Gemini: lo smonta, lo studia, lo distilla in modelli più piccoli che girano sul Neural Engine dell'iPhone. Nello stesso mese, Google ha iniziato a costruire un'app Gemini nativa per Mac che legge il tuo schermo. Perplexity si è collegata ad Apple Health per rispondere a domande mediche ed Apple ha provato a comprare Halide, uno studio indipendente di due persone, perché la sua app Fotocamera non era all'altezza.

Quattro fatti. Una sola storia: l'AI secondo Apple non è un modello. È un'architettura.


La cucina di Google#

Quando un modello linguistico come Gemini ragiona, produce non solo una risposta ma una serie di calcoli interni: pesi, probabilità, percorsi di ragionamento; ma chi usa un modello tramite API vede solo il risultato finale. È come leggere il menu di un ristorante senza poter entrare in cucina.

Apple è entrata in cucina.

Ha ottenuto accesso completo al modello Gemini. Non agli output, non alle API ma alla matematica. Il team Apple Foundation Models può prendere Gemini, studiare come ragiona e creare versioni più piccole, distillate, ottimizzate per girare direttamente sull'iPhone, sull'iPad, sul Mac. Modelli che imitano il ragionamento di Gemini con una frazione delle risorse, abbastanza leggeri per il Neural Engine, abbastanza veloci per rispondere in tempo reale, abbastanza privati per non lasciare mai il dispositivo.

La distillazione è un processo che vale la pena capire. Il modello piccolo, lo "studente", non impara dai dati originali come il modello grande. Impara dal modello grande stesso, cercando di imitarne non solo le risposte ma il modo in cui le calcola. È come un apprendista che non studia i libri del maestro: studia il maestro al lavoro. Il risultato è un modello che, con un decimo dei parametri, riproduce l'ottanta o novanta percento delle capacità dell'originale. Abbastanza per un assistente vocale. Abbastanza per un telefono.

Non è outsourcing. Non è costruire da zero. È qualcosa che non ha ancora un nome preciso: prendere l'intelligenza di un rivale e farla girare dentro il tuo silicio, sotto le tue regole.

La narrativa dominante che circola in questi mesi, la sappiamo:

Apple non riesce a fare AI da sola e chiama Google.

Ma secondo me, è sbagliata. Meglio, è incompleta. Apple ha scelto di non combattere la guerra dei modelli perché ha capito che quella guerra non è la sua. Costruire un modello AI competitivo da zero richiede anni, miliardi, e una quantità di dati di training che Apple, per principio e per struttura, non raccoglie. Distillare Gemini e adattarlo al proprio hardware richiede mesi e talento ingegneristico. Apple ha il secondo ed ha scelto di procurarsi il primo.


Il cloud che non sa niente#

Quando la tua richiesta è troppo complessa per il modello locale ma non vuoi coinvolgere Google, entra in gioco il secondo livello dell'architettura: Private Cloud Compute.

PCC non è un server cloud con policy di privacy aggressive. È un sistema costruito in modo che Apple stessa sia tecnicamente incapace di accedere ai tuoi dati.

La distinzione è cruciale.

Ogni grande azienda tech ti dice di fidarti di lei: Google dice che protegge la tua privacy, Microsoft dice che non usa i tuoi dati aziendali per il training, OpenAI dice che puoi fare opt-out. Sono affermazioni probabilmente vere. Sono anche, fondamentalmente, inverificabili.

Il problema non è la malafede. È che i sistemi cloud tradizionali sono stati progettati per l'accesso privilegiato come feature, non come bug. Un amministratore di sistema, un ingegnere in debug mode, un'API interna che aggrega log: sono tutti punti di accesso che esistono perché il sistema li prevede.

PCC funziona diversamente. I dati dell'utente vengono usati esclusivamente per la richiesta specifica e cancellati subito dopo. Nessun stato persistente. Nessuna interfaccia privilegiata per il personale Apple: non è una policy, è un'impossibilità tecnica. Non c'è la porta, non solo la chiave. Il sistema è progettato in modo che compromettere i dati di un singolo utente significhi compromettere l'intero sistema, rendendo il rilevamento inevitabile. Il codice sorgente dei componenti chiave è ispezionabile da ricercatori di sicurezza indipendenti.

Da sviluppatore, la cosa che mi colpisce è l'hardware. I nodi PCC girano su Apple Silicon proprietario. Non su GPU commodity affittate ad AWS o Azure: sullo stesso silicio dei Mac e degli iPhone, con lo stesso Secure Enclave, la stessa architettura di sicurezza che Apple controlla da cima a fondo. Quando la tua richiesta lascia l'iPhone e raggiunge un server PCC, incontra silicio che parla la stessa lingua del silicio nel tuo telefono.

Nel 2016, l'FBI chiese ad Apple di creare una versione modificata di iOS per sbloccare l'iPhone dell'attentatore di San Bernardino. Apple rifiutò. La tesi era semplice: non possiamo farlo perché hackerare la nostra sicurezza per te significa hackerarla per tutti. Non era una promessa: era ingegneria. Private Cloud Compute è lo stesso principio applicato al cloud. Non "fidati di noi" ma "Fidati perchè non possiamo farlo nemmeno se volessimo."


Tre livelli, una logica#

Ecco il disegno completo. Apple Intelligence non è un modello AI. È un sistema di routing tra tre livelli computazionali, ciascuno con un profilo di rischio diverso.

Il primo livello è il dispositivo. Le richieste semplici non lasciano mai l'iPhone. Suggerimenti di testo, organizzazione delle foto, riassunti brevi: tutto gira su un modello locale da circa tre miliardi di parametri. Zero dati in uscita, zero latenza di rete, zero esposizione. Con la distillazione di Gemini, questo livello diventerà significativamente più capace: modelli che ragionano come Gemini ma pesano come un'app.

Il secondo livello è Private Cloud Compute. Per i task che richiedono modelli più grandi, riassunti di documenti lunghi, ragionamento complesso, analisi multicontestuale, Apple Intelligence invia al PCC solo i dati strettamente necessari. Il risultato torna al device. I dati vengono cancellati. Il server non sa chi ha fatto la richiesta la volta precedente perché non conserva quella memoria.

Il terzo livello è costituito dai modelli terzi. ChatGPT, Gemini cloud, Claude: per richieste che richiedono capacità ulteriori e con consenso esplicito dell'utente ogni volta. L'utente vede cosa sta succedendo e deve approvarlo. Non è automatico.

La logica del routing è deterministica:

Apple Intelligence sceglie sempre il livello meno esposto in grado di soddisfare la richiesta.

On-device se possibile. PCC se necessario. Terze parti solo se richiesto esplicitamente. È una piramide invertita della fiducia: il dispositivo si fida solo di se stesso, del cloud Apple quando necessario, del resto del mondo mai senza il tuo consenso.

E qui sta il motivo per cui Apple ha scelto Gemini e non ChatGPT come partner strategico. ChatGPT è interamente cloud-based. Non esiste un'alternativa on-device. Integrarlo come unico partner avrebbe significato costruire una pipeline con un sistema strutturalmente incompatibile con la filosofia PCC. Gemini esiste in versioni diverse: Ultra per il cloud, Nano per il device. Apple ha negoziato un'integrazione che preserva l'architettura a livelli. La scelta di Google non è stata una decisione su chi fa l'AI migliore. È stata una decisione su chi ha un'architettura compatibile.


Gli ospiti che arredano la casa#

Nel frattempo, gli altri non stanno a guardare.

Google sta sviluppando un'app Gemini nativa per Mac. Non una web app: un'applicazione vera, che scarichi e tieni nel dock. Una funzione chiamata Desktop Intelligence permette a Gemini di leggere lo schermo del Mac e integrarsi con le altre app. Claude di Anthropic fa già la stessa cosa. Il Mac, il computer che Apple ha costruito per quarant'anni come santuario della produttività personale, è diventato il campo di battaglia dove le AI rivali si installano e leggono tutto quello che fai.

Perplexity ha lanciato Perplexity Health: un sistema che si connette ad Apple Health, legge i tuoi dati sanitari, i referti, i risultati di laboratorio e risponde a domande mediche. Apple ha costruito HealthKit con l'idea che i dati sanitari restassero nell'ecosistema, protetti, sotto il controllo dell'utente. Ora le AI di terze parti accedono a quei dati per offrire servizi che Apple stessa non offre.

E poi c'è Halide. Nell'estate del 2025, Apple ha contattato Lux Optics per un'acquisizione. L'obiettivo era integrare il talento e la tecnologia di Halide nell'app Fotocamera dell'iPhone 18 Pro. L'azienda che ha inventato il computational photography è andata a bussare alla porta di uno studio indipendente di due persone per migliorare la propria app. Le trattative sono fallite. La causa legale tra i co-fondatori di Lux è ancora in corso. Ma il fatto resta: l'app Fotocamera dell'iPhone, usata miliardi di volte al giorno, non è al livello di un'app indie da otto euro.

Il pattern è lo stesso in tutti e tre i casi. Apple costruisce la piattaforma. L'esperienza migliore la offrono gli altri. Nella fotocamera, nell'AI conversazionale, nella salute. Quest'anno le app AI rivali pagheranno ad Apple oltre un miliardo di dollari in commissioni App Store. È un modello accidentalmente geniale:

non servire il bisogno, tassare chi lo serve al posto tuo.

Ma c'è un rovescio. Ogni miliardo in commissioni è anche un miliardo di rilevanza ceduta e gli ospiti, nel frattempo, prendono confidenza con la casa.


Il vantaggio#

Surfshark ha analizzato le etichette privacy dei dieci chatbot AI più scaricati sull'App Store questa settimana. I risultati raccontano perché l'architettura di Apple non è solo una scelta tecnica: è un vantaggio competitivo.

Meta AI raccoglie trentatré tipi di dati su trentacinque possibili. Il novantacinque percento. Dati finanziari, orientamento sessuale, opinioni politiche, dati biometrici. È l'unica app AI a raccogliere informazioni finanziarie. Google Gemini raccoglie ventitré tipi, inclusa posizione precisa e cronologia di navigazione. Il settanta percento delle app raccoglie la posizione.

Siri come intermediario verso ChatGPT garantisce l'anonimizzazione per clausola contrattuale: Apple non passa a OpenAI nessun dato identificativo. Lo stesso accordo è previsto con Gemini. Ma il punto vero è un altro: il Gemini distillato che gira on-device non raccoglierà nulla, perché non gira sui server di Google. Gira sul tuo Neural Engine. Non c'è nessun dato da raccogliere, perché non c'è nessuna connessione da aprire.

Mentre Meta AI raccoglie tutto e Google Gemini raccoglie quasi tutto, Apple prende il modello di Google, lo comprime, lo fa girare sul telefono, e lo blinda. È la stessa filosofia di Private Cloud Compute estesa all'AI generativa. Non la rinuncia all'AI: è il modo in cui Apple fa AI.

OpenAI ha un modello. Google ha un modello. Meta ha un modello. Tutti hanno modelli ma nessuno ha il silicio per farlo girare nativamente: il Neural Engine. C'è anche un'architettura di privacy che nessun concorrente può replicare perché nessun concorrente controlla contemporaneamente il chip, il sistema operativo, il cloud e il negozio dove si vendono le app. Non puoi distillare un modello e farlo girare on-device se non controlli il device. Non puoi garantire la cancellazione dei dati se non controlli il server. Non puoi offrire tre livelli di privacy se non controlli tutti e tre.


Il copione#

C'è un filo che collega tutto questo, e parte da lontano.

Nel 2007, l'iPhone era un telefono. Nel 2008, l'App Store lo trasformò in una piattaforma: Apple non doveva fare tutte le app, doveva controllare il posto dove tutte le app venivano vendute. Nel 2020, Apple Silicon tolse a Intel il controllo del cuore dei Mac. Ogni volta, la stessa mossa:

integrare verticalmente un pezzo in più della catena, dal chip all'esperienza utente, per creare qualcosa che nessun assemblaggio di componenti altrui può replicare.

Il patto con Google è il capitolo successivo. Apple non costruisce il modello AI migliore del mondo. Costruisce l'architettura in cui qualsiasi modello AI diventa privato, veloce e integrato. Prende Gemini e lo distilla per il Neural Engine. Costruisce PCC per le richieste che il telefono non regge. Ospita ChatGPT, Claude, Perplexity come terze parti regolamentate e incassa le commissioni.

Craig Federighi, a un meeting interno nell'agosto del 2025, aveva spiegato il problema: Apple stava cercando di unire due sistemi, uno tradizionale per i comandi semplici, uno basato su LLM per tutto il resto. L'architettura ibrida non funzionava. Non raggiungeva la qualità Apple. Ora, con Gemini distillato, Apple ci riprova. Stessa idea, motore diverso, e una differenza fondamentale: questa volta il motore non viene da Cupertino, ma viene fatto girare a Cupertino. La proprietà intellettuale è di Google; l'esecuzione, il controllo, la privacy sono di Apple.

Perché Google accetta? Per lo stesso motivo per cui paga ventisei miliardi l'anno per essere il motore di ricerca predefinito di Safari: distribuzione. Due miliardi di dispositivi Apple sono il canale di distribuzione più grande del pianeta. Gemini dentro Siri è il nuovo Google Search dentro Safari. La forma cambia, la logica no.

E se Neal Stephenson ha ragione, se l'uomo che ha inventato la parola "metaverso" nel 1992 dice che fra vent'anni staremo ancora fissando rettangoli portatili, allora il patto con Google non è una mossa tattica. È la mossa strategica del decennio. La battaglia per l'AI si gioca sul telefono, non sugli occhiali. E chi controlla l'esperienza AI sul telefono, con la privacy come vantaggio strutturale, vince.

La prossima volta che Siri ti risponderà con un'intelligenza che non le riconoscevi, sappi che sotto il cofano potrebbe girare un modello nato a Mountain View, distillato a Cupertino, eseguito sul tuo Neural Engine, e progettato per dimenticare tutto nel momento in cui chiudi l'app.

Non è un modello. Non è un servizio. Non è una promessa.

È un'architettura ed è l'unica cosa che non si copia con un prompt.