Apple kan ifølge The Information bruge Googles store Gemini-model som “lærer” til at skabe mindre AI-modeller, der kan køre direkte på iPhone, iPad og Mac – uden internetforbindelse. Det er et markant signal om, hvordan Apple kan kombinere eksterne topmodeller med sin egen klassiske strategi: mere beregning lokalt, mere kontrol, og (i teorien) bedre privatliv.
Oplysningerne peger samtidig på, at Googles rolle i Apples næste Siri-generation kan blive mere central end først antaget, selvom Apple parallelt arbejder på egne Foundation Models, der på sigt skal stå på egne ben.
Hvad der konkret er nyt
Rapporten beskriver, at Google har givet Apple “complete access” til Gemini i Googles egne datacentre. Ikke i den forstand, at Apple bare kan integrere en færdig chatbot, men at Apple kan bruge adgang til at:
1) få Gemini til at løse opgaver med høj kvalitet og forklare sin “tankegang” (en slags begrundet facitliste), og
2) bruge disse svar og forklaringer til at træne mindre, specialiserede modeller via såkaldt distillation (destillation).
Resultatet er, at Apple kan bygge mere effektive, billigere modeller, der ligner Gemini i output på udvalgte opgaver, men kræver langt mindre regnekraft – og dermed kan køre på enheden.
Destillation: hvorfor det er så vigtigt for Apple
De største sprogmodeller er stærke, men de er også dyre: både i compute, strømforbrug og latenstid – og de kræver typisk en cloud. Apple har i årevis prioriteret on-device behandling, når det giver mening (fra Face ID til billedanalyse og dele af Siri). AI-bølgen presser den strategi, fordi brugerne forventer “chatbot-niveau” svar, men Apple forventes samtidigt at holde fast i privatliv og offline-funktionalitet.
Destillation er en bro mellem de to verdener: Man kan bruge en gigantisk “lærermodel” i cloud til at producere træningsdata og implicit viden, og derefter få mindre modeller til at levere meget af oplevelsen lokalt. For Apple er det den mest Apple-agtige måde at gøre det på.
Apple kan tilpasse Gemini – men det er ikke problemfrit
Rapporten hævder også, at Apple kan redigere og tilpasse Gemini, så modellen svarer på en måde, Apple ønsker. Det lyder oplagt, men her støder man ind i en klassisk udfordring: Gemini er i høj grad tunet til chatbot- og kode-opgaver. Apples behov er anderledes, fordi Siri ikke kun er en samtalepartner, men en systemassistent, der skal være pålidelig, forudsigelig og tæt integreret med apps, data og tilladelser.
Det betyder, at “smart” ikke er nok. Siri skal være korrekt, sikker og kontekstbevidst – også når den siger nej. For Apple er det mindst lige så vigtigt, hvordan modellen opfører sig, som hvor mange spørgsmål den kan svare på.
iOS 27 og den rygtede “chatbot-Siri”
Ifølge samme spor af rapportering læner Apple sig op ad Googles Gemini-modeller til en smartere, mere chatbot-lignende Siri, der angiveligt er planlagt til iOS 27. Samtidig arbejder Apples Foundation Models-team fortsat på interne modeller, der er adskilt fra Gemini.
Hvis det holder, kan vi ende med en hybrid: en Siri, der i nogle scenarier bruger Apple-modeller lokalt (hurtigt, privat, offline), og i andre scenarier eskalerer til en ekstern model (mere kapabel, men med større afhængighed af net og tredjepart). Det er i praksis også sådan mange AI-produkter fungerer i dag – men Apple har hidtil været mere tilbageholdende med at gøre det synligt.
Hvad Siri kan få ud af det
De nævnte use cases lyder som den klassiske “AI-pakke”: besvare spørgsmål, opsummere information, forstå dokumenter, generere tekst og hjælpe med opgaver som rejsebooking. Den type funktioner kræver både sprogforståelse og en robust produktintegration, og netop distillerede on-device modeller kan gøre oplevelsen hurtigere og mere konsekvent i hverdagen – også når forbindelsen halter.
💡Pro TipPå iPhone kan du teste, hvor meget der allerede kører lokalt, ved at slå Flytilstand til og prøve Siri til simple kommandoer (alarmer, indstillinger, afspilning). Forskellen i latency afslører ofte, hvad der kræver cloud.
Min vurdering
Det mest interessante her er ikke, at Apple “bruger Google” – det er, at Apple kan bruge Gemini som et værktøj til at bygge noget, der i sidste ende føles Apple-ejet: små, strømlinede modeller, der kan køre på enheden og levere en stabil assistentoplevelse. Hvis rapporten er korrekt, er det en pragmatisk strategi: få adgang til en stærk baseline nu, og destillér ned til noget, der passer til Apples hardware og produktkrav.
Udfordringen bliver governance og differentiering. En Siri, der i perioder er afhængig af en tredjeparts grundmodel, skal stadig leve op til Apples løfter om privatliv, sikkerhed og konsistens. Og Apple vil næppe acceptere, at “Siri bliver god” kun fordi Google leverer magien. Derfor er den parallelle udvikling af egne Foundation Models helt logisk.
Hvad du skal holde øje med
Tre ting bliver afgørende: 1) hvor meget af den nye intelligens der reelt fungerer offline, 2) om Apple tydeliggør, hvornår forespørgsler går til cloud og til hvem, og 3) om Siri får de systemintegrationer, der gør den nyttig i praksis – ikke bare veltalende.
Indtil videre er det stadig rapportering og ikke en Apple-bekræftelse. Men hvis iOS 27-sporet holder, er retningen klar: Siri skal op i gear, og on-device AI bliver en af de vigtigste kamppladser de næste par år.