Der florerer nye rygter om “Siri som chatbot” i iOS 27 – men tidslinjen og flere påstande virker tvivlsomme
En ny bølge af rygter peger på, at Apple arbejder på en mere samtalebaseret Siri, der minder om ChatGPT, Claude og Gemini. Historien knytter det til “iOS 27” og en lancering ved WWDC i juni.
Problemet: De konkrete detaljer i rygtet matcher dårligt med, hvordan Apple normalt navngiver og planlægger softwareudgivelser – og flere af de mest vidtgående påstande kan ikke bekræftes uafhængigt. Derfor er det vigtigere end nogensinde at skille det sandsynlige fra det spekulative.
Det, vi kan sige med rimelig sikkerhed
Apple har allerede bevæget Siri i en mere AI-drevet retning gennem Apple Intelligence, og virksomheden har offentligt bekræftet integration med ChatGPT som en mulighed på understøttede enheder og sprog. Apple har også signaleret, at Siri skal blive bedre til kontekst, handlinger på tværs af apps og mere naturlig forståelse – men uden at love en fuld “ChatGPT-klon”.
Det er derfor plausibelt, at Apple arbejder på en mere dialogbaseret Siri-oplevelse. Det er også plausibelt, at Apple vil udvide idéen om “handoff” til tredjepartsmodeller, fordi markedet (og brugerne) allerede forventer valgfrihed og bedre kvalitet på generelle spørgsmål.
Det, der lyder som et kvalificeret gæt – ikke fakta
Kilden beskriver en “SiriBot”, en dedikeret Siri-app med samtalehistorik (som man kender det fra ChatGPT-appen), forbedret web-søgning, dokumentanalyse, generering af indhold og dyb integration i systemet – endda som en erstatning for Spotlight.
Det kan bestemt ske, men her er to store forbehold:
1) En selvstændig Siri-app er ikke noget Apple har indikeret offentligt, og det ville være et ret markant skifte fra “Siri som systemfunktion”. Apple kan i stedet vælge at lægge chat-UI’et i eksisterende grænseflader (Siri-overlay, Spotlight, eller en Apple Intelligence-hub) uden at gøre det til en klassisk app.
2) “Siri erstatter Spotlight” er en af de påstande, der bør tolkes som spekulation. Spotlight er dybt integreret i iOS og macOS og fungerer i dag som både launcher, lokal søgning og intelligent forslagssystem. Apple kan udvide Spotlight med AI, men en direkte erstatning vil kræve enorme ændringer – og vil være kontroversielt, hvis ydelse og privatliv ikke er på plads.
Det, der direkte skurrer: iOS 27 og WWDC-datoen
Rygtet taler om en præsentation af “iOS 27” ved WWDC i juni og nævner en startdato i begyndelsen af juni (mandag den 8.). Det kan vi ikke verificere som korrekt ud fra kendte, stabile Apple-mønstre.
Apple annoncerer typisk næste iOS-version ved WWDC og frigiver den i efteråret. Versionsnummeret følger i praksis årgangen (iOS 18 i 2024, iOS 19 i 2025, osv.). Med den logik vil “iOS 27” ligge flere år ude i fremtiden – ikke lige rundt om hjørnet. Derfor skal “iOS 27” her sandsynligvis læses som en fejl, en intern placeholder eller en upræcis gengivelse.
Med andre ord: Historien handler sandsynligvis om en kommende iOS-generation, men versionsnummeret er næsten sikkert ikke noget, vi kan bruge som pålidelig pejling.
Google Gemini som motoren bag Siri?
En af de mest vidtgående påstande er, at Apple skulle have indgået en flerårig aftale, hvor “næste generation af Apple Foundation Models” baseres på Googles Gemini-modeller og cloud-teknologi, og at Siri-chatbotten kører på Googles TPU-servere.
Det er en ekstraordinær påstand – og netop derfor kræver den ekstraordinær dokumentation. Apple profilerer sig massivt på privatliv og kontrol over egen stack (inkl. on-device behandling og Private Cloud Compute på Apple Silicon). At gøre Googles cloud til den primære motor for Apple Foundation Models ville være et strategisk kursskifte, som med stor sandsynlighed ville få regulatorisk og PR-mæssig opmærksomhed.
Kan Apple samarbejde mere med Google på AI? Ja, det er muligt, og Apple har historisk set samarbejdet med Google på flere områder. Men at “Gemini driver Siri” bør på nuværende tidspunkt behandles som et ubekræftet rygte – ikke som etableret fakta.
Min vurdering
Det mest interessante her er ikke, om Apple laver en “Siri-app med chatbobler”. Det mest interessante er, at presset på Siri nu er så højt, at Apple realistisk set er nødt til at levere en oplevelse, der føles lige så flydende som de bedste chatbots – uden at opgive Apples kerneprincipper om privatliv og dyb systemintegration.
Hvis Apple lykkes, bliver Siri ikke bare bedre til at svare. Den bliver bedre til at gøre: forstå kontekst på skærmen, kæde handlinger sammen på tværs af apps og håndtere opgaver, der i dag kræver flere manuelle trin. Hvis Apple fejler, ender Siri som endnu et lag oven på de funktioner, man allerede kan – mens brugerne fortsætter med at åbne ChatGPT eller Gemini for alt det svære.
Indtil videre: Regn med, at en mere samtalebaseret Siri er på vej. Men vær skeptisk over for versionsnumre, konkrete launch-datoer og især fortællingen om, at Google skulle være den centrale motor bag Apples næste AI-platform, før det er bekræftet af flere uafhængige kilder eller Apple selv.
Pro TipHvis du allerede bruger ChatGPT via Siri, så tjek “Indstillinger” → “Apple Intelligence & Siri” for, hvornår Siri spørger om tilladelse til at sende en forespørgsel videre – det er den hurtigste måde at mærke forskellen på lokal vs. ekstern behandling.
Hvad du skal holde øje med nu
1) Om Apple taler om Siri som en “chatbot” eller fortsat som en assistent med nye AI-lag.
2) Om samtaler og historik bliver en central del af brugeroplevelsen (og hvordan Apple i så fald håndterer privatliv).
3) Om tredjepartsmodeller bliver en formel, udvidelig del af Siri (ud over dagens ChatGPT-handoff), og hvilke regioner/sprog der i praksis får det først.