Dommer lukker sag efter gentagne AI-fejl: falske citater, floromvunden prosa og en advokat, der ikke tog hintet
Kilde: Ars Technica
En føderal dommer i New York, Katherine Polk Failla, har taget et usædvanligt skridt: Hun har simpelthen stoppet en sag som sanktion, fordi en advokat gentagne gange afleverede dokumenter, der bar præg af ukritisk AI-brug—komplet med falske henvisninger og stilistiske krumspring, der lød som om nogen havde bedt en sprogmodel om “mere dramatik, tak”.
Det, der især gjorde indtryk i kendelsen, var ikke bare én fejl, men mønsteret: Advokaten Steven Feldman blev bedt om at rette problemerne og svarede igen og igen med nye indlæg, der stadig indeholdt opdigtede citater. På et tidspunkt bemærkede dommeren endda et indlæg for dets “iøjnefaldende floride prosa”—en markant stilændring i forhold til tidligere tekster med run-on sentences og grammatiske snubletråde. Med andre ord: når din skrivestil pludselig bliver bedre, er det ikke altid en sejr.
Det absurde (og lidt tragikomiske) er detaljerne: dokumenter spækket med “out-of-left-field”-referencer til gamle biblioteker og Ray Bradburys Fahrenheit 451. Som retorisk strategi er det ellers en klassiker: hvis fakta vakler, så skru op for litteraturen. Det virker bare sjældent i en retssal, hvor dommeren — i modsætning til en algoritme — faktisk læser det, der står.
Vi har efterhånden set AI-hallucinationer i mange sammenhænge, men jura er et af de steder, hvor det rammer hårdest: Et falsk retspræcedens er ikke en “ups’er”, det er et strukturelt problem for hele sagens troværdighed. Det er lidt som at forsøge at debugge en kernel panic ved at genstarte i blinde: du kan være heldig, men det er ikke en proces, du kan forsvare.
Det mest interessante her er, at dommeren ikke kun “skælder ud” over teknologi. Hun sanktionerer adfærden: gentagne påtaler, gentagen levering af materiale med falske citater, og en tydelig mangel på kontrol. AI kan være et værktøj — men når det bliver en erstatning for basal kvalitetssikring, ender man med at betale i den valuta, domstole elsker mest: konsekvenser.
For os, der dækker tech til daglig, er pointen også bredere: AI gør det lettere end nogensinde at producere tekst, der lyder kompetent. Ironien er, at netop derfor bliver din menneskelige disciplin vigtigere. Det gælder, uanset om du skriver et juridisk indlæg, en teknisk rapport eller en App Store-beskrivelse, der lover alt det, din app ikke kan (endnu).
Og ja — der er en Apple-vinkel, selv når sagen handler om en domstol: Når flere workflows flytter over i “assisteret skrivning” (uanset om det er på iPhone, iPad eller MacBook), bliver kvalitetssikring den nye superpower. Apple Intelligence eller ej: ingen feature kan redde dig fra at indsende noget, du ikke har verificeret. Siri kan finde en kontakt, Safari kan finde en side, og iCloud kan synkronisere en fejl på tværs af alle dine enheder på rekordtid.
Hvis du vil følge flere historier om, hvordan AI rammer arbejdsprocesser i praksis, kan du holde øje med We❤️Apple. Vi har en tendens til at fokusere på det, der faktisk ændrer hverdagen — ikke kun det, der lyder godt i en keynote.
Når verden producerer mere tekst end nogensinde, bliver den hurtigste computer den, der også hjælper dig med at dobbelttjekke.
Se MacBook til seriøst arbejde →Hurtig levering og officiel Apple-garanti
Min vurdering er, at sagen bliver citeret (korrekt, håber vi) som et skarpt vendepunkt: Domstole tolererer ikke “jeg troede, modellen havde ret” som forklaring, og vi vil se flere direkte, håndgribelige sanktioner, når AI bruges som genvej uden kontrol. Teknologien er ikke problemet. Det er workflowet, incitamentet — og den menneskelige dovenskab, der tror, at “flot skrevet” er det samme som “faktisk sandt”.
Læs mere via kilden hos Ars Technica, hvis du vil se, hvor langt man kan komme væk fra sagen, når man lader “kreativ hjælpsomhed” skrive ens jura.
Relateret på We❤️Apple: Apple Intelligence








Del: