Nyhet

Slik skal Apple stoppe overgrepsbilder på iPhone

Skal se etter signaturer for allerede kjent innhold.

Høstens iOS 15 har fått en mengde nye funksjoner, og etter hvert skal iPhoner med operativsystemet jakte på overgrepsbilder. Den nye løsningen er omdiskutert.

Det ble nylig klart at Apple skal scanne iPhoner og annet datautstyr etter innhold for å hindre spredning av overgrepsbilder. Nå har selskapet gått i mer detalj om hvordan de skal gjøre det.

En egen nettside med tittelen «Child safety», eller «Sikkerhet for barn», forklarer blant annet at funksjonene vil dukke opp i utgaver av Apples kommende operativsystemer i løpet av året.

Når funksjonene rulles ut for amerikanske brukere av produktene vil blant annet en liste som kan gjenkjenne kjent innhold ligge på hver enkelt iPhone og iPad, der det kan gjenkjenne og flagge overgrepsinnhold som er kjent fra før.

Apple har ikke konkrete planer om å rulle ut funksjonene utenfor USA ennå, men sier at de håper å kunne gjøre det i fremtiden.

Slik skal advarslene som dukker opp i iMessage hvis mistenkt overgrepsmateriale deles. Meldingstjenesten skal forsøksvis se etter og merke alle typer innhold av seksuell karakter, mens bildene iPhoner og iPader ser etter løpende stammer fra en liste over allerede kjent innhold.

Skal se etter allerede kjent innhold

Løsningen er laget for å fange opp kjent innhold før det lastes opp til Apples iCloud-tjeneste. Underveis skal innholdet merkes med et slags kryptografisk «godkjentstempel» før det lastes opp til nettet.

Denne delen av de nye verktøyene skal ikke være laget for å finne nytt innhold, kun for å merke innhold som har samme filsignatur som allerede kjent innhold. Det skal ifølge Apple gjøre funksjonen både trygg og svært lite utsatt for feil - visstnok skal feilsannsynligheten være nede i 1 av 3000 milliarder.

Denne sannsynligheten for feil er dessuten bygget inn i systemet, som derfor skal ta høyde for at det kan dukke opp et feilflagget bilde her og der og ikke be om menneskelig gjennomgang av materialet før det er tilstrekkelig sikkert at det er riktig flagget.

Om noe likevel blir flagget som kjent overgrepsmateriale vil Apple gå gjennom innholdet, sperre brukerens konto og varsle amerikanske myndigheter.

Strategien brukes i flere sammenhenger

Å ha en klar liste over hva man ser etter som dobbeltsjekkes mot den informasjonen man har tilgang på har blitt en vanlig måte å se etter informasjon uten å gi den fra seg eller på annen måte gi tilgang til uvedkommende.

Metoden blir for eksempel brukt i apper laget for å spore covid, der enhetene som kjører dem sjekker mot en konkret liste av kjente smittetilfeller, fremfor å spore hvert eneste møte med alle andre mobiltelefoner i omgivelsene. Informasjonen om alle man har vært i kontakt med som ikke er merket som smittet dumpes. Det skjer i stedet for at enhetene lagrer alle tider, møter og posisjoner - eller til og med sender alt sammen inn til en sentral overvåkingsløsning.

Det er også gjerne denne måten sikkerhetsselskaper jakter på personlig informasjon på avveie. Ved å laste ned innhold fra nettsteder som handler i slik informasjon og sjekke det mot lister man ikke selv gir fra seg, finner man ut om noens kontodetaljer har lekket uten å informere lyssky folk eller tjenester om akkurat hvilke detaljer man ser etter.

Skal også flagge innhold i iMessage

Apples mest omtalte funksjon skal altså ikke se etter helt nytt innhold, men det skal enhetene likevel gjøre når det utveksles meldinger fra noen av plattformene.

Da skal maskinlæring på iPhone, iPad eller Mac sørge for å gjenkjenne det som kan være bilder av seksuell art, og vise en sensurert utgave av bildene. I tillegg vil det dukke opp advarsler som gir muligheter for å få hjelp og forklarer at det er greit å ikke ønske å se bildene.

I tillegg til advarslene kan foreldre velge å bli varslet dersom barnet velger å motta eller sender bilder som får disse advarslene. Apple understreker i sin pressemelding at dette foregår uten at Apple får tilgang på noe av innholdet.

Kan bety mer overvåking

Center for Democracy & Technology (CDT) er en personvernorientert tenketank og rådgivende organisasjon i USA med utspring i gamle Electronic Frontier Foundation. I en post om nyheten hevder de endringene er del av en «infrastruktur for overvåking», og det pekes spesielt på funksjonene i forbindelse med iMessage og flagging av seksuelt innhold før det deles.

– Apple erstatter sitt bransjeledende ende-til-ende-krypterte meldingssystem med en infrastruktur for overvåking og sensur, som vil være sårbar for utnyttelse og omfangsutvidelse ikke bare i USA, men også i resten av verden. Apple burde gå fra disse endringene og gjenopprette brukeres tillit til datasikkerheten i sine Apple-enheter, siteres Greg Nojeim i CDT.

De peker på at enhetenes gjennomgang av bilder som deles på tjenesten kan være en bakdør, og setter også søkelys på at løsningen lar kontoer i iCloud-universet overvåke hverandres aktivitet, med tanke på varslingene til foresatte.

Det rettes dessuten noe skepsis mot at løsningene alltid vil bli brukt av barn og deres foresatte slik de er tiltenkt.

Apple har for øvrig flere ganger tidligere blitt kjent for å motsette seg tilgangsforespørsler fra amerikanske myndigheter, og har ligget i rettstvist med FBI for å slippe å låse opp kryptert innhold fra konfiskerte telefoner.

Kan utvide databasen for kjent innhold

I første omgang skal funksjonene se etter innhold kjent fra databasene til NCMEC. Forkortelsen står for National Center for Missing and Exploited Children, eller Nasjonalt senter for savnede og utnyttede barn.

Senteret mottar og systematiserer varslinger om overgrepsmateriale, men vil neppe bli alene om å levere informasjon til løsningen på sikt. The Verge siterer Apple på at andre gruppers informasjon om slikt materiale vil bli lagt til etter hvert. Samtidig understrekes det i artikkelen at Apple ikke har forpliktet seg til å offentliggjøre hvilke grupper det er underveis.

Apple håper flere land blir med

– Hvert land har sine egne lover for å håndtere overgrepsmateriale. Denne utvidede måten å håndtere barns sikkerhet på krever gjennomtenkt koordinasjon og kommunikasjon med myndighetene, og vi ønsker å være sikre på at vi gjør det riktig. Selv om vi ikke har noen videre planer å annonsere akkurat nå håper vi å rulle ut teknologien i andre land i fremtiden, forklarer Apple i en uttalelse til Tek.no

Også taleassistenten Siri får en oppdatering i forbindelse med endringen. Her handler det først og fremst om at assistenten skal foreslå hjelp og ressurser til mennesker som har spørsmål om overgrep. Brukere skal for eksempel få hjelp til å rapportere overgrepsmateriale ved behov.

Oppdatert 10.13, 6. august 2021: Artikkelen ble oppdatert med uttalelse fra Apple om videre utrulling av funksjonene.

annonse