– Kan vi akseptere at AI lurer oss så enkelt?
Norsk teknolog er bekymret – og det er også Googles egne forskere.
– Det er en vanskelig og ubehagelig diskusjon: Kan vi akseptere at vi blir lurt så enkelt?
Mannen som stiller spørsmålet heter Torgeir Waterhouse. Han er tidligere direktør i IKT-Norge. Bakgrunnen for Waterhouse sin bekymring er både den generelle utviklingen av AI-teknologi og en fersk rapport skrevet av blant andre Googles DeepMind-forskere.
Waterhouse presiserer også at én av hovedutfordringene vi står overfor som samfunn er den enorme mengden informasjon den enkelte må ha kontroll over for å ta informerte valg i AI-debatten:
– Mange mangler innsikt i komplekse saker, noe som gjør dem sårbare for påvirkning. Og vi kan jo heller ikke forvente at alle skal ta en årelang grad i kunstig intelligens for å kunne håndtere og forstå kompleksiteten, sier han.
– Dette må vi ta på mye større alvor enn vi gjør i dag.
Fører til bred mistillit til digital informasjon
I rapporten, der både Google og tenketanken Jigsaw står bak, advares det om at den stadig voksende mengden AI-generert innhold på nettet kan føre til bred mistillit til digital informasjon generelt.
Helt spesifikt handler rapporten om misbruk av såkalt generativ kunstig intelligensgenerativ kunstig intelligensEn AI-modell designet for å generere nytt innhold i form av tekst, lyd, bilde eller video. (GenAI). ChatGPT er et godt eksempel på en slik modell når det gjelder tekstinnhold, men det finnes også mange andre. Midjourney er eksempelvis spesialisert på bildeinnhold.
Google-rapporten peker på at disse teknologiene nå misbrukes i stadig større grad, og at de ser stadig flere tilfeller innen særlig fire hovedområder:
- Opinionspåvirkning – 27 prosent av tilfellene
- Inntektsgenerering – 21 prosent av tilfellene
- Svindel – 18 prosent av tilfellene
- Trakassering – 6 prosent av tilfellene
Sårbar for enkle angrep
Manglende sikkerhetsmekanismer
Det som først og fremst gjør forskerne bekymret, er at det ikke kreves noen spesiell kompetanse eller sofistikerte metoder for å misbruke disse verktøyene. Ja, selv svært enkle metoder fungerer:
– De aller fleste av tilfellene vi får rapportert inn består ikke av høyteknologiske, sofistikerte metoder. Det vi derimot hovedsakelig ser er enkel misbruk av åpent tilgjengelige verktøy innenfor generativ kunstig intelligens, utført av personer med minimal teknisk ekspertise, heter det i rapporten.
De falske bildene av USAs tidligere president Donald Trump som ble lagt i bakken og arrestert er et eksempel på veldig «enkel» misbruk. Det tok neppe de som lagde bildene mer enn et par minutter å generere dem, men de fikk enorm oppmerksomhet. Noen trodde nok også at dette faktisk skjedde. Et annet eksempel er de falske nakenbildene som dukket opp her til lands i vår.
Nettopp på grunn av tilfeller som dette vises det også i rapporten til at måten disse verktøyene brukes på i tillegg forsterker de potensielle konsekvensene:
– Brorparten av det faktiske misbruket retter seg mot å lure eller lyve til folk, eller å få dem til å endre mening.
Samtidig påpeker imidlertid forskerne at mye av misbruket ikke en gang har ondartede hensikter bak, eller at de som utfører det vet hva de faktisk gjør:
– Det er mangelen på sikkerhetsmekanismer som er det største problemet, hvordan vi mennesker har valgt å bygge disse verktøyene. Og vi tror dette kan ha langtrekkende konsekvenser for både tilliten, integriteten og ektheten i våre fremtidige økosystemer for kommunikasjon.
Til syvende og sist er det heller ikke de som benytter verktøyene eller utfører misbruket – enten villet eller ei – som vil sitte igjen med konsekvensene:
– Vi ser allerede tilfeller der profilerte personer avfeier ugunstige bevis som AI-generert, og dermed flytter bevisbyrdenbevisbyrdenPrinsippet om at den som hevder noe, må bevise at det er sant, i stedet for at den andre parten må bevise at det ikke er sant. på en kostbar og ineffektiv måte, skriver forskerne.
Advarer nordmenn
Waterhouse lar seg ikke sjokkere over hva Google-forskerne har funnet.
– Det er ikke overraskende at de som har onde hensikter, raskt tar i bruk nye verktøy som generativ AI, sier Torgeir Waterhouse.
Videre advarer han om at nordmenn, som generelt har høy tillit til hverandre og til myndighetene, kan være spesielt utsatt for manipulasjon.
Han mener det internasjonale samarbeidet må styrkes for å bekjempe AI-generert svindel, og vi må ha bedre kontroll på banksystemet. Utdanningssektoren og pressen må også involveres for å forstå og håndtere AI-misbruk.
– Vi må finne balansen mellom å blokkere propagandamaskinerpropagandamaskinerOrganisasjoner eller teknologier som brukes til å spre propaganda, altså forsøk på å påvirke folks meninger, ofte med villedende eller ensidig informasjon. og det å ta vare på ytringsfriheten. For bommer vi på det så kan konsekvensene bli svært omfattende, sier han.
Ifølge Waterhouse er det viktig å huske at det er menneskene bak teknologien, og ikke teknologien i seg selv, som er problemet.
– Våpen dreper ingen i seg selv; det er bruken som er problemet. Både teknologien og bruken av teknologien må reguleres riktig for å unngå skade.