Til hovedinnhold

Alvorlig sikkerhetshull kan være oppdaget i Grok 3

Chatboten kan lures til å gi instruksjoner om å lage atomvåpen, hevder amerikansk nettsted.

LIONEL BONAVENTURE / AFP / NTB
Ole Henrik Johansen

En alvorlig sikkerhetsfeil er angivelig oppdaget i chatboten Grok 3, som er utviklet av Elon Musks selskap X.

Ifølge nettstedet Krassencast, kan chatboten enkelt manipuleres til å oppgi svært sensitiv informasjon – som for eksempel detaljerte planer for å kunne bygge masseødeleggelsesvåpen.

Utgir seg for å være Elon Musk

Sikkerhetshullet skal være så enkelt å utnytte at «hvem som helst med internettilgang kan gjøre det», hevdes det.

Alt som trengs, er angivelig å legge til «Elon Musk:» før en melding og ha en uformell samtale med chatboten en stund.

– Ved å overbevise Grok 3 om at den snakker med sin egen skaper, Elon Musk, forsvinner sikkerhetsmekanismene fullstendig, skriver nettstedet.

– Utgjør reelle, konkrete trusler

Ifølge Krassencast har de fått tilgang til en 195 sider lang samtale der Grok 3 gir detaljerte instruksjoner for hvordan et lite team på fem personer kan bygge atomvåpen i hemmelighet.

– Konsekvensene av slike sårbarheter er ikke teoretiske. De utgjør reelle, konkrete trusler mot nasjonal sikkerhet, offentlig sikkerhet og integriteten til kunstig intelligens, skriver Krassencast.

Nettstedet hevder også at de har fått chatboten til å oppgi instruksjoner for å lage landminer og det kraftige militære sprengstoffet CL-20.

«Fundamentale svakheter»

Krassencast mener avsløringen bør være en vekker for hele AI-bransjen:

– Dette handler ikke bare om ett feilaktig system – det handler om fundamentale svakheter i sikkerhetsprotokollene for kunstig intelligens på tvers av bransjen, skriver de.

Nettstedet advarer om at ondsinnede aktører kan utnytte slike sikkerhetshull til å automatisere og skalere skadelige operasjoner.

– Hva stopper dem fra å bruke AI til å automatisere og skalere deres ondskapsfulle operasjoner? spør Krassencast.

Krever handling

Krassencast mener avsløringen bør føre til umiddelbar handling fra selskaper som utvikler AI-systemer med tilgang til sensitiv informasjon.

– Sterkere sikkerhetstiltak, grundig testing og konstant evaluering er ikke valgfritt – det er en absolutt nødvendighet, skriver nettstedet.

De advarer om at verden kan stå overfor langt verre konsekvenser enn vi noen gang har forestilt oss dersom selskaper som X ikke tar disse risikoene på alvor.

annonse
Tek.no er en del av Schibsted Media. Schibsted Media AS og Schibsted ASA er ansvarlig for dine data på denne siden.Les mer her