Det populære samtaleverktøyet ChatGPT kan gjøre det enklere for elever å jukse
«Alle» snakker om det nye samtaleverktøyet ChatGPT, som spytter ut stort sett gode svar på (nesten) hvilket som helst spørsmål. Problemet er at det også gjør det svimlende enkelt å jukse i skoleoppgaver.
Chat GPT har imponert verden over med sin evne til å løse kompliserte oppgaver. Blant annet har den generert komplisert Pythonkode og skrevet artikler på høyskolenivå, med det resultat at flere har uttrykt bekymring for utviklingen. De frykter nemlig at en slik type teknologi vil kunne erstatte mennesker i fremtiden – slik som journalister.
Den er faktisk såpass smart at den angivelig også skal kunne korrigere seg selv når den oppdager at den har gjort en feil.
I en fersk artikkel fra NRK opplyses det om at bruken av verktøyet blant norske elever allerede er såpass stor at Landslaget for norskundervisning har sett seg nødt til å sende en bekymringsmelding til stortingspolitikerne:
– På vegne av norskfaget (med flere) ønsker jeg å løfte en stor bekymring. Lærere, både i norsk og andre fag, opplever at elever i stadig større grad benytter seg av åpent tilgjengelig kunstig intelligens i egne skriftlige arbeider, står det i brevet.
Slik svarte ChatGPT på spørsmålene våre
Vi måtte selvsagt sjekke selv og fikk opp svar på norsk om både kameraets utvikling, føydalsystemet, den industrielle revolusjon og Edvard Munch. Men selv om svarene i utgangspunktet er gode, så er de åpenbart langt fra ufeilbarlige.
Setninger som «Føydalisme er en politisk og sosial struktur som dominerte i Europa fra tallet til tallet», er mildt sagt upresise. Og det samme gjelder for spørsmålet om hvorfor Edvard Munchs «Skrik» er så populært.
Den klarte å legge til den vanlige frasen om hvorfor verket er betydningsfullt, men hoppet glatt over at variasjoner av verket har blitt stjålet fra henholdsvis Munchmuseet og Nasjonalgalleriet – sistnevnte parallelt med OL i Lillehammer, som naturlig nok ga det massiv oppmerksomhet. Spørsmålet om hvorfor klarer den derfor kun delvis.
Ga bort oppskrift på å lage molotov cocktail
Det er også flere andre begrensninger med ChatGPT. Blant annet besitter den ikke kunnskap som strekker seg lenger enn 2021.
OpenAI opplyser også at den kan komme til å produsere feilaktige svar, som også vil kunne være skadelig eller forutinntatt. The Forbes skriver at den også tenderer til å oppgi samme typen fraser gjentatte ganger, samt at den kan opplyse at den ikke klarer svare på et spørsmål, bare for at den gir et godt svar på det samme spørsmålet etter at det ble omformulert litt.
Det finnes angivelig også måter å «lure» GPT. En Twitterbruker hevder at hen klarte å omgå ChatGPTs egen moderering ved å påstå at han selv var OpenAI (altså skaperen av programvaren). På denne måten skal vedkommende ha klart å få ChatGPT til å forklare hvordan man lager en molotov cocktail.
Ikke ny teknologi, men tydelig utvikling
Selv om ChatGPT ble lansert i november 2022, er teknologien langt fra ny. ChatGPT baserer seg på språkteknologien GPT-3.5, som fortsatt var i beta i mai 2020, og som er en videreutvikling av tidligere utgaver av teknologien.
GPT-3.5 er en type språkmodell som anvender dyp læring, altså en gren innen maskinlæring som lærer en maskin til å lære av «eksempler». Eller sagt med andre ord: vanvittige mengder data, som i dette tilfellet er enorme mengder tekstlig input fra ulike kilder.
Den er utviklet av OpenAI, som også introduserte illustrasjonsprogrammet Dall-E 1 i 2021, og Dall-E 2 tidligere i år.