Microsofts søkemotor med høyst uvanlige søkeforslag: - Vi undersøker, sier Microsoft
Bing. Ufiltrert.
Et søk på «Bilder» enten i Windows 10 eller i Microsoft søkemotor Bing ga tirsdag formiddag litt uvanlige resultater, kan man si.
Stein Jarle Olsen, Tek.no
Skriver du «Bilder» i søkefeltet i Windows 10 i dag, foreslår Microsofts søkefunksjon både bilder av det kvinnelige og mannlige kjønnsorgan og bilder av samleier.
Også i Bing
Det samme gjelder i Microsofts søkemotor Bing på nett, som er den samme motoren som Windows 10 benytter. Vanligvis blir obskøniteter og andre mer eller mindre sensitive forslag holdt langt unna når søkemotorene prøver å gjette hva du prøver å søke etter.
Søker du etter «Bilder» på Google vil den eksempelvis foreslå bilderammer, bilderedigering og bilder fra Skeidar. Disse kan riktignok variere etter hva Google vet om deg.
Sikkert søk hjelper ikke
Søker du på mer konkrete obskøne ord i Bing i dag (eller varianter av dem), får du også det vi kan kalle «uvanlige» resultater - enkelte langt mer grafiske enn de vi har fremhevet her.
Du får dessuten de samme resultatene selv om du aktiverer «Streng» i Microsofts innstillinger for «Sikkert søk», som egentlig skal filtrere bort resultater av denne typen.
I Google gir disse ingen søkeforslag.
Også Windows 10 kommer med interessante forslag tirsdag.
Finn Jarle Kvalheim, Tek.no
Microsoft: – Undersøker saken
Så hva skjedde egentlig?
Microsofts kommunikasjonsdirektør Karen Sylte Hammeren skriver i en SMS at de undersøker saken, men har foreløpig ikke kommet tilbake med noen kommentar eller forklaring.
Vi oppdaterer selvfølgelig når vi hører tilbake. Høyst sannsynlig er det snakk om en algoritme som har løpt løpsk eller et filter som ikke fungerer etter hensikten.
Ikke første gang
Det er heller ikke første gang Bing-søkemotoren har kommet i søkelyset for potensielt støtende autofullføringsforslag.
I 2018
foreslo den engelske versjonen fraser som «muslimer er onde
», «muslimer er terrorister», «jeg hater svarte mennesker» og liknende, i tillegg til konspirasjonsteorier som «Michelle Obama er en mann». Et søk på «gril» gjorde at søkemotoren foreslo utfordrende bilder av veldig unge jenter.
En Microsoft-talsmann sa den gang at de tar støtende innhold på høyeste alvor og fortsetter å forbedre systemene for å forhindre at slikt innhold dukker opp i søk og som søkeforslag.
I 2016 lanserte Microsoft også en chatbot på Twitter de kalte Tay, som i starten var hyggelig og oppførte seg fint, men etter kort tid begynte å snappe opp hat og krenkelser fra andre brukere og
lirte av seg ting som «Hitler hadde rett, jeg hater jødene»
.
Tay ble trukket fra Twitter under et døgn etter lanseringen.