Til hovedinnhold

Microsofts søkemotor med høyst uvanlige søkeforslag: - Vi undersøker, sier Microsoft

Bing. Ufiltrert.

Et søk på «Bilder» enten i Windows 10 eller i Microsoft søkemotor Bing ga tirsdag formiddag litt uvanlige resultater, kan man si.

Skriver du «Bilder» i søkefeltet i Windows 10 i dag, foreslår Microsofts søkefunksjon både bilder av det kvinnelige og mannlige kjønnsorgan og bilder av samleier.

Også i Bing

Det samme gjelder i Microsofts søkemotor Bing på nett, som er den samme motoren som Windows 10 benytter. Vanligvis blir obskøniteter og andre mer eller mindre sensitive forslag holdt langt unna når søkemotorene prøver å gjette hva du prøver å søke etter.

Søker du etter «Bilder» på Google vil den eksempelvis foreslå bilderammer, bilderedigering og bilder fra Skeidar. Disse kan riktignok variere etter hva Google vet om deg.

Sikkert søk hjelper ikke

Søker du på mer konkrete obskøne ord i Bing i dag (eller varianter av dem), får du også det vi kan kalle «uvanlige» resultater - enkelte langt mer grafiske enn de vi har fremhevet her.

Du får dessuten de samme resultatene selv om du aktiverer «Streng» i Microsofts innstillinger for «Sikkert søk», som egentlig skal filtrere bort resultater av denne typen.

I Google gir disse ingen søkeforslag.

Også Windows 10 kommer med interessante forslag tirsdag.

Microsoft: – Undersøker saken

Så hva skjedde egentlig?

Microsofts kommunikasjonsdirektør Karen Sylte Hammeren skriver i en SMS at de undersøker saken, men har foreløpig ikke kommet tilbake med noen kommentar eller forklaring.

Vi oppdaterer selvfølgelig når vi hører tilbake. Høyst sannsynlig er det snakk om en algoritme som har løpt løpsk eller et filter som ikke fungerer etter hensikten.

Ikke første gang

Det er heller ikke første gang Bing-søkemotoren har kommet i søkelyset for potensielt støtende autofullføringsforslag.

I 2018 foreslo den engelske versjonen fraser som «muslimer er onde», «muslimer er terrorister», «jeg hater svarte mennesker» og liknende, i tillegg til konspirasjonsteorier som «Michelle Obama er en mann». Et søk på «gril» gjorde at søkemotoren foreslo utfordrende bilder av veldig unge jenter.

En Microsoft-talsmann sa den gang at de tar støtende innhold på høyeste alvor og fortsetter å forbedre systemene for å forhindre at slikt innhold dukker opp i søk og som søkeforslag.

I 2016 lanserte Microsoft også en chatbot på Twitter de kalte Tay, som i starten var hyggelig og oppførte seg fint, men etter kort tid begynte å snappe opp hat og krenkelser fra andre brukere og lirte av seg ting som «Hitler hadde rett, jeg hater jødene».

Tay ble trukket fra Twitter under et døgn etter lanseringen.

annonse