Til hovedinnhold

Med Android P setter Google kunstig intelligens i førersetet

Både lysstyrke, grensesnitt og strømbruk skal bli mer intelligent.

Google

Googles I/O-konferanse har i år et stort fokus på den økende betydningen til kunstig intelligens på alle mulige felt, og da turen var kommet til å snakke om den nye Android-versjonen var det også kunstig intelligens som stod i fokus.

Android P, som den nye versjonen heter, skal nemlig nyttiggjøre kunstig intelligens i langt større grad enn tidligere, noe brukere skal kunne merke på flere ulike måter.

En av måtene teknologien skal komme Android-brukere til gode er gjennom en ny løsning Google har kalt «adaptivt batteri». Dette er en løsning som bruker maskinlæring til å forutsi hvilke apper du kommer til å bruke i løpet av de neste timene og hvilke du ikke kommer til å bruke før senere.

Basert på dette skal operativsystemet tilpasse seg bruksmønsteret ditt, for på den måten å allokere batterikapasitet til den prioriterte aktiviteten på mobilen. Ifølge Google skal testene av løsningen ha vist svært lovende resultater, men det gjenstår selvsagt å se hvor store effektene blir i praksis.

Mer intelligent lysjustering

Adaptiv lysstyrke skal gjøre manuelle innstillinger overflødige.
Google

En annen, ny smartløsning i Android P som baserer seg på maskinlæringsteknologi er «adaptiv lysstyrke». Dette er en mer sofistikert form for automatisk justering som «lærer» brukerens foretrukne lysinnstillinger under gitte lysforhold, og automatisk justerer lysstyrken for deg basert på forholdene.

Dette skal skje på en måte som også skal optimalisere strømforbruk. Løsningen skal ifølge Google har ført til langt færre manuelle lysstyrkejusteringer blant testpersoner.

Maskinlæring skal også benyttes til å gjøre selve grensesnittet mer intelligent i Android P. Det nye operativsystemet skal, i tillegg til å forutsi appene du kommer til å bruke, også kunne forutsi de neste handlingene dine på mobilen – en funksjon Google kaller «app actions».

«App actions» skal forutsi handlinger og la deg velge dem direkte i grensesnittet.
Google

Lærer av aktivitetene dine

Basert på læring av aktivitetsmønsteret ditt vil man med denne funksjonen kunne få opp forslag til handlinger direkte i grensesnittet – uten at man trenger å åpne de aktuelle appene først. Funksjonen skal også integreres i Google-tjenester som søk, hvor man kan få opp forslag til handlinger blant søkeresultatene basert på hva man søkte etter, og Google Play.

En beslektet funksjon er «Slices», som er interaktive «biter» av applikasjoner som kan dukke opp ulike steder i operativststemet. Som et eksempel på hva dette innebærer demonstrerte Google hvordan man for eksempel kan søke etter en tjeneste i søkemotoren, og få opp et knippe forslag til konkrete, relevante handlinger knyttet til tjenesten blant søkeresultatene.

Akkurat hvilke handlinger som blir tilgjengelige med denne funksjonen blir opptil utviklere selv å bestemme. Google skal være i dialog med en rekke partnere om integrering av både «app actions»- og «slices»-funksjonaliteten.

Ikke noe nytt om Google Assistant til Norge

Som vi skrev om tidligere i dag så trodde vi at Google ville avsløre noen flere detaljer rundt Assistant-utrullingen i Norge. Det fikk vi ikke. Det eneste de sier er fortsatt at det «kommer snart».

annonse