LYDLØST: Dette hodesettet, som heter AlterEgo, oppfatter ord uten at du snakker og gir deg lyd tilbake uten en høyttaler. MIT-doktoranden Arnav Kapur har funnet opp talestyring for de språkløse. (Foto: MIT/Arnav Kapur)

Lydløse talekommandoer

FREDAGSTECH: Spennende smånyheter som du kanskje har gått glipp av denne uken: Snakk inni deg for talekommandoer, Luke Skywalkers protese, robot-buddhistprest.

Publisert Sist oppdatert

Nok en uke begynner å nærme seg slutten, denne gangen uten digresjoner slik som større musikkarrangementer bare minutter unna pulten. Det er egentlig like greit, så får man konsentrert seg mer om de litt mer konstante tingene i tilværelsen.

Slikt som alt det spennende som skjer der ute i teknologiens verden, for eksempel. God helg når den tid kommer.

Lydløse talekommandoer

Talestyrte datamaskiner via smart programvare basert på kunstig intelligens har vi hatt en god stund nå. Alexa, Cortana, Siri og Assistant er vel utbredt, ikke bare på datamaskinene våre, men også i klokker, mobiler og andre smarte produkter. De forstår til og med norsk, slik at de er fullt brukbare også her på berget. Vi synes at dette funker bra når vi for eksempel skal starte en nedtelling for å koke egg eller annet tidsbasert som foregår på kjøkkenet.

Da er det litt annerledes der ute i den virkelige verden. Vi merker at det er en litt høyere list for å begynne å snakke med taleassistenten ute blant folk, det føles liksom noe litt mer sært å gjøre i andres påsyn.

Se for deg at taleassistenten i stedet befant seg inni hodet ditt, der den gjør det du ber den om uten at du er nødt til å snakke til den, og at den svarer direkte uten å gå via en høyttaler som alle kan overhøre. Akkurat det har postdoktoranden Arnav Kapur ved berømte MIT Media Lab designet og demonstrert, melder nettsiden Digital Trends.

Løsningen hans er et hodesett som ikke er ulikt det Madonna, Britney Spears og andre syngende og dansende stjerner bruker på forestillingene sine for å slippe å holde i en mikrofon eller stå i ro ved mikrofonstativet. Kapurs løsning baserer seg imidlertid ikke på lyd, verken inn eller ut. Ikke er det «tankelesning» i form av registrering av de elektriske signalene i hjernen heller – heldigvis.

– Det er over 100 muskler som er involvert i talen vår, forklarer Kapur til Digital Trends. Disse mottar elektriske signaler når vi snakker, og de beveger seg mens vi snakker. Det er dette Kapurs løsning «AlterEgo» registrerer. Ved å «snakke inni oss», uten å slippe ut en lyd og knapt nok gjøre noen synlige bevegelser i ansiktet, vil vi lage nevrologiske aktiviteter under huden, som denne enheten klarer å fange opp. Ut fra disse signalene «oversetter» AlterEgo aktiviteten til tale. For å kommunisere tilbake til brukeren benytter enheten lydoverføring via beinet i kraniet, slik at øregangen ikke er tettet av ørepropper.

Kapurs målsetning har vært å lage et ikke-invaderende grensesnitt som tillater oss å kommunisere med datamaskiner ved hjelp av naturlig språk. Han ser for seg at mennesker med tap av taleevnen, som slagpasienter, andre hjerneskader, Parkinson-pasienter, folk med ALS og Huntingtons sykdom kan nyttiggjøre seg denne teknologien. Han opplyser at i USA alene dreier det seg om cirka 7,5 millioner slike pasienter.

Vi andre ser jo for oss et privat talebasert grensesnitt som ingen overhører på bussen når vi lurer på temperaturen i Cairo i dag eller kursen på Dirham akkurat nå. Og egentlig all annen betjening av datamaskiner, der vi i dag bruker mus, tastatur, pekefinger, gester og alle andre måter å fortelle datamaskinene våre hva vi ønsker.

Det hadde også vært fint at noen andre enn internettgigantene lagde dette utstyret, slik at vi slapp å lure på om de lytter på våre indre samtaler også nå, men på den andre siden hadde vi jo da hatt argumentet at «det var stemmene i hodet som sa at jeg skulle gjøre det».

«Star Wars-hånd» med følelse

Husker du avslutningen på Star Wars-filmen «The Empire strikes back»? Da Darth Vader og Luke Skywalker møttes i en duell med lyssverd, som Luke tapte? Ikke nok med at han tapte, han mistet underarmen sin også, som helt på tampen av filmen ble erstattet med en protese.

Vi husker godt hvor stilig vi syntes det var da den ble testet med nålestikk, og Luke reagerte på stikket, og fingrene bevegde seg instinktivt unna. Her er en liten snutt for de som ikke husker akkurat denne detaljen:

Nå har amerikanske forskere ved University of Utah lagd akkurat en slik protese, melder nettsiden Extreme Tech. De har tatt utgangspunkt i en robotisk protese som har vært under utvikling de siste femten årene, som heter Deka LUKE. Og jepp, den er virkelig oppkalt etter Luke Skywalkers protese.

LUKE er en robotisk arm lagd av metall, men med en slags «hud» lagd av silikon på selve hånden. Armen har både skulder-, albue- og håndledd, og bevegelige fingre som opprinnelig ble styrt av en ekstern datamaskin. Batteriene den trenger er også eksterne.

FORBEDRER: Forskerne ved University of Utah har jobbet med å forbedre robotarmen LUKE, som opprinnelig ble utviklet av den militære forskningsorganisasjonen DARPA for å hjelpe skadde veteraner. (Foto: University of Utah) 

Med dette utgangspunktet har Utah-forskerne dratt mulighetene lengre – mye lengre. De har utstyrt fingrene til protesen med sensorer som registrerer trykk, og så har de koblet både dette og kontrollkablene for styringen av protesen til endene av nervene i armen til en person som har gått gjennom en amputasjon av armen.

Resultatet? Pasienten kan både kontrollere bevegelsene til robotarmen sin med tankene, i tillegg til at han kan føle det han tar på med protesen. Dermed kan han både plukke opp et egg eller plukke en drue fra klasen uten at robotfingrene griper for hardt og ødelegger det han holder. Fantastisk.

Nøkkelen til dette framskrittet er koblingen mellom elektronikk og nervebanene våre. Det skjer ved hjelp av en oppfinnelse som er gjort ved universitetet: Utah slanted electrode array. Det er et knøttlite implantat med 100 syltynne nåler på mellom 0,75 og 1,5 millimeters lengde, som gjennomborer nerven i forskjellige dybder, og dermed kan kommunisere med flere nevroner og enkelt-nervestrenger. Ved å koble trykksensorene og bevegelsesmotorene til den rette nervestrengen har vi grunnlaget for en cyborg.

KNØTTLITE: Tu utgaver av Utah slanted electronics array liggende på en amerikansk mynt. Dette er ikke store greiene, likevel klarer de å koble til opptil 96 "kurser". (Foto: University of Utah/Loren Rieth)

I tillegg var det behov for en matematisk modell av hvordan nervesystemet vårt lager og behandler signalene som utveksles mellom hjernen på den ene siden og muskler og følelsesnerver på den andre. Deretter kan datamaskinen som styrer protesen etterligne disse signalene for å levere trykkfølelsen til hjernen og motta styringssignalene fra hjernen til presise kommandoer for hvor mye kraft hånden skal gripe med.

Dette prosjektet fokuserte på å utveksle følelsesinformasjon mellom protesen og hjernen, men forskerne forteller at det er flere muligheter. Det første er å gjøre løsningen trådløs, slik at protesen ikke må være koblet til datamaskinen med kabler, noe som vil gi pasienten en mye høyere frihetsgrad.

FØLSOM: Pasienten Keven Walgamott kan ved hjelp av den oppgraderte LUKE-armen plukke druer med robotfingrene sine uten å ødelegge dem, takket være at han kan føle hvor hardt han griper. (Foto: University of Utah) 

Ved hjelp av elektrodematrisen som er koblet til de store nervebuntene i armen, kan også temperatur og smerte utveksles mellom mekanikk og biologi. Vi er kanskje nærmere ekte cyborger, selv om det ikke er alle varianter vi har like mye bruk for.

Robot-buddhistprest

VELUTSTYRT: Kodaiji-tempelet i Kyoto må sies å være mer enn gjennomsnittlig velutstyrt. (Foto: japan-guide.com)

Det buddhistiske Kodaiji-tempelet i Kyoto i Japan har fått en ny prest. Presten har kostet tempelet en million dollar, og Kannon, som er prestens navn, har vært i tjeneste siden litt tidligere i år, melder nettsiden Japan Times. Selv om anskaffelsesprisen var relativt høy, er lønnskostnadene ubetydelige, fordi Kannon er en androide, en menneskelignende robot.

Robotpresten preker buddhistisk visdom for de besøkende ved tempelet, og de menneskelige kollegene ved tempelet mener at ved hjelp av kunstig intelligens vil roboten en dag kunne opparbeide seg ubegrenset innsikt. En prest ved tempelet uttaler at roboten vil jo aldri dø, den vil bare fortsette og fortsette med å oppdagere og utvikle seg.

Roboten har et litt ekkelt utseende. Den har menneskelignende silikonhud på hendene og fra der et menneske har hårfestet på hodet, ned til skuldrene. Resten er metall og mekanikk, og kabling og blinkende dioder kan sees der kraniet skulle vært.

ANDROIDE: Roboten Kannon er menneskelignende, men ikke veldig. Det likevel ikke et poeng for munkene, som sier at Buddhas lære kan komme fra hva som helst. (Foto: Japan Times)

Hensikten er å tiltrekke seg yngre generasjoner japanere, som er rimelige uinteressert i religion. De tenker kun på tempelet som et sted for begravelser og vielser, sier en av prestene der, som innser at de tradisjonelle menneskelige munkene ikke når de unge i landet lenger.

Japanere har ingen mentale begrensninger for å omgås roboter, noe mange i den vestlige verden har. Dermed har det japanske publikummet i langt større grad enn de vestlige besøkende akseptert denne noe utradisjonelle presten. Mange vestlige besøkende vemmes over roboten, og sammenligner den med Frankensteins monster. Frankrikes president Emmanuel Macron har til og med beskyldt tempelet for helligbrøde. Dette tilbakevises av (den menneskelige) buddhistpresten Tensho Goto ved tempelet:

– Selvfølgelig har ikke en maskin sjel. Men buddhistisk tro handler ikke om å tro på en gud. Det handler om å følge Buddhas lære, så det spiller ingen rolle om den representeres av en maskin, et stykke skrapmetall eller et tre, sier han.

I mellomtiden går vi inn i helga i den salige visshet at til slutt fikk Douglas Adams nok en gang rett. I de ikke fullt så kjente bøkene om Dirk Gently's Holistic Detective Agency støter vi på «The Electric monk». Og nå er den altså her. Livet er herlig.