FREMTIDEN: Det skjer spennende saker og ting hver eneste dag. Mye går under radaren. Her presenterer vi noen av disse spennende smånyhetene fra uka som gikk. Foto: Jason Dorfman/MIT CSAIL/Yang Zhang/iStock

Teknikk fra uka som gikk

FREDAGSTECH: Spennende smånyheter som du kanskje har gått glipp av denne uken: Robot lærer av robot, alt kan få berøringskontroll, ARM i hjernen.

Publisert Sist oppdatert

Robot lærer av robot

Roboter lærer tradisjonelt på to grunnleggende måter: Enten ved detaljert programmering av bevegelsene de skal utføre, eller ved at de får demonstrert bevegelsene ved at vi drar i lemmene direkte og fysisk, drar i dem i programvare eller at vi viser oppgavene, slik at roboten kan imitere dem.

Nå har en løsning kommet som gjør det like enkelt å lære opp en robot som å lære et barn noe, skriver det vitenskapelige tidsskriftet Science. Forskere ved blant annet MIT og Berkley har ved hjelp av programvaren C-LEARN lagd et system der roboten bygger opp en kunnskapsbase som den kan benytte seg av for å lære nye oppgaver.

Ved å demonstrere en oppgave i programvare flere ganger fra forskjellige vinkler, klarer roboten selv å finne mønstrene og begrensningene som er viktige for å gjøre oppgaven selv. Dersom robotens gripemekanisme for eksempel havner parallelt med objektet den skal plukke opp, mislykkes oppgaven, og dermed lærer roboten at parallellisme er en viktig begrensning for å lykkes med jobben.

Robotikkforskeren Claudia Pérez D’Arpino ved MIT forteller til universitetets nyhetstjeneste at dette tilsvarer en 2-åring som kan strekke ut armen etter noe, og gripe om det. Ved å kombinere flere slike innlærte bevegelser kan roboten bygge opp en kunnskapsbase for å lære nye flertrinns oppgaver bare ved én enkelt demonstrasjon. Du finner en ganske interessant video hos MIT som demonstrerer dette.

Foto: Jason Dorfman/MIT CSAIL

Interessant nok kan systemet også brukes slik at roboter deler de nye ferdighetene seg i mellom. En robots kunnskap kan overføres til en annen robot med en annen konstruksjon, og den kan likevel nyttiggjøre seg kunnskapen. Så da er spørsmålet om dette endelig realiserer drømmen om en hjemmerobot som både kan lage mat og vaske opp, eller om dette er det første steget mot at robotene tar over verden.

Alt kan få berøringskontroll

Foto: Yang Zhang

I dag er vi godt vante med å betjene mobilene og nettbrettene våre ved hjelp av berøringsskjermer. Vi er til og med så vante med det at vi har opplevd skuffelsen over å ikke få respons da vi tok på en vanlig infoskjerm på togstasjonen, men måtte bruke tastene under skjermen i stedet. Berøring er en logisk og intuitiv måte å betjene noe på for oss mennesker.

Nå har forskere ved Carnegie Mellon University kommet fram til en billig metode som kan gjøre nær sagt enhver overflate berøringssensitiv, melder nettsiden Telecrunch.com. Om overflaten kan males, så kan den bli til en berøringsflate. Berøringsflate på boks, rett og slett.

Teknikken er basert på en maling som leder strøm. Deretter utstyres flaten med elektroder langs kanten av tingen som er malt, så sendes strøm inn på noen av elektrodene, mens spenningen måles på resten av dem. Når vi tar på flaten, vil en liten del av strømmen jordes av oss, og spenningen på målepunktene vil endre seg bittelitt. Dermed er det mulig for løsningen å detektere når noen tar på flaten, og ved hjelp av krysspeilinger, hvor flaten berøres. Denne metoden kalles «electric field tomography».

Det er doktorgradsstudenten Yang Zhang som har kommet fram til denne løsningen, som han kaller «Electrick». Han har demonstrert praktiske bruksområder for Electrick ved å male et bilratt, som deretter kan oppfatte hvilket grep man har på rattet, og i tillegg kan oppfatte vanlige swipe-kontroller på det. Et annet eksempel er en elektrisk gitar, som får kontroller på selve gitarkroppen i stedet for de tradisjonelle knottene, eller rett og slett en vegg i huset, der strykebevegelser på selve veggen kan kontrollere dimmerene til lyset i rommet. Han har også kule videoer på siden sin som demonstrerer konseptet.

ARM i hjernen

Illustrasjon: iStock

Drømmen om et fullt funksjonerende, toveis grensesnitt mellom hjernen og en elektronisk krets er slett ikke lagt død. Nylig kunngjorde det opprinnelig britiske elektronikkdesignselskapet ARM og det amerikanske forskningssenteret Center for Sensimotor Neural Engineering (CSNE), knyttet til University of Washington i Seattle, at de skal samarbeide i et prosjekt med ti års varighet for å designe elektroniske brikker som skal kunne implanteres i hjernen.

Det er CSNE som skal utvikle et «System on a Chip» (SoC) som skal kunne realisere bidireksjonale grensesnitt mellom hjernen og brikken. Tanken er å utvikle et system som skal hjelpe mennesker med hjerneskader eller skader i ryggmargen. Målsetningen er å få fram et system som ikke bare skal hjelpe mennesker med lammelser eller andre skader å utføre oppgaver, men også gi dem sensorisk feedback. ARM skal bidra med sine teknologier innen ultra-små, ultra-strømgjerrige prosessorer, etter som strømforbruk og varmeutvikling er svært viktige utfordringer som må løses.

Første fase er å lage en SoC som kan sende signaler fra hjernen til stimulatorer implantert i ryggmargen for å hjelpe de med skader der til å kontrollere sine bevegelser. Deretter skal prosjektet jobbe med å sende signaler tilbake til hjernen, slik at personen kan «føle» hvor hardt de holder rundt en gjenstand, eller hvor varm kaffekoppen er.

Dette er naturligvis svært viktig forskning som vil hjelpe hundretusener av mennesker, men vi merker at vi også lurer på om dette kan bidra til at vi snart får direkte eksterne grensesnitt, sånn at Netflix kan kobles rett til synsnerven, eller at skrivesenteret i hjernen kan kobles til et datasenter, når deadline er forbi og tekstbehandleren fremdeles er tom?