Foto Mikal Schlosser

En bevægelse med øjet kan åbne døre via mobilen

onsdag 24 jan 18

Stort marked for øjenstyring

I 2016 blev der leveret 80 millioner smart home-enheder på verdensplan, hvilket er en stigning på 64 procent sammenlignet med 2015. Senest har IKEA lanceret en  smart pære, ’Trådfri’. Som konsekvens af det stigende antal smart home-enheder på markedet vil priserne falde, og tilgængeligheden for køb forbedres.

Enables øjenstyring gør smart home-teknologien tilgængelig for mennesker med mange forskellige typer og grader af funktionsnedsættelse. Interesseorganisationer på handicapområdet anslår, at 360.000 skandinaver, heraf omkring 90.000 danskere, har et bevægelseshandicap.

DTU-studerende høster priser for udvikling af ny teknologi baseret på øjenstyring via mobiltelefon.

Et par bevægelser med øjnene foran mobiltelefonen er nok til at åbne døre og slukke lamper. To bachelorstuderende på DTU har udviklet en ny teknologi, Enable, som via øjenstyring i smartphones giver personer med fysiske handicap mulighed for at tænde maskiner, skrue op for varmen eller slukke lys i hjemmet. Øjenstyringen kan aktivere funktioner i apps udviklet til smart home-teknologi.

”Vi har udviklet øjenstyringen til personer med motorisk handicap, fordi denne gruppe får særlig store fordele og økonomiske besparelser ved at bruge teknologien. Hvor fysisk handicappede i dag får indrettet deres hjem med individuelle løsninger alt efter, om de kan bruge arme eller ben, så vil øjenstyring via mobiltelefon være en løsning, der kan bruges af stort set alle, uanset hvilket handicap de har,” siger bachelorstuderende Elias Lundgaard Pedersen, der læser på Design og Innovation.

Øjenstyring bruges allerede i dag på computere på hospitalerne til børn med cerebral parese, det vil sige lammelse efter en hjerneskade, eller til voksne med nervesygdommen ALS og neurologiske lidelser, hvor patienten ikke kan tale eller bruge tastatur og mus. Via øjenstyring kan de skrive mails, gå på nettet og kommunikere med omgivelserne med skrift, som læses op med syntetisk tale. Teknologien kan også bruges til at styre teknologi i hjemmet, men det kræver, at ekstraudstyr bliver forbundet til computeren.

Når teknologien først nu bliver overført til mobiltelefoner, skyldes det ifølge Elias Lundgaard Pedersen, at mobiltelefoner hidtil ikke i særlig høj grad har været brugt som bindeled til andre teknologier. Så koblingen mellem øjenstyring, apps på mobiltelefonen og smart home-teknologien åbner en helt ny brugerflade.

”I stedet for at få en computerskærm installeret på kørestolen, kan personer med fysiske handicap få det hele samlet i mobiltelefonen. Og så er det en billig teknologi. Alle kan gå ned og købe en mobiltelefon med denne teknologi i en butik – også i USA, hvor det kan være svært for personer med handicap at få bevilget hjælpemidler, hvis de ikke har en sundhedsforsikring,” siger Elias Lundgaard Pedersen.

En bevilling og to priser

Teknologien bag øjenstyring via mobiltelefonen er beskrevet i den bacheloropgave, som Elias Lundgaard Pedersen i 2017 skrev i samarbejde med studiekammeraten Frederik Østergaard Neble, som også er bachelorstuderende på Design og Innovation. Siden har de to studerende modtaget en bevilling fra Bevica Fonden og to priser for deres projekt.

I dag er de projektansat i firmaet Social Digital på det ydre Nørrebro i København, de har fået tilknyttet en forretningsudvikler og skriver på de koder, der skal til for at flytte øjenstyringen fra en mikroprocessor til en mobiltelefon.

Teknologien er allerede testet af brugere på bostedet Geelsgårdskolen i form af en mikroprocessor tilsluttet en computer. De kommende måneder skal de studerende skrive en forretningsplan, søge patent på deres opfindelse og finde en investor.

Brugbart i andre brancher

Udviklingen af teknologien til andre forretningsområder kræver, at de studerende har økonomi til at ansætte mere erfarne programmører og udviklere.

Elias Lundgaard Pedersen og Frederik Østergaard Neble ser gode muligheder for at videreudvikle Enable til løsninger målrettet andre brancher, f.eks. medicinalindustrien, hvor øjenstyring af udstyr kan være en løsning i laboratorier, hvor personalet ikke må røre ved overflader.

På længere sigt er forventningen, at øjenstyring vil blive udbredt som en navigationsmetode på mobiltelefoner på samme måde som forbrugerne i dag scroller og swiper sig vej igennem programmer.

To slags øjenstyring

Traditionel øjenstyring  
Anvender såkaldt blikpunkts-styring, der virker ved at sammenligne pupillens placering i øjet med kendte punkter på skærmen. Ved første brug skal man kalibrere systemet ved at kigge på bestemte punkter på skærmen. Derudover stiller blikpunkts-styring høje krav til præcis pupilgenkendelse. Teknologien involverer ofte brug af stereoskopiske kameraer, infrarøde lamper og omfattende billedgenkendelse, som stiller store krav til processorerne.   

 
Gestusbaseret øjenstyring 
Bruger øjnenes bevægelser til at styre systemet. En øjengestus kan sammenlignes med at swipe til venstre med fingeren på telefonen for at åbne kameraet, men i stedet udføres den samme bevægelse med blikket. Et eksempel er først at kigge til højre, derefter til venstre og til højre igen hvorefter en handling som f.eks. “tænd lyset” bliver udført. Når man bruger gestusbaseret øjenstyring, reduceres  de tekniske krav til præcis pupilgenkendelse i systemet, og både hardware og software kan gøres mindre komplicerede og omkostningstunge.

Nyheder og filtrering

Få besked om fremtidige nyheder, der matcher din filtrering.
http://www.bioengineering.dtu.dk/nyheder/nyhed?id=E24ABC17-5A19-4708-B62C-7CA788893001&utm_device=web&utm_source=RelatedNews&utm_campaign=Teknologi-topmoede-gentages-i-2018
19 OKTOBER 2018