In de toekomst kunnen we onze slimme huizen misschien alleen met onze ogen besturen

Soms is spraakbesturing gewoon niet genoeg. Stel dat u de airco aanzet, de lichten dimt en uw Ed Sheeran- of Dua Lipa-afspeellijst in de rij zet met niets meer dan uw ogen en een lichte beweging van uw pols.

Misschien ooit. Onderzoekers van de Carnegie Mellon University in Pittsburgh hebben een tool voor het volgen van blikken ontwikkeld, EyeMU genaamd, waarmee gebruikers smartphone-apps kunnen bedienen, waaronder het streamen van muziekdiensten, met hun ogen en eenvoudige handgebaren. Geen touchscreen nodig.

De Future Interfaces Group, onderdeel van het Human-Computer Interaction Institute van de school, combineerde een blikvoorspeller met de bewegingssensoren van een smartphone om opdrachten mogelijk te maken. Zoals in: bekijk een melding om deze te vergrendelen en veeg de telefoon vervolgens naar links om deze te sluiten of naar rechts om te reageren. Of beweeg de telefoon dichterbij om een ​​afbeelding te vergroten of weg om de blikcontrole uit te schakelen. En dan blijft er één hand over free voor andere taken, zoals het nippen van je latte.

Google’s aanpassing, een free app genaamd Look to Speak, onlangs te zien in een Oscars-advertentie, is een technologie die alleen voor het oog is ontwikkeld voor mensen met een handicap. Probeer de Android-app en je zult zien hoe de eenvoudige handbewegingen van EyeMU een verschil kunnen maken.

“De grote technologiebedrijven zoals Google en Apple zijn redelijk dichtbij gekomen met blikvoorspelling”, zegt Chris Harrison, directeur van de Future Interfaces Group, “maar door alleen naar iets te staren kom je er niet. De echte innovatie in dit project is de toevoeging van een tweede modaliteit, zoals het naar links of rechts tikken van de telefoon, gecombineerd met blikvoorspelling. Dat maakt het krachtig. Achteraf lijkt het zo vanzelfsprekend.”

Het verkrijgen van blikanalyse en voorspelling om een ​​smartphone nauwkeurig te besturen was ongrijpbaar. Andy Kong, een senior informatica-majoor van Carnegie Mellon, schreef een programma als alternatief voor commerciële eye-tracking-technologieën die de camera van een laptop gebruikt om de ogen van de gebruiker te volgen, die vervolgens de cursorbeweging op het scherm regelen. Dit bleek een fundament van EyeMU.

“Huidige telefoons reageren alleen als we ze om dingen vragen, of het nu gaat om spraak, tikken of klikken op een knop”, zegt Kong. “Als de telefoon nu veel wordt gebruikt, stel je dan voor hoeveel nuttiger het zou zijn als we konden voorspellen wat de gebruiker wilde door blik of andere biometrie te analyseren.”

0 Shares:
You May Also Like