Veröffentlicht inScience

Drohnen lassen sich jetzt schon durch Blicke steuern

Eye-tracking findet in diversen Gebieten Anwendung. Sei es die Marktforschung oder autonomes Fahren – die Technologie erlebt einen Höhenflug.

Rotem L
Die "Rotem L" teilt ihr Interface mit ihrem Vorgänger "Green Dragon": Foto: IAI (Israel Aerospace Industries)

Dronenpiloten erfahren immer neue Stützen, die ihnen dabei helfen sollen, ihre Flugobjekte sicher an ihr Ziel zu geleiten. Vom Computer ging es hin zum normalen Controller und heute verfügt man bereits über Technologie zum Lesen von Mimik, mit der Drohnen gesteuert werden können.

An dieser Stelle befindet sich ein externer Inhalt von YouTube, der von unserer Redaktion empfohlen wird. Er ergänzt den Artikel und kann mit einem Klick angezeigt und wieder ausgeblendet werden.

Ich bin damit einverstanden, dass mir dieser externe Inhalt angezeigt wird. Es können dabei personenbezogene Daten an den Anbieter des Inhalts und Drittdienste übermittelt werden.

Intuitive Drohnen-Steuerung mit Blicken

Forscher des U.S. Army Research Laboratory der University of Pennsylvania haben nun eine neue – wenngleich wohl naheliegende – Methode entwickelt. Dank ihrer Forschung könnten Piloten bald schon alleine mit Hilfe einer Eye-tracking Brille ihre Drohnen steuern. „Diese Lösung bietet die Möglichkeit, neue, nicht-invasive Formen von Interaktionen zwischen einem Menschen und Robotern zu erstellen, die es dem Menschen ermöglichen, neue 3D-Navigations-Wegpunkte in einer uninstrumentierten Umgebung an den Roboter zu senden“, erklärte Dr. Giuseppe Loianno gegenüber Digital Trends.

„Der Benutzer kann die Drohne, die gerade auf eine räumliche Position zeigt, mit seinem Blick steuern, der sich in unserem Fall von der Kopfausrichtung unterscheidet.“ Loianno ist Forschungswissenschaftler sowie Teamleiter an der University of Pennsylvania und beschreibt die neue Methode als ein einfach zu nutzendes und in sich geschlossenes System.

Mehr zum Thema:

„Die vorgeschlagene Lösung eröffnet neue Wege, menschliche Aufmerksamkeit zu interpretieren und neue antizipative Mensch-Roboter-Schnittstellen zu schaffen“, fuhr Loianno fort. „Wir wollen neue Wege der Interaktion zwischen Agenten schaffen. Insbesondere sind wir daran interessiert, ein multimodales Interaktions-Setup zu entwickeln – mit visuellen, vokalen [und gestenbasierten Interaktionen] – und fügen mehrere Agenten in das Framework ein. Wir möchten auch untersuchen, welche Vorteile die vorgeschlagene Lösung für Menschen bietet, die von Körper- oder Augenkrankheiten betroffen sind.“

Du willst mehr von uns lesen? Folge uns auf Google News.