Computer mit Gesten steuern
Die "Human Senses Group" der NASA hat nach eigenen Angaben eine Software entwickelt, die zuverlässig Gesten der Hände in Steuerbefehle umsetzt. Dazu werden in einer Lernphase zunächst bestimmte Bewegungen aufgezeichnet und analysiert, später werden bestimmte Bewegungsgrundmuster aus Kamerabildern errechnet.
Die NASA-Techniker demonstrierten ihr Programm jetzt anhand eines Flugsimulators für den F-15-Kampfjet.
Kevin Wheeler von der "Human Senses Group" hatte bei der Vorführung sogar ersichtlich Spaß, was auf eine Massenanwendungen der Technologie hindeutet: die Steuerung von Videospielen.
"Die Steuerung ist wirklich intuitiv, und sogar schwierige Flugmanöver wie Rollen lassen sich einfach ausführen", beschrieb Wheeler sein Vergnügen.
Ob die NASA wegen der nahe liegenden Anwendung die Forschungsergebnisse zum Start der weltweit größten Computerspiele-Messe E3 [Electronic Entertainment Expo] in Los Angeles vorstellt, bleibt allerdings unklar.
Größte Gaming-Messe startet heuteArmband
Die NASA-Techniker haben mit ihrer Entwicklung allerdings weitaus ernsthaftere Anwendungen als die Steuerung von Games im Sinn.
Vor allem in der Medizin soll die Technik zum Einsatz kommen, so etwa für die Steuerung von Operations-Robotern oder von Prothesen.
Zunächst soll allerdings die nötige Hardware dadurch reduziert werden, dass die Bewegungen durch ein einfaches Armband analysiert werden.
Dieses soll dann Muskelbewegungen der Hand direkt erkennen, sodass keine aufwendige Analyse von Kamerabildern mehr nötig wäre.
Die "Armbandlösung" der Steuersoftware soll dann auch von Astronauten der NASA auf der ISS getestet werden.
NASANeuronales Netz greift ein
Für den Fall, dass ein Astronaut oder Mediziner die Kontrolle über seine Handbewegungen verliert, haben die NASA-Techniker auch schon eine Lösung parat bzw. in der Entwicklung.
Am "Dryden Flight Research Center" in Kalifornien testen die Ingenieure schon seit einigen Jahren an einer modifizierten F15 eine intelligente Steuersoftware, die auf einem neuronalen Netz basiert und im Notfall die Kontrolle über den Flieger übernehmen soll.
Das entwickelte neuronale Netz wurde in Manövern mit hoher Flugperformance wie einer 360-Grad-Rolle erprobt. Die Software meisterte die Herausforderung, die kampfunfähige F15 zu steuern, dabei auch bei sehr hohen Geschwindigkeiten.
Die Software wurde am Ames Research Center der NASA in Kalifornien entwickelt. Sie wurde darauf programmiert, sich einzuschalten, wenn das Flugkontrollsystem Unstimmigkeiten zwischen den Daten über die Geschwindigkeit und den Kräften, die auf Flügel, Schwanz und Rumpf der F15 einwirken, einerseits und den für Normalbedingungen berechneten Optimaldaten andererseits feststellt.
Neuronales Netz fliegt Kampfbomber
