Gestik steuert Computer
Forscher des Fraunhofer-Instituts für Integrierte Schaltungen [IIS] haben ein biometrisches und kognitives System entwickelt, das Computern künftig nicht nur das Sehen, sondern auch die Wahrnehmung und zielgerichtete Interaktion mit ihrer Umwelt ermöglichen soll.
Die Erlanger Ingenieure setzen dazu eine benutzerfreundliche Mensch-Maschine-Kommunikation ein, die die bisher sehr mechanische Form der Bedienung per Tastatur oder Touch-Panel-Eingabe verbessern soll.
Person, Gesicht, Hand per Kantendetektion ermittelt
Über eine Standard-Hardware, bestehend aus einem PC, einer Kamera
und einem Framegrabber, werden mehrere Bilder aufgenommen. Die
Software ermittelt via Kantendetektion aus Bilddaten die Position
der Person, des Gesichts und der Hand.
Fraunhofer InstitutAuswertung in Echtzeit
Diese Objektsegmentierung ist die Grundvoraussetzung für das weitere Verfolgen der Hand- oder Gesichtsbewegung, dem so genannte "Tracking". Durch Verwendung von Grauwertbildern arbeitet das Verfahren auch bei schlechten Lichtverhältnissen zuverlässig.
Auf der CeBIT in Hannover können Besucher die neue Grafiksteuerung testen, indem sie Puzzleteile per Handbewegung auf einem Großbildschirm verschieben. Das Computersystem erkennt über ein Kamerabild die Person, ihre Hand, das Gesicht und reagiert auf Zeigebewegungen. Dabei meistert das System die parallelen Erkennungs- und Auswerteschritte in Echtzeit.
"Es kommt uns vor allem darauf an, dass Computersysteme oder Roboter ganz einfach und intuitiv von Benutzern bedient werden können", erklärt Christian Küblbeck vom Fraunhofer-Institut. Neben der Anwendung im Spielbereich ist die neue Technologie auch zur Steuerung von autonomen Robotersystemen, für vandalismussichere Infoscreens oder virtuelle Schaufenster einsetzbar.
