19.03.2003

BOOM

Bildquelle: fuZo

Spracherkennung in Auto und Handy

Die moderne Sprachtechnologie hat mittlerweile viele Kinderkrankheiten hinter sich gelassen.

Derzeit treibt nicht die Softwareindustrie, sondern vor allem die Auto- und die Mobilfunkbranche die Entwicklung neuer Anwendungen voran.

Neueste Navigationssysteme "verstehen" den Fahrer und müssen nicht mehr per Tastatur gefüttert werden. Und vor allem das Handy soll künftig von den neuen Entwicklungen profitieren. Die Bedienung der immer kleineren Tastaturen könnte dank "Sprachbegabung" künftiger Mobiltelefone bald komplett überflüssig werden. Auf der Cebit in Hannover zeigten zahlreiche Unternehmen ihre aktuellsten Anwendungen.

Handys sollen Sprachsteuerung bekommen

In zwei Jahren wird die Hälfte aller Handys mit Spracherkennung ausgerüstet sein, prognostiziert eine Studie der VDI/VDE-Technologiezentrum Informationstechnik GmbH.

Derzeit müssen beispielsweise Fahrer bestimmter Mercedes-Modelle die Hände nicht mehr vom Lenkrad nehmen, um das Telefon oder das Radio zu bedienen. Ein Wort genügt, und das Telefonbuch wird aufgeschlagen oder der Sender gewechselt. Auch Honda hat einige seiner Modelle der Accord-Serie in den USA bereits mit einem Navigationssystem ausgestattet, das auf Zuruf den schnellsten Weg beschreibt.

Kaum Training für neue Software

Noch vor wenigen Jahren war es oft mühsam, Spracherkennungssoftware etwa zur Steuerung des PCs zu trainieren und erfolgreich einzusetzen. Mit neuen Anwendungen wie der Software Voice Pro von Linguatec soll aufwendiges Sprechertraining künftig der Vergangenheit angehören. Auch Erkennungsfehler soll ein USB-Headset an Stelle des analogen Mikrofons bis zu 50 Prozent reduzieren. Das Produkt basiert nach Angaben des Unternehmens auf der neuesten Technologie von IBMs ViaVoice Pro 10.

Übersetzungen in Echtzeit

Bisher regten maschinelle Übersetzungen eher zum Schmunzeln als zum Staunen an.

IBM will auf der Cebit demonstrieren, dass sich Menschen künftig in Echtzeit in verschiedenen Sprachen unterhalten können. In Hannover zeigt der Softwarekonzern als Prototyp ein universell einsetzbares Übersetzungssystem, das erstmals Spracherkennung, maschinelle Übersetzung und Sprachausgabe in Echtzeit verbindet.

Der "IBM Mastor" [Multilingual Automatic Speech-to-Speech Translator] wurde vom IBM-Watson-Research-Center in New York entwickelt und übersetzt in Echtzeit zunächst die Sprachen Englisch und Mandarin.

Einsatz vor allem bei Banken

In großem Maßstab sind moderne Sprachdialog-Systeme vor allem bei Banken, Versicherungen, Luftfahrtgesellschaften, im Versandhandel, aber auch in Kinos und Theatern erfolgreich im Einsatz. "In erster Linie werden Sprach-Dialogsysteme im hochgradig standardisierten Auskunftsbereich verwendet", sagt der Vizepräsident des Call-Center-Forums Deutschland, Manfred Stockmann.

Soll ein Anrufer durch Kundennummer identifiziert oder der Reisende über die nächsten Verbindungen informiert werden, findet längst ein Computer seinen Einsatz. "Der Computer wickelt die Telefonate durchschnittlich zehn Sekunden schneller ab. Bei 10.000 Anrufern täglich ist das deutlich preisgünstiger", so Stockmann.