Spracherkennung in Auto und Handy
Die moderne Sprachtechnologie hat mittlerweile viele Kinderkrankheiten hinter sich gelassen.
Derzeit treibt nicht die Softwareindustrie, sondern vor allem die Auto- und die Mobilfunkbranche die Entwicklung neuer Anwendungen voran.
Neueste Navigationssysteme "verstehen" den Fahrer und müssen nicht mehr per Tastatur gefüttert werden. Und vor allem das Handy soll künftig von den neuen Entwicklungen profitieren. Die Bedienung der immer kleineren Tastaturen könnte dank "Sprachbegabung" künftiger Mobiltelefone bald komplett überflüssig werden. Auf der Cebit in Hannover zeigten zahlreiche Unternehmen ihre aktuellsten Anwendungen.
700 Mio. USD Umsatz in drei Jahren
Die Verknüpfung von Sprache mit der Verarbeitung digitaler
Informationen könnte sich als Zukunftsmarkt erweisen. Nach
Berechnungen des Marktforschungsunternehmens Frost & Sullivan wird
allein der US-Markt für Sprachtechnologie-Software von 200 Millionen
2001 auf 700 Millionen USD 2006 wachsen.
CebitHandys sollen Sprachsteuerung bekommen
In zwei Jahren wird die Hälfte aller Handys mit Spracherkennung ausgerüstet sein, prognostiziert eine Studie der VDI/VDE-Technologiezentrum Informationstechnik GmbH.
Derzeit müssen beispielsweise Fahrer bestimmter Mercedes-Modelle die Hände nicht mehr vom Lenkrad nehmen, um das Telefon oder das Radio zu bedienen. Ein Wort genügt, und das Telefonbuch wird aufgeschlagen oder der Sender gewechselt. Auch Honda hat einige seiner Modelle der Accord-Serie in den USA bereits mit einem Navigationssystem ausgestattet, das auf Zuruf den schnellsten Weg beschreibt.
Kaum Training für neue Software
Noch vor wenigen Jahren war es oft mühsam, Spracherkennungssoftware etwa zur Steuerung des PCs zu trainieren und erfolgreich einzusetzen. Mit neuen Anwendungen wie der Software Voice Pro von Linguatec soll aufwendiges Sprechertraining künftig der Vergangenheit angehören. Auch Erkennungsfehler soll ein USB-Headset an Stelle des analogen Mikrofons bis zu 50 Prozent reduzieren. Das Produkt basiert nach Angaben des Unternehmens auf der neuesten Technologie von IBMs ViaVoice Pro 10.
Übersetzungen in Echtzeit
Bisher regten maschinelle Übersetzungen eher zum Schmunzeln als zum Staunen an.
IBM will auf der Cebit demonstrieren, dass sich Menschen künftig in Echtzeit in verschiedenen Sprachen unterhalten können. In Hannover zeigt der Softwarekonzern als Prototyp ein universell einsetzbares Übersetzungssystem, das erstmals Spracherkennung, maschinelle Übersetzung und Sprachausgabe in Echtzeit verbindet.
Der "IBM Mastor" [Multilingual Automatic Speech-to-Speech Translator] wurde vom IBM-Watson-Research-Center in New York entwickelt und übersetzt in Echtzeit zunächst die Sprachen Englisch und Mandarin.
Sprachsteuerung dauert noch
Bis zum Siegeszug der Sprachtechnologie in der
Unterhaltungsindustrie wird nach Meinung von Experten jedoch noch
einige Zeit ins Land gehen. Sprachsteuerung für Videorecorder und
TV-Geräte sei derzeit "kein Hauptthema" für Panasonic, so Peter
Weber, Pressesprecher des Unternehmens in Deutschland. "Die
Spracherkennungssoftware muss absolut perfekt sein und jederzeit
funktionieren. Davon ist man allerdings noch ein Stück entfernt."
Spracherkennung in Spielen durch VoiceXMLEinsatz vor allem bei Banken
In großem Maßstab sind moderne Sprachdialog-Systeme vor allem bei Banken, Versicherungen, Luftfahrtgesellschaften, im Versandhandel, aber auch in Kinos und Theatern erfolgreich im Einsatz. "In erster Linie werden Sprach-Dialogsysteme im hochgradig standardisierten Auskunftsbereich verwendet", sagt der Vizepräsident des Call-Center-Forums Deutschland, Manfred Stockmann.
Soll ein Anrufer durch Kundennummer identifiziert oder der Reisende über die nächsten Verbindungen informiert werden, findet längst ein Computer seinen Einsatz. "Der Computer wickelt die Telefonate durchschnittlich zehn Sekunden schneller ab. Bei 10.000 Anrufern täglich ist das deutlich preisgünstiger", so Stockmann.
