Heute ist "Internationaler Tag der Muttersprache"
Ford wagt einen Blick in die Zukunft der Spracherkennung (FOTO)
Köln (ots) -
- Querverweis: Bildmaterial wird über obs versandt und ist
abrufbar unter http://www.presseportal.de/bilder -
- Im Jahr 2022 werden schätzungsweise 90 Prozent aller
Neufahrzeuge über Spracherkennungs-Systeme wie Ford SYNC
verfügen. In Zukunft werden Autos anhand des Tonfalls sogar
wissen, wie sich der Fahrer fühlt
- Kameras werden künftig Gesichtsausdrücke identifizieren, damit
das Auto auf Stimmungen des Fahrers reagieren kann
- Querverweis: Bildmaterial wird über obs versandt und ist
abrufbar unter http://www.presseportal.de/bilder -
- Im Jahr 2022 werden schätzungsweise 90 Prozent aller
Neufahrzeuge über Spracherkennungs-Systeme wie Ford SYNC
verfügen. In Zukunft werden Autos anhand des Tonfalls sogar
wissen, wie sich der Fahrer fühlt
- Kameras werden künftig Gesichtsausdrücke identifizieren, damit
das Auto auf Stimmungen des Fahrers reagieren kann
- Ford SYNC-Technologie ist bereits heute kompatibel mit Siri
(iPhone), Apple CarPlay sowie digitalen Diensten wie dem Alexa
Voice Service von Amazon
- Ford forscht gemeinsam mit der RWTH Aachen an der Verbesserung
von Sprachverarbeitung in Fahrzeugen
Wie wäre es, wenn das eigene Auto auf die Stimmung des Fahrers
reagieren könnte - zum Beispiel, um ihn auf dem Weg nach Hause
aufzumuntern? Heute noch Zukunft, in absehbarer Zeit aber vielleicht
schon Realität. Es wird geschätzt, dass bis zum Jahr 2022 fast 90
Prozent aller Neufahrzeuge über Spracherkennungs-Systeme verfügen
werden, rund 75 Prozent dieser Autos werden darüber hinaus eine
cloud-basierte Sprachsteuerung ermöglichen. Dies ist eine der
Voraussetzungen dafür, dass künftige Assistenz-Systeme dank
Mikrofonen und In-Car-Kameras auf winzige Veränderungen unseres
Gesichtsausdrucks sowie auf die jeweilige Tonlage unserer Stimme
reagieren können - möglicherweise eine gute Nachricht für alle, die
heute den "Internationalen Tag der Muttersprache" feiern, ein von der
UNESCO ausgerufener Gedenktag zur "Förderung sprachlicher und
kultureller Vielfalt und Mehrsprachigkeit"*. So könnten diese Systeme
dank Spracherkennung und künstlicher Intelligenz in gar nicht ferner
Zeit wissen, ob wir gestresst sind und welche Musik wir dann beim
Autofahren hören möchten. Oder vielleicht wollen wir stattdessen
lieber ein Hörbuch vorgelesen bekommen oder möglicherweise weder
Musik noch Worte hören wollen? Auch Komfort-Details wie die Farbe und
Intensität der Cockpit-Beleuchtung könnten unserer jeweiligen
Stimmung angepasst werden.
"Viele Menschen lieben ihre Autos. Durch lernfähige
In-Car-Systeme, die sich den Bedürfnissen des Fahrers anpassen, wird
die Beziehung zwischen Mensch und Fahrzeug sicherlich noch
intensiver", sagt Dominic Watt, Senior Lecturer, Department of
Language and Linguistic Science, University of York in
Großbritannien. "Das Auto wird zu unserem Assistenten und
Reisebegleiter, der uns unterwegs zuhören wird. Wir werden vergessen,
dass wir letztlich doch nur mit einer Maschine sprechen".
Ein Forschungsprojekt, das Ford derzeit gemeinsam mit der RWTH
(iPhone), Apple CarPlay sowie digitalen Diensten wie dem Alexa
Voice Service von Amazon
- Ford forscht gemeinsam mit der RWTH Aachen an der Verbesserung
von Sprachverarbeitung in Fahrzeugen
Wie wäre es, wenn das eigene Auto auf die Stimmung des Fahrers
reagieren könnte - zum Beispiel, um ihn auf dem Weg nach Hause
aufzumuntern? Heute noch Zukunft, in absehbarer Zeit aber vielleicht
schon Realität. Es wird geschätzt, dass bis zum Jahr 2022 fast 90
Prozent aller Neufahrzeuge über Spracherkennungs-Systeme verfügen
werden, rund 75 Prozent dieser Autos werden darüber hinaus eine
cloud-basierte Sprachsteuerung ermöglichen. Dies ist eine der
Voraussetzungen dafür, dass künftige Assistenz-Systeme dank
Mikrofonen und In-Car-Kameras auf winzige Veränderungen unseres
Gesichtsausdrucks sowie auf die jeweilige Tonlage unserer Stimme
reagieren können - möglicherweise eine gute Nachricht für alle, die
heute den "Internationalen Tag der Muttersprache" feiern, ein von der
UNESCO ausgerufener Gedenktag zur "Förderung sprachlicher und
kultureller Vielfalt und Mehrsprachigkeit"*. So könnten diese Systeme
dank Spracherkennung und künstlicher Intelligenz in gar nicht ferner
Zeit wissen, ob wir gestresst sind und welche Musik wir dann beim
Autofahren hören möchten. Oder vielleicht wollen wir stattdessen
lieber ein Hörbuch vorgelesen bekommen oder möglicherweise weder
Musik noch Worte hören wollen? Auch Komfort-Details wie die Farbe und
Intensität der Cockpit-Beleuchtung könnten unserer jeweiligen
Stimmung angepasst werden.
"Viele Menschen lieben ihre Autos. Durch lernfähige
In-Car-Systeme, die sich den Bedürfnissen des Fahrers anpassen, wird
die Beziehung zwischen Mensch und Fahrzeug sicherlich noch
intensiver", sagt Dominic Watt, Senior Lecturer, Department of
Language and Linguistic Science, University of York in
Großbritannien. "Das Auto wird zu unserem Assistenten und
Reisebegleiter, der uns unterwegs zuhören wird. Wir werden vergessen,
dass wir letztlich doch nur mit einer Maschine sprechen".
Ein Forschungsprojekt, das Ford derzeit gemeinsam mit der RWTH