Anzeige:

Montag, 23.04.2012 08:01

50 Jahre Spracherkennung: Von "Shoebox" zu "Siri"

aus den Bereichen Computer, Sonstiges

1962 präsentierte IBM ein Spracherkennungssystem, das nur 16 Worte verstehen konnte. Heutige Sprachautomaten wandeln Diktate in Text um oder bedienen Handys und Navigationssysteme. Rechner, die menschliche Sprache ganz ohne Probleme verstehen, sind aber noch nicht in Sicht.

Anzeige

1962: IBM stellt "Shoebox" vor

Der Wortschatz des ersten Spracherkennungssystems war noch sehr begrenzt: Die "Shoebox" des Computerkonzerns IBM erkannte gerade einmal 16 Worte: Es waren die Zahlen von null bis neun und außerdem die mathematischen Anweisungen "minus", "plus", "subtotal", "total", "false" und "of".

Vor fünfzig Jahren (21. April 1962) wurde der IBM-Rechner in der Größe einer Schuhschachtel auf der Weltausstellung in Seattle der breiten Öffentlichkeit vorgestellt. Im Schatten der futuristischen Space Needle sah das staunende Publikum, wie die Maschine die gesprochene Rechenaufgabe "Fünf plus drei plus acht plus sieben plus vier minus neun, zusammen" auf Englisch verstehen und die korrekte Antwort "17" ausspucken konnte. Zu diesem Zeitpunkt war IBM noch fast 20 Jahre von der Entwicklung des ersten Personal Computers entfernt.

Erstes Spracherkennungssystem "Audrey" bereits 1952

Nimmt man es ganz genau, ist die maschinelle Spracherkennung sogar noch zehn Jahre älter. 1952 entwickelten die amerikanischen Bell Laboratories das System "Audrey", das einzelne Zahlen erkennen sollte. "Man musste zwischen den Zahlen aber lange Pausen machen, damit Audrey die Ziffern überhaupt verstehen konnte", sagt Prof. Hans Uszkoreit vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Berlin.

Der nächste Meilenstein der Spracherkennung wurde in den siebziger Jahren an der Carnegie Mellon University mit massiver Förderung durch das US-Verteidigungsministerium und seiner Agentur DARPA erzielt. "Harpy" beherrschte mit gut 1.000 Worten den Sprachschatz eines Dreijährigen. Und es dauerte dann weitere zehn Jahre, bis die nächste Entwicklungsstufe erreicht werden konnte. Die Forscher ließen in den achtziger Jahren ihr System nun nicht mehr einzelne gesprochene Worte analysieren, sondern betrachteten ganz Wortfolgen.

Auf der Basis des nach dem russischen Mathematiker Andrej Markov benannten "Hidden Markov Model" wurde berechnet, wie hoch die statistische Wahrscheinlichkeit ist, dass ein bestimmtes Wort einem anderen folgt. So können die Systeme ähnlich klingende Sätze besser unterscheiden. "Die Wortfolge "Ich putze mir die Nase" ist eben wahrscheinlicher als "Ich putze mir die Vase"", erläutert Experte Uszkoreit.

Kommentieren (Neuen Kommentar verfassen):
 Rechenfehler :-))) (1 Beiträge) 
    Zuletzt kommentiert von Pillhuhn-Hmb am 03.12.2012 um 00:38 Uhr
© 1999-2014 onlinekosten.de GmbH :: Datenschutz :: Impressum :: Leistungsschutzrecht :: Presse :: Jobs