Sprachsteuerung – Gekommen, um zu bleiben
1962 konnte die IBM Shoebox, der erste Sprachcomputer der Welt, gerade einmal 16 Wörter erkennen: Die Zahlen von null bis neun sowie die mathematischen Anweisungen „minus“, „plus“, „Zwischensumme“, „Summe“, „falsch“ und „von“. Die Lösung wurde dann auf Papierausgedruckt.1 Im Jahr 1968 war das Raumschiff Enterprise schon einen Schritt weiter: Dort tippte eine Schreibmaschine wie von Geisterhand mit, was ein Mensch ihr diktierte. Und noch als Tom Cruise im Science-Fiction-Thriller „Minority Report“ (2002) seine Wohnung perSprache steuerte, glaubte kaum jemand, dass dieses Zukunftsszenario so schnell Realitätwerden würde.
Die Evolution der Benutzeroberfläche in der Mensch-Maschine-Interaktion begann ursprünglich mit abstrakten „Befehlszeilenschnittstellen“ (Command Line Interfaces), gefolgt von indirekt-grafischen Benutzeroberflächen (Graphical User Interfaces), hin zu intuitivnatürlichen Benutzerschnittstellen (Natural User Interfaces), beispielsweise Sprache, Gestik,Stimung oder Blicke. Der Durchbruch für Sprache kam in diesem Zusammenhang allerdings erst mit der Einführung von Apples Sprachassistent Siri auf dem iPhone 4s im Jahr 2011. Dank massenhaft verfügbarer Trainingsdaten konnte nun die Entwicklung der Spracherkennung auf eine neue Stufe gehoben werden. Mit dem Markteinritt von Amazon Alexaim Jahr 2015 haben sich Sprachassistenten mittlerweile auch im Zuhause im Rekordtempoverbreitet.