Rückblick: Sprach- und Gestensteuerung 1979 „Setze-das-dahin“ vom MIT


Schon seit den ersten Tagen des Computers, war es der Wunsch des Menschen, mit diesem auf einem für ihn natürlichen Weg zu interagieren: Über Sprache und Gesten und nicht über Tasten und Zeigeinstrumente.

Einer der ersten Prototypen, in dem Sprache und Gesten kombiniert wurden, ist das Put-That-There System vom MIT, welches Ende der 70ziger Jahre konzipiert wurde. Die beiden ?Väter?, Dick Bolt und Chris Schmandt, bauten dafür ein wandgroßes Displays, vor dem der Nutzer in einem Sessel* Platz nehmen konnte (siehe Video). Per Handgeste konnte dieser dann auf eine Stelle an der Wand zeigen und mit einem Sprachkommando dort ein virtuelles Objekte erstellt oder verschieben usw.

Im Video sieht man auch sehr schön die Herausforderung, die auch noch bei den heutigen Spracherkennungsystemen die größte Rolle spielt: Das Verstehen von natürlich aufgebauter Sprache. Zur Verwendung des Put-That-There Systems musste sich an ein bestimmtes Vokabular und Satzbau gehalten werden. Zudem erfolgte die Spracherkennung und Gestensteuerung nicht synchron zu einander, sondern jeweils nach einander.

Wenn man aber bedenkt, dass dieses System schon über ein viertel Jahrhundert alt ist (und mit den damalig zur Verfügung stehenden Rechner und grafischen Systeme realisiert wurde), dann kann man nur den Hut vor dieser großen Leistung ziehen!

Übrigens, das Video sollte man sich auf jeden Fall bis zum Ende ansehen. An Chris Schmandts ?Oh, Shit?, kann man sehr schön sehen, worin auch noch heute die meisten Probleme liegen …

Das (leider nur englische) Paper zum Projekt gibt?s unter:
www.media.mit.edu/speech/papers/…

* Glückwunsch zum guten Geschmack des MITs: Was sonst, wenn nicht ein Lounge Chair von Charles und Ray Eames