Wieder einen Schritt näher zur automatisch an den Nutzer anpassenden Software
Das Gesichtserkennungsprogramme nicht nur für biometrische Analysen und Sicherheitsanwendungen genutzt werden können, sondern zudem schon länger in der Lage sind, auch die Emotionen eines Nutzers zu erkennen, ist bekannt.
Nun macht die University of California, San Diego, mit einem besonders genauen System und einer sehr interessanten Anwendung auf sich aufmerksam. Die Wissenschaftler um Jacob Whitehill haben die Emotionserkennung für ein eLearning-System verwendet, um so festzustellen, ob der Student mit der gestellten Aufgabe bzw. Lerninhalt überfordert ist oder nicht. Damit soll autonomes Lernen mit einer Software weiter verbessert werden, damit nicht immer neues Material präsentiert wird, obwohl der Nutzer „noch nicht mal“ den vorhergehenden Stoff kapiert hat.
Die gesamte (leider nur englische) Studie zum Projekt kann unter folgender Adresse heruntergeladen werden: https://untrouble.de/wp-content/uploads/2008/06/its08-4081731.pdf
Eine weitere Möglichkeit festzustellen, wie gestresst der Nutzer gerade von den Aufgaben ist, wäre noch die Auswertung von Biofeedbackdaten. Dies ist jedoch bedeutend komplexer, da externe Sensoren benötigt werden, die dann über einen Controller per USB an den Rechner angeschlossen werden. Mal abgesehen von BCI-Anwendungen (die auch in die Kategorie gehören), ist mir bisher auch nur eine amerikanische Software bekannt, die dies aktiv nutzt. Bei dem Computerspiel „Wild Devine“ wird dies mit Atmungs-, Meditations- und Relaxübungen zum Stressmanagement genutzt:
Mehr Infos unter: www.wilddivine.com