Wo wir schon beim Thema „Translation von Bewegungen auf digitale Interfaces“ sind …

… da sei doch auch noch das „SenseSurface“ von Lyndsay Willams (von Girton Labs) vorgestellt. Das besondere bei diesem Drehregler ist, dass man diesen direkt auf das Display setzen kann. Eine Lösung die insbesondere für Mischpult-Software sehr interessant sein könnte. Erst in der letzte Woche hatten wir einen Fall, bei dem wir einem Interessenten von …
Mehr lesen

Präsentation der „Toolbox der physischen Interaktion“ am Industrial Design Institut Magdeburg

Schon sehr häufig haben wir hier über alternative Eingabegräte berichtet, welche der digitalen Translation von Bewegungen und somit einer besseren Interaktion dienen. An der Hochschule Magdeburg-Stendal wurde dazu von den Studenten der Fachrichtung Master Interaction in den letzten Monaten eine Art Grundsatzarbeit erstellt. In dem Semesterprojekt untersuchten vier Studenten unter der Leitung von Prof. Carola …
Mehr lesen

… Apropos Steuerung mit der Hand

Ein erst kürzlich von Apple angemeldetes Patent mit dem schönen Namen „Gesture Learning“ macht Vorfreude auf kommende Entwicklungen im Bereich Multi-Touch-Displays. In seinem Patent hat Apple eine eigene auf Gesten basierende Zeichensprache entwickelt, die in iPhone oder Macbook Air noch in seinen Kinderschuhen steckt. Das Verrückte an der Sache ist, dass eine Hand dabei insgesamt …
Mehr lesen

Spiel mit mir – Der Bildschirm mit Augen

Bald ist Schluss mit langweiliger Werbung im Außenbereich…Laut Technology Review will Reactrix Systems gestengesteuerte Displays einsetzen, mit denen der Betrachter interagieren kann. Dabei werden die Menüs ganz nach Manier bereits populärer Entertainment-Produkte wie der Wii von Nintendo und des iPhone von Apple durch Handbewegungen bedient, interagiert werden kann sowohl mit Händen als auch mit Füßen. …
Mehr lesen

Tastatureingabe à la …

Als „die Neue“ bei SCHROEDER + WENDT nun mein erster Blogeintrag. Ich freue mich auf eure Kritik und Anregungen … Und ich starte auch gleich mit einer Sache, die ich persönlich eher kritisch betrachte: Bei dem Eingabegerät „Clove 2“ handelt es sich um einen Bluetooth gesteuerten Handschuh, der als Ersatz für die Tastatur dienen soll. …
Mehr lesen

Wieder einen Schritt näher zur automatisch an den Nutzer anpassenden Software

Das Gesichtserkennungsprogramme nicht nur für biometrische Analysen und Sicherheitsanwendungen genutzt werden können, sondern zudem schon länger in der Lage sind, auch die Emotionen eines Nutzers zu erkennen, ist bekannt. Nun macht die University of California, San Diego, mit einem besonders genauen System und einer sehr interessanten Anwendung auf sich aufmerksam. Die Wissenschaftler um Jacob Whitehill …
Mehr lesen

Nachtrag: Noch was zum Thema BCIs …

Nach dem ich für den gestrigen Beitrag viel zu den Thematiken BCI und CBI rechchericht habe, bin ich noch auf zwei interessante Brain-Computer-Interfaces gestoßen. Zum einen hat das amerikanische Militär aktuell einen Plan für ein System vorgestellt, das davon ausgeht, dass die neuronalen Prozesse schneller sind, als sie dem Soldaten wirklich bewusst wird. So ist …
Mehr lesen

Neues von der Gehirn-Computer-Schnittstelle

Also, bei diesem Projekt der TU Braunschweig wäre ich gerne Laborratte gewesen. Die dortigen Ingenieure haben nämlich die bekannte EEG-Muster-Analyse mit einem Controller für die Steuerung eines Autos verbunden. In diesem Fall natürlich für ein Modellauto! Das Lenken funktioniert über einen Bildschirm, mit zwei flackernden Schachbrettmustern rechts und links vom Videobild der Onboard-Kamera. Schaut der …
Mehr lesen

Wenn das Budget mal nicht fürs Eye-Tracking reicht …

… dann ist die heute vorgestellte Lösung zwar auch keine wirkliche Alternative aber zumindest ein kleiner Anhaltspunkt. Auf der noch relative jungen Webseite Feng-GUI hat man die Möglichkeit ein Bildschirmfoto seiner zu analysierenden Webseite hochzuladen und daraus dann eine Heatmap generieren zu lassen die anzeigt, wie der Blicklauf auf der Webseite ist und welche Objekte …
Mehr lesen