Doch noch was zum iPhone …nämlich Mobile Augmented Reality

Über mobile Augmented Reality haben wir ja schon mehrfach berichtet (siehe z.B. hier und hier). Jetzt ist diese Technologie auch auf dem iPhone angekommen – was in Verbindung mit dem großem und vor allem multitouchfähig Display interessante neue Interaktionsformen ermöglichen könnte. Insbesondere im Bereich „dreidimensionale Location Based Services Anwendungen“. Bisher hat das ganze nur noch …
Mehr lesen

Wo wir schon beim Thema „Translation von Bewegungen auf digitale Interfaces“ sind …

… da sei doch auch noch das „SenseSurface“ von Lyndsay Willams (von Girton Labs) vorgestellt. Das besondere bei diesem Drehregler ist, dass man diesen direkt auf das Display setzen kann. Eine Lösung die insbesondere für Mischpult-Software sehr interessant sein könnte. Erst in der letzte Woche hatten wir einen Fall, bei dem wir einem Interessenten von …
Mehr lesen

Präsentation der „Toolbox der physischen Interaktion“ am Industrial Design Institut Magdeburg

Schon sehr häufig haben wir hier über alternative Eingabegräte berichtet, welche der digitalen Translation von Bewegungen und somit einer besseren Interaktion dienen. An der Hochschule Magdeburg-Stendal wurde dazu von den Studenten der Fachrichtung Master Interaction in den letzten Monaten eine Art Grundsatzarbeit erstellt. In dem Semesterprojekt untersuchten vier Studenten unter der Leitung von Prof. Carola …
Mehr lesen

… Apropos Steuerung mit der Hand

Ein erst kürzlich von Apple angemeldetes Patent mit dem schönen Namen „Gesture Learning“ macht Vorfreude auf kommende Entwicklungen im Bereich Multi-Touch-Displays. In seinem Patent hat Apple eine eigene auf Gesten basierende Zeichensprache entwickelt, die in iPhone oder Macbook Air noch in seinen Kinderschuhen steckt. Das Verrückte an der Sache ist, dass eine Hand dabei insgesamt …
Mehr lesen

Wieder einen Schritt näher zur automatisch an den Nutzer anpassenden Software

Das Gesichtserkennungsprogramme nicht nur für biometrische Analysen und Sicherheitsanwendungen genutzt werden können, sondern zudem schon länger in der Lage sind, auch die Emotionen eines Nutzers zu erkennen, ist bekannt. Nun macht die University of California, San Diego, mit einem besonders genauen System und einer sehr interessanten Anwendung auf sich aufmerksam. Die Wissenschaftler um Jacob Whitehill …
Mehr lesen

Und jetzt noch: Steuerung per Webcam

Vielen Dank Martin für den Kommentar zum gestrigen Beitrag, der mich auf das Flash-Spiel FNORD! hingewiesen hat. Dieses bietet eine sehr interessante Interaktion, in dem man mit ausgestreckten Armen ein UFO steuern kann: Am besten selber mal testen unter: www.fnord-the-game.de Ein weiteres, etwas einfacheres Beispiel für die Steuerung per Webcam, ist das Ölsandspiel von ThyssenKrupp: …
Mehr lesen

Und noch mal Objekterkennung mit der Webcam

Am Dienstag sprach ich auf der Webniale noch über dieses Thema, als eine der Entwicklungen, die im Interface Design fürs Internet mit den größten Einfluss haben wird. Heute bin ich nun auf folgendes Video von Cam-Trax, was zwar noch keine Webanwendungen ist, ab schon sehr gut zeigt wo die Reise hingehen wird … Hier noch …
Mehr lesen

Gerade rein von der Webinale in Karlsruhe …

… möchte ich gerne den mehrfachen Wunsch nachkommen und meinen Vortrag noch online stellen: | View | Upload your own (falls etwas komisch aussieht, leider sind bei der Slideshare-Konvertierung ein paar Transparenzen verloren gegangen) Viele Themen konnte ich ja nur gaaanz kurz anreißen und wären es eigentlich Wert in einem Extravortrag noch mal ausführlich behandelt …
Mehr lesen

Apropos Echtzeitanalyse der Umgebung …

Im letzten Beitrag habe ich gerade noch davon geschrieben, dass das dort vorgestellte System erst richtig Sinn macht, wenn man dieses mit eine Augmented Reality System verbindet – dazu nun der heutige Nachtrag … … genau an einer solchen Lösung forscht gerade der Absolvent der Tokioter Universität Hideki Nakayama. Die an Laboratory of the Information …
Mehr lesen