Statement User Interfaces im Jahr 2020
Carla.Stenitzer.Uni-Sbg, 26. Juni 2011, 14:25
Aufgrund der interessanten Präsentation zum Thema User Interfaces von Margot Dum habe ich beschlossen mich in meinem Statement ebenfalls auf dieses Thema zu beziehen.
Rückblick
Ein User Interface - auch HCI, kurz für Human Computer Interface - bezeichnet prinzipiell einmal alle Dinge, die dazu dienen, dass der Mensch mit dem Computer interagieren und kommunizieren kann. Einfache Beispiele dafür wären die Tastatur, der Bildschirm oder aber auch die Maus. Bei den ersten Computern gab es bei weitem noch keine User Interfaces wie wir sie heute kennen. Damals bestanden die Interfaces aus Lochkarten, die der Mensch in den Computer einführte um ihn mit Informationen zu speisen und der Computer spuckte daraufhin einen Ausdruck mit den Ergebnissen aus. Später entwickelte sich das so genannte Commandline System (CLI - Command Line Interface). Dabei saß der Benutzer vor einem beinahe leeren Bildschirm. Mit einer Tastatur konnte er bestimmte Befehle, die der Computer kannte eingeben und der Computer gab die Antworten als einfachen Text wieder zurück. Diese Interfaces führten zu einem Menüsystem, bei dem Listen die Hauptrolle spielten. Erst danach entwickelten sich die GUI (Graphical User Interfaces), wie wir sie heute kennen. Der Klick auf ein grafisches Symbol führt heutzutage bestimmte Aktionen aus und erleichtert ein angenehmeres Arbeiten auch für Anfänger. (Quelle: techtarget.com, 05.05.2011)
So weit zur Geschichte der User Interfaces. Doch damit sind wir noch nicht am Ende, denn gerade in der Mobilkommunikation, aber auch in anderen Bereichen, werden neue Möglichkeiten der Mensch-Computer-Kommunikation entwickelt. "Die Anforderungen von Benutzern zu verstehen bildet einen zentralen Punkt in einem Design Prozess [für User Interfaces, d. Verf.]. Hier sollen die Wünschen, Fähigkeiten und Erwartungen von Benutzern berücksichtigt werden, um ein optimales User Interface zu gestalten. Dies benötigt unter anderem Wissen in Domänen wie der Psychologie, des Designs und der Software-Entwicklung." (Quelle: uidesign.at, 05.05.2011) Doch wie genau könnten diese Interfaces der Zukunft Aussehen? Genau damit möchte ich mich jetzt näher beschäftigen.
Blick in die Zukunft
Touchscreens stellen inzwischen je keine Neuerung mehr da. Jedes aktuelle Handy am Markt verfügt über eine solche Schnittstelle zwischen Mensch und Maschine. Auch am Computermarkt tauchen inzwischen immer wieder Geräte mit integriertem Touchscreen auf. Doch Microsoft entwickelt gerade ein Mobiltelefon, das in dieser Form noch nicht dagewesen ist. SlideSight nennt sich die neue Technologie. Dabei wird quasi die Technologie, die bereits im iPhone integriert ist -wie die Reaktion auf bestimmte Gesten- auf ein neues Level geführt. Mit Hilfe von Infrarotsensoren rund um das Telefon werden die Gesten, die vorher direkt am Display des Mobiltelefons ausgeführt werden mussten, auch erkannt, wenn sie neben dem Telefon gemacht werden. Gerade für kleine Handys, aber auch für andere Geräte, bei denen das Display zu klein ist um mit den Fingern exakt die gewünschte Position zu treffen, wie mp3-Player oder auch Armbanduhren. (Quelle: gearlog.com, 05.05.2011)Das dürfte wohl das Ende von lästigen Fingerabdrücken auf Touchscreens bedeuten. Damit man sich ein genaues Bild davon machen kann wie diese Technik funktioniert, hier ein kurzes, selbsterklärendes YouTube Video:
Dass die Touchsreen-Technologie auch damit noch nicht am Ende ist, beweisen die beiden Designer Fiona McAndrew & Conor Fallon. Denn die beiden haben eine Touchscreen-Küchenzeile entwickelt. Die Oberfläche der Küchenzeile besteht aus aus einem Multi-Touchscreen, der intelligent auf die Eingaben des Benutzers reagieren soll. Integriert ist hier eine Anzeige, über die der Nutzer direkt auf der Küchenzeile nach Rezepten suchen kann. Ist das richtige gefunden, kann die Einkaufsliste per Bluetooth direkt an das Mobiltelefon gesendet werden. (Quelle: yankodesign.com, 05.05.2011)
- Multi-Touch-Küchenzeile (Quelle: Yankodesign.com, 05.05.2011)
Wem ein Touchscreen zu viel Handarbeit bedeutet, der wird in Zukunft seine Computer auch noch anders steuern können. Brain-Computer-Interface lautet die Lösung.
- Brainloop (Quelle: aksioma.org, 05.05.2011)
Mit dieser Technologie wird der Computer durch Hirnströme gesteuert. Die zugehörigen Ansätze unterscheiden sich stark, von Hirnimplantaten, Helmen bishin zu Stirnbändern, die die Hirnströme aufnehmen und interpretieren sollen ist alles dabei. Anscheinend hat auch die U.S.-Army bereits Interesse an dieser Technologie geäußert. Das Vorhaben: Soldaten sollen nur noch gedanklich über ihre Helme kommunizieren können, jedes geäußerte Wort soll überflüssig werden. (Quelle: sixrevisions.com, 05.05.2011) Ein Beispiel für dieses Interface wäre außerdem Brainloop. Wie das Interface genau funktionieren soll, kann man auf der Homepage von Brainloop (05.05.2011) nachlesen.
Doch auch die Interfaces in Sachen Augmented Reality werden Verbesserungen erfahren. Das Ziel von Augmented Reality ist es, Daten über die Welt mit echten Bildern der Welt zu verknüpfen - eine computerunterstützte Erweiterung der Realität. (Hintergrundinformationen zu Augmented Reality finden sich in diesem Wikipedia Artikel (05.05.2011)) Zur Zeit funktioniert die Technologie hinter Augmented Reality so, dass reale Bilder mittles Handykamera oder Webcam aufgenommen und mit Informationen ergänzt werden. Eine interessante Erfindung auf diesem Gebiet stellt die Augmented-Reality-Kontaktlinse dar.
- Kontaktlinse für Augmented Reality (Quelle: popularmechanics.com, 05.05.2011)
Das menschliche Auge kann Informationen viel schneller und präziser wahrnehmen als die schnellste Internetverbindung. Kein Wunder also, dass diese Kontaktlinse entwickelt wurde. Sie besteht aus kleinen LEDs und Schaltkreisen, wie man auf dem Bild gut erkennen kann. Entwickelt wird sie an der University of Washington. Einsatzgebiete der Kontaktlinse beschreiben die Entwickler als virtuelle Displays für Piloten, aber auch als Teleskopersatz für Soldaten, sowie als Projektionssysteme für Videospiele. (Quelle: popularmechanics.com, 05.05.2011)
Die letzte Weiterentwicklung von User Interfaces, die ich in diesem Beitrag besprechen möchte, erinnert stark an den Film Minority Report aus dem Jahr 2002. Bei diesem System muss der User spezielle Handschuhe anziehen, in welche Sensoren integriert sind. Damit kann der Nutzer nun das gesamte Computersystem steuern, ohne auf den Bildschirm zu greifen. Der Computer reagiert vollständig auf die Gesten des Nutzers. G-Speak nennt sich dieses Betriebssystem der amerikanischen Firma Oblong Industries. (Quelle: netzwelt.de, 05.05.2011) Am einfachsten lässt sich die Funktionsweise an einem kurzen Video präsentieren:
Fazit
Gehirnströme und Küchen mit Multi-Touch-Sensoren - was sich liest wie eine unerfüllbare Zulunftsvision aus früheren Jahren, könnte bald Wirklichkeit werden. Denn all diese Technologien befinden sich gerade in der Entwicklung. Welche dieser Technologien sich im Endeffekt aber wirklich durchsetzen werden, werden wir erst in der Zukunft erfahren. Sicher ist jedoch, dass die intuitive Bedienbarkeit und die Einfachheit der Bedienung, genau wie heute, auch in Zukunft eine Rolle spielen wird. Was außerdem auffällt ist, dass einige der Technologien bereits jetzt vom Militär gefördert, entwickelt oder in Auftrag gegeben werden. Und so bringt uns die Zukunft wieder zurück in die Vergangenheit. Denn auch das Internet entwickelte sich einst aus einem militärischen Projekt heraus.
Auch meine Kommilitonin Katharina Achleitner hat sich über dieses Thema Gedanken gemacht. In ihrem Artikel findet ihr noch andere Beispiele zum Thema HCI.
Verbindung zum passenden Connector
Carla.Stenitzer.Uni-Sbg, 5. Mai 2011, 16:26
Im Blog "Connector Collector" werden alle Beiträge der Lehrveranstaltung mit den passenden Connectoren verbunden. So wurde dieser Beitrag mit dem Connector "HCI" verlinkt. Dort findet ihr auch alle anderen Statements, die sich mit demselben Thema beschäftigen.
Interface Design im Web der Dinge
Janina.Skibba.Uni-Sbg, 8. Mai 2011, 14:50
Hallo Carla,
deine interessanten Beispiele habe ich zum Anlass genommen, mich mit den technischen Anforderungen an das Web der Dinge und den damit verbundenen Möglichkeiten für das User Interface Design zu beschäftigen. Den Blogbeitrag findest du hier.
Toter Link?
Carla.Stenitzer.Uni-Sbg, 24. Mai 2011, 10:51
Liebe Janina,
Ich hätte mir sehr gerne deinen Beitrag zum Web der Dinge durchgelesen, nur leider funktioniert der Link in deinem Kommentar nicht. Wenn ich dem Link folgen will bekomme ich nur folgende Fehlermeldung "Sorry! URL Web3000/stories/33751/Open Access und Sharing-Aspekte was not found on this server!" Überprüfe doch bitte einmal ob der Link stimmt bzw. ob du den Artikel auch wirklich freigeschalten hast. Ich würde den Beitrag nämlich wirklich gerne lesen.