Dienstag, 26. November 2013

Start Umsetzung

Wir müssen jetzt in die Umsetzungsphase unseres Kurses gehen. Dazu habe ich mal einige Überlegungen und Diskussionsergebnisse zusammengefasst und so etwas wie eine Aufgabenstellung abgeleitet. Das ist erstmal ein grober Entwurf, der vielleicht noch etwas unfertig oder wirr anmutet. Wir werden das am Donnerstag dann zusammen ausdefinieren und konkretisieren:

  • Die meisten existierenden Ansätze im Bereich "Internet of Things" zielen darauf ab, das Leben einfacher, komfortabler, reibungslos und effizienter - kurz "smart" zu gestalten. 
  • Im Gegensatz (oder ergänzend dazu) sollen die Projekte unseres Kurses das Leben eher "anreichern", bewusster machen und stärker emotionalisieren. 
  • Konkret auf die Aufgabenstellung bezogen bedeutet das: Stimmungen und Atmosphäre schaffen, persönlichen Ausdruck ermöglichen und sinnliche Wahrnehmung fördern (Genuss, Kontemplation).
  • Außerdem sollen auch "passive" Dinge, d.h. Dinge ohne eingebettete Computer mit in das Internet der Dinge einbezogen werden können.
  • Wichtiger als die einzelnen Objekte sind Systeme aus Objekten, die einen gemeinsamen Background besitzen und "zusammenarbeiten". Sie sind gewissermaßen Touchpoints und Ausdruck eines übergreifenden Systems.
  • Dazu und in Hinblick auf eine möglichst integrierte Präsentation eurer Projekte am Ende des Projektes, definieren wir einige räumliche Szenarien, in denen sich unsere Projekte abspielen sollen (Wohnzimmer, öffentlicher Raum etc.) und bauen diese prototypisch auf.
Meine Idee und Vorschlag für eine Aufgabenstellung ist wie folgt: Wir definieren eine Art Beschreibungssprache für Stimmungen und Atmosphären namens "Mood Markup Language" (MML), ähnlich wie HTML für Dokumente. Diese besteht aus einfachen Tags (Schlagworten) für Stimmungen wie z.b. "entspannend", "geheimnisvoll" etc. 
Diese Tags können nun zum beliebigen Dingen oder Zuständen wie z.b. Büchern, Schallplatten, Filmen, Events etc. zugeordnet werden. Dazu könnte z.B. eine Community-Datenbank im Internet existieren oder vom Hersteller vorgegeben werden.
Außerdem können Faktoren wie z.B. die Tageszeit, das Wetter, die jeweilige Aktivität etc. mit einfließen.
Die Dinge oder "Produkte", die wir entwerfen, können nun diese Stimmungen und Moods repräsentieren und "ausdrücken", so dass in der Summe eine Choreografie oder Orchestrierung von Atmosphären ermöglicht wird. 
Ein konkretes Beispiel könnte sein: Feierabend, man macht es sich gemütlich, zieht ein Buch aus dem Regal und schlägt es auf. Im Hintergrund wird die Stimmung und Atmosphäre des Buches von Amazon heruntergeladen und eine Raumchoreografie berechnet. Passend dazu wird das Licht heruntergefahren und spielt eine subtile Hintergrundanimation, das Raumklima stimmt sich auf das Buch ein und es ertönt eine Ambient Geräuschkulisse. Die technischen Schwierigkeiten lassen wir erstmal außer Acht.
Oder: Kneipp liefert zu seinen Badezusätzen (Wintertraum, Liebesmärchen, Lebensfreude, Glückliche Auszeit ...) gleich eine komplette Badezimmer Choreografie mit und wird somit zu einem Anbieter von Befindlichkeiten statt Pflegeprodukten...

Diese Aufgabenstellung ist kein Zwang. Aber wer bisher kein passendes Thema gefunden hat, sollte sich innerhalb der Aufgabenstellung eines suchen. Damit entfällt die Suche nach der "Killeridee" und ihr könnt euch auf das eigentliche Design und die Umsetzung konzentrieren. Außerdem hilft die Zusammenarbeit an einem realen, räumlichen Setup vor Ort, eure Projekte voranzutreiben und präsentationsfähig zu machen.

Dienstag, 19. November 2013

Atome und Bits

Wenn wir die physische Welt der Dinge und die virtuelle Welt der Information verbinden wollen, stellt sich als Erstes die Frage nach der Beziehung zwischen der Hardware und der Software. Dabei gibt es, wie wir ja schon anhand unseres Wecker-Beispiels gesehen haben, vielfältige Möglichkeiten. Hier ein spontaner Versuch, die Vielfalt der Wechselbeziehungen etwas zu kategorisieren:

Hardware mit Software

Wir können die Dinge mit Prozessoren, Sensoren und Interfaces ausstatten. Damit benötigen Sie Software und müssen/können programmiert werden. Wenn wir sie darüber hinaus mit dem Internet vernetzen, werden sie Teil eines umfassenden Netzwerks aus persönlichen und allgemeinen Informationen, Diensten und anderen Geräten.

Hardware plus Software

Wenn Dinge Teil des Internets werden, können wir sie auch über das Internet steuern. Computer, Smartphones und Tablets besitzen vollwertige Displays und ermöglichen wesentlich komfortablere und komplexere Interfaces. Somit können wir unsere gewohnten Kommunikationsgeräte als Fernbedienung, aber auch zur Konfiguration der komplexeren Aspekte der Dinge nutzen.

Software statt Hardware

In vielen Fällen können Produkte, die vormals als eigene Geräte verwirklicht wurden, nun komplett als Software realisiert werden. Leistungsfähige Mobilgeräte mit ihrer Vielzahl an Sensoren und Schnittstellen können bestimmte physische Produkte so gut simulieren, dass sie flexibler, leistungsfähiger und vor allem günstiger als die realen Produkte sind. Apps machen ein Mobilgerät für begrenzte Zeit zu einem virtuellen, spezialisierten Gerät (Taschenlampe, Kompass, Wecker, Radio etc.)

Software plus Hardware

Umgekehrt können viele Apps durch spezialisierte Hardware ergänzt werden. Auch wenn Mobilgeräte immer mehr Sensoren und Schnittstellen vereinen und irgendwann all unsere Sinne abdecken, besteht immer noch der Bedarf an spezialisierten Hardware-Ergänzungen: Etwa weil sie zu groß, zu spezifisch oder zu individuell sind. Sie geben den virtuellen Produkten eine physische Präsenz und individuelles Design.

Augmented Reality

Auch Dinge unseres Alltags, die keine "Intelligenz" in Form von Prozessoren oder Vernetzung besitzen, werden Teil des virtuellen Raums: Im Internet steht eine gewaltige Menge an Meta-Informationen zu jedem beliebigen realen Objekt, gleichzeitig werden diese Objekte durch QR-Codes, RFID-Chips und Kameras mit Objekterkennung immer leichter identifizierbar.
Augmented-Reality bedeutet, diese Meta-Informationen aus dem virtuellen Raum in unsere physische Realität und auf deren Objekte zu projizieren. Erste Anfänge nutzten die Kamera und Displays von Mobiltelefonen, um eine angereicherte Realität zu simulieren, aber die Integration in unsere sinnliche Wahrnehmung wird durch Projekte wie Google Glass immer weiter vorangetrieben. Technologien wie Projection-Mapping ermöglichen dies auch kollektiv im öffentlichen Raum.


Wir werden in Zukunft viele alternative Möglichkeiten haben, die physische und die virtuelle Welt zu verbinden und wir müssen die Potentiale, die Vor- und Nachteile jeder Einzelnen kennen und mit unseren Zielen abstimmen, um adäquate Umsetzungen zu finden.