Tag Archives: M2M

Kommunizieren statt Kommandieren

Computer durchdringen immer mehr Lebensbereiche. Dabei bleibt oft die eigentliche Frage des Nutzens auf der Strecke. Doch wie findet man einen solchen Nutzen? Wie kann eine gemeinsame Diskussionsgrundlage für das Finden und Umsetzung von neuen digitalen Ideen geschaffen werden? Der Austausch von Informationen, also das Kommunizieren, ist aber noch in einer zweiten Hinsicht essentiell für die Entwicklung neuer Anwendungen. Denn auf der einen Seite verlieren klassische Ein- und Ausgabemittel wie Tastatur und Monitor an Bedeutung und auf der anderen Seite nehmen die Vernetzung sowie die sensorische Möglichkeiten der Geräte zu. Damit drängt sich die Frage auf, wie wir als Menschen mit all diesen Maschinen kommunizieren sollen. Wie kann eine natürliche Interaktion für Anwendungen im Internet der Dinge aussehen?

Austausch von Informationen, also das Kommunizieren, ist in zweierlei Hinsicht essentiell für die Entwicklung neuer Anwendungen. Zum einen muss eine gemeinsame Diskussionsgrundlage für das Finden und Umsetzung von neuen digitalen Ideen geschaffen werden und zum anderen erwartet der Nutzer möglichst natürliche Interaktionsformen für den Informationsaustausch innerhalb einer Anwendung.

Am 16. April 2014 findet eine Veranstaltung zum Thema statt. Die German UPA und der German UPA Blog laden dazu in das NIKKO-Hotel in Düsseldorf ein. Ich darf dort den Vortrag „Natural User Interfaces für Smart Home und Industriemaschinen” halten und freue mich schon auf einen „unterhaltsamen” Abend. Tickets gibt es hier (für German UPA Mitglieder ist die Veranstaltung kostenfrei).

image

Gemeinsam mit Partnern erarbeiten, erleben und evaluieren wir In Workshops neue Ideen. Als Kommunikationsgrundlage dienen vorgefertigte und einfach zu nutzende APIs (Programmierschnittstellen) z. B. zur Sprachverarbeitung oder Positionsbestimmung kombiniert mit Alltagsgegenständen und interaktiven Spielzeugen von Lego Mindstorms bis zu Microsoft Kinect.

In erster Linie werden mobile Nutzungsszenarien diskutiert, bei denen der Anwender mit einem einzelnen Endgerät interagiert. Doch Computer durchdringen zunehmend mehr Lebensbereiche und sind dabei immer weniger offensichtlich als solche erkennbar (Ubiquitous und Pervasive Computing). Häufig existieren nicht einmal die gewohnten Ein- und Ausgabekanäle wie Bildschirm und Tastatur. Dafür sind diese Geräte meist vernetzt wenn nicht sogar gleich über das Internet verbunden (Internet of Things).

Die Herausforderung liegt nun darin, neue Interaktionsformen zu finden, die nicht mehr nur einer 1:1-Beziehung zwischen Mensch und Maschine gerecht werden, sondern sich auch für 1:n-Szenarien eignen, bei denen der Nutzer sich inmitten einer Vielzahl an Geräten bewegt. Diese miteinander vernetzten Geräte bilden eine komplexe Benutzungsschnittstelle aus unterschiedlichsten Sensoren (Ambient Intelligence) und Aktuatoren (z. B. Motoren).

Der Anwender erwartet natürliche Interaktionsformen, die beispielsweise auf angeborene Fähigkeiten wie Gesten und Sprache basieren. Mangels der gelernten und auf Metaphern basierenden grafischen Benutzungsschnittstellen ist hier sowieso ein Umdenken erforderlich. Die Erkennung von Gesten und Sprache (Speech Recognition) funktioniert bereits sehr gut. Technisch ist es dabei mittlerweile sogar möglich nonverbale Signale wie die Gemütslage zu ermitteln und in die Kommunikation zwischen Mensch und Maschine einzubeziehen.

image

Die Erkennung bei Spracheingaben kann durch Grammatiken anstelle einer allgemeinen Transkription verbessert werden. Doch fehlende „Höflichkeitsfloskeln“ machen diese Form der Interaktion schnell zu einem unnatürlichen Kommandieren.

Das eigentliche Verstehen (Natural Language Understanding) ist jedoch noch ganz am Anfang. Noch können wir mit den Geräten nicht natürlich Kommunizieren, denn Maschinen verfügen nur über einen eingeschränkten Kontext und Weltwissen und Intuition fehlen. In vielen Fällen sind nicht einmal Höflichkeitsfloskeln erlaubt, so dass sich die Kommunikation auf das Erkennen von Schlüsselwörtern beschränkt und somit eher einfachen Kommandos entspricht. 1966 entwickelte Joseph Weizenbaum das Computerprogramm ELIZA, bei dem es sich um eine oberflächliche Simulation eines Psychotherapeuten handelt. ELIZA zeigt eindrucksvoll, dass Maschinen natürliche Kommunikation auf einzelne Domänen beschränkt vorgaukeln können, solange auf Weltwissen verzichten werden kann. Auch ein großer Teil der interaktiven Erwachsenenunterhaltung und der ein oder andere Facebook Chatbot (textbasiertes Dialogsystem) machen sich die Eindeutigen Interessen der Anwender zunutze und erkennen so scheinbar natürlich deren Absichten.

Bombe: „Ich denke, also bin ich.“ […] Doolittle: „Aber woher weißt Du, dass außer Dir etwas existiert?“ Bombe: „Meine sensorische Apparatur vermittelt es mir.“ (Quelle: Dark Star, 1974)

Von der philosophisch anmutenden Diskussion mit der „Bombe 20“ aus dem Science-Fiction Klassiker Dark Star von 1974 sind wir jedoch trotz Siri und Co. noch ein ganzes Stück entfernt. Doch genau diese Bombe zeigt, was wir schon heute realisieren können: Interaktionen müssen mit allen zur Verfügung stehenden Informationen (Sensoren) aus dem Kontext kombiniert werden. Eine Spracheingabe in der Form „Licht an“ bei mehreren Leuchten alleine reicht bei weitem nicht aus. Kombiniert mit einer auf die Leuchte deutenden Geste kommt das dem natürlichen Verhalten jedoch schon sehr nah. Aber auch Positionsdaten (wo bin ich) und Blutdruck (wie geht es mir) können helfen, Absichten besser zu „verstehen“.

Und damit schließt sich der Kreis und wir sind wieder bei der ganz am Anfang erwähnten Bedeutung von Kommunikation: Die Vielfalt solcher Interaktionsformen ist so groß und vor allem die Erfahrungswerte sind so gering, dass die Umsetzung nicht einfach Delegiert werden kann, sondern beginnend mit der Ideenfindung Kommunikation essentiell ist.

Learnings from Embedded World

It´s been my second visit at Embedded World this year. I strongly recommend this fair to everybody involved in the Internet of Things idea (and I always prefer meeting people carrying Leathermans to people wearing a suit, which you´ll find at that time at the MWC). At Embedded World you meet all the experts who build the foundation of our future: Sensors, processors, embedded devices and alike are everywhere. Best of all, the chip makers finally understand, that´s the developer who counts! Therefore, you – as a developer – are welcome everywhere: Chance have been great to make a good bargain and to grab a nice developer kit.

DSC_0210

We did some hacking and sessions on the internet of things at the Deutsche Telekom booth together with our friends of the M2M unit.

The industry finally understands that we need more innovation. Last year we have been one of the few companies using inspiring showcases instead of dry industrial solutions. This year it seemed every second booth showcases something made of Lego, slot car tracks, RC cars etc. – I appreciate this, because it´s not about the technology alone. The true challenge is inspiration, innovation and generating future needs, we are not yet aware…

Kurztest Robotik-Plattform Lego Mindstorms EV3

Keine Frage, ich bin ein großer Lego-Fan! Umso mehr habe ich mich auf die dritte Evolution des Lego Mindstorms gefreut. Lego bietet mit Mindstorms EV3 eine Robotik-Plattform mit Computer (Brick), zahleichen Sensoren, Motoren usw. Außerdem gibt es umfangreiches Lehrmaterial und eine grafische Entwicklungsumgebung, die auf dem bei Ingenieuren und Wissenschaftlern beliebten LabVIEW von National Instruments basiert.

mindstorms_ev3_box

Der neue Lego Mindstorms ist nicht nur technisch sondern auch optisch moderner gestaltet.

Normalerweise nutze ich Lego, um das Verständnis für interaktive und vernetzte Alltagsgegenstände zu erhöhen – sowohl in der Lehre als auch gemeinsam mit Kunden. Lego ist für mich ein kreativer und leicht zugänglicher Startpunkt, welcher der Inspiration dient und darüber hinaus motiviert, neue Ideen prototypisch „mal eben“ auszuprobieren. Beispielsweise lassen sich dadurch Szenarien rund um das vernetzte Auto (Connected Car) oder das intelligente Zuhause (Smart Home) leicht „erlebbar“ machen. Bereits der Vorgänger NXT eignet sich hervorragend dafür und war trotz des Premium-Anspruchs seitens Lego mit ein bisschen Glück zuletzt für nur noch knapp 200 Euro erhältlich. Klar, ein einzelner Lego Sensor ist natürlich deutlich teurer als ein einfaches elektrisches Bauteil. Dafür erhält man aber auch eine Plattform, die weder Löten, elektrotechnische Erfahrung noch Programmierkenntnisse erfordert. Außerdem lässt sich der Mindstorms mit klassischem Lego kombinieren und macht bereits 10jährigen großen Spaß.

mindstorms_ev3_unpacking

Ganz schön viel Drin in der Box. Eigentlich wollte ich ja nur mal reinschauen, doch ich konnte mich der Anziehungskraft nicht widersetzen und habe dann doch gleich das erste Modell gebaut…

Leider hat Lego den Preis beim EV3 jedoch noch einmal deutlich erhöht und verlangt im eigenen Shop rund 350 Euro. Dafür bietet der EV3 zwar mehr, doch ob man das wirklich braucht? Geärgert hat mich in diesem Zusammenhang die neue Infrarotfernbedienung (Beacon): Diese ist nicht nur eher einfach gehalten, sondern im Vergleich zu der bewährten Lego-Technik-Fernbedienung (Power Functions Infrarot Fernbedienung) mit mehr als 40 Euro auch fast doppelt so teuer. Doch das war es auch schon fast mit den Kritikpunkten. Einzig, dass das Einschalten nun deutlich länger dauert nervt – doch das kann man Lego nicht vorwerfen, schließlich erhält man nun einen vollwertigen Linux-Rechner mit SD-Kartenleser, zusätzlichem USB-Port und optionalem WLAN. Und bis so ein Betriebssystem hochgefahren ist, das dauert halt und ist vergleichbar mit dem Umstieg von einem einfachen Mobilfunktelefon zu einem modernen Smartphone.

Welche Möglichkeiten sich durch die verbesserte Konnektivität, mehr Speicher und höhere Rechengeschwindigkeit ergeben werden, ist bei dem Erfindungsreichtum in der Lego-Community jetzt noch gar nicht absehbar – zumal nun auch mehrere Bricks miteinander verbunden werden können (Daisy Chain), um so die Leistungsfähigkeit und Anzahl der Anschlüsse weiter zu erhöhen. Außerdem hat sich Lego zu Open-Source bekannt und den Quellcode des Lego Mindstorms veröffentlicht. Als Folge davon sind bereits zahlreiche Projekte entstanden, die eine Programmierung direkt auf dem Roboter erlauben oder die Fernsteuerung ermöglichen – unterstützte Sprachen sind unter anderem Java, JavaScript und C#.

Wer nicht so weit in die Innereien vordringen möchte, der wird sich über die modernisierte Softwareausstattung sowie Apps für iOS und Android freuen. Und speziell für den Bildungsbereich gibt es zahlreiche Verbesserungen und neue Pakete.

Auch wenn die neue Preisgestaltung die Begeisterung trübt, bleibe ich Lego-Fan. Die ersten Experimente mit den neuen Modellen machen Lust auf mehr und die Abwärtskompatibilität sowie die Offenlegung des Quellcodes sind für mich als Entwickler gute Gründe, aufzurüsten und noch mehr Lego zu spielen…