18. – 29. Juni 2012: Gesture Based Computing

(Moderation des Themenblocks: Claudia Bremer, studiumdigitale, Universität Frankfurt)

I. Überblick

Die Nutzung gestenbasierter Anwendungen ist für viele Smartphone und Tabletnutzer wie iPhone und iPads sowie Kinect, Xbox und Nitendo Wii-Anwender schon zum Alltag geworden: Wisch- und andere Finger-, Arm- und Körperbewegungen steuern die Anwendungen. Ziel dieser Entwicklungen ist, “eine Minimalschnittstelle und ein Erlebnis der direkten Interaktion zu erzeugen, so dass in der Wahrnehmung Hand und Körper selbst zu Eingabegeräten werden”. (Horizon Report, Dt. Ausgabe, S. 31) Neben der Eingabe durch Bewegungen hebt der Horizon Report die Konvergenz “von gestensensibler Technologie mit Stimmerkennung” hervor, “die es möglich macht, dass, wie bei der menschlichen Kommunikation, sowohl Geste als auch Stimme die Intentionen des Nutzers an das Gerät kommunizieren.” Viele von uns kennen dies sicher aus den Siri Anwendungen des iPhones4, das hier als Beispiel genannt wird.

Die Potentiale, die hierbei im Spielebereich liegen und bei der Benutzung von Smartphones und anderen Endgeräten liegen auf der Hand und zeigen sich schon in unserem Alltag. Doch die Anwendungen darüberhinaus im Bildungsbereich sind noch rar gerät. Beispiele für Potentiale, die der HorizonReport nennt sind z.B. “Software, die nicht auf spezifischen Sprachen beruht, sondern auf natürlichen menschlichen Bewegungen, die allen Kulturen gemein sind” für “überzeugende Nutzungsmöglichkeiten in Ländern wie Indien, das 30 Landessprachen mit jeweils über einer Million Muttersprachlern hat.”. Ziel ist, durch eine natürliche Benutzeroberfläche die Interaktion zwischen Anwender und Maschine zu vereinfachen, was natürlich auch vor allem für Personen mit körperlichen Behinderungen ein enormes Einsatzpotential mit sich bringt.

Im Horizon Report werden zudem die besonderen Potentiale für Schulen hevorgehoben, die Geräte in sich tragen, die den Nutzer dazu ermutigen, sie in spielerischer Weise zu berühren, zu bewegen und zu erkunden. Als Beispiele nennt er Smartphones und Tablets von Android und Apple, den Microsoft Surface und das ActivPanel von Promethean sowie die Nintendo Wii und Microsoft Kinect und sieht hier vor allem Potentiale in der Zusammenarbeit, im Austausch von Materialien und in Interaktionen in Gruppen. Gleichzeitig konnten trotz gründlicher Rechereche kaum Beispiele im Hochschulbereich gefunden werden und wahrscheinlich finden wir auch wenige in der Erwachsenenbildung. Aufgabe des OPCO könnte daher an dieser Stelle sein, Potentiale zu benennen und ggf. auch Beispiele z.B. aus arbeitsplatznahen Trainings in Unternehmen in prozedualen Wissensaneignungsprozessen zusammenzutragen. Differenziert werden könnte daher in der Diskussion in unterschiedlichen Anwendungsmöglichkeiten in verschiedenen Bildungsbereiche und deren Chancen und auch Grenzen.

 


II. Online-Event:

DO 21.6.2012, 17-18 Uhr.

Referentin
Prof. Ulrike Lucke,Universität Potsdam
ist Informatik-Professorin und hat den Lehrstuhl für Komplexe Multimediale Anwendungsarchitekturen an der Universität Potsdam inne. Ihre Forschungsinteressen liegen in der Heterogenität und Interoperabilität netzbasierter Architekturen, einschließlich Mobile und Pervasive Computing, insbesondere im Anwendungsgebiet E-Learning. Zudem ist sie als Chief Information Officer (CIO) der Universität Potsdam für deren strategische IT-Ausrichtung verantwortlich. Zur Zeit leitet sie u.a. eine zentrale E-Learning-Initiative, um die Nutzung digitaler Medien durch technische, Organisations- und Materialentwicklung nachhaltig in der Breite der Hochschule zu verankern. Neben anderen Positionen in Fachgremien ist sie u.a. Sprecherin der Fachgruppe E-Learning in der Gesellschaft für Informatik (GI).

 

Dokumentation der Live Session

III. Weitere Aktivitäten:

  1. Welche Einsatzmöglichkeiten für gestenbasierte, stimmbasierte Steuerung von Geräten können Sie sich in den verschiedenen Bildungsbereichen (Schule, Erwachsenenbildung, Hochschzlstudium) und ggf. noch differenzierter z.B. in Trainings für Handlungsabläufe, Bedienung von Maschinen usw. können Sie sich vorstellen?
  2. Sehen Sie Grenzen und Gefahren für solche Anwendungen? Worauf müssen wir dabei achten?

 

IV. Lektüre und Material:

Lektüre

Videos

   

Weitere Links und Quellen, die uns vor allem die Teilnehmenden nannten:

8 Antworten auf 18. – 29. Juni 2012: Gesture Based Computing

  1. Pingback: Zusammenfassung der Kurseinheit „Learning Analytics” | OpenCourse 2012

  2. Pingback: Start der fünften Kurseinheit des OPCO12 – Thema “Gesture Based Computing” | OpenCourse 2012

  3. Pingback: Start der fünften Kurseinheit des OPCO12 – Thema “Gesture Based Computing” | OpenCourse 2012

  4. Michael Lanzinger sagt:

    Ein sehr interessantes Thema muss ich sagen, aber etwas Anderes bin ich von der OPCO 2012 ohnehin nicht gewohnt.

    Interessant finde ich, dass man in den verlinkten Beiträgen primär auf die Kinect eingeht, wo es doch mittlerweile schon wieder weitere Schritte nach vorn gibt:
    http://www.neurosky.com/Default.aspx (Steuerung über Gehirnwellen)
    http://live.leapmotion.com/about.html (die klassische Maus ersetzt durch Gestensteuerung)
    http://diepresse.com/home/techscience/hightech/755471/Disney_Gegenstaende-und-Haut-alsTouchOberflaechen?from=rss (der Körper als Steuerung)

    Natürlich sind diese Dinge noch in der Entwicklung, aber in die Diskussion sollten sie jedenfalls einbezogen werden.

    • Tausend Dank! Auch eine spannende Frage: sind Hirnwellen Gesten? Ich finde die Frage noch weitreichender als die Frage nach der Gesichtserkennung von Joy. Ich nehme ihre Links gerne in die Themenübersicht auf, vielen Dank dafür… ich ergänze weiter in einer Linksammlung, die ich dort ergänze! Danke, Claudia Bremer

  5. Michael Lanzinger sagt:

    Gerne. Es freut mich, wenn ich etwas beitragen kann. Meinerseits danke ich für die gute Links zur Kinect, va die Site mit den ‘Hacks’, dort habe ich schon auf den ersten Blick ein paar spannende Projekte gesehen. Dies hat mich nochmals bestärkt, mir ebenfalls so ein Gerät zuzulegen, wenn auch nicht unbedingt für die Lehre…außer die Ausbildung zum Jedi via Game wird irgendwo anerkannt :)

  6. Monika Weigand sagt:

    Ich finde das Thema auch sehr spannend. Besonders faszinierend finde ich den Gedanken, dass dieser Trend auch behinderte Menschen nicht ausschließt, sondern im Gegenteil viele neue Nutzungsmöglichkeiten bieten könnte: Die Bedienung von Geräten und Anwendungen durch Gesten macht unabhängig von der Tastatur, ist also auch für Menschen mit motorischen Einschränkungen möglich. Ich vermute auch, dass die Handhabung leicht zu erlernen ist, also auch Einsatzmöglichkeiten für Lernbehinderte bietet. Und in Kombination mit einer Sprachausgabe ist die Nutzung wahrscheinlich auch für blinde und sehbehinderte Menschen möglich. Schon heute bin ich begeistert, wenn ich sehe, wie Blinde – eine Sprachausgabe vorausgesetzt – mit Smartphones und Tablets arbeiten können (http://www.bfw-wuerzburg.de/modeler.php?contentid=51).

  7. xuesheng sagt:

    Auch wenn die Diskussion schon zu technisch viel anspruchsvolleren Anwendungsmöglichkeiten vorgedrungen ist, hätte ich da noch eine Idee zur gestenbasierten Steuerung in der Gesundheitsbildung.

    Viele Publikationen kommen zu dem Schluss, dass Schreibtischtäter dynamischer sitzen sollten. Da könnten doch Sensoren in den Stühlen und ggf. Webcams ähnlich wie bei LKW-Fahrern Alarm schlagen (den Stuhl zum vibrieren bringen?), wenn man zu lange in der gleichen Position sitzt. Oder der Stuhl wird als Maus programmiert: Deuliche Beckenaufrichtung = Klick, Gewichtsverlagerung auf linke Pobacke = Cursor geht nach links etc. So könnte dem inneren Schweinehund Bewegung beigebracht und vielleicht so manche Kreuzlahmheit und mancher Mausarm verhindert werden.

Hinterlassen Sie eine Antwort