Start der fünften Kurseinheit des OPCO12 – Thema “Gesture Based Computing”

Veröffentlicht am von Claudia Bremer

Sylvia Moessinger ist dem Thema schon vorausgeeilt und hat es mit einem Beitrag quasi schon eröffnet und auch per Twitter gingen schon erste Links ein (z.B. Gesture-based tech: A future in education?). Was wir bei der von Jochen Robes erwähnten Besprechung am FR dachten, ist, dass es uns ggf. jetzt bei den letzten beiden Thema (Gestenbasierte Anwendungen in Lernprozessen und Internet of Things), passieren kann, dass uns ggf. noch gar nicht so sehr die Übertragung auf Potentiale für das Lernen und Bildungsprozesse gelingt. Zumindest beim letzten Thema könnte das vielleicht noch schwergängiger sein als bei den gestenbasierten Anwendungen. Doch es kann schon ein Lernziel oder ein Lernerfolg sein, im Rahmen dieses Kurses ein Verständnis für die entsprechenden Begriffe und Technologien und deren Bedeutung für Bildungsbereiche zu entwickeln. Zum Teil wird es unserer Kreativität überlassen sein, uns vorzustellen, was damit im Bereich von Lernen und Bildung allgemein möglich sein wird. Erste Beispiele lassen sich zukm Glück schon finden, die zum Teil als Text, zum Teil als Video auf der Themenseite zu diesen beiden Wochen auch verlinkt sind.

Doch schließlich befinden wir uns ja auch im Zeithorizon von vier bis fünf Jahre des Horizon Reports, Grund genug, dass hier noch nicht alles so klar definiert sein kann und muss und wir uns die Potentiale zum Teil noch selbst erschließen können, wie es ja auch teilweise bei den Learning Analytics schon der Fall war.

Zur Orientierung ist es ggf. hilfreich sich dem Thema in drei Schritten anzunähern:

1. Gesten
Erstens: welche Gesten gibt es? Darunter fallen z.B.

  • Fingerbewegungen wie Wischen, Vergrössern durch Auseinanderziehen mit mehreren Fingern, Klopfen, usw. auf Touchscreens
  • daneben gibt es Schütteln und andere Bewegungen des kompletten Gerätes (Handheld Devices)
  • Weitere Bewegungen umfassen den ganzen Körper wie z.B. Arm-, Wink- und andere Bewegungen, die meist mit Kameras eingefangen werden und
  • als weiteren Aspekt auch noch Ton wie z.B. die iPhone-Anwendung Siri, wobei je nach Literatur dies zu den „Gesten“ gezählt wird oder auch nicht.

2. Gestenerkennung
Dies bringt uns zum zweiten Schritt, der eng damit zusammenhängt: Welche Gestenerkennungen sind möglich – vor allem eine technische Fragestellung.

  • Neben Berührungen (z.B. Wischbewegungen auf Touchscreens) sind dies
  • Bewegungen (z.B. durch Neigung des Gerätes wie beim Schütteln) und
  • Kameraerkennungen die z.B. die komplette Körperbewegung wahrnehmen wie es beispielsweise Kinect umsetzt als auch das
  • Erkennen von Geräuschen (was wie gesagt immer mal wieder nicht zu den Gesten gezählt wird)

3. Anwendungsgebiete, Potentiale
Im dritten Schritt können wir dann die Potentiale ausloten, die uns mit den heutigen Technologien und denen, die sich noch entwickeln werden, für Bildungsprozessen möglich werden. Da der Trend wie gesagt im eher längeren zeitlichen Horizont liegt, ist hier sicher auch unsere Kreativität gefragt, sich die Zukunft – auch gestaltend – vorstellen zu dürfen.

Material und Live-Session
Neben den Materialien auf der Themenseite wird uns am Do, den 21.6.2012, Prof. Ulrike Lucke von der Universität Potsdam sicher auch einen spannenden Einblick in das Thema geben und Trends und Anwendungen mit uns diskutieren. (Zugang zum Online Event wie immer in Adobe Connect: http://connect8.iwm-kmrc.de/opco12/). Prof. Ulrike Lucke ist mit dem Lehrstuhl für Komplexe Multimediale Anwendungsarchitekturen Professorin für Informatik und hat Forschungsinteressen im Bereich der Heterogenität und Interoperabilität netzbasierter Architekturen, Mobile und Pervasive Computing, insbesondere im Anwendungsgebiet E-Learning.

Nun wünsche ich uns allen viel Spass mit der vorletzten Themenwoche und verweise an dieser Srelle auch nochmals auf das Fachforum „Gestenbasierte Anwendungen in Bildungsprozessen„, das am 25.6.2012 von 11 – 17 Uhr an der Universität Frankfurt stattfindet. Die Teilnahme ist kostenfrei, auch eine Teilnahme z.B. nur am Nachmittag oder für wenige Stunden ist flexibel möglich.

Über Claudia Bremer

Claudia Bremer, eLearning, Goethe-Universität Frankfurt View all posts by Claudia Bremer → Dieser Beitrag wurde unter Gesture Based Computing veröffentlicht. Setze ein Lesezeichen auf den Permalink.

8 Antworten auf Start der fünften Kurseinheit des OPCO12 – Thema “Gesture Based Computing”

  1. Pingback: Zwischenstand zum OPCO | OpenCourse 2012

  2. Joy sagt:

    Gelten Mimik (Gesichtserkennung) auch als Gesten?

    • Find ich eine superspannende Frage. ich denke: JA, aber vielleicht hören wir da nochmals andere Meinungen und Fragen am DO auch unsere Expertin, Ulrike Lucke? Gruss Claudia Bremer

    • Ich habe auf diese Frage hin, nochmals einige Definitionen gesucht.

      Eine: Gesten sind „kommunikative Bewegungen insbesondere der Arme, Hände und des Kopfes,…“ eine andere: „eine zielgerichtete Ausdrucksbewegung des Körpers, besonders der Hände und des Kopfes“, danach wäe eine Mimik keine Geste.

      McNeill (1996, S. 75) unterteilt beispielsweise pantomimische, deiktische sowie Taktstock-Gesten (engl. Beat):

      Pantomimische Gesten sind Bewegungen, die den Inhalt der Sprache mittels Körperbewegungen nachbilden. Ikonische Gesten beschreiben dabei die direkte Form des real existierenden Objektes oder einer realen Handlung. Beispiel: Jemand erzählt etwas über eine alte Eiche und bildet deren Form mit den Händen nach.

      Metaphorische Gesten beschreiben das abstrakte Konzept an statt die direkte Form. Beispiel: Jemand streicht über einen nicht vorhandenen Bart und drückt damit seine Nachdenklichkeit aus.

      Deiktische oder auch hinweisende Gesten sind nach McNeill transparent, wenn ein Bezugsobjekt definiert ist. Als eine der einfachsten Formen von Gesten sind sie be-sonders intuitiv und damit interessant für gestengesteuerte Benutzeroberflächen. Spezifische Zeigegesten beziehen sich immer auf ein Objekt. Generelle Zeigegesten beziehen sich auf eine Klasse oder einen Typ von Objekten. Funktionelle Zeigegesten beziehen sich nicht auf das Objekt, sondern auf eine Handlung, die mit diesem Objekt in Verbindung steht. Beispiel: Auf einen Stuhl zeigen, um zu fragen, ob man sich setzen darf.

      Der Beat dient der Unterstützung und der Verstärkung des Gesprochenen. So unter-stützt eine schnelle Auf- und Abbewegung der Hand die Aussage, hat jedoch in ihrer Form keinerlei Bezug zu deren Inhalt.

      Quelle: Belegarbeit „Berührungsfreie gestenbasierte Interaktion auf Basis der Eigenschaften von Körpersilhouetten“ von Martin Herrmann

      Wikipedia unterscheidet:

      lexikalisierte Gesten, also solche, die wie Wörter einer Lautsprache funktionieren und als Symbole gelernt und kulturell abhängig sind (beispielsweise diverse Beleidigungsgesten, das Aneinanderreiben der Fingerspitzen für „Geld“ und Ähnliches). Eine solche allgemein bekannte Geste wird Emblem oder metaphorisch genannt.

      Zeigegesten (Deixis), die meist genutzte deiktische Geste ist das Zeigen mit dem Finger, was auch als eine der ersten Gesten überhaupt von Kindern erlernt wird. Bei Erwachsenen wird die Zeigegeste meist als ‚abstraktes‘ Zeigen auf nicht vorhandene bzw. imaginäre Gegenstände, Orte oder auch nur Ideen genutzt. Es können auch sämtliche andere Körperteile und Gegenstände die in der Hand gehalten werden o.ä. genutzt werden. Allerdings muss dabei ein Referenzpunkt (Origo) vorhanden sein.

      ikonische Gesten, die die Wirklichkeit in irgendeiner Form abbilden, beispielsweise indem sie eine Handlung nachahmen, die Umrisse eines Objektes darstellen, oder Objekte im Raum anordnen. Dabei können Gesten nicht nur auf konkrete Dinge referieren, sondern auch metaphorisch oder diskursiv verwendet werden, wenn beispielsweise eine Theorie als Gebäude mit mehreren Ebenen dargestellt oder eine Antwort als „auf der Hand liegend“ präsentiert wird. Dabei decken sich verschiedene Aspekte der Geste (Hand, Trajektorie, Richtung etc.) mit Aspekten der Sprache.

      metaphorische Gesten, welche abstrakte Bilder darstellen. Wie wenn eine Geste ausgeführt wird als ob etwas in der Hand gehalten wird, die Geste dabei jedoch das Halten einer Idee darstellt. Oder wenn man eine Aufteilung macht wie: Auf der einen Seite die Guten und auf der anderen Seite die Schlechten.

      Beat-Gesten sind rhythmische Bewegungen die etwas betonen bzw. unterstreichen sollen. Eine kurze ‚Beat‘-Geste kann einen wichtigen Punkt in einer Unterhaltung markieren wobei das wiederholen einer ‚Beat‘-Geste eine Begrifflichkeit oder einen Leitgedanken darstellen kann. Zum Beispiel wie wenn Eltern ihren Kindern etwas zum vermeintlich 1000. Mal erklären und dabei mit dem Zeigefinger bei jedem Wort die Hand auf und ab bewegen.

      Quelle: http://de.wikipedia.org/wiki/Geste

      McNeill, D. 1996. Hand and mind: What gestures reveal about thought. Uni-versity of Chicago Press.

  3. Pingback: Interessanter Beitrag der F.A.S.: “…Fass mich nicht an!” « distancelearning garden

  4. Pingback: Was sind Gesten? | OpenCourse 2012

  5. Pingback: Start der fünften Kurseinheit – Gesture Based Computing | OPCO 2012

  6. Pingback: Science fiction in the classroom? « Sylvia's Blog

Schreibe einen Kommentar