Zusammenfassung zum Abschluss des Themenblocks ‚gesture based computing‘

Veröffentlicht am von Claudia Bremer

Während die EM zu Ende geht und die Spaniern ihren schon sicheren Sieg feiern, geht auch der Themenblock gestenbasierter Anwendungen zu Ende, der ja fast zeitgleich zur EM lief. Und während es dem einen noch unvorstellbar erscheint, dass wir – wie im Horizon Report prognostiziert – in 4-5 Jahren gestenbasiert Anwendungen steuern, die Lernprozesse unterstützen, so scheint diese Realität anderen schon viel näher. So Sonja Gerber, die in ihrem Beitrag zu diesem Themenblock des OPCO schreibt „Meiner Meinung sind gestenbasierte Anwendungen doch schon in Bildungsprozessen angekommen.“ und sich dabei auf das Verschwinden von Maus und Tastatur sowie die Bedienung von Smartphones mit Toucscreens bezieht, die Form gestenbasierter Anwendungen, die wir heute schon am häufigsten in unserem Alltag vorfinden. Und die Potentiale der Zukunft zeichnen sich auch häufig in Filmen ab: Wer den neuen Spiderman Film gesehen hat, „The amazing spider man“, der kann – ähnlich wie im häufig im Kontext gestenbasierter Anwendungen referenzierten „Minority Report“ – eine Vision der Zukunft dieser Nutzung sehen: Steuerung einer Simulation mit Hilfe eines 3D- Displays ohne Maus und Handschuh …

… eine Anwendung die ich in etwas kleineren Version im letzten Jahr auf der Siggraph schon von Sony entwickelt sehen durfte s. Video).

Gestenbasierte Anwendungen in Vorlesungsaufzeichnungen
Doch gestenbasierte Anwendungen machen noch keine Lernprozesse, wie learning4me berechtigterweise anmerkt. Beispiele dieser Anwendungen in Lern-/Lehrkontexten finden sich jedoch heute schon z.B. in den von Prof. Ulrike Lucke vorgestellten Zeigebewegungen, die mit Hilfe von Kameraaufzeichnungen ihre Bewegungen auf einen Avatar oder auf die angedeutete Stelle einer Folie in ihren Vorlesungsaufzeichnungen überträgt und diese Stelle markiert (s. Vortragsaufzeichnung der LiveSession).

Das virtuelle Kind
Direkte Bewegungen ausgeführt auf einem Touchscreen zur Steuerung von Lernprozessen zeigt uns die Charitee-Anwendung „Das virtuelle Kind“

http://www.youtube.com/watch?v=uxZRi0pFdBc

s. auch Bericht in Spiegel online:
http://www.spiegel.de/video/was-hat-3d-simone-virtuelles-kind-trainiert-aerzte-video-1167019.html

Hinweise, Bedenken und Bedenkenswertes
Wichtig waren sicherlich auch die Hinweise und Sorgen, dass der Einsatz gestenbasierter Anwendungen im Kontext von Lernprozessen eine Rückkopplung auf Sinnhaftigkeit, Lernziele und Zielgruppen braucht (s. z.B. die Gedanken und anschliessende Diskussion zum Beitrag von karlaspendrin) und dass die Nutzung wie z.B. Messung zur Steuerung durch Hirnwellen ethische Grenzen braucht.

Fazit
Was ich in einigen Beiträgen lese, ist, dass das Thema durchaus für einige etwas „griffiger“ wurde (wie passend der Begriff hier 😉 ) und einige etwas konkretere Vorstellungen und auch Ideen davon bekommen haben, was gestenbasierte Anwendungen sind und wie man diese in Bildungskontexten einsetzen kann. Nachdem wir uns zu Beginn der Themenwoche über „Was sind Gesten“, der Gestenerkennung und abschliessend den Einsatzszenarien zugewandt haben, denke ich, haben wir hier einen guten Bogen hinbekommen. Interessant waren für mich auch die Hinweise auf die unterschiedliche Bedeutung von Gesten, die einerseits auf dem Frankfurter Fachforum und im Beitrag von baslix thematisiert wurde. Sicher gilt es hier, einerseits geeignete Settings aufzubauen, die solche Art von Gesten überhaupt erkennen (z.B. eignet sich die aktuelle Kinect noch nicht für Gebärdensprache, aber es existieren Kamerasettings mit mehreren Kameras, die sich dafür eignen), zum sind anderen die semantischn Bedeutungen der Gesten in verschiedenen Sprach- und Kulturräume zu hinterlegen.

Danke daher für die Beiträge, Hinweise und Zusammenfassungen, die zur Entwicklung und Abrundung des Themas beigetragen haben. Ich möchte nicht mehr alle Punkte der Zwischenbilanz nochmals aufgreifen, sondern mich ausdrücklich bei den Teilnehmenden, unserer Referentin Frau Prof. Lucke und Co-Moderatoren dafür bedanken! Ergänzend zu den Beiträgen hier steht nach wie vor das Etherpad zur Dokumentation und Sammlung von Links bereit und es wird die Dokumentation der Vorträge des Frankfurter Fachforums in Form von Vortragsaufzeichnungen noch erfolgen.

Über Claudia Bremer

Claudia Bremer, eLearning, Goethe-Universität Frankfurt View all posts by Claudia Bremer → Dieser Beitrag wurde unter Aktuelles, Gesture Based Computing veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Eine Antwort auf Zusammenfassung zum Abschluss des Themenblocks ‚gesture based computing‘

  1. Pingback: #OPCO12 – Final report (Part 2) « Sylvia's Blog

Schreibe einen Kommentar