18. – 29. Juni 2012: Gesture Based Computing
(Moderation des Themenblocks: Claudia Bremer, studiumdigitale, Universität Frankfurt)
I. Überblick
Die Nutzung gestenbasierter Anwendungen ist für viele Smartphone und Tabletnutzer wie iPhone und iPads sowie Kinect, Xbox und Nitendo Wii-Anwender schon zum Alltag geworden: Wisch- und andere Finger-, Arm- und Körperbewegungen steuern die Anwendungen. Ziel dieser Entwicklungen ist, „eine Minimalschnittstelle und ein Erlebnis der direkten Interaktion zu erzeugen, so dass in der Wahrnehmung Hand und Körper selbst zu Eingabegeräten werden“. (Horizon Report, Dt. Ausgabe, S. 31) Neben der Eingabe durch Bewegungen hebt der Horizon Report die Konvergenz „von gestensensibler Technologie mit Stimmerkennung“ hervor, „die es möglich macht, dass, wie bei der menschlichen Kommunikation, sowohl Geste als auch Stimme die Intentionen des Nutzers an das Gerät kommunizieren.“ Viele von uns kennen dies sicher aus den Siri Anwendungen des iPhones4, das hier als Beispiel genannt wird.
Die Potentiale, die hierbei im Spielebereich liegen und bei der Benutzung von Smartphones und anderen Endgeräten liegen auf der Hand und zeigen sich schon in unserem Alltag. Doch die Anwendungen darüberhinaus im Bildungsbereich sind noch rar gerät. Beispiele für Potentiale, die der HorizonReport nennt sind z.B. „Software, die nicht auf spezifischen Sprachen beruht, sondern auf natürlichen menschlichen Bewegungen, die allen Kulturen gemein sind“ für „überzeugende Nutzungsmöglichkeiten in Ländern wie Indien, das 30 Landessprachen mit jeweils über einer Million Muttersprachlern hat.“. Ziel ist, durch eine natürliche Benutzeroberfläche die Interaktion zwischen Anwender und Maschine zu vereinfachen, was natürlich auch vor allem für Personen mit körperlichen Behinderungen ein enormes Einsatzpotential mit sich bringt.
Im Horizon Report werden zudem die besonderen Potentiale für Schulen hevorgehoben, die Geräte in sich tragen, die den Nutzer dazu ermutigen, sie in spielerischer Weise zu berühren, zu bewegen und zu erkunden. Als Beispiele nennt er Smartphones und Tablets von Android und Apple, den Microsoft Surface und das ActivPanel von Promethean sowie die Nintendo Wii und Microsoft Kinect und sieht hier vor allem Potentiale in der Zusammenarbeit, im Austausch von Materialien und in Interaktionen in Gruppen. Gleichzeitig konnten trotz gründlicher Rechereche kaum Beispiele im Hochschulbereich gefunden werden und wahrscheinlich finden wir auch wenige in der Erwachsenenbildung. Aufgabe des OPCO könnte daher an dieser Stelle sein, Potentiale zu benennen und ggf. auch Beispiele z.B. aus arbeitsplatznahen Trainings in Unternehmen in prozedualen Wissensaneignungsprozessen zusammenzutragen. Differenziert werden könnte daher in der Diskussion in unterschiedlichen Anwendungsmöglichkeiten in verschiedenen Bildungsbereiche und deren Chancen und auch Grenzen.
DO 21.6.2012, 17-18 Uhr.
Dokumentation der Live Session
- Folien von Frau Prof. Lucke im PDF Format
- Aufzeichnung der Live-Session vom Do, den 21.6.12, 17 Uhr mit Prof. Lucke
http://connect8.iwm-kmrc.de/p93j3qtj336 - Direktlink auf das Video der Aufzeichnung im mp4-Format:
http://www.e-teaching.org/etresources/media/video/opco12/aufzeichnung_2012_bremer-lucke_gesture-based-computing.mp4 - Chatprotokoll der Live-Session vom Do, den 21.6.12
III. Weitere Aktivitäten:
- Welche Einsatzmöglichkeiten für gestenbasierte, stimmbasierte Steuerung von Geräten können Sie sich in den verschiedenen Bildungsbereichen (Schule, Erwachsenenbildung, Hochschzlstudium) und ggf. noch differenzierter z.B. in Trainings für Handlungsabläufe, Bedienung von Maschinen usw. können Sie sich vorstellen?
- Sehen Sie Grenzen und Gefahren für solche Anwendungen? Worauf müssen wir dabei achten?
IV. Lektüre und Material:
Lektüre
- Horizon Report 2012 (deutsche Fassung), S. 31-34
http://www.mmkh.de/upload/dokumente/2012HorizonReport_German_final.pdf
- Charlie Osborne
Gesture-based tech: A future in education?
http://www.zdnet.com/blog/igeneration/gesture-based-tech-a-future-in-education/15514 (Dank fürs Nennen an Sylvia Mössinger).
- Alex Howard, O’Reilly Radar (3.12.2010):
7 Areas Beyond Gaming where Kinect Could Play a Role.
http://radar.oreilly.com/2010/12/dancing-with-kinects-future-in.html
Die Autoren nennen Bereiche, in denen das gestenbasierte Kinect-System von Microsoft über seinen Einsatz als Spieleplattform hinaus genutzt werden kann.
- Steve Sechrist, Software Quality Connection, (23.5.11):
Gesture Recognition Moves Beyond Gaming
http://www.softwarequalityconnection.com/2011/05/gesture-recognition-moves-beyond-gaming/.
Steve Sechrist diskutiert das Potenzial von natürlichen Benutzeroberflächen
im Stil des Kinect-Systems.
- Claire Cain Miller (NYT, 1.9.10):
To Win Over Users, Gadgets Have to Be Touchable
Der Autor beschreibt, wie gestenbasiertes Computing zur vorherrschenden Bedienungsart für Computer,
insbesondere Mobilgeräte wie Smartphones und Tablets, geworden ist.
http://www.nytimes.com/2010/09/01/technology/01touch.html?_r=1
- James K. Willcox (Consumer Reports, 9.1.11):
LG adds Google TVs, Smart TVs get Voice and Gesture Control
http://news.consumerreports.org/electronics/2012/01/ces-2012-lg-adds-google-tvs-updates-smart-tv-with-face-recognition.html
Ein Beitrag über Fernsehgeräte von LG Electronics, die man gleichzeitig als Computermonitore nutzen kann, und deren Smart-TV-Plattform wird auch über Stimm- und Gestensteuerung verfügen.
Videos
- SoftKinetic Previews Next-Gen Gesture Interfaces
Das Video zeigt, wie die von Soft-Kinetic entwickelt 3D-Gestensteuerungs-Middleware
für eine breite Palette von Geräten und Plattformen eingesetzt werden kann.
http://www.youtube.com/watch?v=Xfz_uRoJGjE#!
- Augmented reality sandbox lets you change the course of rivers, won’t get you wet
Ein Beispiel für Augmented reality in der Kinder einen Fluss umleiten können.
http://www.engadget.com/2012/05/07/augmented-reality-sandbox-lets-you-change-the-course-of-rivers/
- Gestural control using inaudible sounds
Microsoft Research’s SoundWave ist ein experimentelles Interface das Gesten auf der Basis von Handbewegungen, die mit einem unhörbaren Ton, den der Computer generiert, interagieren. -
Beispiele zu Leap Motion
Quelle: http://www.youtube.com/watch?v=Xl6ZwYYwr-I&feature=player_detailpage -
Ein weiteres Beispiel zu Leap Motion
Quelle: http://www.youtube.com/watch?v=XXvvCtfSU2s&feature=related
Weitere Links und Quellen, die uns vor allem die Teilnehmenden nannten:
- Steuerung über Gehirnwellen
http://www.neurosky.com/Default.aspx
- Die klassische Maus ersetzt durch Gestensteuerung
http://live.leapmotion.com/about.html
- Der Körper als Steuerung
http://diepresse.com/home/techscience/hightech/755471/Disney_Gegenstaende-und-Haut-alsTouchOberflaechen?from=rss
- Weitere Links zu Gestenbasierten Anwendungen aus dem OPCO12 als PDF-Liste
- Diese Liste in Etherpad, in der wir sie weiter ergänzen können
8 Antworten auf 18. – 29. Juni 2012: Gesture Based Computing
-
Pingback: Zusammenfassung der Kurseinheit „Learning Analytics” | OpenCourse 2012
-
Pingback: Start der fünften Kurseinheit des OPCO12 – Thema “Gesture Based Computing” | OpenCourse 2012
-
Pingback: Start der fünften Kurseinheit des OPCO12 – Thema “Gesture Based Computing” | OpenCourse 2012
-
-
Gerne. Es freut mich, wenn ich etwas beitragen kann. Meinerseits danke ich für die gute Links zur Kinect, va die Site mit den ‚Hacks‘, dort habe ich schon auf den ersten Blick ein paar spannende Projekte gesehen. Dies hat mich nochmals bestärkt, mir ebenfalls so ein Gerät zuzulegen, wenn auch nicht unbedingt für die Lehre…außer die Ausbildung zum Jedi via Game wird irgendwo anerkannt 🙂
-
Ich finde das Thema auch sehr spannend. Besonders faszinierend finde ich den Gedanken, dass dieser Trend auch behinderte Menschen nicht ausschließt, sondern im Gegenteil viele neue Nutzungsmöglichkeiten bieten könnte: Die Bedienung von Geräten und Anwendungen durch Gesten macht unabhängig von der Tastatur, ist also auch für Menschen mit motorischen Einschränkungen möglich. Ich vermute auch, dass die Handhabung leicht zu erlernen ist, also auch Einsatzmöglichkeiten für Lernbehinderte bietet. Und in Kombination mit einer Sprachausgabe ist die Nutzung wahrscheinlich auch für blinde und sehbehinderte Menschen möglich. Schon heute bin ich begeistert, wenn ich sehe, wie Blinde – eine Sprachausgabe vorausgesetzt – mit Smartphones und Tablets arbeiten können (http://www.bfw-wuerzburg.de/modeler.php?contentid=51).
-
Auch wenn die Diskussion schon zu technisch viel anspruchsvolleren Anwendungsmöglichkeiten vorgedrungen ist, hätte ich da noch eine Idee zur gestenbasierten Steuerung in der Gesundheitsbildung.
Viele Publikationen kommen zu dem Schluss, dass Schreibtischtäter dynamischer sitzen sollten. Da könnten doch Sensoren in den Stühlen und ggf. Webcams ähnlich wie bei LKW-Fahrern Alarm schlagen (den Stuhl zum vibrieren bringen?), wenn man zu lange in der gleichen Position sitzt. Oder der Stuhl wird als Maus programmiert: Deuliche Beckenaufrichtung = Klick, Gewichtsverlagerung auf linke Pobacke = Cursor geht nach links etc. So könnte dem inneren Schweinehund Bewegung beigebracht und vielleicht so manche Kreuzlahmheit und mancher Mausarm verhindert werden.
Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.
Ein sehr interessantes Thema muss ich sagen, aber etwas Anderes bin ich von der OPCO 2012 ohnehin nicht gewohnt.
Interessant finde ich, dass man in den verlinkten Beiträgen primär auf die Kinect eingeht, wo es doch mittlerweile schon wieder weitere Schritte nach vorn gibt:
http://www.neurosky.com/Default.aspx (Steuerung über Gehirnwellen)
http://live.leapmotion.com/about.html (die klassische Maus ersetzt durch Gestensteuerung)
http://diepresse.com/home/techscience/hightech/755471/Disney_Gegenstaende-und-Haut-alsTouchOberflaechen?from=rss (der Körper als Steuerung)
Natürlich sind diese Dinge noch in der Entwicklung, aber in die Diskussion sollten sie jedenfalls einbezogen werden.