Endlich: Eingebaute Lippensynchronisation in Second Life

Was die Kommunikation in virtuellen 3D-Welten angeht, vor allem in der Zusammenarbeit mit anderen, ist die fehlende gewohnte nonverbale Kommunikation immer noch ein großes Manko. In Second Life gab es dafür zwar bereits schon lange (kommerzielle) Zusatzprogramme, die z.B. zum getippten Textchat oder auch Voicechat passende Mundbewegungen erzeugen (auch typische vorgefertigte Gesten/Mimikabläufe für Situationen aller Art und sogar animierte Sculpty-Gesichter), aber gerade für Neueinsteiger, sogenannte Noobs, ist es immer wieder mühsam, sich solche Add-Ons zusammen zu suchen (abgesehen von den Zusatzkosten). Über SLtalk bin ich jetzt darauf aufmerksam geworden, dass die Lippensynchronisation bereits im aktuellen Second Life Test-Viewer (Version 1.20.14) eingebaut ist. Man muss es zunächst aktivieren (Advanced Menü mithilfe Shift-Alt-Cmd-D einblenden, dann Character/Enable lip sync Beta auswählen), doch ich gehe davon aus, dass dies in Zukunft voreingestellt ist. Und so sieht es aus:


Automatische Lippenbewegungen während des Voicechats in Second Life (leider nicht wirklich synchron).

Wenn man das kombiniert mit Mimik-/Eye-Tracking Lösungen, die langsam immer günstiger werden, wird die Unterstützung von internationalen Arbeitsgruppen, Meetings und anderen Formen der Zusammenarbeit durch virtuelle Welten immer realistischer für die Teilnehmer.

Hier ein paar Beispiele von Entwicklungen, die in der Richtung gemacht werden:
http://www.ioct.dmu.ac.uk/projects/eyegaze.html
http://de.youtube.com/watch?v=UUeqrYEzNi4
http://gazeinteraction.blogspot.com/2008/07/eye-tracking-using-webcamera.html

Und auch der ganze Körpereinsatz ist bereits in der deutschen Forschung in Arbeit: Junge Forscher des Deutschen Forschungszentrums für Künstliche Intelligenz Saarbrücken surften mit dem Nintendo Wii-Balanceboard bereits durch Google Earth und Second Life und hielten dies auf YouTube fest.

Advertisements

Emotiv – das erste Brain-Controlled Headset für Spiele und Virtuelle 3D-Welten kann jetzt geordert werden

Endlich nicht mehr „lol“ tippen oder andere krude Tatstaturkürzel für unsere nonverbalen Reaktionen vor dem Bildschirm.

Jetzt wird’s ernst: Mit dem Emotiv EPOC Headset (kabellos, leicht, nur $299) können wir bald durch die Kraft unserer Gedanken unsere Lieblingsspiele steuern oder durch unser (echtes) Lächeln ein Grinsen auf das Antlitz unseres Avatars zaubern. Angekündigt wurde das schon oft und vor langer Zeit, doch jetzt nimmt die Firma Emotiv konkrete Vorbestellungen entgegen (leider zunächst nur aus USA). Die ersten Neuro-Headsets sind nur in limitierter Anzahl (bis zu vier Stück pro Besteller, first come-first serve) verfügbar und werden im letzten Quartal 2008 ausgeliefert.

Auf der Games Developer Conference in San Francisco demonstrierte das Emotiv-Team bereits im Februar auch das Drehen und Anheben eines virtuellen Objektes allein durch gedankliche Steuerung. Auch die Blickrichtung und sonstige Kopfbewegungen werden durch das eingebaute Gyroskop direkt auf den Avatar übertragen.

Das Emotiv EPOC Headset sieht inzwischen nicht mehr aus wie aus einem billigen Science-Fiction Film, sondern eher wie ein normaler Kopfhörer mit ein paar Streben zuviel (= Elektroden bestückte Sensoren). Jedenfalls, wenn es auf dem Kopf sitzt…

Die Batterien sollen 12 Stunden halten und es soll möglich sein, beliebige Programme mit dem Headset anzusteuern. Kombiniert mit einer 3D-Brille wie z.B. der Vuzix iWear VR920 und vielleicht dem Wii-Balanceboard sehe ich mich schon direkt meine Aerobic-Übungen im trauten Kreise meiner Second Life Buddies machen – das nenne ich wirkliche Immersion (die 3D-Brille läuft leider nur mit Windows XP/Vista). Die beiden sympathischen KI-Forscher aus Saarbrücken arbeiten ja hart daran: Surfen durch Second Life mit dem Wii Board (Video)

Mehr über die Verwendung mit Applikationen wie Second Life, Kompatibilität mit Macs und Verfügbarkeit in Europa schreibe ich, sobald ich Antwort vom Emotiv-Team bekommen habe.

Hier gibt’s Demo-Videos

——————– UPDATE —————-
Hier meine Fragen mit Antworten von Jonathan Geraci vom Emotiv Team:

– Will the headset run with MacOS? Does the SDK run on Macs?
Currently the headset is PC only. There are some Mac users internally (including myself) that are pushing for a port, but market conditions dictate Windows first.
– Have you tested it with Second Life/are you planning to do so/do you know of any development being done in that area?
No specific planned integration with Second Life, but there is nothing stopping it either. We provide an open API set that can be used for that if you have the coding skills.
– When will the headset become available in Europe?
No dates have been announced for markets outside of the United States at this point

Second Life auf dem Handy – so wird es aussehen

Alle, die sich bei Vollee.com als Beta-Tester eingetragen haben, erhielten heute eine E-Mail mit der Information, dass sie Instruktionen und Software für ihr Handy im Laufe der Monate Mai und Juni bekommen werden. Als kleines Schmankerl für das lange Warten gibt es aber dieses kleine Video (auf einem Motorola Handy). Offenbar sind wichtige Funktionen wie Chat, Karten und Suche den Anforderungen winziger Displays angepasst.

3D-Navigation ohne Tastaturakrobatik mit der Spacenavigator 3D-Maus

Mit dem Spacenavigator, einer USB-3D-Maus von 3Dconnexion, kann man nun viel intuitiver durch Second Life navigieren, Objekte bauen oder z.B. durch die leichtere Kameraführung ohne Tastaturakrobatik 3D-Filme (Machinima) drehen.

Torley Linden zeigt in vieren seiner leicht verständlichenund unschlagbar lustigen Video-Tutorials, wie es geht.

Die 3D-Maus läuft ab Second Life 1.20 (Release Candidate) unter Windows/Mac/Linux, unterstützt neben SL auch Google Earth und etliche 3D-Anwendungen (z.B. Blender, Maya, Photoshop) und es gibt sie in verschiedenen Ausführungen (Beispiel: Extra-light für Notebooks) z.B. bei Amazon. Ich hab sie mir sofort bestellt und werde über die Handhabung berichten 🙂


Lernen in Second Life

Ich beschäftige mich aktuell mit der Gestaltung von Trainings in 3D-Welten generell und speziell mit der Konzeption von Orientierungsbereichen für Second Life Anfänger. Gerade die ersten Minuten in einer immersiven 3D-Umgebung sind für den sogenannten „Newbie“ verwirrend und herausfordernd, da er wie ein Baby selbst einfachste Dinge wie z.B. laufen und sprechen erst lernen muss. Deshalb ist auch intuitive, klare Orientierung und ein vorgegebener Pfad für die Vermittlung der ersten Schritte zu empfehlen, wie z.B. auf der Orientierungsinsel von Ben & Jerry’s:

Große, aufwendig gestaltete Plakate auf dem klar abgegrenzten Lernpfad von „Ben & Jerry’s“

Bei der Gestaltung von Lernpfaden (und generell allen Räumen) in 3-D Welten kommt es zum einen darauf an, Wissen mithilfe von Metaphern aus der realen Welt zu vermitteln (nicht aus der Software-Welt) und zum anderen, bei der räumlichen Gestaltung den Besonderheiten der virtuellen Welt gerecht zu werden.
Zwei Beispiele: Viele Präsenzen von Unternehmen in Second Life haben Straßen mit hohen Borsteinkanten – jeder Avatar läuft mit einem lauten „Klack“ dagegen oder muss sogar springen (wenn er weiß, wie das geht!). Oder Wendeltreppen, extrem beliebt: Man muss wahre Mausakrobatik beherrschen, um so eine Treppe überhaupt herauf zu kommen, wenn diese nicht mindesten einen Radius von 10 Metern hat.

„Es findet ein Wechsel von der Seitenmethapher des Internets (2D) zur 3D-Raummethapher des Metaverse statt. Der virtuellen Raum der 3D-Welt ist so zu gestalten, daß er den Nutzern Orientierungshilfe ist. Dabei kann innerhalb der virtuellen Welt auf das Erfahrungswissen aus der realen Welt zurückgegriffen werden.“ (Matthias Rückel im Live Online Collaboration Blog).

Deshalb finden lernpsychologische Erkenntnisse aus der realen Welt in immersiven 3D-Welten eher Anwendung als solche, die sich in der Gestaltung von Multimedia-Software oder Web-Applikationen bewährt haben.

Hier einige meiner Erfahrungen und Beobachtungen in Second Life:

  • Beobachtungslernen: In immersiven Umgebungen lernen Nutzer am schnellsten durch Lernen am Modell, also Lernen durch Beobachtung und Nachahmung
  • Handlungsorientiertes Lernen und Motivation durch Spaß, die in modernen Trainings und Seminaren zu optimalen Lernerfolgen führen, lassen sich in 3D-Welten optimal einsetzen, um komplexes Wissen in kürzester Zeit zu vermitteln
  • Medienbrüche vermeiden:
    • längere Texte auf Tafeln werden z.B. in Second Life ebenso wenig gelesen wie in der realen Welt (Bsp. Werbeplakate, Homepages): Kurze, prägnante Botschaften und anschauliche, unterstützende Illustrationen sind besser als umfangreiche Schrifttafeln

      Auf dem Orientierungspfad der TV-Serie „The L-Word“ : Kurze Texte, anschauliche Illustrationen

    • 2D-Elemente (z.B. HUDs – Heads-Up Displays), die über der 3D-Umgebung als zusätzliche grafische Bedieneroberflächen eingeblendet werden, nimmt der Nutzer nicht oder als störend wahr, da er seine Aufmerksamkeit meist vollauf auf das Sichtfeld des Avatars beschränkt (Die Aufmerksamkeit eines Nutzers in einer virtuellen 3D-Welt wie SL wird durch das Sichtfeld seines Avatars innerhalb dieser Welt gesteuert, da sich Menschen innerhalb weniger Sekunden in diesen „hineinversetzen“ und die eigene Position dort verorten, wo sich der Avatar befindet (vgl. Gehirn & Geist, S. 14, 11/2007). Der Effekt findet statt, sobald der Nutzer seinen Avatar und dessen Blickrichtung durch die Pfeiltasten erfolgreich gesteuert hat.)

Interessante Artikelreihe zu dem Thema von Matthias Rückel:
Gestaltung von Veranstaltungszentren in Second Life

Etwas älterer Artikel zum Thema von Markus Breuer aka Pham Neutra (Otherland Group):
Die Wichtigkeit von (offenem) Raum und ‚Natur‘ in in virtuellen Welten

Visualcomplexity – Entwirrung der Komplexität des Webs


Das Web wird immer komplexer. Herkömmliche Suchmaschinen mit ihrer Listendarstellung haben bald ausgedient, da sie Relevanz und komplexe Beziehungen zwischen den Inhalten nicht veranschaulichen können. Deshalb ist „Visualbrowsing“ bereits ein Begriff und meiner Meinung nach neben Social Networks und Web 3d einer der wichtigstens Webtrends, die ich beobachte. Visualcomplexity ist ein umfangreiches Verzeichnis und eine Informationsquelle für alle, die sich mit dem Thema „Visualisierung komplexer Netzwerke“ auseinandersetzen wollen oder müssen. Und ein paar ziemlich coole Mashups findet man bei der Gelegenheit auch…

www.visualcomplexity.com/vc/