Skip to main content
Wenn du auf einen Link klickst und etwas kaufst, können wir eine kleine Provision erhalten. Zu unseren Richtlinien.

Der Fall "PlayStation Move"

Und wie Sony Bewegungssteuerung schon vor sechs Jahren hätte beherrschen können

Der Ort: Stanford Universität. Sonys R&D Mastermind Dr. Richard Marks zeigt einmal mehr die Motion-Control-Technik anhand einer Auswahl raffinierter technischer Demos, die denen ähneln, die Digital Foundry erst letztens gesehen hat. Der Unterschied ist, dass dieses Mal der Kalender den 21. Januar 2004 anzeigt und die Konsole, auf der diese eindrucksvolle Technologie läuft... ist die PlayStation 2.

Marks hat lange darauf gewartet, tiefen-emfpindliche „3D"-Bewegungserkennung massenmarkttauglich zu machen. Sogar länger als ihr vielleicht denkt. Seine ursprünglichen, kamerabasierten Demos für die PS2 datieren auf einen Zeitpunkt noch vor der Jahrhundertwende, während seine Swords-and-Sorcery-artige Demo im Jahr 2000 sogar öffentlich auf der Sommer-ECTS im Islington Design Centre vorgeführt wurde.

Es gibt einen Artikel über seine Arbeit in der Start-Ausgabe von Future Publishings Offiziellem PlayStation 2 Magazin. Rares Nick Burton sprach vor kurzem über deren prototypische Kinect-Demo namens „Seagull" (dt.: „Seemöwe"), bei der man mit den Armen flatterte, um durch die Umgebung zu fliegen. In der genannten Ausgabe des Offiziellen PS2-Magazins kann man bereits Bilder einer sehr ähnlichen Demo sehen, die Marks' Team mit einem Kamera-Prototypen realisiert hatte, der später das EyeToy werden sollte.

Der Vortrag an der Stanford Universität ist insgesamt 75 Minuten lang und kann direkt gestreamt werden. Und obwohl die letztendliche PlayStation-Move-Hardware unermessliche präziser, genauer und benutzerfreundlicher ist, hat dieser Ahne des neuen Bewegungserkennungs-Controllers eindeutig sehr viel gemeinsam mit dem letztendlichen Design.

Damals jedoch gab es keinen wirklichen Motion-Controller als solchen – nur eine Reihe von Requisiten, einschließlich eines langen, stabförmigen Objektes mit einer vertraut wirkenden Kugel oben drauf. Die Kamera der PS2 verrichtet hier den Großteil der Arbeit, dennoch gibt es viele Parallelen zum heutigen Move. Zum einen ist immer noch Kalibrierung erforderlich. Damals ging das, indem man die Kugel in einen Kreis auf dem Bildschirm bewegte und diesen damit ausfüllte. Voila: Das Gerät kann nun ein unbewegtes Objekt im 3D-Raum verfolgen. Zwar ist die Implementierung im Vergleich zur finalen Move-Hardware noch unbestreitbar primitiv, funktioniert es dennoch recht gut.

Augmented Reality (oder „Enhanced Reality", wie es vor einer Gaming-Generation noch hieß) wird in dem Vortrag ebenfalls abgedeckt, mit den gleichen, über den Video-Feed projizierten 3D-Objekten. Zum Zeitpunkt seiner Präsentation im Jahr 2004 experimentierte Marks bereits mit 60-FPS-Video und war damit zufrieden, wie die Verdopplung der zeitlichen Auflösung das Gerät weitaus präziser und reaktiver machten. Viele der Gedankengänge hinter PlayStation Move köcheln bei Sony eindeutig schon sehr lange vor sich hin.

Auszüge von Dr. Richard Marks' 2004er Präsentation an der Stanford Universität.

Nintendo mag mit seiner Mainstream-freundlichen Wii vielleicht zuerst am Markt gewesen sein, aber das Sony-R&D-Team unter Richard Marks war ihnen durchweg ein gutes Stück voraus. Die Kombination aus Motion Controller und Kamera war bereits Gegenstand eines Patents, das in etwa auf die Zeit um den Stanford-Vortrag herum datiert. Und es gibt noch mehr.

In derselben 2004er Präsentation (etwa ab Minute 58) kann man außerdem sehen, wie Marks direkt mit der damals als „z-cam" bekannten Kamera der israelischen Firma 3DV experimentiert: Eine tiefen-empfindliche Kamera, die den menschlichen Körper erfassen kann. Fünf Jahre bevor Microsoft Project Natal (mittlerweile Kinect) ankündigte und 3DVs Technik einkaufte, evaluierte Sonys R&D-Team bereits den Sensor. Und Marks ist sich dessen Potentials für Gaming eindeutig bewusst.

Die Realität der aktuellen Situation muss für Sony recht ernüchternd sein. Sie hätten führend sein können im Bereich der Bewegungserkennung, doch stattdessen nahm sich Nintendo des Konzeptes an und ließ seine Rivalen hinter sich.

Wenn man weiß, wie lange diese Reise in Anspruch nahm, sind die Funktionalität, Finesse und Ausgereiftheit des finalen PlayStation Move etwas verständlicher. Schaut euch Marks aktuellere Demos an und, besser noch, kauft euch Move mit Sports Champions und ihr bekommt hoffentlich einen Eindruck davon, warum wir – aus Hardware-Sicht – Move für den besten der Motion-Controller der drei Plattformhersteller halten.

Dennoch, das Maximum aus dem herauszukitzeln, was Move bietet, ist für die Entwickler eine echte Herausforderung. Und wir können nur hoffen, dass Sony und die Third-Party-Hersteller diese Herausforderung voll und ganz annehmen. Abgesehen von seiner Präzision könnte Move nämlich als echter 3D-Controller den Unterschied ausmachen. Dies offeriert für sich genommen schon eine kolossale Reihe an neuen Spiele-Konzepten. Schauen wir uns ein paar von Marks neueren Tech-Demos in voller Direct-Feed-Glorie an.

Als erstes die Manipulation von Objekten im 3D-Raum. Man kann die Arme strecken, Dinge greifen und sie im 3D-Raum umher bewegen. Obgleich man meinen würde, Wii MotionPlus sollte ebenfalls zu solchen Dingen in der Lage sein, ist es in seiner Anwendung limitierter. Die Move-Sensoren mögen zwar mit ähnlicher Präzision arbeiten wie in MotionPlus, die Wii-Peripherie hat aber keine Kamera-Aufschaltung und ihre Daten unterliegen Abweichungen. Bedeckt man die leuchtende Kugel von Move, passiert das Gleiche. Bewegungssensoren allein sind nicht genau genug.

Dennoch ist es nur fair zu sagen, dass nur Sonys Motion-Controller so etwas kann:

PlayStation Move: Klassenbester in Sachen Objektmanipulation im 3D-Raum

Die Steuerung mit zwei Move-Controllern ist, was Games angeht, die Technologie, die dem berühmten Minority-Report-Userinterface bisher am nächsten kommt. Kinect mag zwar das einzig Wahre sein, wenn es um controllerfreie Interaktionen geht, sein berüchtigtes Unvermögen, Hände und Finger in Standard-Reichweite zu erfassen, macht dieses Interface jedoch unmöglich. Allein der Vorgang, eine Taste in den bisher gezeigten Spielen zu drücken, dauert ein bisschen zu lange und kann sogar nervig sein.