Von Martial Arts bis Break Dance: Realistischere Animationen

Computer-simuliert oder echt – bei natürlichen Bewegungen sticht der Unterschied immer noch ins Auge. Auf großen Bildschirmen oder in Videospielen wirken simulierte Menschen und Tiere oft unbeholfen. Aber das ändert sich gerade.

Wissenschaftler an der University of California, Berkeley, haben  einen wichtigen Fortschritt hin zu einer realistischeren Computer-Animation erzielen können. Dazu nutzen sie bestärkende Deep-Learning-Methoden (Deep Reinforced Learning), um natürliche Bewegungen und sogar akrobatische Höchstleistungen im Break Dance oder im Kampfsport nachzubilden. Die simulierten Charaktere können auch auf natürliche Weise auf Änderungen der Umwelt reagieren, etwa wenn sie stolpern oder beschossen werden.

Xue Bin "Jason" Peng, UC Berkeley Graduate Student, sagt: „Früher wurde viel Arbeit investiert, um natürliche Bewegungen zu simulieren, aber diese physikbasierten Methoden sind tendenziell sehr spezialisiert. Es sind keine allgemein anwendbaren Methoden, die eine breite Spanne von Fähigkeiten umfassen.“ Jede Aktivität oder Aufgabe erfordere eine eigene maßgeschneiderte Steuerung.

„Wir haben leistungsfähigere Agenten entwickelt, die sich natürlich verhalten. Wenn man unsere Ergebnisse mit Motion-Capure-Aufnahmen von Menschen vergleicht, dann sind wir an einem Punkt, wo es ziemlich schwierig wird, beides zu unterscheiden und zu sagen, was ist die Simulation und was die Wirklichkeit.“

Die Arbeit könnte auch Robotern eine dynamischere Motorik verleihen helfen. Ein Paper, das die Entwicklung beschreibt, wurde unter Vorbehalt für die Präsentation an der SIGGRAPH 2018 in Vancouver akzeptiert und am 10. April online veröffentlicht. Die Mitarbeiter von Peng im Department of Electrical Engineering and Computer Sciences sind Professor Pieter Abbeel und Assistant Professor Sergey Levine sowie Michiel van de Panne von der University of British Columbia.

Motion Capture für maschinelles Lernen

Die herkömmlichen Verfahren der Animation erfordern üblicherweise spezielle manuell entwickelte Steuerungen für jede Fertigkeit: eine für das Gehen und eine andere für das Laufen, für Sprünge und andere Bewegungen. Alternativ können Verfahren des bestärkenden Deep Learnings wie GAIL (Generative Adversarial Imitation Learning) eine Vielfalt unterschiedlicher Fertigkeiten mit einem einzigen übergreifenden Algorithmus simulieren, doch deren Ergebnisse wirken oft sehr unnatürlich.

Peng sieht in der neuen Arbeit das Beste aus beiden Welten umgesetzt. „Wir haben einen einzigen Algorithmus, der eine ganze Reihe von Fähigkeiten erlernen kann und der Bewegungen erzeugt, die jenen der spezialisierten Controller gleichkommt oder diese gar übertrifft.“

Dafür hat Peng Referenzdaten aus Motion-Capture-Clips gewonnen, die mehr als 25 unterschiedliche akrobatische Leistungen darstellen, beispielsweise Rückwärtssalti, Radschläge oder Kip-ups, aber auch einfaches Laufen, Werfen und Springen. Die entsprechenden Daten wurden in eine Lösung namens DeepMimic eingespeist, die dann die Fertigkeiten in etwa einem Monat Simulationszeit einüben konnte, etwas länger, als der Mensch dafür benötigen würde.

Der Computer „übte“ ununterbrochen und rechnete Millionen von Versuchen, um jede Fertigkeit realistisch simulieren zu können. Er lernte über Versuch und Irrtum, indem er seine Leistung nach jedem Versuch mit den Motion-Capture-Daten verglich und sein Verhalten schrittweise der menschlichen Bewegung annäherte.

Der Rechner lerne die Bewegungen von Grund auf, bevor er überhaupt weiß, wie man gehe oder laufe, so Peng. Ein Monat für diesen Prozess sei also durchaus plausibel. Dabei konnte der Rechner auf andere Weise Erfahrungen sammeln als Menschen. So impliziert ein Rückwärtssalto viele einzelne Körperbewegungen, die eine Maschine zu Fall bringen könnten und sie niemals über die ersten paar Schritte hinausgelangen ließen. Der Algorithmus setzt jedoch an verschiedenen Phasen des Rückwärtssaltos an, auch jenen ohne Bodenkontakt. Somit erlernt er jede Bewegungsphase separat und fügt die einzelnen Phasen dann zusammen.

Erstaunlicherweise kommen die simulierten Charaktere mit vorher unbekannten Szenarien zurecht: Laufen über unebenes Terrain oder Spin-kicks unter Beschuss.

Video: UC Berkeley-Forscher haben einen virtuellen Stuntman erschaffen, der computer-animierte Charaktere lebensechter erscheinen lassen könnte. (UC Berkeley-Video von Roxanne Makasdjian und Stephen McNally, mit Simulationsmaterial von Jason Peng), https://www.youtube.com/watch?time_continue=1&v=XCLSkFKTWyg

0
RSS Feed

Hat Ihnen der Artikel gefallen?
Abonnieren Sie doch unseren Newsletter und verpassen Sie keinen Artikel mehr.

Mit einem * gekennzeichnete Felder sind Pflichtfelder!

Neuen Kommentar schreiben

Entdecken Sie die Printmagazine des WIN-Verlags