Nun, ich hole diesen Thread einmal wieder hoch um einen anderen Weblogeintrag von mir zu teilen, indem ich darüber berichte, wie so ein 3D Animationsfilm oder ein Spezialeffekt entsteht :3
ZitatAlles anzeigen
1. Die Planung
Wie auch bei 2D Animation fängt alles mit Planung an. Bei einem ganzen 3D Animationsfilm steht hier natürlich die Geschichte, um die es überhaupt gehen soll, bei Spezialeffekten eben die Frage, welche Geschehnisse im Film nicht ohne die Hilfe von Computergenerierten Effekten auskommen. So oder so sind hier natürlich die Stellen, wo erst einmal die Drehbücher kommen und, wenn diese fertig sind, geschaut wird, wie die Dinge, die später 3D werden sollen (seien es die Hauptakteure des 3D Films, oder der Drache, der mit CG in den Fantasyfilm geschnitten wird), aussehen.
Wir befinden uns also erst einmal in der Phase des Designs, wie es auch bei 2D Animation der Fall ist. Und normal sieht es auch nicht viel anders aus – zumindest erst einmal – da natürlich die Figuren (meistens) erst einmal skizziert und, sobald man sich für ein grobes Design entschieden hat, dann richtig gezeichnet werden. Hierbei muss allerdings auch immer beachtet werden, was man in 3D gut umsetzen kann – denn nur weil Designs in 2D gut aussehen, müssen sie nicht unbedingt in 3D hübsch wirken, da bestimmte cartoon-stilistika sich zum Beispiel nicht wirklich in 3D übersetzen lassen – hierzu gehören nicht zuletzt überbetonte Gesichtsmerkmale, die sich in 3D nur bis zu einem gewissen Maßstab übertreiben lassen oder auch die klassischen Manga-Gesichter, die in 3D nicht so wirklich wirken können.
[Blockierte Grafik: http://i.minus.com/iiG7auz6DdKGx.jpg]
Charakterskizzen für Po aus Kung Fu Panda
Hat man sich hier aber für ein Design in der Skizze entschieden, passiert meist als allererstes einmal noch etwas anderes: Die Figuren werden in der realen Welt plastisch modelliert mit... Nun, das hängt ein wenig davon ab, wo wir sind. Denn ich habe in Making Ofs schon alles zwischen Plastik, Lehm, Knete, Wachs und noch viel mehr gesehen... Manche Modellierer bevorzugen auch bestimmte Materialien. Jedenfalls werden Figuren der Charaktere (oder was auch immer hier 3D werden soll) plastisch angefertigt, so dass man auch hier noch einmal über Einzelheiten, wie Gesichtszüge oder auch die Schuppenform des Drachen diskutieren kann. Nicht selten ist es gerade bei Animationsfilmen so, dass die Gesichter/Köpfe sogar noch mal einzeln modelliert werden, da hier Details besonders wichtig sind.
Ja, und wenn wir das haben... Dann... Kommt noch immer nicht der Computer dran. Stattdessen widmen wir uns an der Stelle dann dem Storyboard. Das Storyboard ist ein farblich skizzierter Ablaufplan der Szenen, wo auch Bewegungen und die eigentliche Action geplant wird. Auch Realfilme haben sie und arbeiten diese bei effektlastigen Szenen meist stark aus, da diese Storyboards später die Grundlage für die Animation bilden werden.
Wenn man die Storyboards hat, fertigt man aus diesen Animatics an. Das sind animierte Storyboards. Grob gesagt: Man gibt die Storyboards hintereinander, um sich vorstellen zu können, wie die Bewegungen ablaufen sollen.
Und an dieser Stelle haben wir etwas, das so ein wenig vom Animationsstudio abhängt. Denn zumindest bei Dreamworks besteht zu diesem Zeitpunkt bereits eine Tonspur, da die Synchroaufnahmen größtenteils abgeschlossen sind. Warum? Nun, dazu komme ich später. Kommen wir nun zu dem Punkt, wo die Computer wichtig werden.
[Blockierte Grafik: http://i.minus.com/iMHJX6Dfc1Dlk.jpg]
Ein Stück Storyboard aus dem Kung Fu Panda Weihnachtsspecial.
2. Modellierung – Figuren erstellen
Ja, aber da wurde doch schon was modelliert!
Ja, das ist korrekt, doch von der Lehm-, Gips- oder Knetfigur hat der Computer soweit wenig. Denn nun muss dieser lernen, wie die Figuren aussehen. Nicht selten fangen wir hier aber mit den physischen Figuren an, die mithilfe eines 3D Scanners eingescannt werden, so dass die CG Modellierer schon einmal eine Grundlage haben, mit der sie arbeiten können. Denn nun wir eine feine, von der Oberfläche her schon recht Detailreiche Figur erstellt. Körper, Gesicht, Haare und Kleidung werden im Computer erstellt (ja, meist in dieser Reihenfolge) und man hat somit erst einmal eine in der Luft hängende, farblose 3D Figur – abhängig vom Studio inklusive oder exklusive Kleidung (denn auch hier: Manche ziehen ihre Figuren wirklich an, andere erschaffen Figuren ohne Haut unter der Kleidung ^^“)
Nun geht es aber nicht mit Farben weiter, sondern meist damit, erst einmal noch die Oberflächenstruktur des Charakters zu verfeinern. Hautunebenheiten oder die Drachenschuppen werden hier meistens extra noch erstellt. Auch so etwas wie Hautfalten oder die kleinen Härchen auf der Haut und dergleichen finden sich in diesem Arbeitsschritt (oder ein ganzes Stück später). Eventuell erhält nun auch der Computer schon einmal Informationen über die Materialien. Wo ist Haut, wo sind Haare, wo sind Stoffe usw., denn dies ist dann später interessant.
[Blockierte Grafik: http://i.minus.com/ibtNU2YJpU2A6V.jpg]
Charaktermodelle aus Madagascar und Kung Fu Panda.
Nun kommen wir zu den Texturen. Also den 2D Farbtexturen auf dem Modell. Hier bekommt der Charakter Haut- und Haarfarbe und auch die Kleidung wird eingefärbt, wobei das alles nicht so einfach ist – denn immerhin ist der Charakter ja ziemlich unförmig. Daher wird an dieser Stelle zuerst das Charaktermodell „aufgeklappt“ um eine UV-Map zu erstellen, auf der dann die 2D Texturen in massiger Kleinarbeit aufgetragen werden. Und hier ist dann auch der erste Punkt, wo man enorm merkt, wie viel Mühe sich gegeben wird: Denn wer auf seine Haut schaut, wird bemerken, dass diese nicht gleichmäßig gefärbt ist, dass dort Muttermale sind und an manchen Stellen Adern durch die Haut durchschimmern – und das ist etwas, das nur teilweise oder gar nicht in vielen Animationsfilmen beachtet wird. Obwohl das meiste davon etwas ist, dass sogar nur 2D ist (nun, gut, Adern heben sich meist auch 3D ab).
Zuletzt kommt dann das Rigging. Rigging bezeichnet man den Arbeitsschritt, der dem Charakter eigentlich Leben einhaucht, wenn man so will. Denn hier werden sämtliche Bewegungspunkte für die 3D Puppe vorgegeben. Eine Art Skelett wird in den Charakter gebaut und „Muskeln“ werden definiert, inklusive Bewegungsrichtungen und dergleichen. Und auch hier sieht man schnell, wie viel Arbeit in einer Figur steckt, da in vielen Filmen oftmals an Fingergelenken gespart wird und Muskeln, die sich eben auch unter der Haut bewegen und damit die Haut anspannen und dergleichen, außerhalb des Gesichts schnell vernachlässigt werden. Auch in wie weit und wie fein die Gesichtszüge geriggt sind, ist sehr unterschiedlich. Wobei das Gesicht nicht im klassischen Sinne geriggt wird, sondern meist einige Grundgesichtszüge ausmodelliert bekommt, mit denen dann über Morphing gearbeitet wird.
[Blockierte Grafik: http://i.minus.com/ibuJjgzzqv6fTA.jpg]
Der Charakter-Rig für Kitty aus Puss in Boots. :)
Doch wenn man diese Schritte durchlaufen hat, dann hat man eine fertige Figur, die man munter Bewegen kann, wie eine Puppe.
Und um es kurz zu sagen: Die 3D Modellierung von Landschaften sieht meistens sehr ähnlich aus – nur das viel mehr Copy-Pasting hier zu finden ist (wieso braucht man auch mehr als 10 Bäume für einen Wald, ne? ;D) und hier nicht selten mit Algorithmen gearbeitet wird.
3. Algorithmen
Zu den Algorithmen kommen wir auch gleich, denn diese sind ein wichtiger Punkt, bevor es mit der eigentlichen Animation losgeht. Denn Animationsfilme brauchen Algorithmen, wenn möglich sogar sehr viel davon.
Zur Erklärung: Algorithmen können viele einfache, alltägliche Bewegungen beschreiben, die so ein Animationsmitglied nicht unbedingt jedes Mal machen will oder überhaupt auch gar nicht machen kann. Sie Beschreiben diese Bewegungen.
Klassiker hier sind natürlich Kleidung und Haare, die sich nun einmal mit der eigentlichen Bewegung des Hauptcharakters mitbewegen und dabei bestimmte Verhaltensweisen an den Tag legen, die man mit hilfe einer mathematischen Formel beschreiben kann, über die der Computer dann die Bewegung von Kleidung und Haar berechnen kann – sofern Kleidung und Haare natürlich selbst genug Eigenschaftenwerte haben. Das ist auch ein Grund, warum Dreamworks Physiker angestellt hat und ab und zu Exkursionen zur NASA unternimmt ;)
Auch andere Algorithmen kann es bei Charakteren geben – zum Beispiel Algorithmen, die Gesichtszüge besser emulieren, also wirklich die vielen kleinen Bewegungen, die zu einem Lächeln gehören und den dazugehörigen Faltenwurf besser darstellen können, als der Animationsmensch es ohne Computerhilfe könnte.
Und zumindest Dreamworks erlaubt sich bei den Charakteren noch zwei andere grundlegende Algorithemen: Einen für die Augen, denn wenn ihr einmal einen Menschen beobachtet, so starrt dieser nicht, wie es Animationsfiguren oftmals machen, sondern hat immer Minikleine Bewegungen an den Augen, selbst wenn er fest auf einen Gegenstand schaut. Und einen weiteren für die Atmung der Charaktere. Denn bei Dreamworks atmen die Charaktere – immer, nicht nur wenn es gerade zur Dramatik beiträgt, dass die Charaktere außer Atmung sind. Dazu gehört ein Algorithmus, der eben die Atembewegung auf den Körper überträgt – der muss allerdings auch in der Animation später mit dem Synchronsprecher getimet werden, also davon abhängig eingesetzt werden, wann der Sprecher eine Pause macht ;)
[Blockierte Grafik: http://i.minus.com/iBbI5IhHGkGKT.jpg]
So sieht es aus, wenn der Computer den Sand vom Sandmann in Rise of the Guardians Simuliert.
Aber nicht nur da finden sich Algorithmen. Allgemein gibt es viel Algorithmen – auch in einem Arbeitsschritt, den ich schon angesprochen habe :P
Denn zum Beispiel können so Dinge, wie Tiefenstrukturen der Haut oder die kleinen Härchen darauf können auch mit Algorithmen beschrieben werden, so dass der Computer sie dann realistisch auf dem Körper verteilen kann.
Und ähnlich kommen Algorithmen auch bei der Landschaftsmodellierung zum Einsatz. Hier wird zum Beispiel geschaut, wie Grashalme rein rechnerisch auf einer Wiese verteilt sind, wie sich Sandpartikel bewegen oder wie es von Schneefall zu einer Schneedecke kommt – alles Dinge, die über Algorithmen simulierbar sind.
Ein Naturelement, dass übrigens vielen Animationsstudios nach wie vor noch Probleme bereitet, ist Wasser. Denn hier mit sehr viel mit Algorithmen angegeben werden. Die Bewegung, die Viskosität, die Stärke der Oberflächenreflektion und dergleichen. Daher ist Wasser ein komplexes Element. Doch auch Feuer und Eis können durchaus schwere Herausforderungen darstellen.
Und das ist einer der Gründe, warum bei Dreamworks und Pixar festangestellte Physiker arbeiten ;)
4. Die Animation
Die fertigen Figuren und die Algorithmen finden dann Anwendung in der eigentlichen Animation – zu der dann bei den meisten Studios wirklich die Sychronstimmen bereits stehen. Und jetzt kann ich euch auch erklären warum: Denn anders als bei 2D Animation, wo Sprechen letzten Endes auf Mund auf und zu hinausläuft, müssen Sprechbewegungen in 3D Komplexer sein, um im Film gut und glaubhaft auszusehen. Auch kommen hier dazugehörige Mimiken und Gesten mit rein – ein Grund, warum die Synchronsprecher auch bei ihren Aufnahmen gefilmt werden – die zum Sprechen dazugehören. Und auf diese Dinge muss die Animation abgestimmt werden, um das best mögliche Ergebnis zu erhalten (jedenfalls, sofern das Studio etwas darauf gibt).
Und natürlich werden hier auch alle anderen Bewegungen gemacht – teilweise eben durch Algorithemen unterstützt.
[Blockierte Grafik: http://i.minus.com/ibjPTgKhdUHvQF.jpg]
Die eigentliche Animation einer Szene aus Kung Fu Panda.
„Also macht das alles der Computer?“, werden jetzt einige (speziell aus der „3D Animation ist ja soooo lieblos!“ Fraktion) fragen. Und dazu kann ich nur sagen: Nein, das macht nicht der Computer. Ja, es kann durchaus sein, dass manche Bewegungen – auch so etwas wie laufen – durch Algorithmen unterstützt werden, aber das hat wenig mit Faulheit zu tun, sondern mit dem Wunsch ein sehr gutes Ergebnis zu erreichen und das geht teilweise dann besser, wenn man bereits einen Menschen beim Laufen aufgenommen und diese Bewegungen in Algorithmen umgewandelt hat. Aber selbst wenn wir eine grobe Laufbewegung vorgegeben haben, so wird auch diese noch mal von Animationsspezialisten überarbeitet, um eben so gut, wie es irgendwie geht auszusehen – zumindest, erneut, bei Studios, die auch wirklich ein gutes Ergebnis haben wollen.
Meist sind hier die Animationsteams nach Charakteren aufgeteilt und die Mitarbeiter der einzelnen Teams haben spezielle Schwerpunkte. Also die eine Gruppe im Team schaut dann, dass die Laufbewegungen des Charakters gut aussehen, eine andere Gruppe arbeitet mit Interaktionen mit der Umwelt, eine dritte Gruppe befasst sich dann rein mit Mimik und Gesichtsbewegungen... Und wenn das fertig ist, dann gibt es noch einmal die Animation Supervision für die jeweiligen Szenen, die dann noch mal auf das Gesamtzusammenspiel der Szene schaut.
Und die ganzen Szenen werden dann immer und immer wieder von Regie und Produzenten angeschaut, um über Dinge wie Farbwirkung im Hintergrund, Schnitte und Kameraführung zu entscheiden.
Und ja, da haben wir natürlich den einen großen Vorteil von 3D Animation gegenüber der 2D Animation: Bei der 3D Animation kann man sich trotz Storyboard am Ende eventuell noch einmal mit der Kamera umentscheiden, da man diese am digitalen Set noch nachträglich „umstellen“ kann.
Ist erst einmal die Hauptanimation fertig... Dann kommt die Nebenanimation. Dazu gehören Objekte, die sich im Hintergrund bewegen, Tiere und ähnliches, die im Hintergrund zu animieren sind, und nicht zuletzt natürlich die „Crowd“.
Als Crowd bezeichnet man Charaktergruppen, auf die kein besonderer Fokus liegt, sondern die dazu da sind den Hintergrund zu „bevölkern“. Die ganzen Namenlosen Fische, die bei „Findet Nemo“ durch den Hintergrund schwimmen, sind eine „Crowd“, die namenlosen Bürger von Metrocity in „Megamind“ sind eine „Crowd“ und das Wolfsrudel in „Kung Fu Panda 2“ ist größtenteils auch eine „Crowd“.
Crowds werden mit meist sehr ähnlichen Charaktermodellen animiert, denen bestimmte Bewegungssets gegeben werden, ehe sie dann vorrangig auch über Algorithmen bewegen dürfen – wobei es ein wenig von der Aufgabe der Crowd abhängig, wie viel davon noch einzeln „sauber animiert“ wird (die Wölfe bei KFP2 haben da ein wenig mehr Aufmerksamkeit bekommen, als die einfachen Bewohner von Gong Men City, da die Wölfe eben mehr zur Handlung beigetragen haben).
[Blockierte Grafik: http://i.minus.com/iXjRh31dHCpNH.jpg]
Die Crowd der Wölfe in KFP 2 in der fertigen Animation.
5. After Effects
„Mit der Animation sind wir dann ja fertig, ne?“ Nope, meine lieben, jetzt kommt noch viel mehr Spaß.
Denn wenn die eigentliche Animation auf ihren Umgebungsmodellen steht, dann kommen eben zusätzliche Effekte und natürlich nicht zuletzt auch noch so Späße, wie die Beleuchtung rein. Auch kann es sein, dass in dieser Phase noch an einigen Stellen 2D Animation eingefügt wird. Nicht zu vergessen, dass die Szenenübergänge geschnitten werden müssen und Matte Paintings zum Einsatz kommen.
Diese sind meist hier auch der erste Schritt für die Ausarbeitung der Szenenbilder. Denn wenn der Himmel nicht gerade (wie bei How to train your Dragon oder Rise of the Guardians) ein Objekt ist, mit dem interagiert wird, so wird hier meist ein Matte Painting eingesetzt: Also ein sehr detailliert gearbeitetes 2D Bild. Auch etwaige im Hintergrund herumstehende Bergketten, Wälder und dergleichen, sind in den meisten Fällen Matte Paintings.
Gerne auch werden Matte Paintings bei Szenenübergängen benutzt. Denn das Ein-mal-Eins der Cinematographie schreibt einmal vor, dass das bei Szenenübergängen dem Zuschauer klar gemacht werden sollte, wo er sich befindet, weshalb Gebäude erst einmal aus einer weiten Einstellung gezeigt werden, ehe wir zur Szene im Gebäude schneiden – als dummes Beispiel. Und solche Außeneinstellungen werden immer wieder gerne mit Matte Paintings gemacht oder zumindest verfeinert.
[Blockierte Grafik: http://i.minus.com/ibg9NcRwAp9daL.jpg]
Alles, bis auf den Vordergrund links am Rand ist in 2D gezeichnet!
Aber eine weitere, wichtige Sache in diesem Arbeitsschritt ist die Belichtung der Szenen, die während der Animation meist nur notdürftig gemacht wird und dort noch nicht in Hinblick auf spätere Atmosphäre ausgearbeitet wird. Hier werden dann Lichtquellen, Lichtfarbe und Lichtintensität definiert und noch einmal geschaut, wie das Licht mit den Figuren „interagiert“. Denn zwar werden am Anfang in der Planung Moodboards erstellt, doch ist gerade hier immer die Frage, ob bestimmte Farben noch genau so wirken, wenn sie in 3D sind, als vorher auf einem 2D – teilweise mit traditionellen Medien ausgearbeiteten – Standbild.
Auch Oberflächeneigenschaften in Bezug auf das Licht werden noch einmal kontrolliert. Sprich: Es wird (jedenfalls im Idealfall) darauf geachtet, ob auch nichts an der Figur (oder der Umgebung) zu stark reflektiert oder im Gegenteil Materialien zu matt wirken.
[Blockierte Grafik: http://i.minus.com/iboI09abOqAAqS.jpg]
Die fertige Beleuchtung von Puss in Boots.
Auch Zusatzeffekte kommen hier erst ins Spiel. Sprich: Jack Frosts Eismagie oder die Kanonenkugeln von Lord Shen sind Elemente, die größtenteils erst in diesem Schritt eingefügt werden und vorher nur Skizzenartig als grobe Modelle oder gar nur 2D Elemente existieren. Sollte Wasser in einigen Szenen eine wichtige Rolle Spielen, indem zum Beispiel die Charaktere mit Wasser interagieren, kommt auch diese Interaktion oftmals hier erst ins Spiel.
Ebenso wird hier der finale Schnitt der Szenen und die Finalen Kameraeinstellungen beschlossen – Dinge, die meist auch eine Regieentscheidung sind. :)
6. Rendern
„Renderzeit ist Arbeitszeit“ - na ja, oder so ähnlich. Denn wenn der Film an sich fertig ist... Dann erst werden die Szenen richtig gerendert. Denn vorher wurden die Szenen eventuell einzeln zu Demonstrationszwecken gerendert, aber meistens nur in groben Rendern, die schneller zu Erstellen sind, betrachtet.
Jetzt geht es aber daran, dass alles schön ausgerendert wird – also die Figuren in ihrer vollen Pracht im fertigen Film „ausmodelliert“ werden – da bisher der Film nur grobe Figuren die meiste Zeit benutzt hat.
Das macht vorrangig der Computer, aber auch hier muss alles überwacht werden. Denn wer schon einmal mit solchen Späßen gearbeitet hat, der weiß, dass Computer manchmal eigene Vorstellungen haben – und auf einmal ein Objekt, das im Hintergrund sein sollte, im Vordergrund realisieren weil... Nun, das weiß keiner so genau. 95%ige Chance: Der Computer hasst dich einfach.
Gerade auf kritische Objekte, die für den Computer schwer fertig zu berechnen sind – wie Haare, manche Stoffe oder eben auch Wasser – müssen hier in Hinblick auf die Modellierung überwacht werden und kosten außerdem dem Computer viel Zeit zu erarbeiten – selbst wenn man eine Renderfarm mit nahe endlosem Arbeitsspeicher und State of the Art Grafikkarten hat.
Doch wenn der Film erst einmal fertig gerendert ist... Dann ist zumindest das Bildmaterial fertig!
[Blockierte Grafik: http://i.minus.com/ibujqJwiw8dIYc.jpg]
Fertige Render mit allen Details
Zusatz: Probleme mit Effekten in gefilmten Filmen
[Blockierte Grafik: http://i.minus.com/iblINmKyCPshTZ.jpg]
[Blockierte Grafik: http://i.minus.com/i5pv1re6Q8gJc.jpg]
Schritt für Schritt vorgehen von einer Greenscreenaufnahme, über Animation bis zum Einfügen in den fertigen Film.
Hier am Beispiel von einer Szene aus Breaking Dawn Teil 2.Weil es hier ein schönes Making Off für gab.
Und an dieser Stelle kommen wir dann darauf zu sprechen, was für Dinge dann problematisch werden, wenn wir keinen komplett 3D Animierten Film, sondern einen Realfilm, der auch 3D Objekte implementiert, haben.
Denn auch wenn die Arbeitsschritte zum fertigen Effekt in etwa dieselben sind, wie die Schritte zum fertigen Computereffekt (und nur, damit wir hier auf derselben Seite sind: Ich rede hierbei vorrangig über so etwas wie einen Computergenerierten Hulk, einen Computergenerierten Smaug oder einen Troll gegen den Harry, Ron und Hermine kämpfen – weniger um Explosionen im Hintergrund) ähnlich sind, so müssen hier noch andere Dinge beachtet werden.
Wer meine Filmreviews verfolgt, wird in letzter Zeit permanente Beschwerden über die Effekte in den Filmen gehört haben und darüber, wie schlecht diese aussehen – außer bei Parcific Rim – und dass es echt enttäuschend sei und schlechter als früher.
Was viele dabei aber nicht verstehen, ist, dass ich dabei wirklich meine: „Die Effekte sind schlechter, als noch vor drei Jahren“ und nicht „Mimimi, früher war alles besser!“ Denn leider wird auf bestimmte Sachen bei den Effekten in letzter Zeit kaum noch geachtet.
Denn bei Effekten in Filmen gibt es vier Problematiken, die nicht immer ausreichend beachtet werden.
Zuerst – und der häufigste Fehler, den ich in letzter Zeit sehe – die Beleuchtung. Denn wenn man eine Figur oder einen Charakter in eine gefilmte Umgebung einfügt, so sitzt man natürlich vor einem Problem: Die Beleuchtung des digitalen Elementes muss mit der Set-Beleuchtung übereinstimmen. Und zwar ganz genau, denn sonst kann es sein, dass man einfach bewusst oder unbewusst bemerkt, dass da irgendetwas nicht stimmt. Und das gilt nicht nur, für die Lichtrichtung, sondern auch die Beleuchtungsart, die Lichtintensität und die Lichtfarbe. Das alles muss mit den Verhältnissen am Set übereinstimmen – und tut es leider in letzter Zeit recht selten.
Allerdings haben wir hier auch die Sache, warum Hulk in Avengers besser aussieht, als eine Himmelsschlange und Gollum im Hobbit zehntausend Mal besser, als Smaug: In diesen Fällen war der jeweilige Schauspieler selbst am Set – nur mit Motion Capturing Technik. Aber so können sich die CGI Fachkräfte später daran orientieren, wie das Licht auf den realen Schauspieler fällt, und können daran arbeiten.
Das zweite Problem ist schlicht und ergreifend die Güte der Render und Modelle. Denn natürlich müssen diese einen gewissen natürlichen Detailgrad haben, der realistisch erscheint, um gut zu wirken. Leder braucht halt Tiefe und genau dasselbe gilt für Drachenschuppen. Ebenso nenne ich hier gleich einmal noch die Farbgebung und allgemeinen Texturen mit – denn diese müssen eben auch mit dem übereinstimmen, was eventuell noch zu sehen ist.
Kurz gesagt: Der Hulk im ersten neuen Hulk-Film hatte keine Hautstruktur und keine richtige Hauttextur – deswegen war er leicht als Computergeneriertes Element zu erkennen. Ebenso lassen sich die Transformer in den Michael Bay Filmen schnell als solche entlarven, weil ihre Oberfläche zu unrealistisch glatt und glänzend ist – und dabei auf eine ganz andere Art glänzt, als die realen Autos, die eventuell so drumherum stehen.
Dann kommen wir auf etwas, dass vielleicht nicht jeder direkt sieht: Die Schärfe der Render.
Denn ja, hier kann man in beide Richtungen Fehler machen: Man kann zu scharf und zu detailreich ausrendern, aber eben natürlich auch zu unscharf. Denn die Bildschärfe der Render und deren Ränder müssen mit der Umgebung best möglich übereinstimmen. Also anders gesagt: Gollum muss sich genau so scharf oder unscharf vom Hintergrund abheben, wie es Frodo und Sam tun. Und eventuell Computergenerierte Dunkelelfen sollten eigentlich ebenso scharf vor dem Hintergrund zu sehen sein, wie Thor und Loki.
Und hierbei ist das ganze auch anders herum der Fall: Denn wir alle kennen ja auch den Greenscreen über den dann die Schauspieler in ein Computergeneriertes Set geschnitten werden können. Und auch hier haben wir einfach dasselbe – nur umgekehrt und mit dem Zusatz dass hier dann das digitale Set so ausgeleuchtet sein muss, wie die nachträglich eingefügten Elementen, und digitale Elemente genau so scharf sein müssen, wie die realen...
Und zuletzt dann die Frage für das geübte Auge – das ich leider habe. Das ist eher ein Pet-Pew, für den alleine ich die Effekte nicht verurteilen werde, dennoch gehört es auch zum guten Effekt hinzu: Die Farbsättigung und Abstufung.
Wer ein wenig mit Photoshop rumspielt weiß: Verschiedene Bilder haben dahingehend verschiedene Grundwerte. Nicht nur bei Sättigung und Abstufung, sondern auch Gamma-Werte und Farbgewichtung.
Und nun ist es nun einmal so: Wer ein Auge dafür hat, sieht, wenn die Sättigung, Farbabstufung und die Gamma-Werte des 3D Elements anders sind, als die der Umgebung.
Leider habe ich ein Auge dafür... Seit ich eine ewig lange Doku darüber gesehen habe, wie man bei FdK3 darauf geachtet hat, dass alles anzupassen und dazu Bilder mit Minimalunterschieden in den Gamma-Werten dort gezeigt hat.
Ein Nachwort:
Was ich an dieser Stelle noch einmal erwähnen möchte, ist einfach: Nein, 3D Animation ist nicht Lieblos und nicht „einfach dahingematscht“ nach dem Motto „der Computer macht das schon“. In 3D Animation steckt massig Arbeit und weit mehr Arbeitsschritte, als es bei 2D Animation der Fall ist. Nein, dass soll nicht sagen, dass 2D Animation schlechter ist, nur, dass diese sicherlich nicht aufwendiger ist, als Animation in 3D. Immerhin steht 3D Animation immer vor der Herausforderung ein komplettes Szenario, inklusive Licht und Farben, glaubhaft neu zu erstellen!
Und bevor dazu jemand etwas in den Kommentaren sagt: Ja, ich bringe sehr häufig Beispiele zu Dreamworks. Das liegt vorrangig daran, dass ich zu Dreamworks sehr viel weiß und einfach eben durch Making Ofs und dadurch, dass ich beinahe jeden Film mit Audio-Kommentar geschaut habe, und dergleichen weiß, wie sie bei der Produktion ihrer Filme vorgehen – besser, als ich es von den anderen Studios weiß. Daher hier die Beispiele.
Zuletzt noch ein Angebot: Ich hatte überlegt mal ein „So nicht, sondern so“ Eintrag zu machen, mit Gegenüberstellungen von guten Beispielen für die einzelnen Arbeitsschritte und Merkmale, und eben schlechten Gegenbeispielen zu machen, um das ganze ein wenig graphischer zu erklären. Wenn daran Interesse besteht, setze ich mich mal daran, eine Zusammenstellung zu erarbeiten. :)