BlogPhotogrammetrie – eine faszinierende Methode, um 3D Objekte zu erzeugen

Photogrammetrie – eine faszinierende Methode, um 3D Objekte zu erzeugen

Am Beispiel einer kleinen Statue beschreiben wir die Prozesse, die mit aktuellen Softwarelösungen photogrammetrisch zu ansehnlichen Ergebnissen führen.

In den zahlreichen Seminaren zum Thema CGI (Computer Generated Imagery), die wir für verschiedene Softwarelösungen wie Cinema 4D, Blender, Maya, 3Ds Max, Modo etc. anbieten, wird immer wieder deutlich, dass es oft die gleichen Themenbereiche sind, die den Teilnehmern einiges abverlangen. 3D macht man nun mal nicht im Vorbeigehen. Neben dem richtigen Setzen und Justieren von Licht und dem sinnvollen Definieren von Materialität ist es auch immer das Modelling, das die Newcomer herausfordert. 3D lebt natürlich von seinen Inhalten und die müssen nun mal irgendwie erzeugt werden. Man kann Modelle kaufen, sie selbst modellieren oder – und das ist spannend – sie aus Fotos erzeugen.

Photogrammetrie – die Softwaretools

Photogrammmetrie heiß die Technik, die aufgrund
ausgefuchster Algorithmen aus Fotos ein 3D Modell erzeugt.

Am Beispiel von 3DF Zephyr, eine Photogrammetrie- und
3D-Modellierungssoftware, möchten wir erklären, wie ein Workflow aussehen kann. Es gibt auf dem Markt natürlich noch weitere Applikationen, die hier helfen können. Meshroom oder Megascan, um nur zwei Wichtige zu nennen.

In unserem Beispiel ist es eine kleine unscheinbare Büste es Pharaos Tutanchamun, die für weitere Einsatzzwecke digitalisiert werden soll.

Fotografieren des zu digitalisierenden Objekts

Hilfreich ist eine Hohlkehle, die möglichst knitterfrei sein sollte (hier im Beispiel eine weiße PVC Folie). Ein Turntable erleichtert das Rundherum-Fotografieren und ausgedruckte Marker helfen der Software die Pixel von einem Foto im nächsten wiederzufinden. Es müssen keine bestimmten Marker sein. Wahllose QR-Codes würden auch schon funktionieren. Die Software muss lediglich ermitteln können, wo die Kamera bei der Aufnahme gestanden hat.

Die kleine Tutanchamun-Büste reflektiert viel Licht aufgrund
ihrer eher lackartigen Oberfläche. Dies sorgt beim Fotografieren dafür, dass sich unschöne Glanzlichter auf der Oberfläche bilden. Diese würden später zu nicht gewollten Irritationen im Scan führen. Hier schaffen Polfilter und/oder ein Mattierungsspray Abhilfe. Am Besten sind natürlich gar keine Glanzlichter bei dennoch perfekter Ausleuchtung.

Hier helfen Polfilter auf dem Objektiv und Polfilter vor den
Lichtern (Kreuzpolarisation). Die LED-Scheinwerfer oder Blitzer werden mit Polfilterfolien gerichtet. Der Polfilter auf der Kamera kann das gerichteteLicht dann filtern. Glanzlicht – Ade.

Es werden ein paar duzend Fotos erstellt die das Objekt von allen Seiten und aus verschiedenen Höhen zeigen.

Photogrammetrie – der Workflow in der Software

In der Software werden die Fotos analysiert. Die Exif-Daten
aus den Bildern werden extrahiert. Somit weiß die Software mit welchen
Brennweiten die Kamera gearbeitet hat. Die Pixel werden getrackt und es ergibt sich nach einem Prozess, dessen Feintuning über gute oder schlechte Qualität des Scanings entscheidet, eine Punktwolke die das Objekt bereits erahnen lässt.

Diese Dense-Cloud (Punktwolke) wird nun mit Filtern und
Masken „gereinigt“. Punkte die nicht gewollt sind, fliegen raus bevor das
eigentliche Mesh erzeugt wird.

Der nächste Schritt erzeugt aus der Punktwolke eine polygonales Gitter (Mesh). Das ist eigentlich schon unser 3D-Modell – nur ohne Textur. Auch hier sind Einstellungen zu treffen, die über die Qualität
entscheiden.

Der letzte Schritt ist das Baking der Textur. Hier wird also nun die Textur erzeugt. Damit haben wir, wenn alles gut gelaufen ist, ein sehr detailliertes Modell aus unseren Fotos extrahiert. Sehr detailliert ist hier übrigens wörtlich zu nehmen, denn das Modell umfasst nicht selten einige Millionen Polygone.

Die Software 3DF Zephyr bring bereits einige Werkzeuge mit,
um die Polyanzahl zu reduzieren. Da wir aber Profis sind und unseren
Seminar-Teilnehmern keine halben Sachen zeigen, ist der Optimierungsprozess doch etwas feingliedriger.

Mit verschiedenen Tools (in unserem Beispiel: Cinema 4D,
Instand Meshes und xNormals) wird nicht nur ein nutzbares Mesh erzeugt, sondern das Highpoly-Modell dient auch als Hilfsmittel, um für das reduzierte Mesh eine passgenaue Textur mit Displacement-Map und Normal-Map zu backen.

Nach diesen Prozessen ist ein hochdetailliertes Modell mit wenigen Polygonen auch bereit für Realtime-Grafik in Unity oder Unreal.

Soll das photogrammetrierte Objekt mit verschiedenen Modelling Tools weiterbearbeitet werden, ist es wünschenswert, dass die Mesh-Struktur sauber ist. Hier hilft eine Retopologisierung mit z.B. Instant Meshes, um aus den erzeugten Dreiecken wieder sauberer Quads zu machen.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Schulungen die dich interessieren könnten

Bewertungen

Kundenstimme
Lucas F.
Fa. Feld Textil GmbH
star-participantstar-participantstar-participantstar-participantstar-participant
Kann man nur weiterempfehlen! In kürzestem Zeitraum lernt man alle Basisdaten konkret und ausführlich.
Kundenstimme
Thomas M.
Aldi GmbH & Co. KG
star-participantstar-participantstar-participantstar-participantstar-participant
Lernen in einem sehr entspannten und angenehmen Klima. Prima!
Kundenstimme
Michael W.
Ernst & Young Retail Services GmbH
star-participantstar-participantstar-participantstar-participantstar-participant
Ich fühlte mich in diesem Seminar hervorragend betreut. Es war sehr praxisorientiert und anschaulich.
Kundenstimme
Torsten B.
Westdeutscher Rundfunk WDR
star-participantstar-participantstar-participantstar-participantstar-participant
Das Seminar hat nicht nur Spaß gemacht, sondern auch wirklich 'ne Menge gebracht :-)