Geländedaten in 3D zu visualisieren ist nicht nur ein Werkzeug zur aktuellen Darstellung und Planung von Objekten, wie bei unseren Landschaftspark-Projekten, sondern ebenso eine Möglichkeit in die Vergangenheit zu blicken.

2016 begannen wir an einem Projekt in Süditalien zu arbeiten. Zusammen mit Studierenden im Rahmen ihrer Abschlussarbeitenhaben haben sich u.a. unsere Kollegin Nicole Spiske-Salamanek sowie Jens Rothe (ZBG) Mauerreste vermessen, die einst zu einer antiken lukanischen Siedlung gehörten. Unser Labor hat sich damit beschäftigt, sowohl den aktuellen Stand in 3D zu visualisieren als auch mögliche historische Versionen zu rekonstruieren.

Damals fand der Wechsel von der reinen Render-Software Terragen hin zur Echtzeit-Spiele-Engine Unreal statt.

Terragen hatte den Vorteil, sehr realistische Landschaften zu entwerfen. Die Software wird sehr gerne für Hintergründe in Filmen verwendet und kann charmanterweise direkt mit realen Geländedaten umgehen sowie Koordinaten aus beispielsweise Satellitenbildern auslesen. Außerdem geht die Modellierung größerer Landschaften mit Terragen schneller von der Hand. Spiele-Engines sind eher darauf ausgelegt, dass jeder Quadratmeter von einem Level-Designer gestaltet wird. Geländemodelle lassen sich als Graustufenbild auch hier einladen, Echtwelt-Koordinaten kennt die Software jedoch nicht mehr.

Trotzdem ging der Schritt in die richtige Richtung. In einer in Echtzeit bearbeitbaren Welt, die ebenfalls Bilder in sehr hoher Qualität produziert, lassen sich deutlich einfacher diverse Ideen direkt in Zusammenarbeit mit den Archäolog*innen testen und umsetzen. Als Endprodukt entsteht somit nicht nur Bild- und Videomaterial, sondern beispielsweise eine spielerisch erfahrbare archäologische Simulation, die es Laien wie Experten ermöglicht, (vorher ausgestaltete) Konzepte durchzuspielen.

Tutorial Geländemodelle

Wir haben ein Video darüber erstellt wie reale Geländemodelle in die Unreal Engine eingeladen und mit einem Satellitenbild texturiert werden können. Dabei nutzen wir frei verfügbare LIDAR Daten aus dem brandenburgischen Rheinsberg.

Um nicht nur die Immersion zu steigern, sondern auch die Interaktion mit der virtuellen Welt zu vereinfachen, bietet sich der Schritt in die Virtuelle Realität an. Grafisch nicht viel anders, wird der Blickwinkel jetzt direkt in die Augen der virtuellen Figur verlegt. Die Navigation erfolgt nun nicht mehr unbedingt über Maus&Tastatur oder das Gamepad. Der Nutzer bzw. die Nutzerin zeigt vielmehr in die Richtung, in die er oder sie sich bewegen möchte und fliegt dort hin. Im kleinen Radius kann sich sogar in der virtuellen Welt bewegt werden, indem einfach ein Schritt in die entsprechende Richtung gemacht wird. Neben der Navigation wird auch die Interaktion einfacher. Die Controller sind so gebaut, dass ein Zugreifen mit den realen Händen halbwegs automatisch dazu führt, dass durch das Drücken entsprechender Knöpfe Objekte in der Nähe gegriffen werden können. Zum Betrachten müssen keine Tasten betätigt werden, der Nutzer/die Nutzerin kann so interagieren, wie er oder sie es in der realen Welt tun würde.

Natürlich erfordert auch dies eine vorhergehende Aufarbeitung der Ausgangsdaten. Vasen müssen gescannt, Gelände modelliert und die Navigation angelegt werden. Für eine Ausstellung oder die Präsentation für Fachkolleg*innen, die sich weniger mit der 3D-Technik auseinandersetzen als vor allem die Forschungsergebnisse betrachten wollen, lohnt dieser Aufwand aber allemal.

Durch die Kolleg*innen des Labor für Photogrammetrie, die seit 2009 in die Türkei reisen, um eine archäologische Grabungsstätte detailliert zu erfassen, war das Labor für Geomedien in der Lage, die 3D-Modelle in die Virtuelle Realität zu versetzen und als gemeinsames Projekt auf der Langen Nacht der Wissenschaften 2019 zu präsentieren. Auch hierfür wurde die Unreal Engine genutzt. Als Ausgabemedium stand eine Oculus Rift zur Verfügung, bei der uns besonders die natürliche Griffhaltung gefiel. Mit TP-Cast gibt es dazu eine tadellos funktionierende Erweiterung, welche die Brille kabellos mit dem PC verbindet. Alternativ wäre für die gleiche Aufgabe natürlich auch die HTC Vive denkbar, die es ebenfalls mit kabellos-Adapter auf dem Markt gibt.

Als Sahnehäubchen produzierten wir einen 3D-Druck des unterirdischen Ganges.

In den nächsten Schritten wird es um die Skalierbarkeit solcher Projekte gehen. Momentan wird für die Darstellung ein Rechner mit leistungsfähiger Grafikkarte benötigt. Erste Experimente zeigen, dass auch mobile Brillen wie die Oculus Quest in der Lage sind, 3D-Modelle mit einigen wenigen Millionen Polygonen flüssig darzustellen. Diese Brillen kommen komplett ohne PC aus, verfügen aber trotzdem über genügend Sensoren, um dem Betrachter alle Freiheitsgrade zu lassen und werden lediglich von einem Smartphoneprozessor angetrieben. Von dort weitergedacht geht es zu den Web-Darstellungen, die vor allem kleine Datenmengen erfordern.

Tutorial: VR App für die Quest 2 mit der Unreal Engine 5 entwickeln

Die Unreal Engine (5) ermöglicht es Anwendungen für Virtual Reality Brillen zu entwickeln. Um diese auf eine mobile Brille zu bringen, die in keiner Weise mehr mit dem PC verbunden ist, muss das Unreal Projekt als Android Anwendung ausgegeben werden.

Dieses Tutorial zeigt alle Schritte, die dafür notwendig sind. Im Verlauf werden wir Android Studio und Visual Studio installieren, Unreal konfigurieren und die Quest (2) in den Entwicklermodus versetzen, um die App darauf zu installieren.

Wegen der schnell fortschreitenden Entwicklung dieser Art Programme, sei der Stand des Videos erwähnt: August 2022.