Anpassung an den Klimawandel, Umstellung der Energieversorgung, Erprobung neuer Verkehrskonzepte oder die Bewegung hin zu einer ressourcenschonenderen Stadt- und Landentwicklung – das sind nur einige der Herausforderungen, denen sich Entscheider in Politik und Verwaltung heute stellen müssen, um aktuelle Prozesse nachhaltiger zu gestalten.
Die angesprochenen Themenbereiche sind jeweils für sich genommen sehr umfassend und komplex, können aber kaum voneinander losgelöst betrachtet werden. Um diese Herausforderung zu bewältigen, spielen Geoinformationssysteme (GIS) eine entscheidende Rolle, da sie eine Plattform bieten, um unterschiedlichste Arten von Daten unter Berücksichtigung ihres geografischen Kontexts miteinander zu verknüpfen und zu analysieren.
Der geografische Kontext wird unter anderem durch bildbasierte Geodaten geliefert, die als Referenz für die Darstellung, Herleitung und Analyse von geografischen Informationen dienen. War die Bereitstellung dieser Art von Geodaten lange Zeit ein zeit- und kostenaufwändiger Prozess, der in mehrjährigen Zyklen erfolgte, so steht dem heute eine deutlich gestiegene Nachfrage nach immer aktuelleren und detaillierteren bildbasierten Geoprodukten gegenüber. Diese Nachfrage wird befeuert durch die aktuellen Möglichkeiten, insbesondere Bild- und LiDAR Daten mit den unterschiedlichsten Sensoren effizient und im Vergleich zu früher auch signifikant kostengünstiger zu erfassen.
Diese Entwicklung verlangt nach einer neuen Art und Weise, wie wir die mit Drohnen, Luftbildkameras oder Satelliten erfassten räumlichen Daten schnell und zuverlässig verarbeiten und zugänglich machen.
Esri hat für genau diese Anforderungen eine neue Produktfamilie entwickelt: ArcGIS Reality. Diese beinhaltet ein Set Photogrammetrie-basierter Werkzeuge zum Generieren multidimensionaler Geoprodukte wie True Ortho Mosaiken, Oberflächenmodellen (DSM), Punktwolken und texturierten 3D-Meshes, die im Nachfolgenden näher erläutert werden:
DSM und True Ortho
Digital Surface Models (DSMs) – im Deutschen auch bildbasierte Digitale Oberflächenmodelle (bDOMs) – und True Orthos können mit ArcGIS Reality in einem voll automatischen Prozess erzeugt werden. Grundlage beider Produkte ist eine bildbasierte, sehr dichte Punktwolke, die aus der Stereoüberdeckung benachbarter, sich überlappender Bilder extrahiert wird.
Aus dieser Punktwolke wird ein Oberflächenmodell abgeleitet, in dem jeder Rasterpunkt XY jeweils mit einem Z-Wert verknüpft ist, der den höchsten Punkt repräsentiert. So wird eine pixelgenaue Oberflächenrekonstruktion ermöglicht. Oberflächenmodelle eignen sich hervorragend zur Ableitung von Eigenschaften wie (Hang-)Neigung, Neigungsrichtung zur Sonne, Ausbreitungspotential von Schall, Wind oder Funkwellen, Fließrichtung u.v.m.
Im nachfolgenden Beispiel (Abb. 1) wurden aus einem mit ArcGIS Reality erzeugten Oberflächenmodell Solarpotentialflächen im städtischen Bereich abgeleitet. Das Ergebnis und die zu diesem Zweck verwendeten Gebäudeumringe wurden anschließend visuell ansprechend und einfach nachvollziehbar auf einem photorealistischen 3D Mesh dargestellt:


Durch intelligente Texturierung der einzelnen Rasterpunkte eines Oberflächenmodells wird in ArcGIS Reality unmittelbar ein True Orthophoto abgeleitet. Die geometrisch akkurate Darstellung von Objekten aus einer von oben nach unten senkrecht ausgerichteten Perspektive ohne Umklappungseffekt macht ein True Orthophoto ideal geeignet, um Veränderungen im Laufe der Zeit automatisiert zu ermitteln.


Beispiel für die Nutzung von True Orthos war deren Einsatz für die genaue und schnelle Ermittlung der Flutschäden in Slowenien, die durch die Starkregen-Wetterlagen im Sommer 2023 verursacht wurden (Abb. 2).
Die im True Ortho vorhandene Bildinformation ermöglicht zudem eine Auswertung mittels Klassifizierungsverfahren, die in Kombination mit der pixelgenauen Geometrie Rückschlüsse auf unterschiedlichste Arten von Oberflächennutzung als auch den Zustand der Oberflächen zulassen. In diesem Kontext können zum Beispiel 2D Gebäudeumringe extrahiert werden. Diese können anschaulich und ohne weitere Bearbeitung im 3D Mesh visualisiert werden, wie Abb. 3 zeigt.
Auswertungen und Analysen bilden allerdings nur einen Anwendungsbereich für bildbasierte Geodaten. Andere liegen in der Vermittlung von Kontext, der anschaulichen Visualisierung verschiedener Datentypen und dem einfachen Zugänglichmachen von Geoinformation für unterschiedlichste Interessengruppen.


3D Mesh
Die zuletzt genannten Aspekte werden auf optimale Weise durch 3D Meshes addressiert. Sie zeichnen sich durch genaue Geometrie, hohen Detailreichtum und Photorealismus aus und sind damit als 3D Produkt einfach zu interpretieren und zu navigieren. Damit eröffnet sich die Möglichkeit, die Zusammenarbeit zwischen verschiedenen Fachgruppen, aber auch mit Bürgerinnen und Bürgern oder sonstigen extern Beteiligten zu fördern. Zudem wird aufgrund der einfachen Verständlichkeit und Realitätsnähe der Modelle die Entscheidungsfindung signifikant erleichtert.
Nachfolgende Beispiele illustrieren das Potential, gerade auch im Hinblick auf die eingangs genannten Themengebiete der nachhaltigen Stadtentwicklung und Möglichkeiten der Anpassung an den Klimawandel:
Durch einfache visuelle Modifizierung des Meshes können 3D Architekturmodelle in der tatsächlichen Umgebung evaluiert werden, um Ausrichtung, Platzierung im Verhältnis zur Nachbarschaft, Einfluss auf Windschneisen, Sonnenschatten und Ähnliches zu optimieren (Abb. 4).

Simulationsergebnisse, in Abb. 5 für ein Starkregenereignis, können im Zusammenspiel mit einem 3D Mesh und 2D Gebäudeumringen anschaulich präsentiert werden, sodass Katastrophenschutz, Anwohnende, Versichernde und andere Interessenten unmittelbar, unkompliziert und schnell betroffene Areale identifizieren und vorausschauend Maßnahmen dafür ableiten können.

Auch Analysen werden im 3D Mesh möglich, etwa die Messung von Gebäudehöhen und Flächen, die Analyse von Schattenverläufen und -dauern, Sichtbarkeitsanalysen oder die Ableitung von Oberflächenprofilen.
Die ArcGIS Reality Produktsuite
ArcGIS Reality bietet als Produktsuite die Möglichkeit, die vorgestellten Produkte nach der Datenerfassung vollautomatisiert und skalierbar zu erzeugen.
Dafür stehen Usern vier Applikationen aus der ArcGIS Reality Produktfamilie zur Verfügung. Diese sind auf die jeweiligen Anforderungen abgestimmt, die sich aus der verwendeten Sensorplattform für die Bildaufnahmen, der Projektgröße und der verfügbaren Prozessierungsumgebung ergeben (Abb. 6).

So eignen sich für Vor-Ort- bzw. Objektaufnahmen via Drohnenbefliegung insbesondere ArcGIS Drone2Map oder SiteScan for ArcGIS. Während Ersteres eine desktopbasierte Anwendung ist, wird Letzteres als „Software as a Service“-Option angeboten, die u. a. auch Funktionalitäten zum Flottenmanagement beinhaltet.
Sobald ganze Städte oder Landkreise mit Luftbilddaten erfasst werden, kommen üblicherweise metrische Luftbildkameras zum Einsatz, die aus einem Flugzeug heraus betrieben werden. Dies können ausschließlich senkrecht nach unten aufnehmende Nadir-Sensoren, aber auch Multikopf-Systeme (Oblique-Kameras) sein, die zusätzlich vertikale Strukturen optimal erfassen. Für die Verarbeitung dieser Art von Daten ist mit ArcGIS Reality Studio eine spezialisierte Anwendung verfügbar. Dabei handelt es sich um eine desktopbasierte Software, die einfach skaliert werden kann, um die mit solchen Projekten verbundenen Datenmengen effizient zu verarbeiten.
Für User, die eher mit kleinen bis mittleren Projektgrößen zu tun haben und nicht speziell auf eine Sensorplattform festgelegt sind, empfiehlt sich die Reality Extension für ArcGIS Pro. Diese wird direkt aus der bekannten ArcGIS Pro Umgebung heraus betrieben, wodurch sich eine Auswertung und Analyse der mit ArcGIS Reality generierten bildbasierten Geodaten direkt anschließen kann.
ArcGIS Reality Workflow
Eine Gemeinsamkeit aller ArcGIS Reality Applikationen ist der generelle Workflow, um von den ursprünglich erfassten Bilddaten zu den im vorigen Abschnitt beschriebenen Produkten zu gelangen. Dieser umfasst im Wesentlichen drei Arbeitsschritte:
- Projektdefinition
- Übergabe der Bilder, der Bildposition zum Zeitpunkt der Aufnahme und der Informationen zu den Spezifikationen des Sensors
- Übergabe weiterer Metadaten wie Passpunkte oder Projektumringe
- Verbesserung der Bildpositionen
- Automatischer Workflow zur Verbesserung der Genauigkeit der übergebenen Bildposition mit Unterstützung von manuell im Bild gemessenen Passpunkten
- 2D / 3D Rekonstruktion
- Aufsetzen und Ausführen des Rekonstruktions-Projektes, in dem mittels photogrammetrischer Prozessierungsverfahren TrueOrthos, DSMs (bDOM), 3D Punktwolken und texturierte Meshes ausgegeben werden (Abb. 7)
ArcGIS Reality hat sich zum Ziel gesetzt, diesen Workflow effizient, einfach und mit nachweisbarer geometrischer Genauigkeit umzusetzen, sodass die damit erzeugten Ergebnisse verlässliche bildbasierte Geobasislayer darstellen, die als Grundlage für 2D- und insbesondere auch 3D-GIS-Anwendungen dienen können.


Abb. 7: Produkte der 2D / 3D Rekonstruktion in ArcGIS Reality. Oben: bDOM (als Punktwolke und Raster) und True Ortho. Unten: 3D Mesh.



