Home | deutsch  | Legals | Data Protection | KIT

Flying Augmented Reality

Flying Augmented Reality
contact:

Dr.-Ing. Volker Koch

funding:

Startup Förderung des KIT

Partner:

Dr. Sebastian Ritterbusch
Engineering Mathematics and  Computing Lab
Dr. Andreas Kopmann
Institut für Prozessdatenverarbeitung und Elektronik

Outdoor Flying Augmented Reality Anwendungen in städtebaulichen Planungssituationen

Flying Augmented Reality

AR-1
AR Planungsszenario
AR-2
AR Wartungsszenario

Ausgangssituation
In Augmented Reality (AR) Anwendungen werden virtuelle Objekte in reale Szenerien eingebunden, mit ihnen kombiniert und visuell dargestellt. Bei Anwendungen der AR im Aussenbereich werden dazu Ort, Ausrichtung und Neigung der Aufnahmeeinheit durch GPS und die Auswertung von Lage-, Neigungs- und Beschleunigungssensoren bestimmt. Durch die ubiquitäre Verfügbarkeit von Datendiensten und die weite Verbreitung von leistungsfähigen mobilen Endgeräten (z.B. Smartphones) haben sich in jüngster Zeit vielversprechende Anwendungsbereiche der AR entwickelt. Diese Anwendungen konzentrieren sich auf die Bereitstellung von ortsgebundenen Serviceleistungen (Location Based Services) kommerzieller Dienstleister und auf die Erweiterung der Leistungsfähigkeit sozialer Netzwerke. Die Potentiale der AR werden dagegen noch nicht in der Planung und Bewirtschaftung von Gebäudebeständen eingesetzt, obwohl genau hier der Zugriff auf gebäuderelevante Informationen und deren Kombination mit der gebauten Umwelt zu deutlichen Verbesserungen der Informationsqualität für verschiedene Nutzergruppen beitragen kann. Eine weitere Einschränkung besteht derzeit darin, dass die kombinierte Visualisierung von semantischen und realen Informationen auf die konventionellen Bewegungsräume von Menschen reduziert bleibt und in Stadträumen keine freie Bewegung in allen drei Dimensionen möglich ist.
Projektbeschreibung
Das Startup Projekt realisiert ein Anwendungsszenario, welches die Potentiale der AR in der Gebäudeplanung- und bewirtschaftung effektiv umsetzt. Dazu werden im Stadtraum eindeutig identifizierbare Markierungen gesetzt und durch Quadkopter in einer Höhe von bis zu 50 Meter beflogen. In diesem Aktionsrahmen können für den Großteil innerstädtischer Quartiere nahezu beliebige Betrachtungspositionen eingenommen werden und der in Echtzeit übertragene Videostream durch die Überlagerung der realen Welt mit planungsrelevanten Informationen ergänzt werden.
Eine große Herausforderung ist hierbei aber die genaue Echtzeit-Verortung der Bilder auf Basis der ungenauen Sensor- und Bilddaten und die darauf angepasste Darstellung der Planungen oder Simulationen in das Kamerabild. In diesem Anschubprojekt werden durch die interdisziplinäre Zusammenarbeit von Bauinformatik, Elektronik und angewandter Mathematik die unmittelbaren Anforderungen der Gebäudeplanung und Visualisierung durch die innovative Verwendung handelsüblicher programmierbarer Flugeinheiten, mobilen Markierungseinheiten, mit  mathematisch aufbereiteten Sensordaten und angepasste Visualisierungstechniken realisiert.
Vorgehensweise
Das Projekt setzt sich aus drei Arbeitspaketen zusammen:

  • verbesserte Bestimmung der Flugposition zur Verortung der Bilder und absoluten Positionierung des Fluggeräts zum Abruf bestimmter Blickwinkel
  • Aufbau elektrischer UV-LED Markereinheiten zur Positionierungsunterstützung
  • Klassifizierung und Darstellungsoptionen bei der graphischen Integration der virtuellen Objekte

Programmierbare Quad- oder Octocopter liefern im Flug neben Livebildern auch Ortsinformation durch Orientierungssensoren und Bildanalyse. Durch die Verwendung von  schnell reagierenden Sensoren ist die absolute Ortsauflösung in direkter Verwendung ungeeignet. Die den Geräten mitgelieferten Bildanalyse-Funktionen erlauben durch die Verwendung positionierter Marker rudimentäre Visualisierungsmöglichkeiten, sind aber für die absolute Positionierung des Fluggeräts ebenso ungeeignet. Durch die Kombination der Bildanalyse, vom Boden und Livestream, sowie der zeitabhängigen Auswertung der Sensoren können durch mathematische Modellierung und Optimierung eine genaue Verortung realisiert werden.
Herkömmliche Software zur Darstellung von Gebäudemodellen und Simulationsergebnissen sind nicht für die Echtzeit-Einbettung der Daten in ein Kamerabild vorgesehen. Die Daten werden in portable Dateiformate exportiert und durch eine zu entwickelnde prototypische Steuerungs- und Visualisierungs-Software unter Verwendung der Bilddaten und optimierten Verortung dargestellt, sowie die Drone angesteuert.
Das Projekt soll im Rahmen der Anschubphase aufgrund der ausdrücklich experimentellen und visionären Ausrichtung und Aktualität in Presse und Medien maßgeblich von Studierenden und Doktoranden unter der Mithilfe der Antragsteller durchgeführt werden. Das Projekt steht unter Einbeziehung von Campus Nord und Süd im Zentrum der Kompetenzfelder „Bauwerke und urbane Infrastruktur“, „Algorithmen, Software und Informatiksysteme“ und „Mathematische Modelle“ aus den Kompetenzbereichen „Erde und Umwelt“ und „Information, Kommunikation und Organisation“ und fördert unmittelbar deren Vernetzung.