Automatisierte Bild- und Videoauswertung von Drohnendaten für BOS

Unsere Technologien für Behörden und Organisationen mit Sicherheitsaufgaben (BOS)

Ausgangssituation

Die Lageerkundung und Gefahrenabschätzung ist die erste Maßnahme in jedem Einsatz der Feuerwehr, Polizei und Rettungskräfte. Bei größeren und unübersichtlichen Lagen bieten sich dafür Drohnen an. Sie sind mittlerweile bei vielen Behörden und Organisationen mit Sicherheitsaufgaben (BOS) ein etabliertes Einsatzmittel. Neben der Lageerkundung und -fortschreibung sind Drohnen auch für diverse weitere Einsatzszenarien geeignet: Überwachung kritischer Infrastruktur (z.B. Deiche), Erkennung von Änderungen bei Ausbreitung von Bränden oder bei Flüssigkeitsausbreitung auf Gewässern, Suche nach Glutnestern, Personensuche, Tiersuche sowie Einsatzdokumentation.

Problemstellung

Bilder und Videos von Drohnen werden dazu von Bildauswertern begutachtet, anschließend werden die Informationen aufbereitet und an die Einsatzleitung (EL) weitergegeben. Sowohl die Bildauswerter als auch die EL müssen in kürzester Zeit viele Informationen verarbeiten, wodurch im Einsatz ein Flaschenhals entsteht. Leider wird das Potential der automatisierten verfahrensgestützten Live-Auswertung des Videostroms und der dazugehörigen Metadaten (wie z.B. Kamera-Position und Orientierung) aktuell kaum ausgenutzt, so dass sich die Nutzung der Drohne vielfach auf das pure Betrachten des Videobildes reduziert, d.h. die Drohne wird als eine in der Luft hängende Kamera verwendet.

Lösungen

Am Fraunhofer IOSB forschen wir langjährig an diversen Verfahren zur automatisierten Sensordatenauswertung. Unsere Kompetenz erstreckt sich von einfachen bis zu hochkomplexen Verfahren der Bild- und Videoauswertung, angefangen mit Bildqualitätsverbesserung und Bildteppicherstellung bis hin zu Objekterkennung und Aktivitätsanalyse mit den neuesten Verfahren der Künstlicher Intelligenz (KI). Durch Auswertung der Telemetriedaten kann jedem Bildpixel und jeder Detektion eine reale Geokoordinate zugeordnet werden. Dadurch können die in den Sensordaten detektierten Objekte oder Ereignisse geografisch verortet und live in einer Lagekarte dargestellt werden.
Die meisten der Verfahren sind echtzeitfähig. Die Ergebnisse können also live begutachtet und verwertet werden.

Beispiele für Auswerteverfahren im BOS-Kontext

Drohnenbild bei Dämmerung und Nebel: Original und nach Bildverbesserung.
© Fraunhofer IOSB
Drohnenbild bei Dämmerung und Nebel. Original und nach Bildverbesserung.

Bildqualitätsverbesserung

Bei widrigen Sichtverhältnissen können durch einige Verfahren der Bildverarbeitung drastische Verbesserungen der Wahrnehmung der Bildinhalte erreicht werden. Beispiele für solche Verfahren sind Histogrammspreizung, Rauschunterdrückung und Superresolution. Beim letzten Verfahren werden mehrere schlecht aufgelöste, kontrastschwache oder verrauschte Bilder zu einem verbesserten, kontrastgestärkten Einzelbild zusammengefügt.

© Fraunhofer IOSB / Johanniter RV Unterfranken
Übersichtsbild einer Einsatzstelle generiert durch das Mosaikierungsverfahren.

Übersichtsbilder

Mit Hilfe von Mosaikierungsverfahren werden mehrere Bilder einer Bildsequenz zu einem Bildteppich (Bildmosaik) zusammengesetzt. Dabei erhält man eine Übersicht über die abgeflogene Umgebung.

© Fraunhofer IOSB
Detektionen bei widrigen Sichtverhältnissen .
© Fraunhofer IOSB
Detektion und Klassifikation von Personen und Fahrzeugen TIR-Bild

Entdecken, Klassifizieren und Verfolgen relevanter Objekte in Videodaten mit Hilfe von KI

Ein Training mit passenden Trainingsdaten vorausgesetzt, können sog. Deep-Learning-Verfahren dazu genutzt werden, ermüdungsfrei relevante Objekte in Videostrom zu entdecken, zu klassifizieren und zu verfolgen, auch bei schlechten Sichtverhältnissen. Dadurch können Drohneneinsätze wesentlich effizienter und deutlich weniger belastend gestaltet werden.

Neben den RGB- und Thermalkameras können Drohnen auch andere Nutzlasten (Payloads) tragen, z.B. Multispektralkameras, Laserscanner und Radare – einzeln oder im Verbund. Damit können viele weitere Use Cases abgedeckt werden, wie z.B.

  • Personensuche, Tiersuche
  • Detektion von Glutnestern
  • Drohnendetektion
  • Oberflächenbeschaffenheit
  • Zustand der Vegetation
  • 3D-Rekonstruktion, Höhenabschätzung etc.
Verortung von erkannten und klassifizierten Objekten in einer Lagekarte. Klassifizierung: BOS (hell- und dunkelblau), zivil (grün) und liegende Personen (rot).
© Fraunhofer IOSB / Johanniter RV Unterfranken
Verortung von erkannten und klassifizierten Objekten in einer Lagekarte. Klassifizierung: BOS (hell- und dunkelblau), zivil (grün) und liegende Personen (rot).

Geolokalisierung von Objektdetektionen und Darstellung der Detektionen in einer Lagekarte

Durch Auswertung der Telemetriedaten kann jedem Bildpixel und jeder Detektion eine reale Geokoordinate zugeordnet werden. Dadurch können die in den Sensordaten detektierten Objekte oder Ereignisse geografisch verortet und live in einer Lagekarte dargestellt werden.

Heatmap-Darstellung einer Verdichtung von Personen im Zugangsbereich auf einer Großveranstaltung. Bild in Kooperation mit dem Johanniter RV München.
© Fraunhofer IOSB / Johanniter RV München
Heatmap-Darstellung einer Verdichtung von Personen im Zugangsbereich auf einer Großveranstaltung.

Personenzählung und Personendichteschätzung bei Massenveranstaltungen

Mit KI-Methoden ist es möglich, in Drohnenbildern die Personenzahl sowie die Personendichte zu schätzen und anschaulich darzustellen, z.B. in Form einer sog. Heatmap. Damit können gefährliche Situationen auf Großveranstaltungen, wie z.B. Festivals oder Konzerten schnell erkannt werden.

Das Videoauswertesystem ABUL (Automatisierte Bildauswertung für Unbemannte Luftfahrzeuge). Im unteren Bildbereich ist die Videoplayer-Leiste sowie die interaktive Timeline zu sehen.
© Fraunhofer IOSB
Das Videoauswertesystem ABUL (Automatisierte Bildauswertung für Unbemannte Luftfahrzeuge). Im unteren Bildbereich ist die Videoplayer-Leiste sowie die interaktive Timeline zu sehen.

Möglichkeit der Navigation im Video unabhängig von der laufenden Live-Aufnahme

Während der Betrachtung eines Live-Streams ist es möglich zu beliebigen Zeitpunkten in der Vergangenheit zu springen und diese nochmal zu betrachten. Hierzu wird bei Aufnahme bzw. Abspielen eines Videostreams eine interaktive Timeline aufgebaut. Mit Hilfe eines Gleiters ist es möglich, im Video zu navigieren. Auch erweiterte Wiedergabe-Funktionen wie Einzelbildweiterschaltung, verlangsamte Wiedergabe (Zeitlupe) oder beschleunigte Wiedergabe (Zeitraffer) sowie Sprung zurück zum Livestream sind eingebaut.

Zudem existiert die Möglichkeit einzelne Zeitpunkte und Zeitintervalle zu markieren. Diese können direkt angesprungen werden. Einzelne Videobilder und Bildsequenzen können direkt exportiert oder zur weiteren Nachauswertung und Annotation verwendet werden.

Ausblick

Die hier aufgezeigten Beispiele sollen nur einige Inspirationen liefern, was automatisierte Sensordatenauswertung bei BOS-Drohneneinsätzen leisten kann. Insbesondere möchten wir an dieser Stelle an die Projekte IDEAL und DRUM verweisen. Um unsere Lösungen genau auf BOS-Bedürfnisse anzupassen, sind wir vom Fraunhofer IOSB immer auf der Suche nach Projektpartnern – sprechen Sie uns an!

Verwandte Projekte

 

IDEALIntelligente Drohnenbasierte Einsatzunterstützung für BOS durch Automatisierung der Lageerkundung

  • Use Cases „Personensuche“ sowie „Lageerfassung beim Massenanfall Verletzter Personen (MANV)“
  • Erkennung relevanter Objekte und Ereignisse
  • Verortung und Darstellung in der Lagekarte
 

DRUMDrohnenbasierte Unterstützung der BOS bei Massenveranstaltungen

  • Live-Abschätzung der Personenzahl und Personendichte in einem Drohnenbild
  • Erkennung und geografische Verortung gefährlicher Verdichtungen sowie akustischer Ereignisse (Schuss- und Schreigeräusche)
  • Darstellung in der Lagekarte
 

ABULAutomatisierte Bildauswertung für Unbemannte Luftfahrzeuge

  • Integrationsplattform für die entwickelten Verfahren
  • Live-Videoauswertung und Offline-Nachauswertung
  • Videodatenbank mit Suchfunktionen basierend auf Video-Metadaten
 

SIRIOS - Fraunhofer-Zentrum für die Sicherheit Sozio-Technischer Systeme

  • Digitalisierung der Sicherheit und Schutz von kritischen Infrastrukturen
  • Lageaufklärung, Kommunikation und Einsatzführung
  • Virtuelle Planung und Begleitung von Großveranstaltungen
 

Crowd Monitoring

Unterstützung der Einsatzkräften (z. B. Polizei, Feuerwehr, private Sicherheitsunternehmen) und Veranstaltern mittels Videoauswertung und Lagedarstellung.

 

Weitere Projekte der Abteilung VID

Sie wollen mehr Projekte und Produkte im Bereich »Videoauswertesysteme« kennenlernen? Dann besuchen Sie die Projektseite unserer Abteilung VID und informieren Sie sich.

 

 

Interesse an einer Kooperation?

Sie haben Interesse an einer Kooperation mit unserer Abteilung oder Fragen zu unseren aktuellen Forschungsthemen? Dann nehmen Sie Kontakt zu uns auf!