Filtern
Erscheinungsjahr
- (1)
- 2017 (1)
Dokumenttyp
- Bericht (2) (entfernen)
Schlagworte
- Automatisch (2) (entfernen)
Als Grundlage des Forschungsprojektes FE 02.0378/2014/CGB „Analyse von Straßenbestandsobjekten aus Laserpunktwolken durch Mustererkennung/Objekterkennung einschließlich der Georeferenzierung“ wurden Messdaten der Mobile Mapping Fahrzeuge IRIS5 und IRIS12 der Firma LEHMANN+PARTNER GmbH (LP) eingesetzt. Die georeferenzierten Punktwolken entstanden mit Hilfe eines an den Fahrzeugen montierten CPS Laserscanners vom Projektpartner, dem Fraunhofer Institut für Physikalische Messtechnik, IPM, Freiburg. Die Aufgabe des Forschungsprojektes bestand in der Erforschung von Methoden und Algorithmen zur automatisierten Mustererkennung von speziellen Objekten in dreidimensionalen Punktwolken. Die ausschließliche Analyse bzw. Extraktion von Objekten auf Grundlage der reinen Punktwolke erwies sich am Anfang des Projektes als nicht zielführend. Größter limitierender Faktor war die mit der Entfernung zunehmende Dichteverringerung in den Daten der Punktwolken. Dies führte zum Teil zu unterrepräsentativen Abbildungen von kleinen oder schmalen Objekten. Um dieses Defizit auszugleichen, wurden die georeferenzierten Bilddaten der Mobile Mapping Fahrzeuge als Analysehilfe verwendet. Die Bilddaten weisen ein vielfach höheres Auslösungsvermögen im Vergleich zur Punkwolke auf. Zur Analyse der Daten kamen verschieden Neuronale Netze zum Einsatz, die zunächst die Bildinformationen analysierten. Nach der Trainingsphase des Neuronalen Netzes wurden Objekte einer messtechnischen Aufnahme (Scene) detektiert. Durch die georeferenzierten Bilddaten konnten alle automatisch gefundenen Objektinformationen in die Punktwolke übertragen werden. Hierbei wurde eine weitaus größere Diversität der Extraktionsergebnisse als mit der Analyse der reinen Punktwolke erzielt. Die finale Lösung der automatischen Extraktion bestand in der Projektion der einzelnen Objekte vom Neuronalen Netz in die Punktwolke. Dadurch, dass jedes Objekt mehrfach in jeder Bildszene erfasst wurde, besitzt jeder Laserscanner Punkt mehrere automatisch generierte Objektlable. Mit Hilfe von Clusteranalysen und Mehrheitsentscheidungen konnte die Ausgangspunktwolke in einzelne Objekte vollautomatisch zerlegt werden. Für die Verwendung in einem GIS oder für die OKSTRA konforme Speicherung mussten die Daten weiter aufbereitet werden. Hierzu wurden die einzelnen Objektklassen einer Repräsentationsklasse zugeordnet, sodass eine eindeutige Darstellung in einem GIS erfolgen konnte. Zur Kontrolle und Validierung der Extraktionsergebnisse wurde eine unbekannte Teststecke (Rundkurs bei Köln-Rösrath) aufgenommen. Die Digitalisierung jedes Referenzobjektes erfolgte manuell. Der Vergleich der Objekte erfolgte aufgrund Lage, Ausprägung und Objekttyp. Hierbei stellte es sich heraus, dass insgesamt 66% der Objekte komplett oder teilweise extrahiert werden konnten. Nur 4% der automatisch detektierten Flächenobjekte konnte im Referenzdatensatz nicht gefunden werden. Bestes Extraktionsergebnis lieferte der Objekttyp „Markierungslinien“ mit 90% Übereinstimmung mit dem Referenzdatensatz auf dem Testabschnitt der BAB. Zuordnungsdefizite kamen hauptsächlich aus den Label-Zuordnungsfehlern, die sich zum Teil aus der Abbildungsgeometrie schmaler und kleiner Objekte in der Punktwolke ergaben. An dieser Stelle besteht noch erhebliches Potential zur Verbesserung der Extraktionsergebnisse, welche im Rahmen dieser Forschungsarbeit nicht weiter optimiert werden konnte. Das Forschungsvorhaben zeigte, dass aus einer Punktwolke unter Zuhilfenahme von georeferenzierten Bildern der gleichen Szene vollautomatisch Objekte zu extrahieren sind. Im Ergebnis liegen georeferenzierte Objekte, die in einem Geoinformationssystem abgebildet werden können, vor.
Die Schwerpunkte dieses Projekts lagen in der Untersuchung der Fahrerverfügbarkeit und Müdigkeit sowie in der Herstellung natürlichen Verhaltens bei längeren hochautomatisierten Fahrten. Es konnte im Rahmen von zwei Fahrsimulationsversuchen mit 15 und 42 Probanden gezeigt werden, dass bei hochautomatisierten Fahrten von 60 Minuten Müdigkeit auftreten kann, bei Ausprägung und Zeitpunkt des Auftretens jedoch große individuelle Unterschiede bestehen. Da eine zu kleine Stichprobe sich zum Zeitpunkt der Übernahme in einem entsprechend müden Zustand befand, kann die Auswirkung von Müdigkeit auf das Übernahmeverhalten nicht abschließend beurteilt werden. Hierfür empfehlen sich für die Zukunft Studien mit einem zustandsabhängigen Versuchsdesign. Der Einsatz von natürlichen fahrfremden Tätigkeiten, mit denen die Probanden sich frei beschäftigen durften, zeigte sowohl in der Probandstudie im Fahrsimulator als auch bei einem Expertenworkshop im Realfahrzeug eine hohe Involviertheit der Probanden in die Tätigkeiten während der gesamten 60 Minuten hochautomatisierten Fahrens. Es wird vermutet, dass dies auf die hohe intrinsische Motivation und den hohen Unterhaltungswert der selbstgewählten Aktivitäten zurückzuführen ist. Es zeigte sich außerdem, dass die Wahl der Tätigkeit vom Alter der Probanden abhängig ist. Eine Fahrtdauer von 60 Minuten wurde aufgrund der Ergebnisse aus allen drei Versuchen als realistisches Zukunftsszenario eingestuft und besitzt daher eine hohe Relevanz. Sowohl für die Bewertung von Müdigkeit als auch von Ablenkung war das Blickverhalten am meisten aufschlussreich. Für die Bewertung von Müdigkeit während der Beschäftigung mit fahrfremden Tätigkeiten wird jedoch ein kopfbasiertes Blickerfassungssystem, welches in der Lage ist, den Augenöffnungsgrad zu erfassen, oder videobasierte Verhaltensbeobachtung empfohlen.