Qualität von on-trip Verkehrsinformationen im Straßenverkehr : BASt-Kolloquium 23. und 24.03.2011
(2011)
Am 23. und 24. März 2011 veranstaltete die Bundesanstalt fuer Straßenwesen ein, um die Ergebnisse der erwähnten Projekte und Initiativen präsentieren zu lassen und mit anderen Experten zu diskutieren. Der vorliegende Tagungsband fasst die Ergebnisse des Kolloquiums zur "Qualität von on-trip Verkehrsinformationen" zusammen. Die Bereitstellung von Verkehrsinformationen ist geprägt von vielen Akteuren. Die Wertschöpfungskette beginnt bei der Sammlung grundlegender Verkehrsdaten zur Erstellung von Verkehrsinformationen und setzt sich mit der Datenverarbeitung und -interpretation bis hin zur Meldungserstellung fort. Die Weitergabe kann über verschiedene Übertragungsmedien erfolgen und beim Nutzer (z.B. im Navigationsgerät) empfangen werden. Jeder einzelne Schritt der Wertschoepfungskette kann sowohl von unterschiedlichen Partnern (privat oder öffentlich) übernommen werden als auch in der Hand eines Partners liegen. Diese Komplexität der Zusammenarbeit spiegelt sich demzufolge auch in Qualitätsmanagementprozessen wider. Im Rahmen des Kolloquiums wurden zwei wesentliche Qualitätsaspekte näher betrachtet: - die Datenqualität mit dem Focus auf Aktualitaet, Stimmigkeit der Daten verglichen mit einer gemessenen Realitaet sowohl zu Beginn der Wertschöpfungskette als auch an jeglichen Schnittstellen, - die Prozessqualität, welche sich insbesondere mit der reibungslosen Datenübergabe an den Schnittstellen der Wertschoepfungskette beschäftigt. Beide Qualitätsaspekte helfen zu verstehen, worin die heutigen Qualitätsprobleme bestehen und welche Massnahmen im Einzelnen ergriffen werden müssten, um eine nachhaltige Verbesserung zu erreichen. Einerseits kann es vorkommen, dass die Information über ein Verkehrsereignis an einer oder mehreren Stellen der Wertschöpfungskette korrekt vorliegt, jedoch durch ungenuegende technische oder organisatorische Schnittstellen im Prozessablauf wieder verloren geht und dem Nutzer folglich nicht zur Verfügung steht. Prominentes Beispiel eines solchen Problems in der Prozessqualität ist die fehlerhafte Interpretation der Meldung im Navigationsgerät, denkbar sind solche Informationsverluste jedoch an jeder Stelle der Wertschoepfungskette. Eine wichtige Massnahme zur Verbesserung der Prozessqualität ist die Standardisierung sowie die Überprüfung, ob die definierten Standards an jeder Stelle der Wertschöpfungskette eingehalten werden. Andererseits kann es vorkommen, dass die Datenqualität in Bezug auf ihre Genauigkeit von Anfang an so schlecht ist, dass der Nutzer eine fehlerhafte oder gar keine Nachricht übermittelt bekommt. Beispiel hierfür ist die Vielzahl von Stauereignissen, die entweder nicht gesendet wurden oder gesendet wurden, obwohl sie nicht vorhanden waren. Eine wichtige Massnahme zur Verbesserung dieser Situation ist die Verbesserung der Ereignisdetektion. Der Tagungsband enthaelt Präsentationen, die den Status Quo analysieren, Methoden zur verbesserten Datenerfassung vorschlagen und Möglichkeiten zur Verbesserung von Daten- und Prozessqualität vorstellen. Offen geblieben sind darüber hinaus folgende Fragestellungen: - Wie kann die Prozessqualität der gesamten Wertschöpfungskette bei der Vielzahl der Partner kontrolliert werden? Wer überwacht die Wertschöpfungskette? Wird hierfuer überhaupt eine zentrale Stelle benötigt? Oder ist es ausreichend, wenn jeder Partner eine angemessene Eingangs bzw. Ausgangskontrolle durchführt? - Obwohl es nur eine Realität gibt, entsteht doch Wettbewerb über die (Qualität der) Information zu dieser Realität. Wie kann Konsistenz zwischen allen Anbietern von sicherheitsrelevanten Informationen erreicht werden? Wo sollte der Wettbewerb enden und wie kann dies technisch, organisatorisch und wirtschaftlich realisiert werden? - Welche Prozesse sollten geschaffen werden, um Partner zu integrieren, die sich nicht an geschaffene Qualitätsstandards halten (z.B. kommerzielle Diensteanbieter, die nicht mit der Verkehrsinformationsszene vernetzt sind)? - Und nicht zuletzt, wie kann die Wahrnehmung des Nutzers über verschiedene Qualitätslevel unterschiedlicher Produkte verbessert werden? Ist der Nutzer in der Lage, die unterschiedlichen Qualitätsstufen von Verkehrssystemen zu unterscheiden? Falls nicht, welche Art von Unterstuetzung braucht der Kunde? Ein "European Information Services Assessment Programme" vergleichbar zu Euro NCAP für Fahrzeuge? Die Ergebnisse des Kolloquiums sollen die laufende Diskussion um die Verbesserung der Qualität von Verkehrsinformationen unterstützen.
Im Rahmen dieses Projekts wurde eine Überführung des mittels XMI definierten Datenaustauschstandards OKSTRA zur Beschreibung von Daten des Straßenwesens in eine Repräsentation auf Basis der Ontology Web Language (OWL) realisiert. Dadurch stehen nun Methoden und Techniken des Semantic Web auch für OKSTRA-Datensätze zur Verfügung. Insbesondere ist im Sinne des Linked Data Ansatzes die Verknüpfung mit Datensätzen anderer Schemata bzw. Domänen möglich. Dies kann u.a. durch Nutzung der Anfragesprache SPARQL zur integrativen Analyse der Daten der verschiedenen Ontologien erfolgen. Wie im Zuge von Fallstudien gezeigt werden konnte, können auf diese Weise beispielsweise Daten der niederländischen Straßen-Ontologie CB-NL/RWS mit OKSTRA-Daten zusammen abgefragt und analysiert werden. Dadurch lassen sich eine Reihe von grenzüberschreitenden Anwendungsszenarien realisieren, wie z.B. die Planung von Schwerlasttransporten. Andere Anwendungen von Linked Data im Straßenwesen liegen in der intergierten Analyse von 3D-Stadtmodellen im Format CityGML mit OKSTRA-Daten oder der Verknüpfung von Bestands- mit Entwurfsdaten des OKSTRA-Formats. Besonderes Potential ergibt sich durch die Nutzung räumlicher Operatoren, die durch die Anfragesprache GeoSPARQL zur Verfügung gestellt werden. Damit können Verbindungen zwischen Objekten verschiedener Datenmodelle anhand ihres geographischen Kontextes hergstellt werden. Für die Überführung von OKSTRA in okstraOWL standen eine Vielzahl unterschiedlicher Abbildungsoptionen zur Verfügung, deren jeweiligen Vor- und Nachteile im Bericht ausführlich dargelegt wurden. Bestimmte Eigenheiten des OKSTRA-Standards wie beispielsweise die sog. Fachbedeutungslisten erschweren zwar das Mapping, grundsätzlich ist aber eine Semantik-wahrende Überführung möglich. Der durchgängige Einsatz von Beschreibungsformaten (RDF) und Abfragesprachen (SPARQL) sowohl für Schema- als auch für Instanzdaten über alle Fachmodelle hinweg stellt einen bedeutenden Vorteil gegenüber anderen Ansätzen wie bspw. Programmierschnittstellen (APIs, Webservices etc.) dar. In anderen heterogenen Informationsverbünden müssen meist format-, syntax- und strukturspezifische Adapter, Konverter und Schnittstellen für die Ursprungssysteme erstellt werden, die sich nicht einheitlich verarbeiten lassen. Dagegen kann die Bereitstellung vorhandener Information in Form von RDF einheitlich erfolgen und mithilfe von Triplestores bzw. Graphdatenbanken mit universell standardisierten Abfrageschnittstellen (SPARQL) effizient verarbeitet werden, ohne sich mit den jeweiligen Systemdetails kleinteilig auseinander setzen zu müssen. Obgleich Linked Data Funktionalitäten mit der Definition von okstraOWL nun prinzipiell zur Verfügung stehen, hat sich im Zuge des Projekts (insbesondere bei der Arbeit mit realen Datensätzen) jedoch herausgestellt, dass die eigentliche Herausforderung bei der Verknüpfung verschiedener Ontologien in der unterschiedlichen semantischen Struktur und Granularität der verschiedenen Datenmodelle liegt. Auch Methoden des semiautomatischen Matchings anhand textueller Übereinstimmungen können hier nur bedingt unterstützend wirken. Stattdessen ist es erforderlich, dass der Nutzer der Abfragemechanismen Detailkenntnisse zur Semantik und Struktur der beteiligten Ontologien besitzt und anhand dessen und unter Berücksichtigung des zu erzielenden Abfrageergebnisses implizite bzw. manuelle Verknüpfungen herstellt. Die durchgehende, ggf. europaweite Nutzung von Straßeninformationsbanken erfordert daher trotz der Verfügbarkeit der Semantic Web und Linked Data Technologien eine prinzipielle Harmonisierung der Datenstrukturen insbesondere in Hinblick auf die die semantische Struktur und Granularität.
Die Forderung nach eindeutiger Konstruierbarkeit ist Voraussetzung für die Einheitlichkeit und Darstellungsqualität von Verkehrszeichenbildern. Die eindeutige Konstruierbarkeit war in der Vergangenheit nicht gegeben. Mit der Digitalisierung der Schriftzeichen nach DIN 1451, Teil 2, wurden eindeutige Konstruktionsvorschriften geschaffen. Durch den Einsatz rechnergesteuerter Schneidemaschinen in der Verkehrszeichenproduktion können Bildelemente automatisch geschnitten werden. Die Digitalisierung der Verkehrszeichen ist Ausgang für den Einsatz der EDV. Drei wichtige Verfahren der Datenverarbeitung mit dem Ziel digitalisierter Bilder werden vorgestellt. Vor allem die Digitalisierung durch geometrische Berechnung der Umgrenzungslinien von Darstellungen hat sich als besonders einfaches Verfahren für die spätere Praxisanwendung erwiesen. Das Verfahren wird näher beschrieben und seine Vorteile aufgezeigt. Mit der DIN 1451 in Verbindung mit den "Richtlinien für die wegweisende Beschilderung auf Autobahnen" (RWBA 1982) wird die Digitalisierung insbesondere bei der Planung und Beschriftung der Autobahnwegweisung industrieseitig angewendet.
An die Lichtsignalsteuerung richten sich hohe Qualitätsanforderungen, da ihr für einen sicheren und flüssigen Verkehrsablauf im Straßennetz eine wichtige Rolle zukommt. Um eine hohe Qualität der Lichtsignalsteuerung auch im wachsenden Altbestand von Anlagen zu gewährleisten, liegt es nahe, eine regelmäßige, systematische Überprüfung vorzunehmen, um Mängel frühzeitig erkennen und beheben zu können. Ziel des Forschungsvorhabens war es, eine aufwandsoptimierte Verfahrensweise und die notwendigen Hilfsmittel für ein systematisches Qualitätsmanagement für Lichtsignalanlagen (LSA) zu entwickeln. Hierzu wurde zunächst die Lichtsignalsteuerung als Gegenstand des Qualitätsmanagements eingehend erörtert. Auf dieser Grundlage wurden Verfahrensweisen und EDV-gestützte Hilfsmittel entwickelt, mit denen die Güte des Verkehrsablaufs und die Verkehrssicherheit im Straßennetz und an einzelnen Knotenpunkten mit geringem Aufwand überprüft werden kann. Zur Qualitätsbewertung werden Unfalldaten, Prozessdaten und Betriebsdaten analysiert sowie der Verkehrsablauf vor Ort beobachtet. Der Aufbau einer Wissensbasis diente dazu, den Kenntnisstand zu Möglichkeiten der Qualitätsverbesserung an Lichtsignalanlagen für die Anwendung verfügbar zu machen. Hierin sind typische Qualitätsmaengel an Lichtsignalanlagen mit Möglichkeiten der Abhilfe verknüpft. Ferner sind Prüfbedingungen der Eignung und Umsetzbarkeit der Maßnahmen hinterlegt. Mit Hilfe dieses Expertensystems können Maßnahmen identifiziert und bewertet werden. Die Anwendung des Verfahrens an verschiedenen Knotenpunkten zeigt, dass der systematische und modulare Aufbau gut geeignet ist, aussagekräftige Informationen zur Qualität der Lichtsignalsteuerung zu erlangen und geeignete Maßnahmen zur Qualitätsverbesserung zu identifizieren. Das Verfahren kann mit geringem Aufwand durchgeführt werden und kann daher einen Beitrag für die verbreitete Anwendung des Qualitätsmanagements für Lichtsignalanlagen leisten.
Erhebungen am Unfallort
(1983)
Der Bericht einer Projektgruppe bei der Bundesanstalt für Straßenwesen beschreibt einleitend das Projekt "Unfallerhebung Hannover (uh)". Weitere Spezialerhebungen aus dem Bereich der empirischen Unfallforschung werden beispielhaft dargestellt und mit der Unfallerhebung Hannover verglichen. Der Vergleich dient der Herausarbeitung spezieller Eigenschaften und Möglichkeiten dieses Projektes und der Beurteilung der Aussagefähigkeit des gewonnenen Datenmaterials. Unter Berücksichtigung bereits vorhandener Daten aus anderen Erhebungen und des Datenbedarfs der Unfallforschung wird die Notwendigkeit von Erhebungen am Unfallort erörtert und alternative Konzepte hierfür entwickelt. Abschließend wird eine neue nutzungsorientierte Konzeption für ein zukünftiges Projekt zur Datengewinnung durch Erhebung am Unfallort vorgeschlagen.
Der Datenbestand der amtlichen Straßenverkehrsunfallstatistik wurde unter Verwendung von bereits vorhandenen und zum Teil angepassten Statistikprogrammsystemen für Sonderauswertungen zugängig gemacht. Der Ausgangszustand des Datenmaterials wird im einzelnen beschrieben (Aufbau und Inhalt; Feststellung des Datenumfangs; Überprüfung auf Vollständigkeit und Plausibilität; Güte des Datenmaterials). Anschließend wird die Entwicklung des Stammbandes geschildert. Bei der Entwicklung mussten in Anbetracht des großen Datenumfangs die Daten komprimiert und in eine andere Struktur umgesetzt werden. Anschließend wird über die Auswertung der Stammbänder berichtet (Auswertung mit dem Programmsystem SPSS; Auswertungen mit Hilfe weiterer Programme aus der mathematischen Statistik - vorgesehene Möglichkeiten; Selektion von Stammbandsätzen). Die Auswertungsschritte wurden von umfangreichen kontrollarbeiten begleitet, die kurz geschildert werden. - Im umfangreichen Anhang finden sich unter anderem: Schlüsselanweisung für die Straßenverkehrsunfallstatistik, Beispiele und Erläuterungen zu den Prüfprogrammen, Übersicht über den Umfang fehlerhafter Eintragungen zu den verschiedenen Merkmalen in den Ausgangsdaten, Aufbau und Inhalt der Stammbänder.
Den bisherigen Richtlinien zu Verkehrserhebungen ist gemeinsam, dass sie - wenn überhaupt - nur sehr wenige Aussagen zur erreichbaren Datenqualität enthalten. Normative Vorgaben und konkrete Handlungsanweisungen, die zu einer Verbesserung der Datenqualität von Erhebungen führen, fehlen in der Regel für die meisten Erhebungsverfahren. Abgesehen von Einzelaspekten wie beispielsweise den Kernelementen für Haushaltsbefragungen zum Verkehrsverhalten gibt es keine Qualitätsstandards für die Konzipierung, Durchführung und Auswertung einer Verkehrserhebung. Ziel der vorliegenden Studie ist es, mit Blick auf verschiedene Datennutzer und Arten der Datenverwendung wissenschaftlich abgesicherte Qualitätsstandards für Verkehrserhebungen zu erarbeiten. Im Kern sollten Hinweise gegeben werden, durch welche konkreten methodischen Ansätze und praktische Maßnahmen man für die unterschiedlichen Erhebungsverfahren im Verkehrswesen (Zählungen, Messungen, Verhaltensbeobachtungen und Befragungen) die jeweils bestmögliche Datenqualität erreichen kann. Die Ergebnisse dieses Projektes sollen darüber hinaus auch als eine Grundlage für die Fortschreibung der neuen "Empfehlungen für Verkehrserhebungen (EVE)" dienen. Im Kapitel 2 wird zur Schaffung eines geeigneten theoretischen Rahmens nach einer allgemeinen, an den Ansätzen des Qualitätsmanagements orientierten Definition von Datenqualität zunächst ein umfassendes Datenqualitätskonzept dargestellt, welches im Bereich der amtlichen Statistik auf europäischer Ebene entwickelt worden ist. Kapitel 3 stellt wichtige verkehrswissenschaftliche Grundlagen der vorliegenden Untersuchung zusammen. Ausgangspunkt ist eine allgemeine Charakterisierung von Verkehrserhebungen. In Kapitel 4 wird der konzeptuelle Rahmen für die Ermittlung von Standards der Datenqualität dargestellt. Hierzu werden allgemeine Indikatoren der Datenqualität auf Verkehrserhebungen übertragen. Anschließend werden die verschiedenen Anspruchsgruppen und deren Anforderungen an die Datenqualität betrachtet und darauf aufbauend die Elemente einer Qualitätsstrategie für Verkehrserhebungen entwickelt. Wie eine angemessene Datenqualität bei den verschiedenen Arten von Verkehrserhebungen erreicht werden kann, wird in den Kapiteln 5 bis 8 dargestellt. Hier werden Hinweise und Empfehlungen zum Stichprobenverfahren gegeben und es wird aufgezeigt, wie systematische Fehler (Nichterfassung von Stichprobeneinheiten, Fehler bei der Erfassung von Merkmalen, bei der Datenaufbereitung und -auswertung sowie der Darstellung von Ergebnissen) vermieden oder zumindest reduziert werden können. Abschließend werden in Kapitel 9 die wesentlichen Erkenntnisse zusammengefasst und ein Dokumentationsschema vorgestellt, welches einen Orientierungsrahmen für die Durchführung von Verkehrserhebungen liefert.
Road condition acquisition and assessment are the key to guarantee their permanent availability. In order to maintain a country's whole road network, millions of high-resolution images have to be analyzed annually. Currently, this requires cost and time excessive manual labor. We aim to automate this process to a high degree by applying deep neural networks. Such networks need a lot of data to be trained successfully, which are not publicly available at the moment. In this paper, we present the GAPs dataset, which is the first freely available pavement distress dataset of a size, large enough to train high-performing deep neural networks. It provides high quality images, recorded by a standardized process fulfilling German federal regulations, and detailed distress annotations. For the first time, this enables a fair comparison of research in this field. Furthermore, we present a first evaluation of the state of the art in pavement distress detection and an analysis of the effectiveness of state of the art regularization techniques on this dataset.
Im Verlaufe der Entwicklung der Zustandserfassung auf Bundesfernstraßen (ZEB) wurde beginnend bei den Messdaten bis zu den Auswertungen ein einheitliches Datenmanagement erarbeitet. Dieses Management sichert nicht nur die Datenqualität bei der Erfassung der Zustandsdaten, sondern sichert auch den Prozess der Auswertungen. Nicht zuletzt wird auch die Vergleichbarkeit der Daten unterschiedlicher Kampagnen gesichert. Mit der Einrichtung des IT-ZEB Systems bei der BASt zur Verwaltung der ZEB-Daten ist die Datensicherung, -bereitstellung, -auswertung und -visualisierung gewährleistet worden. Forschungsarbeiten zur Weiterentwicklung der ZEB sind mit der IT-ZEB möglich, da Modellrechnungen bei der Projektierung des IT-Systems berücksichtigt worden sind. Eine Verbesserung des Datentransfers bei den Netzdaten ist im Zusammenhang mit dem bevorstehenden Einsatz des Bundesinformationssystems Straße zu erwarten.
Die Umfelddatenerfassung spielt in der Verkehrsbeeinflussung mittels Streckenbeeinflussungsanlagen (SBA) eine bedeutende Rolle. Auf Basis aktueller Verkehrs- und Umfelddaten (Witterungsdaten) werden auf Bundesfernstraßen Schaltungen zur Erhöhung der Verkehrssicherheit generiert. Mittels dynamischer Wechselverkehrszeichen (WVZ) werden die Verkehrsteilnehmer vor Umfeldbedingungen, die zu gefährlichen Situationen führen können, gewarnt. Umfeldbedingte Schaltungen können jedoch nur dann positiven Einfluss auf die Verkehrssicherheit erzielen, wenn die Anzeigen einer SBA durch die Verkehrsteilnehmer befolgt werden. Hierfür ist es erforderlich, dass die stationär erfassten Umfelddaten eine gute Qualität aufweisen und die aktuellen Umfeldbedingungen zeitnah im System abgebildet werden. Aufgrund der Wichtigkeit der Umfelddatenerfassung und des für die Praxis zu erwartenden Nutzens wurde im Arbeitskreis "Umfelddatenerfassung in Streckenbeeinflussungsanlagen" der Forschungsgesellschaft für Straßen- und Verkehrswesen (FGSV) die Notwendigkeit für den Aufbau eines Testfeldes für Systeme zur Erfassung der Umfeldsituation festgestellt und der Aufbau eines solchen Testfeldes beschlossen. Das im Jahr 2003 errichtete Testfeld bei München erlaubt, die Umfeldgrößen beziehungsweise die Sensoren zu deren Erfassung praxisnah und längerfristig zu untersuchen. Die Sensoren verschiedener Hersteller werden unter gleichen Bedingungen geprüft und bezüglich ihrer Eignung für den Einsatz in SBA eingestuft. Gleichzeitig besteht für die Hersteller die Möglichkeit, die Hard- und Software der Sensorik zu verbessern. Erfahrungen aus dem Testfeld und der Praxis erlaubten eine Ableitung von Anforderungen für Ausschreibung, Abnahme und Betrieb von Umfeldsensoren, welche im Hinweispapier der FGSV zusammen gefasst wurden. Die darin beschriebenen Plausibilitätskontrollen der erfassten Umfelddaten können in Verkehrszentralen direkt durchgeführt werden. Systematische und logisch/physikalische Fehler werden zeitnah und automatisch erkannt, unplausible und nicht nachvollziehbare Schaltungen können somit reduziert werden.