Im Rahmen dieses Projekts wurde eine Überführung des mittels XMI definierten Datenaustauschstandards OKSTRA zur Beschreibung von Daten des Straßenwesens in eine Repräsentation auf Basis der Ontology Web Language (OWL) realisiert. Dadurch stehen nun Methoden und Techniken des Semantic Web auch für OKSTRA-Datensätze zur Verfügung. Insbesondere ist im Sinne des Linked Data Ansatzes die Verknüpfung mit Datensätzen anderer Schemata bzw. Domänen möglich. Dies kann u.a. durch Nutzung der Anfragesprache SPARQL zur integrativen Analyse der Daten der verschiedenen Ontologien erfolgen. Wie im Zuge von Fallstudien gezeigt werden konnte, können auf diese Weise beispielsweise Daten der niederländischen Straßen-Ontologie CB-NL/RWS mit OKSTRA-Daten zusammen abgefragt und analysiert werden. Dadurch lassen sich eine Reihe von grenzüberschreitenden Anwendungsszenarien realisieren, wie z.B. die Planung von Schwerlasttransporten. Andere Anwendungen von Linked Data im Straßenwesen liegen in der intergierten Analyse von 3D-Stadtmodellen im Format CityGML mit OKSTRA-Daten oder der Verknüpfung von Bestands- mit Entwurfsdaten des OKSTRA-Formats. Besonderes Potential ergibt sich durch die Nutzung räumlicher Operatoren, die durch die Anfragesprache GeoSPARQL zur Verfügung gestellt werden. Damit können Verbindungen zwischen Objekten verschiedener Datenmodelle anhand ihres geographischen Kontextes hergstellt werden. Für die Überführung von OKSTRA in okstraOWL standen eine Vielzahl unterschiedlicher Abbildungsoptionen zur Verfügung, deren jeweiligen Vor- und Nachteile im Bericht ausführlich dargelegt wurden. Bestimmte Eigenheiten des OKSTRA-Standards wie beispielsweise die sog. Fachbedeutungslisten erschweren zwar das Mapping, grundsätzlich ist aber eine Semantik-wahrende Überführung möglich. Der durchgängige Einsatz von Beschreibungsformaten (RDF) und Abfragesprachen (SPARQL) sowohl für Schema- als auch für Instanzdaten über alle Fachmodelle hinweg stellt einen bedeutenden Vorteil gegenüber anderen Ansätzen wie bspw. Programmierschnittstellen (APIs, Webservices etc.) dar. In anderen heterogenen Informationsverbünden müssen meist format-, syntax- und strukturspezifische Adapter, Konverter und Schnittstellen für die Ursprungssysteme erstellt werden, die sich nicht einheitlich verarbeiten lassen. Dagegen kann die Bereitstellung vorhandener Information in Form von RDF einheitlich erfolgen und mithilfe von Triplestores bzw. Graphdatenbanken mit universell standardisierten Abfrageschnittstellen (SPARQL) effizient verarbeitet werden, ohne sich mit den jeweiligen Systemdetails kleinteilig auseinander setzen zu müssen. Obgleich Linked Data Funktionalitäten mit der Definition von okstraOWL nun prinzipiell zur Verfügung stehen, hat sich im Zuge des Projekts (insbesondere bei der Arbeit mit realen Datensätzen) jedoch herausgestellt, dass die eigentliche Herausforderung bei der Verknüpfung verschiedener Ontologien in der unterschiedlichen semantischen Struktur und Granularität der verschiedenen Datenmodelle liegt. Auch Methoden des semiautomatischen Matchings anhand textueller Übereinstimmungen können hier nur bedingt unterstützend wirken. Stattdessen ist es erforderlich, dass der Nutzer der Abfragemechanismen Detailkenntnisse zur Semantik und Struktur der beteiligten Ontologien besitzt und anhand dessen und unter Berücksichtigung des zu erzielenden Abfrageergebnisses implizite bzw. manuelle Verknüpfungen herstellt. Die durchgehende, ggf. europaweite Nutzung von Straßeninformationsbanken erfordert daher trotz der Verfügbarkeit der Semantic Web und Linked Data Technologien eine prinzipielle Harmonisierung der Datenstrukturen insbesondere in Hinblick auf die die semantische Struktur und Granularität.
Im Verlaufe der Entwicklung der Zustandserfassung auf Bundesfernstraßen (ZEB) wurde beginnend bei den Messdaten bis zu den Auswertungen ein einheitliches Datenmanagement erarbeitet. Dieses Management sichert nicht nur die Datenqualität bei der Erfassung der Zustandsdaten, sondern sichert auch den Prozess der Auswertungen. Nicht zuletzt wird auch die Vergleichbarkeit der Daten unterschiedlicher Kampagnen gesichert. Mit der Einrichtung des IT-ZEB Systems bei der BASt zur Verwaltung der ZEB-Daten ist die Datensicherung, -bereitstellung, -auswertung und -visualisierung gewährleistet worden. Forschungsarbeiten zur Weiterentwicklung der ZEB sind mit der IT-ZEB möglich, da Modellrechnungen bei der Projektierung des IT-Systems berücksichtigt worden sind. Eine Verbesserung des Datentransfers bei den Netzdaten ist im Zusammenhang mit dem bevorstehenden Einsatz des Bundesinformationssystems Straße zu erwarten.
Mit der Umsetzung des Allgemeinen Rundschreibens Straßenbau ARS Nr. 11/12 und den ergänzenden Ausgaben der TL Asphalt-StB 07/13 und der ZTV Asphalt-SB 07/13 wurden erweiterte Prüfvorgaben an Bindemittelproduzenten und Asphaltmischguthersteller bezüglich der Produktüberwachung sowie an Straßenbaubehörden bezüglich der Kontrollprüfungen festgelegt. Diese umfassen die Prüfung des Erweichungspunktes Ring und Kugel und der Nadelpenetration sowie Prüfungen mit dem Dynamischen Scherrheometer (inkl. MSCR-Prüfung) und mit dem Biegebalkenrheometer (BBR) an vier verschiedenen Straßenbaubitumen und drei polymermodifizierten Bitumen. Teilweise werden diese Prüfungen zusätzlich an den kurzzeit- und langzeitgealterten Bindemitteln durchgeführt. Die Prüfdaten wurden im Rahmen dieses Forschungsprojektes über die Jahre 2013 bis 2015 gesammelt. Dazu wurde eine Datenbank mit einem entsprechenden Webserver eingerichtet. Neben den Bindemitteldaten wurden von den Mischgutherstellern die gemäß den TL Asphalt-StB 07/13 als „ist anzugeben“ gekennzeichneten Asphaltkennwerte proportionale Spurrinnentiefe, Hohlraumausfüllungsgrad und dynamische Stempeleindringtiefe beschafft. Anschließend wurden die Daten einer statistischen Analyse unterzogen, mit der eine hohe Übereinstimmung der Ergebnisse der Untersuchungsjahre 2014 und 2015 belegt werden konnte. Für die verschiedenen Prüfergebnisse wurden unterschiedliche Bewertungsansätze verfolgt. Es wurden systematische Änderungen der Bindemitteleigenschaften durch die Kurzzeit- und die Langzeitalterung anhand der Änderung des Erweichungspunktes Ring und Kugel und der Nadelpenetration festgehalten. Die BBR-Prüfdaten wurden anhand der Temperaturen TS300 und Tm0,3 bewertet. Die DSR-Ergebnisse zeigen ein hohes Potenzial zur Differenzierung der Straßenbaubitumen auf. Hier konnten mithilfe der Äquisteifigkeitstemperatur und des entsprechenden Phasenwinkels Erfahrungswerte in Abhängigkeit von der Bitumensorte formuliert werden. Für die Asphaltkennwerte proportionale Spurrinnentiefe, Hohlraumausfüllungsgrad und dynamische Stempeleindringtiefe wurden ebenfalls Erfahrungswerte formuliert.
Verkehrsdaten jeder Art müssen zur Weiterverarbeitung eine gewisse Qualität erfüllen. Ziel des Projektes ist es die statischen Daten zu betrachten und hier die Grundlagen für eine einheitliche qualitätsgesicherte Zurverfügungstellung dieser Daten zu schaffen. Weitere Ziele sind die Entwicklung und Realisierung eines Qualitätssicherungskonzepts, welches die Bewertung und Kontrolle und damit die Sicherstellung der Qualität von kartenrelevanten Straßendaten ermöglicht, sowie die Implementierung von Prozessen zur Verbesserung der Datenqualität, hier insbesondere durch Rückmeldungen durch die Datenabnehmer. Das Forschungsvorhaben gliedert sich in drei wesentliche Arbeitspunkte: Vorbereitende Arbeiten (Literaturrecherche); Untersuchung der Prozesse bei Straßenbauverwaltungen (Experteninterviews, Datensatzanalyse), Qualitätssicherungskonzept. Basierend auf den ermittelten Erkenntnissen aus der Literaturanalyse zum Stand der Technik und dem über die Interviews ermittelten Alltag der Datenhaltung in den Straßenbauverwaltungen wurde ein Qualitätssicherungskonzept entwickelt. Dafür wurden zusätzlich die Daten der Straßeninformationsbanken charakterisiert, um einen Überblick über die zur Bewertung notwendigen Kriterien, Indikatoren und Kennwerte zu erhalten. Im Rahmen des Datenqualitätsassessments wurden die vorhandenen Daten einer Bewertung auf Prüfbarkeit unterzogen und ein erstes Konzept als Entwurf entwickelt. Im weiteren Verlauf der Arbeiten wurde dieser Entwurf einem Praxistest unterzogen und anschließend modifiziert, so dass ein neues Konzept entwickelt werden konnte, das den Praxistest bestehen konnte. Im Rahmen der Praxistests und der weiteren Bearbeitung des Qualitätssicherungskonzeptes wurden auch die Prozesse deutlich, die notwendig sein werden, um das Konzept umzusetzen. Weiterhin wurden Vorschläge für die Integration der Qualitätsinformationen in das Metadaten-Modell des nationalen Zugangspunktes gemacht und Ideen für einen Rückmeldekanal entwickelt. Dieses Konzept beschreibt technische und organisatorische Rahmenbedingungen zur Einführung einer einheitlichen Qualitätssicherung bei den einzelnen Datenlieferanten.
Road condition acquisition and assessment are the key to guarantee their permanent availability. In order to maintain a country's whole road network, millions of high-resolution images have to be analyzed annually. Currently, this requires cost and time excessive manual labor. We aim to automate this process to a high degree by applying deep neural networks. Such networks need a lot of data to be trained successfully, which are not publicly available at the moment. In this paper, we present the GAPs dataset, which is the first freely available pavement distress dataset of a size, large enough to train high-performing deep neural networks. It provides high quality images, recorded by a standardized process fulfilling German federal regulations, and detailed distress annotations. For the first time, this enables a fair comparison of research in this field. Furthermore, we present a first evaluation of the state of the art in pavement distress detection and an analysis of the effectiveness of state of the art regularization techniques on this dataset.
The case study "Digital Test Area Autobahn" is presented. A new built (September 2016) pre-stressed concrete bridge is equipped with different monitoring systems for the detection of traffic load, climatic influence and the reaction of the bridge. Possibilities for the implementation of a VoI (Value of Information) analyses are presented.
Im Rahmen des 12-monatigen Forschungsprogramms "Intelligente Straßenverkehrsinfrastruktur durch 3D-Modelle und RFID-Tags", aufgesetzt von der Bundesanstalt für Straßenwesen, entwickelte die HOCHTIEF Solutions AG ein Konzept für ein Infrastruktur-Informationssystem. Ziel dieses Forschungsvorhabens war es, das bestehende System der öffentlichen Anstalt für den Betrieb und Erhalt von Brückenbauwerken, sowie die dazugehörigen Workflows mithilfe neuer Technologien zu optimieren. Das entwickelte Konzept für ein Infrastrukturinformationssystem ISIS, kurz für Intelligente StraßenverkehrsInfraStruktur, wurde als eine Schale um die bereits vorhandene Straßeninformationsbank-Bauwerke (SIB-BW) herum konzipiert. Alle Prozesse und Datenflüsse, die rund um diese Datenbank bestehen, bleiben damit unverändert. Zusätzliche Informationen und Dokumente, die an die vorhandenen Datensätze angefügt werden sollen, werden in dem neuen System abgelegt und mit dem Bestandsdatensatz verknüpft. Ziele: - Informationsbereitstellung optimieren, - 3D unterstützte Dokumentation des Bauwerksprüfprozesses, - Anlehnung an bestehende Prozesse, - Einbindung mobiler Endgeräte und Zustandssensoren. ISIS gründet sich auf folgende Komponenten: - Bauwerksmodelle: -- 2D-Platzhalter für Bestandsbauten, -- 3D-Modelle für Neubauten, - mobile Schadensaufnahme via mobiler Endgeräte, - Frühwarnsysteme auf Basis von RFID-Technologie (Feuchtigkeit und Korrosion), - 3D-Pins für die Markierung relevanter Punkte (RFID-Detektoren, Schäden, etc.), - Hardware mit hoher Verfügbarkeit und Akzeptanz (iPads). Um allen Beteiligten den Zugriff zu dem Informationssystem zu ermöglichen, wird das System zur Ausführung auf einer Online-Plattform konzipiert. Alle relevanten Informationen eines Straßenverkehrsinfrastrukturprojektes können in konsolidierter Form bereitgestellt werden. Die bisher dezentrale und inkompatible Datenhaltung in mehreren Teilsystemen wird unterbunden und eine einfache und durchgängige Nutzung des Datenbestandes in Planung, Bau und Betrieb wird ermöglicht. Um den Prozess der Bauwerksprüfung effizienter zu gestalten, sollen Informationen zum Bauwerkszustand mithilfe der 3D-Pin-Markierung und dem Einsatz von Radiofrequenz-Technologie (RFID) regelmäßig überprüft werden, um Bauwerksschäden frühzeitig erkennen zu können.
Im Rahmen des Forschungs- und Entwicklungsvorhabens werden Überwachungskonzepte, die tragfähigkeitsrelevante Verstärkungen von Brückenbauwerken aus Beton dauerhaft überwachen und beurteilen sollen, entwickelt. Die praktische Umsetzung des Konzeptes erfolgt anhand einer Pilotanwendung. Die konzeptionellen Arbeitsschritte umfassen die Vorstellung der tragfähigkeitsrelevanten Verstärkungsverfahren, die sich in der Praxis bewährt haben. Diese werden zusammengestellt und hinsichtlich der Anforderungen und Bedingungen für eine geeignete Überwachung analysiert. Daran anschließend werden die für eine Dauerüberwachung von Verstärkungsmaßnahmen geeigneten Sensoren dargestellt und für die wesentlichen Verstärkungsverfahren in Diagrammen zusammengefasst. Den Kernpunkt des Überwachungssystems stellt die Merkmalsextraktion und Diagnose aus den Messdaten dar. Dazu werden das Leistungsspektrum und die Unterschiede physikalischer und nichtphysikalischer Modelle unter Angabe von Vor- und Nachteilen analysiert. Auf der Grundlage der vorherigen Arbeitsschritte wird ein geeignetes Überwachungskonzept für die konkrete Umsetzung entwickelt und im Anschluss an der Talbrücke Germinghausen im Zuge der BAB 45 umgesetzt. Die Beurteilung der Funktion und Zuverlässigkeit des Überwachungssystems erfolgt dabei anhand der Wirksamkeit der vorhandenen Stahllaschen, der Effektivität bzw. Wirksamkeit der zusätzlichen externen Vorspannung, des Einflusses der zusätzlichen externen Vorspannung auf die vorhandenen Stahllaschen, sowie der dauerhaften Funktionsfähigkeit der zusätzlichen externen Vorspannung. Die Grundlage der Messdatenanalyse bildet der Vergleich von Messwerten innerhalb definierter Referenzzustände vor und nach der Verstärkung auf Basis der Regressionsanalyse. Insgesamt kann mit der Pilotanwendung gezeigt werden, dass sich das im Vorfeld erarbeitete Konzept unter Berücksichtigung der dargestellten Randbedingungen und vorgenommenen Anpassungen als geeignete Methode zur Überwachung und qualitativen Bewertung der Verstärkungsmaßnahme bewiesen hat.
Qualität von on-trip Verkehrsinformationen im Straßenverkehr : BASt-Kolloquium 23. und 24.03.2011
(2011)
Am 23. und 24. März 2011 veranstaltete die Bundesanstalt fuer Straßenwesen ein, um die Ergebnisse der erwähnten Projekte und Initiativen präsentieren zu lassen und mit anderen Experten zu diskutieren. Der vorliegende Tagungsband fasst die Ergebnisse des Kolloquiums zur "Qualität von on-trip Verkehrsinformationen" zusammen. Die Bereitstellung von Verkehrsinformationen ist geprägt von vielen Akteuren. Die Wertschöpfungskette beginnt bei der Sammlung grundlegender Verkehrsdaten zur Erstellung von Verkehrsinformationen und setzt sich mit der Datenverarbeitung und -interpretation bis hin zur Meldungserstellung fort. Die Weitergabe kann über verschiedene Übertragungsmedien erfolgen und beim Nutzer (z.B. im Navigationsgerät) empfangen werden. Jeder einzelne Schritt der Wertschoepfungskette kann sowohl von unterschiedlichen Partnern (privat oder öffentlich) übernommen werden als auch in der Hand eines Partners liegen. Diese Komplexität der Zusammenarbeit spiegelt sich demzufolge auch in Qualitätsmanagementprozessen wider. Im Rahmen des Kolloquiums wurden zwei wesentliche Qualitätsaspekte näher betrachtet: - die Datenqualität mit dem Focus auf Aktualitaet, Stimmigkeit der Daten verglichen mit einer gemessenen Realitaet sowohl zu Beginn der Wertschöpfungskette als auch an jeglichen Schnittstellen, - die Prozessqualität, welche sich insbesondere mit der reibungslosen Datenübergabe an den Schnittstellen der Wertschoepfungskette beschäftigt. Beide Qualitätsaspekte helfen zu verstehen, worin die heutigen Qualitätsprobleme bestehen und welche Massnahmen im Einzelnen ergriffen werden müssten, um eine nachhaltige Verbesserung zu erreichen. Einerseits kann es vorkommen, dass die Information über ein Verkehrsereignis an einer oder mehreren Stellen der Wertschöpfungskette korrekt vorliegt, jedoch durch ungenuegende technische oder organisatorische Schnittstellen im Prozessablauf wieder verloren geht und dem Nutzer folglich nicht zur Verfügung steht. Prominentes Beispiel eines solchen Problems in der Prozessqualität ist die fehlerhafte Interpretation der Meldung im Navigationsgerät, denkbar sind solche Informationsverluste jedoch an jeder Stelle der Wertschoepfungskette. Eine wichtige Massnahme zur Verbesserung der Prozessqualität ist die Standardisierung sowie die Überprüfung, ob die definierten Standards an jeder Stelle der Wertschöpfungskette eingehalten werden. Andererseits kann es vorkommen, dass die Datenqualität in Bezug auf ihre Genauigkeit von Anfang an so schlecht ist, dass der Nutzer eine fehlerhafte oder gar keine Nachricht übermittelt bekommt. Beispiel hierfür ist die Vielzahl von Stauereignissen, die entweder nicht gesendet wurden oder gesendet wurden, obwohl sie nicht vorhanden waren. Eine wichtige Massnahme zur Verbesserung dieser Situation ist die Verbesserung der Ereignisdetektion. Der Tagungsband enthaelt Präsentationen, die den Status Quo analysieren, Methoden zur verbesserten Datenerfassung vorschlagen und Möglichkeiten zur Verbesserung von Daten- und Prozessqualität vorstellen. Offen geblieben sind darüber hinaus folgende Fragestellungen: - Wie kann die Prozessqualität der gesamten Wertschöpfungskette bei der Vielzahl der Partner kontrolliert werden? Wer überwacht die Wertschöpfungskette? Wird hierfuer überhaupt eine zentrale Stelle benötigt? Oder ist es ausreichend, wenn jeder Partner eine angemessene Eingangs bzw. Ausgangskontrolle durchführt? - Obwohl es nur eine Realität gibt, entsteht doch Wettbewerb über die (Qualität der) Information zu dieser Realität. Wie kann Konsistenz zwischen allen Anbietern von sicherheitsrelevanten Informationen erreicht werden? Wo sollte der Wettbewerb enden und wie kann dies technisch, organisatorisch und wirtschaftlich realisiert werden? - Welche Prozesse sollten geschaffen werden, um Partner zu integrieren, die sich nicht an geschaffene Qualitätsstandards halten (z.B. kommerzielle Diensteanbieter, die nicht mit der Verkehrsinformationsszene vernetzt sind)? - Und nicht zuletzt, wie kann die Wahrnehmung des Nutzers über verschiedene Qualitätslevel unterschiedlicher Produkte verbessert werden? Ist der Nutzer in der Lage, die unterschiedlichen Qualitätsstufen von Verkehrssystemen zu unterscheiden? Falls nicht, welche Art von Unterstuetzung braucht der Kunde? Ein "European Information Services Assessment Programme" vergleichbar zu Euro NCAP für Fahrzeuge? Die Ergebnisse des Kolloquiums sollen die laufende Diskussion um die Verbesserung der Qualität von Verkehrsinformationen unterstützen.
Die Umfelddatenerfassung spielt in der Verkehrsbeeinflussung mittels Streckenbeeinflussungsanlagen (SBA) eine bedeutende Rolle. Auf Basis aktueller Verkehrs- und Umfelddaten (Witterungsdaten) werden auf Bundesfernstraßen Schaltungen zur Erhöhung der Verkehrssicherheit generiert. Mittels dynamischer Wechselverkehrszeichen (WVZ) werden die Verkehrsteilnehmer vor Umfeldbedingungen, die zu gefährlichen Situationen führen können, gewarnt. Umfeldbedingte Schaltungen können jedoch nur dann positiven Einfluss auf die Verkehrssicherheit erzielen, wenn die Anzeigen einer SBA durch die Verkehrsteilnehmer befolgt werden. Hierfür ist es erforderlich, dass die stationär erfassten Umfelddaten eine gute Qualität aufweisen und die aktuellen Umfeldbedingungen zeitnah im System abgebildet werden. Aufgrund der Wichtigkeit der Umfelddatenerfassung und des für die Praxis zu erwartenden Nutzens wurde im Arbeitskreis "Umfelddatenerfassung in Streckenbeeinflussungsanlagen" der Forschungsgesellschaft für Straßen- und Verkehrswesen (FGSV) die Notwendigkeit für den Aufbau eines Testfeldes für Systeme zur Erfassung der Umfeldsituation festgestellt und der Aufbau eines solchen Testfeldes beschlossen. Das im Jahr 2003 errichtete Testfeld bei München erlaubt, die Umfeldgrößen beziehungsweise die Sensoren zu deren Erfassung praxisnah und längerfristig zu untersuchen. Die Sensoren verschiedener Hersteller werden unter gleichen Bedingungen geprüft und bezüglich ihrer Eignung für den Einsatz in SBA eingestuft. Gleichzeitig besteht für die Hersteller die Möglichkeit, die Hard- und Software der Sensorik zu verbessern. Erfahrungen aus dem Testfeld und der Praxis erlaubten eine Ableitung von Anforderungen für Ausschreibung, Abnahme und Betrieb von Umfeldsensoren, welche im Hinweispapier der FGSV zusammen gefasst wurden. Die darin beschriebenen Plausibilitätskontrollen der erfassten Umfelddaten können in Verkehrszentralen direkt durchgeführt werden. Systematische und logisch/physikalische Fehler werden zeitnah und automatisch erkannt, unplausible und nicht nachvollziehbare Schaltungen können somit reduziert werden.