Filtern
Erscheinungsjahr
Dokumenttyp
- Buch (Monographie) (24)
- Konferenzveröffentlichung (13)
- Bericht (4)
- Wissenschaftlicher Artikel (1)
Volltext vorhanden
- ja (42) (entfernen)
Schlagworte
- Rechenmodell (42) (entfernen)
Institut
The German highway network hast o face new challenges in the near future, e.g. increasing traffic density and loads, climate change effects and new quality requirements regarding sustainability. It is necessary to come up with foresighted concepts in the present to be prepared for these challenges. Therefore it is important to adapt and enhance innovative attempts, which take changing impacts into account. One goal of these efforts is the development of adaptive systems for the provision of information and a holistic evaluation in real time. The paper describes the recent research and developments on a system for information and holistic evaluation in real time, taking into account sensor networks, evaluation procedures and their implementation in existing maintenance and inspection strategies.
In most of the existing highway capacity manuals, level of service (LOS) of freeway weaving segments and ramp junctions is traditionally defined by the speed, volume or density in critical areas of merge, diverge and weaving manoeuvres. In that traditional concept several capacity values of different critical areas (merge, diverge, weaving) as well as upstream and downstream basic freeway segments within the influence areas are evaluated separately. In this paper, a new model which considers the total segment of freeway merge, diverge, and weaving as an entire object is introduced. A combined volume-to-capacity ratio is used for defining the LOS of the total segment. According to the probability and queuing theory, the volume-to-capacity ratio of the whole segment can be considered as a combination of volume-to-capacity ratios in the different critical areas under consideration. The parameters of the new model can be calibrated with field data. Those parameters are functions of the number of lanes on the freeways, the number of lanes in the on-ramps or off-ramps, the length of the acceleration, deceleration, or weaving sections. Varying the model parameters the function can be fitted to the existing capacity models for different types of weaving segments or ramp junctions. With this model, the traffic quality (LOS) can be obtained directly as a function of the volumes on the freeway and on the on-ramp or off-ramp respectively. The new model has the following advantages: a) a uniform function for all types of freeway weaving segments and ramp junctions, b) traffic quality assessment for all critical areas under investigation in one step, and c) easy calibration. The new model will be incorporated into the new edition of the German Highway Capacity Manual (HBS 201X).
Im Rahmen dieses Projekts wurde eine Überführung des mittels XMI definierten Datenaustauschstandards OKSTRA zur Beschreibung von Daten des Straßenwesens in eine Repräsentation auf Basis der Ontology Web Language (OWL) realisiert. Dadurch stehen nun Methoden und Techniken des Semantic Web auch für OKSTRA-Datensätze zur Verfügung. Insbesondere ist im Sinne des Linked Data Ansatzes die Verknüpfung mit Datensätzen anderer Schemata bzw. Domänen möglich. Dies kann u.a. durch Nutzung der Anfragesprache SPARQL zur integrativen Analyse der Daten der verschiedenen Ontologien erfolgen. Wie im Zuge von Fallstudien gezeigt werden konnte, können auf diese Weise beispielsweise Daten der niederländischen Straßen-Ontologie CB-NL/RWS mit OKSTRA-Daten zusammen abgefragt und analysiert werden. Dadurch lassen sich eine Reihe von grenzüberschreitenden Anwendungsszenarien realisieren, wie z.B. die Planung von Schwerlasttransporten. Andere Anwendungen von Linked Data im Straßenwesen liegen in der intergierten Analyse von 3D-Stadtmodellen im Format CityGML mit OKSTRA-Daten oder der Verknüpfung von Bestands- mit Entwurfsdaten des OKSTRA-Formats. Besonderes Potential ergibt sich durch die Nutzung räumlicher Operatoren, die durch die Anfragesprache GeoSPARQL zur Verfügung gestellt werden. Damit können Verbindungen zwischen Objekten verschiedener Datenmodelle anhand ihres geographischen Kontextes hergstellt werden. Für die Überführung von OKSTRA in okstraOWL standen eine Vielzahl unterschiedlicher Abbildungsoptionen zur Verfügung, deren jeweiligen Vor- und Nachteile im Bericht ausführlich dargelegt wurden. Bestimmte Eigenheiten des OKSTRA-Standards wie beispielsweise die sog. Fachbedeutungslisten erschweren zwar das Mapping, grundsätzlich ist aber eine Semantik-wahrende Überführung möglich. Der durchgängige Einsatz von Beschreibungsformaten (RDF) und Abfragesprachen (SPARQL) sowohl für Schema- als auch für Instanzdaten über alle Fachmodelle hinweg stellt einen bedeutenden Vorteil gegenüber anderen Ansätzen wie bspw. Programmierschnittstellen (APIs, Webservices etc.) dar. In anderen heterogenen Informationsverbünden müssen meist format-, syntax- und strukturspezifische Adapter, Konverter und Schnittstellen für die Ursprungssysteme erstellt werden, die sich nicht einheitlich verarbeiten lassen. Dagegen kann die Bereitstellung vorhandener Information in Form von RDF einheitlich erfolgen und mithilfe von Triplestores bzw. Graphdatenbanken mit universell standardisierten Abfrageschnittstellen (SPARQL) effizient verarbeitet werden, ohne sich mit den jeweiligen Systemdetails kleinteilig auseinander setzen zu müssen. Obgleich Linked Data Funktionalitäten mit der Definition von okstraOWL nun prinzipiell zur Verfügung stehen, hat sich im Zuge des Projekts (insbesondere bei der Arbeit mit realen Datensätzen) jedoch herausgestellt, dass die eigentliche Herausforderung bei der Verknüpfung verschiedener Ontologien in der unterschiedlichen semantischen Struktur und Granularität der verschiedenen Datenmodelle liegt. Auch Methoden des semiautomatischen Matchings anhand textueller Übereinstimmungen können hier nur bedingt unterstützend wirken. Stattdessen ist es erforderlich, dass der Nutzer der Abfragemechanismen Detailkenntnisse zur Semantik und Struktur der beteiligten Ontologien besitzt und anhand dessen und unter Berücksichtigung des zu erzielenden Abfrageergebnisses implizite bzw. manuelle Verknüpfungen herstellt. Die durchgehende, ggf. europaweite Nutzung von Straßeninformationsbanken erfordert daher trotz der Verfügbarkeit der Semantic Web und Linked Data Technologien eine prinzipielle Harmonisierung der Datenstrukturen insbesondere in Hinblick auf die die semantische Struktur und Granularität.
Im Rahmen dieses Projektes wurden die mittleren Pkw-Fahrtgeschwindigkeiten und weitere verkehrstechnische Kenngrößen auf Netzabschnitten von Bundesautobahnen (BAB) unter Berücksichtigung der Wechselwirkungen zwischen den Einzelelementen des Abschnittes untersucht. Auf Basis der ermittelten Eigenschaften wurde ein EDV-Programm mit Benutzeroberfläche und Datenhaltung in Microsoft Excel entwickelt, das die Bewertung der Verkehrs- und Angebotsqualität von Netzabschnitten auf Autobahnen ermöglicht. Das im HBS 2015 enthaltene Verfahren unterliegt einer wesentlichen Randbedingung, die die Anwendung des Verfahrens nur erlaubt, wenn keine Teilstrecke bzw. Teilknotenpunkt die Qualitätsstufe F ausweist. Diese Beschränkung wurde modelltechnisch durch eine Erweiterung des derzeitigen Verfahrens über die Grenze der ungesättigten Analyse hinaus behoben. Empirische Untersuchungen von zwei Untersuchungsstrecken (München und Karlsruhe), ergänzt durch mikroskopische Verkehrsflusssimulationen, lieferten die Datengrundlagen. Zunächst wurde die Anwendung des amerikanischen, auf dem Highway Capacity Manual (HCM) basierenden Programms FREEVAL für die Bewertung von deutschen Autobahnen überprüft. Dabei lieferte die Simulation mit FREEVAL ein plausibles Ergebnis für das Laborbeispiel in Karlsruhe. Wegen wesentlicher Unterschiede zwischen HCM- und HBS-Verfahren, hauptsächlich in Bezug auf die Definition von Kapazität, Zeitintervallen und q-V-Beziehungen sowie den entscheidenden Qualitätskriterien des Verkehrsablaufs, wird eine Anwendung des U.S. FREEVALs für deutsche Autobahnen aber nicht empfohlen. Dies hat zu der Entscheidung geführt, ein eigenes Modell zu entwickeln, das eng an das HBS-Verfahren angelehnt ist. Dazu wurde geprüft, welche makroskopischen Verkehrsmodelle für die Abbildung des Verkehrsflusses auf der deutschen Autobahn geeignet sind. Das Cell-Transmission-Modell (CTM) von DAGANZO wurde letztendlich als der geeignete Kandidat für die Modellimplementierung gewählt. Im Vergleich zum U.S. FREEVAL wurde in dem neuen Modellansatz die Diskretisierung so verfeinert, dass eine explizite Modellierung der Staupropagierung ohne zusätzliche Modellerweiterungen möglich wurde. Das Datenmodell des CTM ist insbesondere für die Modellierung von linearen Strecken wie z. B. Richtungsfahrbahnen geeignet. Für die Validierung des entwickelten Modells wurde die BAB A 99 in der Nähe von München an vier verschiedenen Tagen modelliert, an denen jeweils unterschiedliche Stausituationen vorlagen. Die Ergebnisse zeigen, dass das deutsche FREEVAL eine realistische Darstellung der Verkehrssituation ermöglicht. Bei gravierenden Überlastungen traten allerdings Abweichungen bei den Staugeschwindigkeiten auf, die in der Art des verwendeten Verkehrsflussmodells begründet sind. Das entwickelte Tool kann grundsätzlich als Alternative zu mikroskopischen Simulationstools zur Anwendung für Bemessungsaufgaben und zum Vergleich verschiedener Szenarien in Ergänzung zum HBS empfohlen werden. Es eignet sich nicht für die Abbildung von konkreten Stauereignissen zur Bestimmung der exakten räumlich-zeitlichen Ausprägung.
Untersuchungsgegenstand des Forschungsprojektes war die Überprüfung der aktuellen Grenzwertkriterien in Deutschland zur Identifizierung von Unfallhäufungen im Straßennetz. Nach Analyse des IST-Zustandes und der Bestimmung von Defiziten wurden alternative Grenzwertkriterien mit dem Ziel eines optimierten Einsatzes von Ressourcen im Bereich der Örtlichen Unfalluntersuchung überprüft. Auf Grundlage dieser Erkenntnisse erfolgte die Ableitung von Empfehlungen für zukünftige Grenzwertkriterien. Insgesamt wurden verschiedene Grenzwertkriterien getrennt für die Ortslagen innerorts, außerorts (ohne BAB) und Bundesautobahnen mittels einer umfangreichen Unfalldatenauswertung untersucht. Als Untersuchungsgebiete dienten außerorts Bereiche von Bundesländern (Sachsen) oder ganze Bundesländer (Bayern, Rheinland-Pfalz) sowie innerorts Städte verschiedener Größe (Großstädte über 100.000 E, Mittelstädte mit 30.000 bis 100.000 E sowie Durchfahrten von Ortschaften unter 30.000 E) aus vier Bundesländern. Die Untersuchungen lassen sich in folgenden Ergebnissen zusammenfassen:- Bei der Bestimmung der unfallauffälligen Stellen (UAS) mit gleichartigen Unfällen werden ortslagenunabhängig nahezu alle UAS durch die Gleichartigkeit des Unfalltyps identifiziert. Durch die Berücksichtigung von Unfallumständen wie z.B. die Verkehrsbeteiligung werden kaum zusätzliche Stellen erkannt. - Bei der parallelen Betrachtung der drei aktuellen Auswertungszeiträume (1-Jahreskarte, 3-Jahreskarte (P) und 3-Jahreskarte (SP)) wurde festgestellt, dass ein Großteil der UAS, die in der 3-Jahreskarte (SP) auffällig sind, auch in der 3-Jahreskarte (P) als auffällig identifiziert werden. - Die zeitliche Stabilität, d.h. das wiederholte Auftreten eines unfallauffälligen Bereiches in zwei oder mehr aufeinanderfolgenden Betrachtungszeiträumen, erreicht gemessen am Anteil an allen unfallauffälligen Bereichen in einem Ausgangszeitraum weder bei den UAS noch bei den unfallauffälligen Linien (UAL) eine zufriedenstellende Größenordnung. - Aus den unterschiedlichen Kriterien für die Optimierung von Grenzwerten nach einem ausgewogenen Verhältnis von Aufwand und Nutzen resultieren zum Teil unterschiedliche Ergebnisse. Bei der Empfehlung neuer Grenzwerte wurde darauf geachtet, dass bei Anwendung des Grenzwertes mindestens 10% des Gesamtunfallgeschehens im jeweiligen Betrachtungszeitraum bearbeitet werden. Die Empfehlungen beinhalten für die Identifizierung von unauffälligen Bereichen insbesondere Vorschläge zu geeigneten Betrachtungszeiträumen, räumlichen Abgrenzungen von unfallauffälligen Bereichen sowie der Angabe optimierter Grenzwerte differenziert nach Ortslage und Betrachtungszeitraum.
Im Rahmen dieses Forschungsvorhabens wurde ein Verfahren entwickelt und validiert, mit dem sich reale Emissionsfaktoren für motorisierte Zweiräder in der Systematik des HBEFA generieren lassen. Das Verfahren basiert auf Fahrzeug-Emissionsmessungen in realen Testzyklen, vermessen am Rollenprüfstand oder auf der Straße, als Eingabe für ein Simulationsmodell. Das Modell erzeugt aus den Messungen Motorkennfelder, in denen die Abgasemissionen und der Kraftstoffverbrauch über normierter Motordrehzahl und normierter Motorleistung abgelegt werden. Für jedes gemessene Kfz ergibt sich ein normiertes Emissions-Motorkennfeld. Aus den einzelnen Kennfeldern können dann Durchschnittskennfelder je Fahrzeugkategorie (z.B. Motorrad über 500ccm, EURO 3) gebildet werden. Die Motordrehzahl muss in den Emissionstests entweder gemessen, oder aus Geschwindigkeit, Gang, Reifenumfang und Übersetzungen berechnet werden. Die Motorleistung kann mittels gemessenem CO2-Massenstrom und der Drehzahl aus "generischen CO2-Kennfeldern" ermittelt werden, da im Allgemeinen keine gemessene Leistung vorliegt. Um mit dem Modell dann Emissionsfaktoren für beliebige Fahrzyklen zu bestimmen, wird die Motorleistung aus der Fahrzeuglängsdynamik, den Verlusten im Antriebstrang und dem Leistungsbedarf von Nebenaggregaten aus dem jeweils vorgegebenen Geschwindigkeits- und Steigungsverlauf berechnet. Zur Bestimmung der Drehzahl wird zuerst ein passender Gang berechnet und dann aus den Übersetzungen die Motordrehzahl. Steht die geforderte Motorleistung in keinem Gang zur Verfügung, wird die Beschleunigung im betroffenen Zeitschritt so reduziert, dass sich ein Volllastbetrieb ergibt. Die Berechnungen erfolgen in 1Hz Auflösung. Für jede Sekunde werden dann aus dem zugehörigen Motorkennfeld die Emissionen entsprechend der Drehzahl und Leistung interpoliert. Die integrierten Emissionswerte über den Zyklus ergeben die Summenemissionen, die Division durch die zurückgelegte Strecke die Emissionsfaktoren in g/km. Die Methode wurde im Simulationsprogramm PHEM implementiert. Da PHEM bereits in einem ähnlichen Verfahren Emissionsfaktoren für PKW, LNF und SNF berechnet, war der Zusatzaufwand zum Einbau von Zweirädern nieder und alle Zusatzfunktionen von PHEM können auch für Zweiräder verwendet werden (z.B. Dynamikkorrekturen, automatisierte CO2-basierte Kennfelderzeugung, Batch-Modus, etc.). In dem Projekt wurde die Modellentwicklung und Validierung anhand von 4 gemessenen Zweirädern durchgeführt. Die Tests umfassten Abgasmessungen auf einem Rollenprüfstand sowie On-Road-Messungen mittels PEMS. Die Messkampagne wurde auch genutzt, um einen Vorschlag für ein einheitliches Minimalmessprogramm zur Bestimmung von Emissionsfaktoren von Zweirädern zu erarbeiten. Dazu wurden umfangreiche Fahrversuche im realen Betrieb durchgeführt, die gemessenen Zyklen in Teilstücke verschiedener Verkehrssituationen unterteilt und je Verkehrssituation ein repräsentatives Teilstück bestimmt. Diese wurden dann zu "Real World Rollenzyklen" zusammengefügt. Bei einem Motorradzyklus ist auch ein sportlicher Fahranteil mit Steigung enthalten. Damit ist sichergestellt, dass die Motorkennfelder mit diesen Rollentests gut abgedeckt sind und bei der Berechnung von Emissionsfaktoren keine Extrapolationen von Emissionswerten erforderlich sind. Die am Markt befindlichen PEMS Systeme sind für die Verwendung bei Zweirädern wegen deren Gewicht und Baugröße nicht für alle Fahrzeuge geeignet. PEMS Messungen sind vorerst nur bei größeren Motorrädern im realen Verkehr möglich. Die Emissionskennfelder enthalten jeweils CO, CO2, NOx, HC sowie optional auch die vom FTIR gemessenen Komponenten und Partikelanzahl. Die nicht limitierten Abgaskomponenten aus der FTIR Messung können, wegen der teilweise sehr niederen Emissionsniveaus, nur unsicher zeitaufgelöst gemessen und simuliert werden, so dass hier die Verwendung von Zyklusmittelwerten in [g/km] oder von mittleren Prozentwerten an den HC und NOx Emissionen empfohlen wird. Mit der entwickelten Methode und der Software PHEM bestehen nunmehr die Grundlagen, Emissionsfaktoren für Zweiräder in gleicher Qualität wie sie bei PKW und Nutzfahrzeugen bereits Standard ist, zu gerieren. Die Methoden und mögliche gemeinsame Messprogramme werden in der ERMES Gruppe bereits diskutiert und werden hoffentlich schon 2018 zu einer deutlichen Verbreiterung der Datengrundlage zum Emissionsverhalten von Zweirädern führen.
Das Forschungsvorhaben prüft die Straßenverkehrs-Emissionsmodelle COPERT und TREMOD hinsichtlich ihrer Eignung für die Verwendung bzw. Verwendbarkeit für verschiedene Aspekte der Emissionsberechnung. Verschiedene Querbeziehungen bestehen zwischen den beiden Ansätzen beider Modelle. So nutzen beide die im Rahmen von HBEFA bzw. ERMES entwickelten Grundlagen für die Bestimmung der betriebswarmen Emissionen. TREMOD verwendet denselben Verkehrssituationen-basierten Ansatz wie HBEFA, während COPERT Funktionen zur Berechnung der Emissionsfaktoren aus der Durchschnittsgeschwindigkeit aus den HBEFA-Grundlagendaten herleitet. Bei den Verdampfungsemissionen kommt bei beiden Modellen der für COPERT entwickelte Ansatz zum Einsatz, während für die Ermittlung der Kaltstartzuschläge beide Modelle eigene Vorgehensweisen implementiert haben. Für die Berücksichtigung der Entwicklung der Kraftstoffverbrauchswerte unterscheiden sich die Methoden ebenfalls. Zwischen beiden Modellen bestehen signifikante Unterschiede, sowohl betreffend Eingangsdaten wie auch Emissionsresultaten. Bei Verwendung der originalen Aktivitätsdaten bewegen sich die Abweichungen des gesamten Verbrauchs pro Jahr bei +/-5% und die Abweichungen der gesamten Emissionen pro Schadstoff und Jahr bei -1% bis 45% (bei positiver Abweichung liegt COPERT höher). Bei Verwendung der gleichen Aktivitätsdaten liegen die Abweichungen des Verbrauchs pro Jahr bei -2% bis +14% und die Abweichungen der Emissionen bei -4% bis 25%. Die größten Unterscheide bestehen bei den Kaltstart- und Verdampfungsemissionsfaktoren. Im Eignungsvergleich werden in vielen Punkten beide Modelle als ähnlich gut geeignet beurteilt. Insgesamt wird TREMOD bei einer Mehrheit der Indikatoren in der Kriteriengruppe "Nutzen" als geeigneter beurteilt. Bei den "Kosten" und "weiteren Kriterien" erhält COPERT in einer Mehrheit der Indikatoren die bessere Beurteilung. Die Wahl des geeigneten Modells ist jedoch u.a. von der Fragestellung und dem Anwendungsfall abhängig.
Das Fahrzeugsegment der leichten Nutzfahrzeuge (LNF) hat in den vergangenen Jahren in Deutschland stark an Bedeutung gewonnen. Der Bestand ist im Jahr 2014 auf rund 2,1 Mio. Fahrzeuge angewachsen " das entspricht einem Wachstum von +133 % gegenüber 1990. Die Fahrleistungen der LNF haben nach den Annahmen für TREMOD im gleichen Zeitraum sogar um +170 % zugenommen. Die zunehmende Bedeutung der LNF sowie die heutige Vielfalt der Einsatzzwecke spiegeln sich in der Modellierung der Emissionen von LNF in Deutschland zum Teil nicht wieder. Die Datengrundlagen für das Verkehrsemissionsmodell TREMOD (Transport Emission Model) sowie für das Handbuch für Emissionsfaktoren des Straßenverkehrs (HBEFA) sind teilweise mehr als 20 Jahre alt. Die Aufteilung der Fahrleistung nach Verkehrssituationen und Längsneigungsklassen geht beispielsweise auf eine Analyse von HEUSCH/BOESEFELDT aus dem Jahr 1996 zurück. Die Fahrzyklen, die den Verkehrssituationen und damit auch den Emissionsfaktoren zugrunde liegen, basieren gerade für leichte Nutzfahrzeuge auf wenigen Daten oder sind von Pkw abgeleitet. Zudem stehen nur eine beschränkte Anzahl von Emissionsmessungen für LNF zur Verfügung, auf deren Basis die Emissionsfaktoren für HBEFA abgeleitet werden. Die Gesamtfahrleistung (Inlandsfahrleistung) der LNF in TREMOD basiert im Wesentlichen noch auf der Fahrleistungserhebung (FLE) 2002. Die Inlandsfahrleistung der LNF war hierbei etwa gleich hoch wie die Inländerfahrleistung. Jedoch wurde nur ca. die Hälfte der Fahrleistungen auf den freien Strecken gemäß Straßenverkehrszählung der BASt erfasst und die Differenz den Innerorts- und Gemeindestraßen in TREMOD zugeordnet. Die Fortschreibung der Fahrleistungen von 2002 bis 2014 erfolgte u.a. über die Straßenverkehrszählungen und die Bestandsentwicklung. Auswertungen der (bei Berichtslegung noch nicht definitiv vorliegenden) Fahrleistungserhebung 2014 müssen zeigen, ob die angenommenen Entwicklungen der Gesamtfahrleistung der LNF sowie pro Straßenkategorie plausibel sind. Vorläufige Ergebnisse der FLE 2014 zeigen deutlich höhere LNF-Inlandsfahrleistungen als aktuell in TREMOD hinterlegt. Eine Detailanalyse und Interpretation der Ergebnisse konnte aber im Rahmen dieses Projektes noch nicht erfolgen. Neben den bisher in TREMOD verwendeten Quellen wurden weitere Fahrleistungsdaten untersucht. Für das Jahr 2013 veröffentlichte das Kraftfahrtbundesamt (KBA) erstmals Inländerfahrleistungen je Fahrzeugkategorie und Fahrzeugalter, basierend auf Tachostandinformationen von 26,5 Mio. deutschen Kraftfahrzeugen. Es wird empfohlen die Fahrleistungsstatistik vom KBA in zukünftige TREMOD-Aktualisierungen einzubeziehen. Für die Herleitung der in HBEFA den LNF zugrunde gelegten Fahrmustern wurde bislang nicht nach Pkw und LNF unterschieden. Vergleiche der verfügbaren LNF- und Pkw-Fahrmuster bezüglich der Geschwindigkeit und der Wegedauer zeigen leichte Abweichungen in der Form, dass LNF tendenziell öfter mit geringeren Geschwindigkeiten und kürzerer Wegedauer unterwegs sind als Pkw. Die Unterschiede sind jedoch durchwegs gering. Es können auf der Basis der verfügbaren Datengrundlagen keine eigenständigen LNF-Fahrzyklen abgeleitet werden. Die Emissionsfaktoren in HBEFA werden über das Simulationsmodell PHEM der FVT-TU Graz generiert. Aufgrund der unzureichenden Datenlage konnten bisher für PHEM keine LNF-spezifischen Emissionskennfelder verwendet werden, d.h. es wurden modifizierte Pkw-Kennfelder für die Modellierung der Emissionsfaktoren verwendet. Mittlerweile stehen weitere LNF-Messungen für die Herleitung von Emissionskennfeldern zur Verfügung. Für die hinsichtlich der heutigen Fahrleistungen relevanten LNF-Fahrzeugschicht (N1-III-Diesel-Euro-5) liegen beispielsweise aktuell 10 zeitlich hochaufgelöste Emissionsmessungen vor, welche bei der nächsten Aktualisierung von HBEFA genutzt werden können.
Zur Sicherung der Leistungsfähigkeit der Verkehrsinfrastruktur in Deutschland soll im Bereich der kollektiven Verkehrsbeeinflussung in Zukunft das Werkzeug des prozessorientierten Qualitätsmanagements genutzt werden. Diese Forschungsarbeit hatte die Erarbeitung eines vollständigen Prozess- und Qualitätsmodells und praxistauglicher Handlungsempfehlungen für die verschiedenen Lebenszyklusphasen von Streckenbeeinflussungsanlagen (SBA) zum Ziel. Zu diesem Zweck wurden diverse Grundlagen zur Gestaltung eines auf SBA bezogenen Qualitätsmanagementsystems herangezogen. Das erarbeitete Prozessmodell umfasst 34 bewertungsrelevante Prozesse in den Lebenszyklusphasen Planung, Bau und Betrieb, einschließlich des unterstützenden Prozesses Wartung und Instandsetzung. Zur Identifikation von Lücken in der Qualitätssicherung der Prozesse wurde eine Fehlermöglichkeits- und -einflussanalyse (FMEA) durchgeführt. Anhand von Expertenwissen wurden Fehler und Fehlerursachen analysiert und die kritischsten Qualitätsprobleme zusammengestellt. Anhand der Ergebnisse des Prozessmodells wurde zur quantitativen Beschreibung der Auswirkungen möglicher Fehler ein Qualitätsmodell entwickelt. Auf Grundlage eines Bayes'schen Netzes wurden die Auswirkungen von Fehlern auf nachfolgende Prozesse im gesamten SBA-Lebenszyklus systematisch abgebildet. Das probabilistische Qualitätsmodell kann dabei außerdem als Diagnose-Werkzeug zur Untersuchung der Fehlerursachen von beobachteten Störungen einer SBA genutzt werden. Im Rahmen der Forschungsarbeit wurden anhand der Ergebnisse des Prozessmodells praxisorientierte, ressourcenschonende Handlungsempfehlungen abgeleitet und in einem Dokument für Planer und Betreiber von Streckenbeeinflussungsanlagen zusammengestellt. Zudem wurde eine Methode zur Abschätzung des Nutzens der Maßnahmen beschrieben, um die erforderlichen Investitionen zur Qualitätssicherung zu begründen. Zukünftige Forschungsarbeiten sollten sich im Zusammenhang mit der Adaption des Qualitätsmodells auf eine konkrete SBA insbesondere mit der Optimierung des Modells in Form von Anpassungen der Modelltopologie beschäftigen. Des Weiteren sollte untersucht werden, ob die in dieser Forschungsarbeit erarbeiteten Ergebnisse auf andere Typen von Verkehrsbeeinflussungsanlagen übertragbar sind.
Injury probability functions for pedestrians and bicyclists based on real-world accident data
(2017)
The paper is focusing on the modelling of injury severity probabilities, often called as Injury Risk Functions (IRF). These are mathematical functions describing the probability for a defined population and for possible explanatory factors (variables) to sustain a certain injury severity. Injury risk functions are becoming more and more important as basis for the assessment of automotive safety systems. They contribute to the understanding of injury mechanisms, (prospective) evaluation of safety systems and definition of protection criteria or are used within regulation and/or consumer ratings. In all cases, knowledge about the correlation between mechanical behavior and injury severity is needed. IRFs are often based on biomechanical data. This paper is focusing on the derivation of injury probability models from real world accident data of the GIDAS database (German In-depth Accident Study). In contrast to most academic terms there is no explicit term definition or definition of creation processes existing for injury probability models based on empirical data. Different approaches are existing for such kind of models in the field of accident research. There is a need for harmonization in terms of the used methods and data as well as the handling with the existing challenges. These are preparation of the dataset, model assumptions, censored/unknown data, evaluation of model accuracy, definition of dependent and independent variable, and others. In the presented study, several empirical, statistical and phenomenological approaches were analyzed regarding their advantages and disadvantages and also their applicability. Furthermore, the identification of appropriate prediction parameters for the injury severity of pedestrians has been considered. Due to its main effect on injuries of pedestrians and bicyclists, the importance of the secondary impact has also been analyzed. Finally, the model accuracy, evaluated by several criteria, is the rating factor that gives the quality and reliability for application of the resulting models. After the investigation and evaluation of statistical approaches one method was chosen and appropriate prediction variables were examined. Finally, all findings were summarized and injury risk functions for pedestrians in real world accidents were created. Additionally, the paper gives instructions for the interpretation and usage of such functions. The presented results include IRFs for several injury severity levels and age groups. The presented models are based on a high amount of real world accidents and describe very well the injury severity probability of pedestrians and bicyclists in frontal collisions with current vehicles. The functions can serve as basis for the evaluation of effectiveness of systems like Pedestrian-AEB or Bicycle-AEB.