Filtern
Erscheinungsjahr
- 2009 (31)
- 2017 (28)
- 2019 (28)
- 2016 (25)
- 2013 (24)
- 2007 (22)
- 2005 (20)
- 2008 (20)
- 2010 (20)
- 2014 (18)
- 2015 (18)
- 2000 (14)
- 2011 (14)
- 2006 (13)
- 2018 (11)
- 1998 (10)
- 1996 (8)
- 2003 (8)
- 1991 (7)
- 1999 (7)
- 2004 (7)
- 1997 (6)
- 2001 (6)
- 1988 (5)
- 1995 (5)
- 2012 (5)
- 1989 (4)
- 2002 (4)
- 1982 (3)
- 1985 (3)
- 1987 (3)
- 1990 (3)
- 1993 (3)
- 2021 (3)
- (2)
- 1978 (2)
- 1992 (2)
- 2020 (2)
- 2022 (2)
- 1974 (1)
- 1976 (1)
- 1977 (1)
- 1980 (1)
- 1983 (1)
- 1984 (1)
- 2023 (1)
Dokumenttyp
- Buch (Monographie) (224)
- Wissenschaftlicher Artikel (89)
- Konferenzveröffentlichung (82)
- Bericht (11)
- Arbeitspapier (11)
- Teil eines Buches (Kapitel) (5)
- Sonstiges (1)
Sprache
- Deutsch (355)
- Englisch (67)
- Mehrsprachig (1)
Schlagworte
- Bewertung (423) (entfernen)
Institut
Verkehrsdaten jeder Art müssen zur Weiterverarbeitung eine gewisse Qualität erfüllen. Ziel des Projektes ist es die statischen Daten zu betrachten und hier die Grundlagen für eine einheitliche qualitätsgesicherte Zurverfügungstellung dieser Daten zu schaffen. Weitere Ziele sind die Entwicklung und Realisierung eines Qualitätssicherungskonzepts, welches die Bewertung und Kontrolle und damit die Sicherstellung der Qualität von kartenrelevanten Straßendaten ermöglicht, sowie die Implementierung von Prozessen zur Verbesserung der Datenqualität, hier insbesondere durch Rückmeldungen durch die Datenabnehmer. Das Forschungsvorhaben gliedert sich in drei wesentliche Arbeitspunkte: Vorbereitende Arbeiten (Literaturrecherche); Untersuchung der Prozesse bei Straßenbauverwaltungen (Experteninterviews, Datensatzanalyse), Qualitätssicherungskonzept. Basierend auf den ermittelten Erkenntnissen aus der Literaturanalyse zum Stand der Technik und dem über die Interviews ermittelten Alltag der Datenhaltung in den Straßenbauverwaltungen wurde ein Qualitätssicherungskonzept entwickelt. Dafür wurden zusätzlich die Daten der Straßeninformationsbanken charakterisiert, um einen Überblick über die zur Bewertung notwendigen Kriterien, Indikatoren und Kennwerte zu erhalten. Im Rahmen des Datenqualitätsassessments wurden die vorhandenen Daten einer Bewertung auf Prüfbarkeit unterzogen und ein erstes Konzept als Entwurf entwickelt. Im weiteren Verlauf der Arbeiten wurde dieser Entwurf einem Praxistest unterzogen und anschließend modifiziert, so dass ein neues Konzept entwickelt werden konnte, das den Praxistest bestehen konnte. Im Rahmen der Praxistests und der weiteren Bearbeitung des Qualitätssicherungskonzeptes wurden auch die Prozesse deutlich, die notwendig sein werden, um das Konzept umzusetzen. Weiterhin wurden Vorschläge für die Integration der Qualitätsinformationen in das Metadaten-Modell des nationalen Zugangspunktes gemacht und Ideen für einen Rückmeldekanal entwickelt. Dieses Konzept beschreibt technische und organisatorische Rahmenbedingungen zur Einführung einer einheitlichen Qualitätssicherung bei den einzelnen Datenlieferanten.
Ziel der Forschungsarbeiten zum Thema Durchsickerung von Straßenböschungen ist es, ausgewogene Beurteilungskriterien für einen umwelteffizienten und zugleich ökonomischen Einsatz von Ersatzbaustoffen und Bodenmaterial zu schaffen. Durch eine belastbare Datengrundlage zur Erfassung des Wasserhaushaltes des gesamten Bauwerkes können Instrumente entwickelt werden, um die Wirksamkeit der unterschiedlichen technischen Sicherungsmaßnahmen zu beurteilen. Um dieses Ziel zu erreichen, verfolgt die Bundesanstalt für Straßenwesen verschiedene Projektansätze zum Thema Durchsickerung von Straßenböschungen. Jeder Projektansatz hat seine Stärken und Schwächen. Durch großmaßstäbliche Versuche können die realen Verhältnisse gut wiedergegeben werden. Solche Versuche sind jedoch personalintensiv und langwierig. Schneller und preisgünstiger sind Modellrechnungen. Die Qualität der Berechnungen hängt aber stark von der Qualität der gewählten Parameter ab. Durch inverse Modellierung müssen die Eingabeparameter der Programme zur Modellrechnung an die Realität angepasst werden. Die realen Bedingungen werden am besten durch ein Pilotprojekt an einem realen Versuchsdamm wiedergegeben. Diese Versuche sind sehr aufwendig und sehr kostenintensiv, aber zur Validierung der Modellrechnung und der großmaßstäblichen Versuche erforderlich. In dem Betrag wird beschrieben, welche großmaßstäblichen Versuche durch die Bundesanstalt für Straßenwesen (BASt) durchgeführt wurden und wie sie von Anfang an durch Simulationsrechnungen begleitet wurden.
Entgegen dem Trend insgesamt sinkender Unfallzahlen bleibt die Zahl der vom statistischen Bundesamt erfassten, folgenschweren Wildunfälle (Unfälle mit Personenschaden sowie schwerwiegende Unfälle mit Sachschaden) auch 2017 mit 3.063 erfassten Fällen auf etwa gleichem Niveau. Die Zahl der Unfälle mit reinem Sachschaden hingegen sowie das Schadensaufkommen steigen jährlich. Den höchsten Wert an Schadensmeldungen verzeichnete der Gesamtverband der Versicherer (GDV) im Jahr 2017 mit 275.000 gemeldeten Wildunfällen. Die Wildunfallprävention erfolgt in Deutschland über den Einsatz von Verkehrszeichen, Wildschutzzäunen, Wildwarnanlagen und Wildwarnern (auditiv, olfaktorisch, visuell). Zur Wirksamkeit der vorgenannten und weiteren Maßnahmen liegen jedoch nur wenige gesicherte Erkenntnisse vor. Dieses Szenario begründet eine vielschichtige und konsolidierte Untersuchungsreihe über die Ursachen von Wildunfällen und Maßnahmen zu deren Vorbeugung, in der folgende Themenbereiche bearbeitet werden: - Deutschlandweite Evaluation und Auswertung von Wildunfallzahlen, - Maßnahmen zur Beeinflussung des Wildes zur Vermeidung von Wildunfällen, - Maßnahmen zur Beeinflussung der Verkehrsteilnehmer zur Vermeidung von Wildunfällen, - Infrastrukturelle Maßnahmen zur Vermeidung von Wildunfällen. Die Erkenntnisse aus den einzelnen Untersuchungen werden mit Abschluss des Forschungsschwerpunktes in einem Leitfaden „Wildunfallprävention“ zusammengefasst. Zum jetzigen Zeitpunkt liegen bereits erste Teilergebnisse vor, die im Rahmen dieses Symposiums veröffentlicht werden können. Der Fokus liegt dabei auf Ergebnissen über die deutschlandweite Zusammenstellung von Wildunfallzahlen der Jahre 2012 bis 2017 sowie auf Resultaten einer Befragung zur Herstellung und Unterhaltung von Wildschutzzäunen. Zusätzlich werden Erkenntnisse zur Wirksamkeit von Wildwarnreflektoren einerseits aus einer lichttechnischen Untersuchung, andererseits aus einem Feldversuch mit 150 Teststrecken (Unfallforschung der Versicherer) präsentiert.
This study aimed to better understand nitrate transport in the soil system in a part of the state of North Rhine-Westphalia, in Germany, and to aid in the development of groundwater protection plans. An advection-diffusion (AD) cell was used in a miscible displacement experiment setup to characterize nitrate transport in 12 different soil samples from the study area. The three nitrate sorption isotherms were tested to define the exact nitrate interaction with the soil matrix. Soils varied in their properties which in its turn explain the variations in nitrate transport rates. Soil texture and organic matter content showed to have the most important effect on nitrate recovery and retardation. The miscible displacement experiment indicated a decrease in retardation by increasing sand fraction, and an increase in retardation by increasing soil organic matter content. Soil samples with high sand fractions (up to 94 %) exhibited low nitrate sorption capacity of less than 10 %, while soils with high organic matter content showed higher sorption of about 30 %. Based on parameterization for nitrate transport equation, the pore water velocity for both sandy and loamy soils were significantly different (P < 0.001). Pore water velocity in sandy soil (about 4 x 10 high 3 m/s) was about 100 to 1000 larger than in loamy soils (8.7 x 10 high 5 m/s). On the other hand, the reduction in nitrate transport in soils associated with high organic matter was due to fine pore pathways clogged by fine organic colloids. It is expected that the existing micro-phobicity increased the nitrate recovery from 9 to 32 % resulting in maximum diffusion rates of about 3.5 x 10 high 5 m/s2 in sandy soils (sample number CS-04) and about 1.4 x 10 high 7 m/s2 in silt loam soils (sample number FS-02).
Intelligent transportation systems have a high potential to optimise traffic flow, to increase road traffic safety and to reduce environmental pollution. Real Time Traffic Information (RTTI) systems help to achieve these targets. Beside verbal radio announcements the most used RTTI service is the Traffic Message Channel (TMC) as a part of the Radio Data System (RDS). TMC messages support drivers in their choice of efficient routes or prepare them to cope with situations on the route ahead. The main focus of the paper is on the quality of TMC messages in Germany. After a brief overview of RTTI stakeholders in Germany and their role in the German public traffic information chain the following literature analysis summarizes the state-of-the-art on traffic information quality. Then the paper gives an overview about methodology and first results of an ongoing project on traffic information quality that has been initiated by the Bundesanstalt für Straßenwesen (BASt, German Federal Highway Research Institute) in 2008. The paper describes a concept how to check all processing iterations of the traffic information chain and occurring failures. A cause-effect-analysis forms the basis of this concept to get an idea which reasons (= process) lead to which measurable effect (= quality indicator). The paper demonstrates the principle with the pre-process of the Location Code List (LCL), which is the major basis for message coding since the LCL describes all locations that can be named in a TMC message.
Dem Bauen mit Beton kommt in Bezug auf die Nachhaltigkeit im Brücken- und Ingenieurbau eine besondere Bedeutung zu. Nationale und internationale Entwicklungen werden erläutert. Die Ergebnisse laufender und geplanter Aktivitäten sollen bei der Weiterentwicklung von Regelwerken berücksichtigt werden. Weitere Ziele sind, die zahlreichen Bestrebungen im Bereich Nachhaltigkeit im Brücken- und Ingenieurbau zu harmonisieren und die Vorstellungen der Baulastträger in die aktuellen Entwicklungen zu integrieren.
Test and assessment procedures for passive pedestrian protection of passenger cars are in place for many years within world-wide regulations as well as consumer test programmes. Nevertheless, recent accident investigations show a stagnation of pedestrian fatality numbers on European roads alongside increasing injury severities for older road users. The EU-funded SENIORS (Safety ENhancing Innovations for Older Road userS) project developed and evaluated a thorax injury prediction tool (TIPT) for later incorporation within test and assessment procedures. Accident data indicates an increasing portion of AIS2 and AIS3+ thoracic injuries of older pedestrians and cyclists which are currently not assessed in any test procedure for vulnerable road users. Therefore, SENIORS focused on the development of a test tool predicting the risk of rib fractures of vulnerable road users (VRU). While injury risk functions were reanalyzed, human body model (HBM) simulations against categorized generic vehicle frontends served as input for the definition of test setups and corresponding impact parameters. TIPT component tests against a generic frontend and an actual vehicle were used for the evaluation of the technical feasibility. The TIPT component tests shows the general feasibility of a test procedure for the assessment of thoracic injuries, with good repeatability and reproducibility of kinematics and results. Impact parameters such as the inclination angles of the thorax, angles of the velocity vector and impact speeds well replicate the parameters gained from the HBM simulations. The proposed markup and assessment scheme offers the possibility of a homogeneous evaluation of the protection potential of vehicle frontends while maintaining justifiable testing efforts. During evaluation testing, the proposed requirements were entirely met. The developed prototype of TIPT and launching system offer impact angles and speeds as suggested by HBM simulations. However, since thorax impacts during pedestrian accidents do not occur perpendicularly to the vehicle surface in most cases, the TIPT built-in linear potentiometers do not acquire the true resultant intrusions on the ribcage and thus, TIPT rib deflections do not reflect the actual human injury risk. However; for the impact forward to the bonnet leading edge, the TIPT seems applicable without further modifications. The test and assessment procedures using the TIPT offer for the first time the possibility of replicating the kinematics of a pedestrian thorax with a component test. The developed assessment scheme gives a first indication on how the risk for thoracic injuries could be implemented within the Euro NCAP Box 3 assessment. Future development of the TIPT may focus on implementing a rib cage that can deflect in all axes in a humanlike way.
Per definition, SAE Level 2 (L2) Systems perform both the lateral and longitudinal vehicle motion control with the expectation that the driver completes the Object and Event Detection and Response (OEDR). Since every system performs also parts of the OEDR itself and this amount of OEDR also varies between different L2 systems depending on the intended system design, it cannot be taken for granted that drivers automatically understand their roles and responsibilities in interaction with the system. Especially highly reliable L2 systems performing a greater amount of OEDR while at the same time requiring only little driver input over time can make it difficult for drivers to correctly identify their role and responsibility. Until now, neither application-oriented assessment methods nor design guidelines for OEDR related system design features taking safety of human-machine-interaction into account are available. The objective is therefore to deliver a standardized tool for the assessment of human-machine-interaction-related safety of vehicles with L2 systems currently available on the market. To evaluate the impact of different system design aspects on safety of human-machine-interaction and also to be able to differentiate between system designs, a holistic, standardized and application-oriented assessment procedure is proposed. The novel tablet-based assessment tool focuses not only on available standards and guidelines but measures also concrete user behaviour and user understanding in interaction with the L2 systems. The aim is to gain further insights which cannot be measured directly by simple checklist instruments. For preparation, based on international standards, literature reviews and expert consultations, a first checklistbased expert-evaluation for currently available vehicles with L2 systems was developed. These assessments are focusing on different sources of user information (e.g. user manual), human-machine-interface design as well as the prevention of unintended use by different driver monitoring techniques. The checklist-tool was developed in cooperation with experts of different EuroNCAP test laboratories and validated in a common expert workshop to gain high level of standardization and agreement. However, to assess safety of human-machine-interaction holistically beyond these rather explicit forms of information design criteria, also implicit forms of drivervehicle-communication via vehicle dynamics, functional behavior or reliability play an important role and should be taken into account. Therefore, the main and novel methodological aim is to consider also interaction related processes regarding user´s understanding of roles and responsibilities when applying automated driving functions as well as user´s awareness of automation modes or traffic situations in the modular tablet-based assessment tool.
Bicyclists and pedestrians belong to the most endangered groups in urban traffic. The EU-funded collaborative research project PROSPECT (‘PROactive Safety for PEdestrians and CyclisTs´) aims to significantly improve safety of those unprotected traffic participants by expanding the scope of scenarios covered by future active safety systems in passenger cars. Concepts for sensor control systems are built into three prototypes covering emergency interventions such as Autonomous Emergency Braking (AEB) as well as Autonomous Emergency Steering (AES). These systems tackle the well-known challenges of currently available systems including limited field-of-view by sensors, fuzzy path prediction, unreliable intent reaction times and slow reaction times. These highly innovative functions call for extensive validation methodologies based on already established consumer testing procedures. Since these functions are developed towards the prevention of intersection accidents in urban areas, a key aspect of the advanced testing methodology is the valid approximation of naturalistic trajectories using driving robots. Eventually, several simulator studies complemented a user acceptance and benefit analysis to evaluate the expected overall impact of the PROSPECT systems. The results achieved within the PROSPECT project are highly relevant for upcoming test protocols regarding the most critical situations with Vulnerable Road Users (VRU). With introducing the new methods in Euro NCAP (European New Car Assessment Programme) a significant increase in road safety is expected.
To assess occupant safety in a crash test, criteria associating the measurements made with a crash test dummy to injury risk are necessary. To enable better protection of elderly car occupants the objective of this study was to develop improved thoracic injury criteria for the THOR average male dummy. The development of these criteria is usually based on matched dummy and Post Mortem Human Surrogate (PMHS) tests by relating the obtained PMHS injuries to dummy measurements. This approach is limited, since only a few tests in relevant loading conditions are available and any new test series requires high efforts to be performed due to their complexity and costs. To overcome these limitations and to extend the dataset for the development of THOR dummy chest injury risk functions a simulation-based approach was applied within the EC funded project SENIORS (Safety Enhanced Innovations For older Road Users - www.seniors-project.eu). Within this study frontal impact sled simulations with an FE model representing a THOR average male dummy and matched simulations with a human body model (HBM) representing an elderly car occupant were carried out. The HBM used for this study was the THUMS TUC with modified rib cage, which was developed in SENIORS. The modifications included material and geometry changes aiming to represent an elderly car occupant. The rib fracture risk was predicted with a deterministic approach whereby a rib was considered broken when the strain exceeded an age-dependent threshold. Furthermore, a probabilistic method was applied to predict the probability of sustaining a certain number of fractured ribs by comparing local strain values to the distribution of cortical rib ultimate strain. By relating the output from the HBM simulations to a multi-point dummy injury criterion, injury risk curves were calculated by statistical methods. The wide range of loading conditions resulted in the desired range of injuries and THOR ATD output. The number of fractured ribs predicted by the HBM based on the deterministic prediction method was between 0 and 15. Furthermore, the probabilistic risk for the number of rib fractures equal or greater than two, three or four was calculated for each load case. The THOR rib deflection criterion Rmax was between 18 and 56 mm, while the PC Score was in the range of 2.5 to 7.2. Based on these outputs new risk curves for the predicted deterministic (AIS2+/3+) and probabilistic injury risk were calculated. The new curves show reasonable shapes and significance that provide trust in their application. The new risk curves are compared to risk curves obtained by traditional methods. The results were found similar to previous injury risk functions based on physical tests, which gives a high level of confidence in the chosen approach. The simulation-based approach of matched ATD model vs. HBM simulation was successfully applied. Rmax curves show a slightly better quality than the injury criterion PC Score.
Entwicklung eines scannenden Prüfgeräts zur Detektion von Delaminationen in Betonfahrbahndecken
(2019)
Ein bedeutender Teil (ca. 30 %) der Bundesautobahnen ist in Betonbauweise hergestellt. An solchen Fahrbahnen können spezielle Schadensbilder auftreten, die in Zusammenhang mit chemischen Reaktionen (insbesondere Schädigung aufgrund Alkali-Kieselsäure-Reaktion) oder mechanischer und thermischer Beanspruchung stehen (z. B. Hitzeschäden). Zur zerstörungsfreien Zustandserfassung im Hinblick auf substanzielle Schäden von Fahrbahndecken aus Beton steht derzeit noch kein wirtschaftlich sinnvoll einsetzbares Prüfsystem zur Verfügung, das als Entscheidungsgrundlage für Instandsetzungsmaßnahmen dienen könnte. Zwar gibt es Systeme mit denen z. B. die Tragfähigkeit oder der komplette Straßenaufbau (Georadar) repräsentativ und auch mit hohen Scangeschwindigkeiten abgebildet werden kann. Jedoch ist die Abbildung von auf der Oberfläche nicht sichtbaren horizontalen Rissen und Delaminationen im Inneren der Betondecke nur mit großem Aufwand messtechnisch durchführbar. Deshalb wurde im Rahmen des hier beschriebenen Forschungsvorhabens ein scannendes Messverfahren entwickelt und in einem Prototypensystem implementiert. Das System erlaubt die Durchführung von Messungen auf Basis von elastischen Wellen- und Schwingungsphänomenen, die direkt mit strukturellen Eigenschaften wie z. B. dem Vorhandensein von Rissen korrelierbar sind. Das entwickelte Messsystem nutzt als Grundlage das sog. Impakt-Echo-Verfahren, bei dem durch einen mechanischen Impakt elastische Wellen im Betonkörper ausgelöst, mit geeigneter Sensorik empfangen und mit Methoden der Datenverarbeitung im Hinblick auf Informationen bezüglich Materialkennwerten und Schäden analysiert werden. Im Laufe der Entwicklungsarbeiten wurden messtechnische Komponenten wie Sensorik, Signalquellen und Messelektronik für die speziellen Erfordernisse scannender Messungen an Betonfahrbahndeckenim Bestand konzeptioniert, hergestellt und optimiert. Insbesondere wurde zur Realisierung der scannenden Funktionsweise eine luftschallbasierte Signalaufzeichnung implementiert. Darüber hinaus wurden auf Basis numerischer Simulationen und Realmessungen Methoden zur Datenverarbeitung und korrekten Interpretation der Messdaten erarbeitet. Testmessungen wurden sowohl an ausgebauten Fahrbahnplatten als auch an ausgewählten Fahrbahnen im Bestand durchgeführt. Mit dem System konnten an Fahrbahnen unterschiedlicher Bauart Messergebnisse erzielt werden, die Rückschlüsse auf das Vorhandensein horizontaler Risse ermöglichen. Bei Vorliegen mehrerer Rissebenen ergibt sich durch das Messprinzip die Einschränkung, dass nur die oberste Rissebene detektierbar ist. Die Messergebnisse konnten an ausgewählten Stellen durch Kernbohrungen verifiziert werden. Wo keine direkte Verifikation möglich war, ergab sich eine gute Übereinstimmung mit alternativen Messverfahren (Ultraschall) oder eine plausible Übereinstimmung mit dem allgemeinen Fahrbahnzustand, der z. B. durch Ausbesserungsstellen im umgebenden Bereich der Messlokationen ersichtlich war. Das Prototypensystem erlaubt erstmals eine scannende Erfassung struktureller Schädigung durch horizontale Risse und Delaminationen in Betonfahrbahndecken von einer beweglichen Plattform aus. Obwohl noch Optimierungsmöglichkeiten v. a. hinsichtlich der Scangeschwindigkeit bestehen, ergab sich durch die Bearbeitung des Forschungsvorhabens eine wesentliche Verbesserung bestehender Prüftechnik zur Abbildung kleinskaliger Schäden in Fahrbahndecken aus Beton.
Die Forschung im Straßenentwurf konzentriert sich vorrangig auf die Definition und Weiterentwicklung der entwurfstechnischen Parameter im Detail oder in deren Zusammenspiel. Fahrpsychologische Aspekte sind ein Bestandteil dieser Untersuchungen. Die explizite Betrachtung der menschlichen Fähigkeiten und Grenzen, z. B. der Informationsaufnahme und Wahrnehmung, sowie deren Einfluss auf das Fahrverhalten erfolgt allerdings bisher nicht hinreichend. Solche Aspekte werden heute im Allgemeinen als Human Factors bezeichnet. Die vorliegende Arbeit soll es ermöglichen, wahrnehmungspsychologische Aspekte von Kraftfahrern zu untersuchen und Vorschläge zu erarbeiten, diese in allgemeingültiger Form verstärkt in das Regelwerk zur Gestaltung von Straßenverkehrsanlagen einfließen zu lassen. Dazu erfolgte eine enge interdisziplinäre Zusammenarbeit zwischen den Fachgebieten der Verkehrspsychologie und des Straßenentwurfs. Zunächst wurde eine umfangreiche Analyse der nationalen und internationalen Literatur zu im Straßenentwurf maßgebenden Human Factors durchgeführt. Darauf aufbauend wurden alle Entwurfsmerkmale recherchiert, die für die Berücksichtigung der Human Factors bei der Gestaltung von Landstraßen für die Fahraufgabe von Bedeutung sind. In der anschließenden Schnittstellenanalyse wurde überprüft, inwieweit die aus der Literaturanalyse als maßgebend identifizierten wahrnehmungspsychologischen Human Factors bereits in den aktuellen Regelwerken für den Entwurf von Landstraßen berücksichtigt werden oder zu ergänzen sind. Auf dieser Grundlage wurden Handlungsansätze formuliert, wie die für den Straßenentwurf relevanten Human Factors beim Entwurf und bei der Bewertung von Straßen des Bestandsnetzes berücksichtigt werden sollten. Die Erkenntnisse wurden exemplarisch auf Straßen des Bestandsnetzes angewendet. Im Ergebnis der vorliegenden Arbeit wurden Vorschläge für ein Wissensdokument erarbeitet, die neben den bisherigen Empfehlungen der Planungspraxis als ergänzendes Instrumentarium zur Verfügung gestellt werden können.
Im Rahmen dieses Projekts wurde eine Überführung des mittels XMI definierten Datenaustauschstandards OKSTRA zur Beschreibung von Daten des Straßenwesens in eine Repräsentation auf Basis der Ontology Web Language (OWL) realisiert. Dadurch stehen nun Methoden und Techniken des Semantic Web auch für OKSTRA-Datensätze zur Verfügung. Insbesondere ist im Sinne des Linked Data Ansatzes die Verknüpfung mit Datensätzen anderer Schemata bzw. Domänen möglich. Dies kann u.a. durch Nutzung der Anfragesprache SPARQL zur integrativen Analyse der Daten der verschiedenen Ontologien erfolgen. Wie im Zuge von Fallstudien gezeigt werden konnte, können auf diese Weise beispielsweise Daten der niederländischen Straßen-Ontologie CB-NL/RWS mit OKSTRA-Daten zusammen abgefragt und analysiert werden. Dadurch lassen sich eine Reihe von grenzüberschreitenden Anwendungsszenarien realisieren, wie z.B. die Planung von Schwerlasttransporten. Andere Anwendungen von Linked Data im Straßenwesen liegen in der intergierten Analyse von 3D-Stadtmodellen im Format CityGML mit OKSTRA-Daten oder der Verknüpfung von Bestands- mit Entwurfsdaten des OKSTRA-Formats. Besonderes Potential ergibt sich durch die Nutzung räumlicher Operatoren, die durch die Anfragesprache GeoSPARQL zur Verfügung gestellt werden. Damit können Verbindungen zwischen Objekten verschiedener Datenmodelle anhand ihres geographischen Kontextes hergstellt werden. Für die Überführung von OKSTRA in okstraOWL standen eine Vielzahl unterschiedlicher Abbildungsoptionen zur Verfügung, deren jeweiligen Vor- und Nachteile im Bericht ausführlich dargelegt wurden. Bestimmte Eigenheiten des OKSTRA-Standards wie beispielsweise die sog. Fachbedeutungslisten erschweren zwar das Mapping, grundsätzlich ist aber eine Semantik-wahrende Überführung möglich. Der durchgängige Einsatz von Beschreibungsformaten (RDF) und Abfragesprachen (SPARQL) sowohl für Schema- als auch für Instanzdaten über alle Fachmodelle hinweg stellt einen bedeutenden Vorteil gegenüber anderen Ansätzen wie bspw. Programmierschnittstellen (APIs, Webservices etc.) dar. In anderen heterogenen Informationsverbünden müssen meist format-, syntax- und strukturspezifische Adapter, Konverter und Schnittstellen für die Ursprungssysteme erstellt werden, die sich nicht einheitlich verarbeiten lassen. Dagegen kann die Bereitstellung vorhandener Information in Form von RDF einheitlich erfolgen und mithilfe von Triplestores bzw. Graphdatenbanken mit universell standardisierten Abfrageschnittstellen (SPARQL) effizient verarbeitet werden, ohne sich mit den jeweiligen Systemdetails kleinteilig auseinander setzen zu müssen. Obgleich Linked Data Funktionalitäten mit der Definition von okstraOWL nun prinzipiell zur Verfügung stehen, hat sich im Zuge des Projekts (insbesondere bei der Arbeit mit realen Datensätzen) jedoch herausgestellt, dass die eigentliche Herausforderung bei der Verknüpfung verschiedener Ontologien in der unterschiedlichen semantischen Struktur und Granularität der verschiedenen Datenmodelle liegt. Auch Methoden des semiautomatischen Matchings anhand textueller Übereinstimmungen können hier nur bedingt unterstützend wirken. Stattdessen ist es erforderlich, dass der Nutzer der Abfragemechanismen Detailkenntnisse zur Semantik und Struktur der beteiligten Ontologien besitzt und anhand dessen und unter Berücksichtigung des zu erzielenden Abfrageergebnisses implizite bzw. manuelle Verknüpfungen herstellt. Die durchgehende, ggf. europaweite Nutzung von Straßeninformationsbanken erfordert daher trotz der Verfügbarkeit der Semantic Web und Linked Data Technologien eine prinzipielle Harmonisierung der Datenstrukturen insbesondere in Hinblick auf die die semantische Struktur und Granularität.
87.088 Personen mussten sich im Jahr 2018 im Rahmen einer medizinisch-psychologischen Untersuchung (MPU) begutachten lassen. Damit ist die Zahl der Begutachtungen im Vergleich zum Vorjahr erneut gesunken (1,1 Prozent). Bei den Ergebnissen der MPU gab es keine relevanten Veränderungen gegenüber dem Vorjahr. Knapp 60 Prozent aller begutachteten Personen wurden als "geeignet" beurteilt, rund 36 Prozent als „ungeeignet" und der Rest als „nachschulungsfähig" eingestuft. Alkoholauffälligkeit war zwar wie in den Vorjahren der häufigste Grund für eine MPU, die Zahl der Begutachtungen wegen wiederholter Alkoholauffälligkeit in Verbindung mit allgemeinen Verkehrs- oder strafrechtlichen Auffälligkeiten sank gegenüber 2017 allerdings um rund 10 Prozent. Ebenso sank die Zahl der Begutachtungen bei erstmaliger Alkoholauffälligkeit um rund 7 Prozent und wegen wiederholter Alkoholauffälligkeit um gut 2 Prozent. Die Zahl der alkoholbedingten Fragestellungen insgesamt sank somit um 6 Prozent, womit sich der Trend der Vorjahre fortsetzt. Die Begutachtungsanlässe mit Betäubungsmitteln stiegen um gut 7 Prozent an. Zum ersten Mal seit Erfassung der Statistik bilden die zusammengefassten drogenbezogenen Untersuchungsanlässe eine größere Anlassgruppe als die erstmals Alkoholauffälliger.
Jährlich fallen bei Erdbauarbeiten mehrere Millionen Tonnen Bodenaushub an, die nicht wieder eingebaut werden. Die als bautechnisch schwierig eingestuften Böden, wie beispielsweise Böden mit hohem Feinkornanteil, werden oft als mineralische Restmassen deponiert. Aus ökonomischen und ökologischen Gründen ist der qualifizierte Wiedereinbau anzustreben. Um die Anforderungen an Hinterfüllbereiche von Bauwerken zu erfüllen, werden jedoch im Regelfall grob- und gemischtkörnige Böden mit ≤ 15 M.-% Feinkornanteil verwendet. Für die Untersuchung der Eignung bindemittelbehandelter, bindiger Böden für Hinterfüllbereiche wurden ein fein- und ein gemischtkörniger Boden mit einem Feinkornanteil > 15 M.-% der Bodengruppe TL bzw. ST* gemäß DIN 18196 gewählt. Die Böden wurden mit je zwei Bindemitteln und drei Bindemittelgehalten (3 %, 5 %, 7 %) untersucht. Die Untersuchungen an Boden TL erfolgten mit einem Weißkalkhydrat und einem Mischbindemittel 50/50 (50 % Kalk/50 % Zement). Boden ST* wurde mit den Mischbindemitteln 50/50 und 30/70 untersucht. Mit einem Laborprogramm aus insgesamt ca. 360 Laborversuchen aus einer Kombination von einaxialen Druckversuchen, CBR-Versuchen, Triaxialversuchen und Ödometerversuchen an den Ausgangsböden und den Boden-Bindemittel-Gemischen wurde deren Festigkeit und Verformungsverhalten bestimmt, um die Gleichwertigkeit mit herkömmlichen, grobkörnigen Böden nachzuweisen. Mit den Laborergebnissen und über Setzungsberechnungen konnte bei allen untersuchten Boden-Bindemittel-Gemischen die Gleichwertigkeit zu herkömmlichen Hinterfüllmaterialien nachgewiesen werden. Es wurden Handlungsempfehlungen für die Praxis erarbeitet. Diese beinhalteten die Ermittlung der Scherparameter auf Basis von einaxialen Druckversuchen über empirisch abgeleitete Grenzwerte und der Angabe von prinzipiell erreichbaren Scherparametern für eine Anwendung im Regelfall. Weiterhin wird eine Empfehlung für die Ableitung des Steifemoduls aus den Ergebnissen einaxialer Druckversuche gegeben.
Das Ziel der Zustandserfassung und -bewertung (ZEB) auf Bundesfernstraßen ist die Bereitstellung qualitätsgesicherter Daten für das Erhaltungsmanagement. Ein für die Beurteilung des Zustands wichtiges Merkmal sind Risse an der Fahrbahnoberfläche (Netzrisse, Risshäufungen, Einzelrisse bei Asphaltbauweise; Längs-, Querrisse bei Betonbauweise). Die Erfahrung hat gezeigt, dass die Fahrbahnoberflächentemperatur und -feuchte die Sichtbarkeit von Rissen beeinflussen. Diese Einflussfaktoren waren in diesem Forschungsprojekt zu untersuchen und zu quantifizieren. Auf vier Versuchsstrecken wurden zu unterschiedlichen Jahres- und Tageszeiten mit einem schnellfahrenden Messsystem Oberflächenbilder zur Erfassung von Substanzmerkmalen der Fahrbahnoberfläche gemäß ZTV ZEB-StB aufgenommen, ausgewertet und analysiert. Die Auswertungen der erhobenen Messdaten haben einen Einfluss der Fahrbahnoberflächenfeuchte auf die Sichtbarkeit von Rissen gezeigt. Im Vergleich zu trockenen Fahrbahnen nimmt die Erkennbarkeit bei abtrocknender Fahrbahnoberfläche zu, wenn Restfeuchte in den Rissen verbleibt. Da die Restfeuchte auf der Fahrbahn praktisch kaum gesteuert beeinflusst und nur schwierig quantifiziert werden kann, sind Erfassungen auf Abschnitten mit Restfeuchte nicht zu empfehlen. Auch ist von Messungen bei Regen sowie bei geschlossenen und größeren Wasserfilmdecken abzusehen, da die Erkennbarkeit von Rissen hierdurch stark eingeschränkt wird. Der Einfluss der Temperatur auf die Erkennbarkeit von Rissen konnte im Rahmen des Forschungsprojektes nicht eindeutig nachgewiesen werden. Innerhalb der Wintermessungen wurden vermehrt Risse auf Fahrbahnen in Asphaltbauweise erkannt. Jedoch konnte nicht genau differenziert werden, ob dieser Einfluss allein auf die niedrigen Temperaturen zurückzuführen ist oder ob infolge der niedrigen Lufttemperaturen im Winter eine geringe Rest-feuchte in augenscheinlich trockenen Abschnitten zu einer Verbesserung der Risserkennung geführt hat. Ein signifikanter Einfluss mittlerer und hoher Fahrbahnoberflächentemperaturen auf die Erkennbarkeit von Rissen konnte auf Fahrbahnen in Asphaltbauweise nicht nachgewiesen werden. Bei der Versuchsstrecke in Betonbauweise wurde bei höheren Fahrbahnoberflächentemperaturen eine bessere und bei niedrigen eine verschlechterte Sichtbarkeit von Rissen festgestellt.
Im Rahmen dieses Projektes wurden die mittleren Pkw-Fahrtgeschwindigkeiten und weitere verkehrstechnische Kenngrößen auf Netzabschnitten von Bundesautobahnen (BAB) unter Berücksichtigung der Wechselwirkungen zwischen den Einzelelementen des Abschnittes untersucht. Auf Basis der ermittelten Eigenschaften wurde ein EDV-Programm mit Benutzeroberfläche und Datenhaltung in Microsoft Excel entwickelt, das die Bewertung der Verkehrs- und Angebotsqualität von Netzabschnitten auf Autobahnen ermöglicht. Das im HBS 2015 enthaltene Verfahren unterliegt einer wesentlichen Randbedingung, die die Anwendung des Verfahrens nur erlaubt, wenn keine Teilstrecke bzw. Teilknotenpunkt die Qualitätsstufe F ausweist. Diese Beschränkung wurde modelltechnisch durch eine Erweiterung des derzeitigen Verfahrens über die Grenze der ungesättigten Analyse hinaus behoben. Empirische Untersuchungen von zwei Untersuchungsstrecken (München und Karlsruhe), ergänzt durch mikroskopische Verkehrsflusssimulationen, lieferten die Datengrundlagen. Zunächst wurde die Anwendung des amerikanischen, auf dem Highway Capacity Manual (HCM) basierenden Programms FREEVAL für die Bewertung von deutschen Autobahnen überprüft. Dabei lieferte die Simulation mit FREEVAL ein plausibles Ergebnis für das Laborbeispiel in Karlsruhe. Wegen wesentlicher Unterschiede zwischen HCM- und HBS-Verfahren, hauptsächlich in Bezug auf die Definition von Kapazität, Zeitintervallen und q-V-Beziehungen sowie den entscheidenden Qualitätskriterien des Verkehrsablaufs, wird eine Anwendung des U.S. FREEVALs für deutsche Autobahnen aber nicht empfohlen. Dies hat zu der Entscheidung geführt, ein eigenes Modell zu entwickeln, das eng an das HBS-Verfahren angelehnt ist. Dazu wurde geprüft, welche makroskopischen Verkehrsmodelle für die Abbildung des Verkehrsflusses auf der deutschen Autobahn geeignet sind. Das Cell-Transmission-Modell (CTM) von DAGANZO wurde letztendlich als der geeignete Kandidat für die Modellimplementierung gewählt. Im Vergleich zum U.S. FREEVAL wurde in dem neuen Modellansatz die Diskretisierung so verfeinert, dass eine explizite Modellierung der Staupropagierung ohne zusätzliche Modellerweiterungen möglich wurde. Das Datenmodell des CTM ist insbesondere für die Modellierung von linearen Strecken wie z. B. Richtungsfahrbahnen geeignet. Für die Validierung des entwickelten Modells wurde die BAB A 99 in der Nähe von München an vier verschiedenen Tagen modelliert, an denen jeweils unterschiedliche Stausituationen vorlagen. Die Ergebnisse zeigen, dass das deutsche FREEVAL eine realistische Darstellung der Verkehrssituation ermöglicht. Bei gravierenden Überlastungen traten allerdings Abweichungen bei den Staugeschwindigkeiten auf, die in der Art des verwendeten Verkehrsflussmodells begründet sind. Das entwickelte Tool kann grundsätzlich als Alternative zu mikroskopischen Simulationstools zur Anwendung für Bemessungsaufgaben und zum Vergleich verschiedener Szenarien in Ergänzung zum HBS empfohlen werden. Es eignet sich nicht für die Abbildung von konkreten Stauereignissen zur Bestimmung der exakten räumlich-zeitlichen Ausprägung.
Der Zeitraum zwischen Herstellung und Verkehrsfreigabe einer Asphaltdeckschicht beträgt nach ZTV Asphalt-StB 07 wenigstens 24 Stunden. Durch den stetig wachsenden Zeitdruck wird diese Zeitspanne – oftmals als Sonderbauweise beispielsweise unter Verwendung viskositätsverändernder Zusätze – immer häufiger unterschritten. Die so verkürzten Zeitspannen sind jedoch weitestgehend willkürlich. Daher wurden im Rahmen dieses Forschungsprojektes drei Verfahren zur Bestimmung des frühestmöglichen Zeitpunktes der Verkehrsfreigabe nach dem Asphalteinbau erprobt: der PVE-Tester, das modifizierte leichte Fallgewichtsgerät (mod. LFGG) und der Impulshammer. Mit dem PVE-Tester wird die Asphaltoberflächen statisch be- und im Anschluss entlastet. Die irreversible Eindringtiefe am Ende der Entlastungsphase ist ebenso wie die irreversible Eindringtiefe, die nach fünf Belastungsstößen mit dem mod. LFGG als bleibende Deformation verbleibt, ein relativ präzises Maß für die Verformungsbeständigkeit des Asphalts. Mit beiden Geräten werden die Asphalte sehr ähnlich bewertet. Die mittels Impulshammer in situ gemessene mechanische Impedanz wies dagegen eine nicht ausreichende Präzision auf und ist mit der hier verwendeten Prüfanordnung für den vorgesehenen Zweck nicht geeignet. Auswirkungen unterschiedlicher Asphaltkomponenten wie abweichende Kornzusammensetzungen oder der Einfluss viskositätsverändernder Bindemittelzusätze sind aufgrund der Präzisionen der Messgeräte nur als Tendenz aber nicht quantitativ festzustellen. Mit dem PVE-Tester und dem mod. LFGG konnten erste Anhaltswerte für eine frühestmögliche Verkehrsfreigabe in situ bestimmt werden. Nach einer weitergehenden Konkretisierung und Absicherung dieser Anhaltswerte wäre nach den Erfahrungen aus diesem FE-Projekt zukünftig bei zahlreichen Baumaßnahmen eine Verkehrsfreigabe nach weniger als 24 Stunden möglich.
Auftausalze werden zur Vermeidung von Schnee- und Eisglätte eingesetzt. Hierbei ist Natriumchlorid das meist verwendete Salz. Diese Salze sind in Wasser leicht löslich und können in den Wasser-kreislauf gelangen. Mögliche Eintragspfade sind direkter Abfluss aus dem Entwässerungssystem zu Oberflächengewässern und Versickerung ins Grundwasser. Da die Salze im Grundwasser mobil sind, gelangt die eingetragene Stoffmenge auch zu den Vorflutern. Sowohl im Grundwasser als auch in Oberflächengewässern können erhöhte Salzkonzentrationen zur Beeinträchtigung von Natur und Umwelt oder sonstiger Nutzung führen. In diesem Projekt wurde der Wissensstand zu gewässerschutzrelevanten Wirkungen von Chlorid durch eine Literaturauswertung zusammengefasst, insbesondere zu Konzentrationsbereichen und zugehörigen Wirkungszeiträumen, die akute und chronische Toxizität für Gewässerorganismen auslösen. Auch die Transportpfade und das Verhalten des auf Straßen ausgebrachten Tausalzes wurden beschrieben. Hauptziel des Projektes war herauszufinden, welche Versickerungs- und technische Entwässerungseinrichtungen und welche Betriebsweisen die Konzentrationen von Tausalz in Gewässern unterschiedlicher Größe auf ein verträgliches Maß reduzieren können. An ausgewählten Punkten, wie Grundwasser oder Fließgewässer, wurden die berechneten Salzfrachten und -konzentrationen immissionsbezogen bewertet. Als maßgebender Punkt im Fließgewässer wird i.d.R. der unterstromige Pegel eines Gewässerkörpers betrachtet. Das Endziel des Projektes war, die Verdünnung und den Rückhalt von Tausalz bei verschiedenen Entwässerungsmethoden, die nach den RAS Ew vorgegeben sind, unter Einsatz numerischer Modellierung zu untersuchen. Der Salztransport wurde nicht für reale Standorte modelliert. Vielmehr wurden Modellierungsberechnungen an mehreren repräsentativen Szenarien durchgeführt, die auf andere Fälle übertragen werden können. Dafür wurden unterschiedliche Kombinationen von Tausalzmengen, Straßenausbildung, Art der Entwässerung sowie hydrologischen und hydrogeologischen Ortseigenschaften ausgewählt und in den Modellen als Randbedingungen eingebaut. Die Ergebnisse zum Transportpfad Untergrund zeigten deutliche Vermischungs- und Dämpfungseffekte durch Dispersion und Verdünnung. Die Berechnungen zeigten, dass sich ein Jahresmittelwert der Chlorid-Konzentration, der auf Tausalzeinsatz und Transport im Untergrund zurückzuführen ist, gut mit einer Massenbilanz berechnen lässt. Die saisonalen Schwankungen in den berechneten Chlorid-Konzentrationen waren in der Regel sehr gering. Somit kann in vielen Fällen auf eine numerische Modellierung des Transportpfades Untergrund verzichtet und stattdessen eine vereinfachte Massenbilanzierung verwendet werden. Die Berechnungen zum Transportpfad der technischen Entwässerung können aus den Eingangsparametern sensitive und weniger sensitive Größen hinsichtlich des Transportverhaltens identifizieren. So hat z.B. die Regencharakteristik nur einen geringen Einfluss auf die Ergebnisse. Dagegen hatten die Streumengen und die betrachtete maximale Konzentration im Straßenablauf wie erwartet eine sehr starke Auswirkung. Auch wurden insbesondere die Möglichkeiten des Rückhaltes und der Verdünnung von Tausalz in unterschiedlichen Beckenanlagen der technischen Straßenentwässerung untersucht. Die Ergebnisse zeigten, dass die Ausgestaltung der Becken einen deutlichen Einfluss auf die Ergebnisse hatte. Die Berechnungsergebnisse der beiden Transportpfade lieferten jeweils einen Input (Wassermenge und Chloridkonzentration) zu einem Gewässer. Diese wurden dann an einem Auswertepunkt im Gewässer zusammengeführt. I.d.R. liegt dieser Auswertepunkt am unterstromigen Ende des Gewässerkörpers. Zur Überlagerung von Konzentrationen aus Sickerwasser, Grundwasser, technischen Einleitungen und Oberflächengewässer wurden in einer Mischungsrechnung jeweils die Stoffgehalte und die Wassermengen aufgenommen. Bei Betrachtung eines (Teil-)Einzugsgebiets eines Gewässers wurde dann zunächst der Zufluss im Gewässer und dessen Hintergrundkonzentration am Oberstromende zusammen mit dem Austausch über den Transportpfad Untergrund betrachtet. Die Berechnung lieferte dann einen Gewässerabfluss und eine Hintergrundkonzentration am unterstromigen Ende. Danach wurde die Mischungskonzentration am unterstromigen Ende des Gewässers mit der Einleitung aus dem technischen Entwässerungssystem berechnet. Neben den berechneten Komponenten (Wassermenge und Konzentration) aus den Transportpfaden Untergrund und technischem Entwässerungssystem gingen als Randbedingungen der Mischungsberechnung der Abfluss und die Hintergrundkonzentration des Gewässers in die Berechnung ein. Diese beiden Größen wurden in einer Matrix berücksichtigt, um ein breites Anwendungsspektrum zu erreichen. Hierbei wurden die berechneten Zuflüsse (Menge und Konzentration) zum Gewässer mit einer frei wählbaren Matrix aus Abfluss und die Hintergrundkonzentration des Gewässers in der Mischungsrechnung betrachtet.
Durch die 2005 im deutschen Bundes-Immissionsschutzgesetz [BImSchG] verpflichtend umgesetzte EU-Umgebungslärmrichtlinie kommt lärmmindernden Bauweisen eine zunehmende Bedeutung zu. Der PMA hat solche lärmmindernden Eigenschaften, die über die Beschaffenheit der Oberflächentextur entstehen [BECKENBAUER, 2008]. Er gilt als selbstverdichtend und lässt durch seine überwiegend dichte Struktur neben seinen lärmtechnischen Vorzügen auch eine längere Nutzungsdauer erwarten. Ziel dieses Forschungsvorhabens war die nachhaltige und wirtschaftliche Optimierung der Bauweise PMA anhand der prozesssicheren Ansprache seiner besonderen Materialeigenschaften. Dieses Gesamtziel sollte durch die Entwicklung und/oder Anpassung einer Prüfsystematik erreicht werden, mit der eine zielsichere Mischgutoptimierung erzeugt wird. Die temperaturabhängige Mörtelsteifigkeit wurde hierbei besonders betrachtet, um den Effekt der Mörtelsedimentation und somit die selbstverdichtende Wirkung beim Einbau hinreichend prozesssicher zu erreichen. Durch gezielte Untersuchung der Mörtelkomponente konnte eine Kenngröße der Mörtelsteifigkeit analysiert werden, welche Auskunft über die zu erwartende Sedimentation und die damit verbundene selbstverdichtende Wirkung gibt. Kenngröße hierfür ist die Ausflussmenge nach 20 Sekunden, die im Ausflussviskosimeter bei einer Prüftemperatur von 160 °C und 180 °C zu ermitteln ist. Als bewertungsrelevante Probekörper erwiesen sich Bohrkerne aus Asphaltprobeplatten. Hierzu wurde ein Herstellungsablauf entwickelt, welcher es ermöglicht eine homogene Ausprägung der zwei Phasen des PMA über die gesamte Fläche des Probekörpers zu gewährleisten. Als maßgebendes Prüfverfahren zur Beurteilung des Verformungswiderstandes wurde die dynamische Stempeleindringtiefe an Bohrkernen unter seitlicher Einspannung in einen Edelstahl Zylinder und Prüfung auf der hohlraumreichen Seite herausgearbeitet.