Sonstige
Filtern
Erscheinungsjahr
- 2015 (55)
- 2017 (48)
- 2016 (37)
- 2014 (36)
- 2013 (32)
- 2018 (28)
- 2011 (26)
- 2012 (26)
- 1991 (25)
- 2006 (24)
- 2010 (24)
- 2004 (22)
- 2009 (20)
- 1988 (19)
- 1992 (16)
- 1989 (15)
- 1990 (15)
- 2007 (15)
- 1987 (14)
- 2005 (14)
- 2008 (14)
- 1986 (6)
- 2003 (6)
- 1976 (3)
- 1979 (3)
- 1996 (3)
- 1981 (2)
- 1982 (2)
- 1985 (2)
- 1995 (2)
- 1998 (2)
- 2000 (2)
- 1978 (1)
- 1999 (1)
- 2001 (1)
- 2002 (1)
- 2019 (1)
Dokumenttyp
- Buch (Monographie) (563) (entfernen)
Schlagworte
- Deutschland (386)
- Germany (386)
- Research report (381)
- Forschungsbericht (379)
- Safety (143)
- Sicherheit (142)
- Bewertung (131)
- Test (106)
- Versuch (102)
- Evaluation (assessment) (90)
Institut
Teil 1: In der Verkehrssicherheitsforschung können Sicherheitswirkungen zumeist nicht im (Labor)experiment sondern nur durch Feldversuche, die einem Experiment ähnlich anzulegen sind, erfasst werden. In diesem Zusammenhang spricht man von einem Quasi-Experimentellen-Design. Da sich bei solchen Quasi-Experimenten immer die Frage stellt, ob die gemessenen Änderungen maßnahmebedingt sind oder auf andere Einflüsse zurückgeführt werden können, werden verschiedene Gefahrenquellen benannt und mit Beispielen belegt, die die Gültigkeit der Ergebnisse von Wirksamkeitsuntersuchungen beeinträchtigen können. Es werden darüber hinaus eine Reihe wichtiger Quasi-Experimenteller-Designs dargestellt, die Vor- und Nachteile der Designs diskutiert und Hinweise auf mögliche Einsatzfelder gegeben. Um die Qualität der Ergebnisse von Wirksamkeitsuntersuchungen zu verbessern, wird vorgeschlagen, mehrere Erhebungen mittels ein und derselben Untersuchungsanordnung zugleich an mehreren Orten oder an mehreren Untersuchungsgruppen durchzuführen. Es werden mehrere simultane Untersuchungsdesigns vorgestellt und Einsatzbereiche erläutert. Teil 2: Simultane Wirksamkeitsuntersuchungen von Maßnahmen zur Hebung der Verkehrssicherheit erfordern häufig statistische Methoden zur Analyse von Kennzahlen, die auf andere Kennzahlen bezogen sind. Diese bezogenen Kennzahlen bezeichnet man als Risikogrößen. Es werden Methoden vorgestellt und diskutiert, die eingesetzt werden können, wenn entweder die Bezugsgrößen fest oder stochastisch sind.
Ziel der Gesamtstudie ist die Zusammenstellung pharmakologisch geeigneter, praktikabler Versuchsplanungen sowie Untersuchungs- und Auswerteverfahren, die zur Feststellung der Wirkung von Medikamenten auf die Fahrtüchtigkeit empfohlen werden können. Im ersten Projektabschnitt der Studie erfolgt eine Literatursichtung, die sich auf deutsch- und englischsprachige Arbeiten stützt. Es werden alle unmittelbar verfügbaren Arbeiten ab dem Veröffentlichungsjahr 1970 berücksichtigt, wobei in diesen Arbeiten der Einfluss von Medikamenten auf verkehrsrelevante Leistungs- und Persönlichkeitsbereiche mit vorwiegend psychologischen Testverfahren überprüft wird. Ein Teil der Untersuchungen weist gravierende methodische Mängel auf, die sich auf Stichprobengröße, Stichprobenauswahl, Kontrollgruppendesign, fehlende Aussagen über den Versuchsablauf sowie auf Mängel in der statistischen Auswertung beziehen. Solche methodischen Mängel machen die Entwicklung eines Untersuchungsdesigns notwendig, in das verwertbare Ergebnisse der Literaturrecherche eingehen können und mit dessen Hilfe in einem zweiten Projektabschnitt eine endgültige standardisierte Testbatterie ermittelt werden kann. Wegen der methodischen Einschränkungen wird nur eine vorläufige Testauswahl vorgeschlagen.
Die rasche Verbreitung von Tempo 30-Gebieten seit 1985 hat in den Verkehrsbetrieben zu Widerständen geführt. Man befürchtet, dass Fahrzeitverluste und Komforteinbußen entstehen sowie für den Betreiber die Wirtschaftlichkeit verschlechtert wird. Das Vorhaben analysiert die Verbreitung der Tempo 30-Gebiete mit Buslinien sowie die Einschätzung der Verkehrsbetriebe und ermittelt mit einer detaillierten Untersuchung ausgewählter Buslinien die eigentlichen Auswirkungen. Wesentliche Untersuchungsergebnisse sind: 1. Die Verkehrsbetriebe beurteilen die Tempo 30-Gebiete überwiegend negativ, 2. Fahrzeitmessungen ergeben, dass je nach Maßnahmenintensität in den Tempo 30-Gebieten mit bis zu 30 Sekunden Fahrzeitverlusten auf 1.000 Meter zu rechnen ist. Im Vergleich zu weiteren Verlustzeiten haben die heutigen Tempo 30-Gebiete keinen wesentlichen Einfluss, 3. Befragungen der Fahrgäste und Fahrer zeigen, dass die Fahrgäste die Tempo 30-Gebiete im Linienverlauf erkennen und insbesondere die Erhöhung der allgemeinen Sicherheit als Vorteil nennen. Die Auswirkungen auf den Busverlauf werden von den Fargästen als ziemlich gering eingestuft. Die Fahrerbefragung ergab dagegen sehr widersprüchliche Antworten. Bei weiter zunehmender Einrichtung von Tempo 30-Gebieten und weiter zunehmender Maßnahmenintensität werden sich die Auswirkungen sicherlich nennenswert verstärken. Wichtig ist daher, die rechtzeitige Beteiligung der Verkehrsbetriebe sicherzustellen und ÖPNV-verträgliche Maßnahmen in diesen Gebieten vorzunehmen.
Im Rahmen des vorliegenden Projekts wurden die verschiedenen Steuerungsverfahren einer Koordinierung untersucht. Dabei wurden im Schwerpunkt die festzeitgesteuerte Koordinierung, die verkehrsabhängige Steuerung mit Rahmenzeitplan und die vollverkehrsabhängige Steuerung miteinander verglichen. Zur Erfassung des Standes der Technik wurden Quellenanalysen durchgeführt. Zusätzlich fanden Expertengespräche statt, um auch Erfahrungen aus der Praxis in die Untersuchung einzubeziehen. Dabei stellte sich heraus, dass in der Fachwelt die Meinung vorherrscht, dass eine festzeitkoordinierte Steuerung nicht mehr dem Stand der Technik entspricht, da sie zu unflexibel ist. Um die tatsächliche Wirkung der Steuerungsverfahren zu überprüfen, wurden zehn Straßenzüge durch empirische Messungen und Simulationen untersucht. Die auf den Straßenzügen in der Realität vorhandenen Steuerungen wurden in den Simulationsmodellen exakt nachgebildet und neue Steuerungen wurden entwickelt. Dadurch konnten umfangreiche Vergleiche zwischen vorhandenen und optimierten Steuerungen sowie zwischen verkehrsabhängigen und festzeitgesteuerten Koordinierungen angestellt werden. Die Bewertung der Verfahren erfolgte anhand eines Performance Index, der die Anzahl der Halte und die Wartezeiten in jeder Knotenpunktzufahrt des Netzes berücksichtigt. Die Untersuchungen führten zu dem Ergebnis, dass die verkehrsabhängige Steuerung keineswegs nur Vorteile gegenüber der Festzeitsteuerung hat. Es ergaben sich je nach Verkehrssituation sehr unterschiedliche Qualitäten der Steuerungsverfahren. In der Simulation wurde außerdem deutlich, dass eine vollverkehrsabhängige Steuerung ohne Rahmenplan nicht geeignet ist für die Steuerung eines Straßenzuges. In den deutschen Richtlinien wird bisher kein Verfahren zur Bestimmung der Verkehrsqualität verkehrsabhängiger Steuerungen beschrieben. In dieser Untersuchung wurde zusätzlich zu den Simulationen ein theoretisches Verfahren zur Bewertung verkehrsabhängiger Steuerungen vorgestellt. Aus den so gewonnenen Untersuchungsergebnissen wurden schließlich Kriterien für die Einsatzbereiche der verschiedenen Steuerungsverfahren entwickelt, die eine Entscheidungsfindung zukünftiger Planungsvorhaben erleichtern sollen.
Ziel der Untersuchung war es, anhand realer Fälle adaptive Steuerungen von Lichtsignalanlagen für städtische Hauptverkehrsstraßen mit konventionellen Steuerungen zu vergleichen. Für die Untersuchung wurden je zwei Hauptverkehrsstraßen in Münster und Remscheid ausgesucht, auf denen adaptive Steuerungen eingerichtet wurden. Dabei wurde zunächst eine konventionelle Koordinierung mit weitgehend verkehrsabhängigen Elementen hergestellt. Zusätzlich konnte jeweils eine adaptive Steuerung geschaltet werden. Auf allen Strecken wurden systematisch Testfahrten bei Schaltung der verschiedenen Steuerungszustände durchgeführt. Die hierbei mittels GPS aufgezeichneten Fahrzeugtrajektorien wurden hinsichtlich der Anzahl von Halten und der Wartezeiten analysiert, um so zu einer verkehrstechnischen Beurteilung zu gelangen. Auf der ersten Teststrecke in Münster konnte durch die adaptive Steuerung eine deutliche Verbesserung des Verkehrsablaufs erreicht werden. Auf der zweiten Teststrecke in Münster ließ sich dieser Erfolg nicht wiederholen. Es traten teilweise erhebliche verkehrliche Verschlechterungen bei Schaltung der adaptiven Steuerung ein. Auf den Teststrecken in Remscheid ergaben sich durch die adaptive Steuerung in jeweils einer Fahrtrichtung Verbesserungen des Verkehrsflusses. Dem stehen jedoch Verschlechterungen in der Gegenrichtung gegenüber. Weil eine direkte Erfassung der Immissionen vor Ort nicht möglich war, wurde eine Antwort hinsichtlich der ökologischen Wirkungen durch mikroskopische Simulation gesucht. Für je eine Strecke in Münster und Remscheid wurde die adaptive Steuerung in ein VISSIM-Modell integriert. Die simulierten Fahrzeugtrajektorien wurden durch das Verfahren PHEM im Hinblick auf die Schätzung der Emissionen analysiert. Dabei zeigte sich in Münster eine leichte Verbesserung (1,0 %) der ökologischen Auswirkungen als Folge der adaptiven Steuerung. In Remscheid zeigte sich nach den eingetretenen ungünstigen verkehrlichen Wirkungen erwartungsgemäß auch eine Verschlechterung der ökologischen Auswirkungen. Die Ergebnisse der mikroskopischen Simulation in Verbindung mit der adaptiven Steuerung auf diesem Streckenzug unterlagen jedoch erheblichen Schwankungen, sodass hiermit lediglich tendenzielle Aussagen möglich sind. Im Ergebnis zeigte sich, dass die adaptiven Verfahren die Möglichkeit eröffnen, den Verkehrsfluss auf städtischen Hauptverkehrsstraßen zu verflüssigen. Dabei können auch Verbesserungen hinsichtlich der Schadstoffemissionen und des Energieverbrauchs eintreten. Diese Verbesserungen können jedoch nicht uneingeschränkt vorausgesetzt werden, sondern bedürfen einer zum Teil längerfristigen, kostenintensiven Einstellungsphase.
Zur Erprobung der Umsetzung des Eurocode 7 und der weiteren neuen europäischen Normen im Grund- und Tunnelbau wurden Vergleichsberechnungen nach DIN EN 1997-1/DIN 1054 (2010) und nach bisher gültiger DIN 1054 (2005) durchgeführt. Als Beispiele wurden ein Spundwandverbau, eine Winkelstützwand, ein Tunnel in offener Bauweise, ein Tunnel in geschlossener Bauweise und eine Pfahlgründung berechnet. Die Untersuchungen haben im Wesentlichen die folgenden Ergebnisse gezeigt: - Für den betrachteten Spundwandverbau und die untersuchte Winkelstützwand ergeben sich auf der Grundlage der neuen europäischen Vorschriften die gleichen Bauteilabmessungen und Querschnittsausnutzungen wie nach den bisherigen nationalen Normen. - Für Tunnelbauwerke in offener und in geschlossener Bauweise ergeben sich aufgrund der gemäß DIN EN 1992-2 nun größer anzusetzenden Elastizitätsmoduln des Betons geringfügig höhere erforderliche Bewehrungsquerschnitte als bisher. - Bei Pfahlbemessungen ergeben sich geringfügig abweichende Bemessungswiderstände der äußeren Tragfähigkeit der Pfähle. - Durch die Einführung der neuen europäischen Vorschriften für Bauwerke des Grund- und Tunnelbaus ergeben sich insgesamt nur geringe technische Änderungen bei den zu führenden statischen Nachweisen und auch nur geringe Änderungen in den Bemessungsergebnissen gegenüber den bisherigen deutschen Normen. Die Umstellung auf die europäischen Normen beinhaltet im Grund- und Tunnelbau daher keine gravierenden Änderungen des Sicherheitsniveaus oder der Kosten. Zusammenfassend ist festzustellen, dass die ZTV-ING, Teil 2, Abschnitte 1, 2 und 4 sowie Teil 5, Abschnitte 1 und 2 und die zugehörigen fachspezifischen europäischen und deutschen Vorschriften für die hier untersuchten Bauwerke eine hinreichende Grundlage für die Umsetzung der Eurocodes im Grund- und Tunnelbau sind.
Die flächendeckende Einrichtung von Notarztsystemen ist eine zentrale Aufgabe der jüngsten Ausbaustufe des Rettungswesens. Es ist das Ziel des Forschungsprojekts, die möglichen Organisationsformen von Notarztsystemen aufzuzeigen und die für die Auswahl einer Variante bedeutsamen Planungs- und Entscheidungsfaktoren zu ermitteln und zu systematisieren. Der Gang der Untersuchung gliedert sich in zwei Teile. Aufgabe des ersten Arbeitsschrittes ist es, eine wissenschaftlich abgesicherte Basis zum Planungsproblem der Organisation von Notarztsystemen zu entwickeln. Im Mittelpunkt dieses Untersuchungsabschnitts steht eine sowohl rettungstaktische als auch Kostengesichtspunkte beachtende Analyse der strategischen Organisationsmöglichkeiten von Notarztsystemen. Der zweite Untersuchungsteil ist empirisch ausgelegt. Er hat zur Aufgabe, einen Überblick über die bereits bestehenden Notarztsysteme zu vermitteln und die mit den verschiedenen Ausgestaltungsformen in der Praxis gemachten Erfahrungen aufzuzeigen. Zu diesem Zweck wurden verschiedene Informationsquellen herangezogen. Einerseits wurden die in der Literatur relativ zahlreich vorzufindenden Beschreibungen bereits eingerichteter Notarztsysteme systematisch ausgewertet. Darüber hinaus wurden durch eine Umfrage die in den Bundesländern Saarland und Niedersachsen bestehenden Notarztsysteme flächendeckend erfasst. Die Forschungsergebnisse zeigen, dass die Eignung einer Organisationsform zur Versorgung eines bestimmten Gebietes von einer Vielzahl ortsspezifischer Rahmenbedingungen abhängt und daher keine allgemeingültigen Empfehlungen zur Ausgestaltung von Notarztsystemen ausgesprochen werden können. Allerdings gibt die Untersuchung zu erkennen, dass bei vielen typischen Ausgangslagern ein an ein Krankenhaus angegliedertes, im Rendezvous-Verfahren betriebenes Notarztsystem die günstigste Organisationsvariante darstellt. Zum Abschluss der Untersuchung sind die wichtigsten Planungsempfehlungen zusammengefasst dargelegt. Als gundlegender Punkt wird auf die Notwendigkeit hingewiesen, Notarztsystemen als Teilbereichen des Rettungsdienstes einen rechtlichen und organisatorischen Rahmen zu geben. Wichtig ist dabei zum Beispiel, dass eindeutige Regelungen für die Zuständigkeiten bei der Planung und Durchführung der Dienste getroffen werden.
Für eine frühzeitige Verkehrsfreigabe von Betonfahrbahndecken wird in der ZTV Beton-StB 07 eine Mindestbetondruckfestigkeit von 26 N/mm2 gefordert. Insbesondere Betonfahrbahnen, die bei niedrigen Temperaturen hergestellt und bereits im jungen Alter durch Frost und Taumittel beansprucht werden, müssen einen ausreichend hohen Widerstand gegen Frost-Tausalz-Wechsel aufweisen. Vor diesem Hintergrund wurde im Rahmen eines Forschungsprojektes die Dauerhaftigkeit von Waschbetonoberflächen bei Herstellung unter spätherbstlichen Klimabedingungen und bei frühzeitiger Verkehrsfreigabe unter Frost-Taumittel-Beanspruchung untersucht. Im Hinblick auf die Waschbetonoberfläche wurde insbesondere die Einbettung der groben Gesteinskörnung in die Oberflächenmatrix mittels Oberflächenzugfestigkeitsprüfungen an befrosteten und unbefrosteten Proben sowie die Makrotextur vor und nach der Frost-Tausalz-Prüfung überprüft. Dabei zeigten sich bei den beiden untersuchten Laborbetonen mit CEM I 42,5 R und CEM II/A-S 42,5 R nur geringfügige Unterschiede. Im Hinblick auf die CDF-Prüfungen wurden insbesondere bei den Serien, die bei 8 -°C, 99 % relativer Feuchte, lagerten und mit einer Zieldruckfestigkeit von 32 N/mm2 in die Frosttruhe eingelagert wurden, im Vergleich zu den beiden anderen Lagerungsbedingungen (8 -°C, 85 % relative Feuchte und 20 -°C, 65 % relative Feuchte) mit geringeren Zieldruckfestigkeiten von 20 N/mm2 und 26 N/mm2 deutlich geringere Abwitterungen ermittelt. Die Serien mit Lagerung bei 20 -°C, 65 % relativer Feuchte verzeichneten demgegenüber den höchsten Materialverlust sowie einen signifikanteren Anstieg der relativen Feuchteaufnahme zu Beginn der CDF-Prüfung. Die kontinuierliche Zunahme des relativen, dynamischen E-Moduls aller untersuchten Betone über die gesamte Prüfdauer ist auf die im Betonalter noch intensiv andauernde Hydratation zurückzuführen. Im Rahmen der Oberflächenzugfestigkeitsprüfungen wurden insbesondere bei den unbefrosteten Proben in der Feuchtlagerung bei 8 -°C, 99 % relativer Feuchte, die höchsten Oberflächenzugfestigkeiten ermittelt. Die Betone der Serien, die bei 20 -°C, 65 % relativer Feuchte lagerten, wiesen zu den jeweiligen Prüfzeitpunkten jeweils geringere Oberflächenzugfestigkeiten als die feuchter gelagerten Betone auf. Während die Serien durch ihre Lagerung (8 -°C, 85 % relative Feuchte sowie 99 % relative Feuchte) oberflächennah wassergesättigt waren, kam es bei den Serien mit Lagerung bei 20 -°C, 65 % relativer Feuchte zum Austrocknen der oberflächennahen Schicht. Allen untersuchten Betonproben konnten Kohäsionsbrüche sowohl in der Gesteinskörnung als auch in der Zementsteinmatrix zugeordnet werden. Allerdings lässt sich auch in den Fällen mit gerissenen Gesteinskörnern aufgrund der generell erzielten Oberflächenzugfestigkeiten (stets > 1,5 N/mm2) keine Beeinträchtigung der Dauerhaftigkeit (einschließlich der Korneinbettung) der Waschbetonoberfläche, die bei kühler und feuchter Witterung nur kurze Zeit erhärten konnte und frühzeitig Frost-Tausalz-Beanspruchung ausgesetzt wurde, erkennen, solange die Festigkeit des Betons bei der ersten Frosteinwirkung größer als rund 20 N/mm2 ist.
In Deutschland eignen sich Fahrerlaubnisbewerber ihre grundlegende Fahrkompetenz zur selbständigen Teilnahme am motorisierten Straßenverkehr weitgehend durch das Absolvieren einer obligatorischen Fahrausbildung in einer Fahrschule an. Diese Ausbildung beruht zu einem Großteil auf Konzepten, die bereits in den 70er und 80er Jahren eingeführt und anschließend ergänzt wurden. Angesichts des Erkenntnisfortschritts in der Lehr-Lernforschung und in den Verkehrswissenschaften erscheint es nun angezeigt, nach Anregungen zur Optimierung der Fahrschulausbildung zu suchen. Darüber hinaus legt das deutlich erhöhte Unfallrisiko von Fahranfängern nahe, dass die Fahrschulausbildung allein nicht ausreicht, um Fahranfängern alle Kompetenzen zu vermitteln, die sie für die sichere Teilnahme am Strassenverkehr benötigen. Aus diesem Grund erscheint es zusätzlich erstrebenswert, die Ausbildung durch (möglichst kostengünstige) informelle Lehr-Lernformen zu ergänzen, die zum Aufbau eines umfassenderen Fahrkompetenzniveaus beitragen. Mit dem vorliegenden Projekt wurden die Inhalte, Methoden und Durchführungsformen der Fahrschulausbildung einer kritischen Betrachtung unterzogen und wissenschaftlich begründete Ansatzpunkte fuer ihre Weiterentwicklung erarbeitet. Die diesbezüglichen Forschungs- und Entwicklungsarbeiten umfassten vor allem die Skizzierung eines künftigen Ausbildungscurriculums für den Theorieunterricht und die Fahrpraktische Ausbildung. Dabei wurden auch Schnittstellen zu informellen Lehr-Lernformen (v. a. Selbständiges Theorielernen) geschaffen, um Synergieeffekte zu produzieren. Die erarbeiteten Optimierungsansätze wurden beschrieben und lehr-lerntheoretisch begründet. Darüber hinaus wurden Implementationskonzepte und prototypische Ausbildungseinheiten einer optimierten Fahrschulausbildung entwickelt. Insgesamt gesehen, sind die Projektergebnisse als konzeptionelle Vorarbeiten für eine Optimierung der Ausbildung und eine verbesserte Ausschöpfung ihres Verkehrssicherheitspotenzials anzusehen.
Der vorliegende Innovationsbericht beschreibt die Forschungs- und Entwicklungsschwerpunkte der TÜV | DEKRA arge tp 21 im Hinblick auf das Fahrerlaubnisprüfungssystem für den Zeitraum 2011 - 2014. Diese lagen (1) in der Aufbereitung wissenschaftlicher Grundlagen zur Vermittlung und Erfassung von Kompetenzen im Bereich der Verkehrswahrnehmung und Gefahrenvermeidung bei Fahranfängern, (2) in der Evaluation und Weiterentwicklung der Theoretischen Fahrerlaubnisprüfung und (3) in Forschungs- und Entwicklungsarbeiten zur Optimierung der Praktischen Fahrerlaubnisprüfung sowie (4) in der Beschreibung des fahrzeugtechnischen Wandels und seiner Bedeutung für die Fahrausbildung und Fahrerlaubnisprüfung. Zu (1): Kompetenzdefizite von Fahranfängern gegenüber erfahrenen Fahrern in der Verkehrswahrnehmung und Gefahrenvermeidung sind durch eine Vielzahl empirischer Studien belegt. Die systematische Vermittlung und Aneignung entsprechender Fähigkeiten im Vorfeld der selbständigen Verkehrsteilnahme erscheint deshalb vielversprechend für die Verringerung fahranfängertypischer Unfallrisiken. Der Entwicklung diesbezüglicher Ausbildungs- und Prüfungskonzepte muss jedoch zunächst eine Beschreibung der zugrunde liegenden psychologischen Konstrukte vorausgehen. Im Berichtszeitraum wurden dazu die relevanten wahrnehmungs- und verkehrspsychologischen Grundlagen aufgearbeitet. Weiterhin wurden die international im Fahrerlaubniswesen bereits praktizierten innovativen PC-basierten Prüfungsansätze wie auch experimentelle Untersuchungen aus der "Hazard Perception"-Forschung analysiert. Schließlich wurden Lehr-Lernangebote für Fahranfänger recherchiert. Mit den im Bericht vorgelegten Ergebnissen wurde der theoretische Grundstein für die künftige Verankerung der Verkehrswahrnehmung und Gefahrenvermeidung in der Fahranfängervorbereitung gelegt. Hieran wird nun die Erarbeitung innovativer Lernangebote und Prüfungsaufgaben für Fahranfänger anschließen. Zu (2): Die Arbeiten zur Theoretischen Fahrerlaubnisprüfung umfassten die Evaluation von Prüfungsaufgaben und Paralleltests sowie auch weiterführende empirische Untersuchungen zur Bearbeitung anlassbezogener Fragestellungen (u. a. Modellrechnungen zur Erarbeitung von empirisch gestützten Empfehlungen für eine optimierte Prüfungsbewertung). Weiterhin wurden 2014, d. h. zum Ende des Berichtszeitraums, erstmals Aufgaben mit dynamischen Situationsdarstellungen eingesetzt. Die vorbereitenden Forschungs- und Entwicklungsarbeiten werden im Bericht überblicksartig dargestellt. Nicht zuletzt werden erste Ergebnisse der empirischen Erprobung innovativer Aufgabenformate diskutiert, bei denen neuartige Formen der Antworteingabe (Tastendruck, Pedal) und der Leistungsbewertung (Reaktionszeit) verwendet wurden. Die skizzierten Forschungsarbeiten lassen erkennen, dass seit einigen Jahren die Vorteile des Prüfmediums "Computer" erfolgreich genutzt werden. Sie zeigen jedoch auch, dass die PC-gestützte Prüfung weitere Potentiale " insbesondere im Bereich der Aufgabenentwicklung und Testkonstruktion " birgt, die es zukünftig auszuschöpfen gilt. Zu (3): Die Arbeiten zur Praktischen Fahrerlaubnisprüfung waren im Wesentlichen durch drei verbundene Projekte gekennzeichnet: Das BASt-Projekt "Optimierung der Praktischen Fahrerlaubnisprüfung" diente der Erarbeitung methodischer Grundlagen (es begann 2008 und endete im ersten Jahr des Berichtszeitraumes). Als zweites folgte eine von der TÜV | DEKRA arge tp 21 durchgeführte Machbarkeitsstudie (2011 bis 2012) zur Untersuchung der Praktikabilität einer elektronischen Prüfungsdokumentation ("e-Prüfprotokoll"). Das BASt-Projekt "Revision zu einer optimierten Praktischen Fahrerlaubnisprüfung" stellt schließlich das dritte Projekt dar (es begann im Jahr 2013 und wird über den Berichtszeitraum hinaus bis 2015 fortgeführt). Es dient dazu, die Inhalte, Verfahren und Abläufe der Prüfung (einschließlich Verfahrensweisen zu einer kontinuierlichen Evaluation) bis hin zur Einsatzreife weiterzuentwickeln und in ausgewählten Modellregionen zu erproben. Mit einer bundesweiten Implementierung der erarbeiteten Standards würde gewährleistet, dass die Entscheidung über die Zulassung zum motorisierten Straßenverkehr künftig auf einer differenzierten Fahrkompetenzeinschätzung basiert und festgestellte Kompetenzdefizite systematisch erfasst und zurückgemeldet werden " dies lässt eine verbesserte Sicherheitswirksamkeit der Praktischen Fahrerlaubnisprüfung erwarten. Zu (4): Fahrzeugtechnische Innovationen " seien es Fahrerassistenzsysteme, Antriebskonzepte ("e-Mobilität") oder das (teil-)automatisierte Fahren " kommen in immer kürzeren Abständen auf den Markt. Diese Entwicklungen sind mit veränderten Anforderungen an das Fahren verbunden und haben daher maßgeblichen Einfluss auf den Erwerb, die Überpruefung und den Erhalt von Fahrkompetenz. Im Bericht werden die daraus resultierenden zukünftigen Aufgabenstellungen für die Technischen Prüfstellen skizziert.
In der zukünftig vorgesehenen Systematik der Straßenerhaltung werden zur routinemäßigen Beobachtung und Beurteilung des Ebenheitszustandes auf unterschiedlichen Entscheidungsebenen geeignete Systeme zur Messung von Fahrbahnunebenheiten benötigt. Um die aus den Messungen resultierenden Ergebnisse vergleichbar zu machen, müssen Verfahren zur Beschreibung beziehungsweise Bewertung von Unebenheiten zur Verfügung stehen, die sich einheitlicher Entscheidungsgrundlagen bedienen und deren Ergebnisse dazu ineinander überführbar sind. Der Teil 1 der Gesamtaufgabe beschäftigt sich mit der Sammlung einer repräsentativen Anzahl von Zustandswerten für das Fahrbahnoberflächenprofil in Längsrichtung und mit dem Vergleich von Mess- und Beschreibungsverfahren für Unebenheiten des Längs- beziehungsweise des Querprofils. Im Teil 2 werden die theoretischen Grundlagen zur Beurteilung der Mess- und Beschreibungsverfahren gelegt, wobei die Betrachtung auf die Messung der Ebenheit im Längsprofil beschränkt werden sollte. Die theoretischen Untersuchungen ergaben, dass allein die folgenden Geräte sich zur Messung der Ebenheit im Längsprofil eignen: Analyseur Dynamique de Profil en Long (APL), Automatic Road Analyzer (ARAN) und High Speed-Road Monitor (HPM). Alle drei Geräte messen das Straßenlängsprofil und eignen sich zur Ermittlung der Spektralen Dichte der Profilhöhen Omega(Index 0 hoch 1), die zur Zeit die einzige Beschreibungsgröße ist, die die Längsebenheit charakterisieren kann. Um die gemessenen Spektralen Dichten bewerten zu können, wurde eine Bewertungsgröße für die Längsebenheit, der Spektrale Ebenheits-Index (SEI) entwickelt, mit dessen Hilfe auch die in Teil 1 gesammelten Ebenheitsdaten von 180 km bundesdeutschen Straßen zu einem ersten Bewertungshintergrund ausgewertet werden konnten. Mit der Einführung der Spektralen Dichte Phi(Index h)Omega als Beschreibungs- und der Schaffung des SEI als Bewertungsgröße für die Ebenheit ist die Voraussetzung für eine sachgerechte und aussagekräftige Charakterisierung für die Allgemeinunebenheit im Längsprofil gegeben. Darüber hinaus stehen repräsentative Zustandswerte der Ebenheit aus dem aktuellen Straßennetz der Bundesrepublik Deutschland zur Verfügung.
Bei Verwendung von Ersatzbaustoffen für die Herstellung von Böschungen haben unter anderem die Sickerwassermengen und deren Verweildauer in den Baustoffen wesentlichen Einfluss auf die Menge der möglichen austragbaren Schadstoffe. Im "Merkblatt über Bauweisen für technische Sicherungsmaßnahmen beim Einsatz von Böden und Baustoffen mit umweltrelevanten Inhaltsstoffen im Erdbau - M TS E" [FGSV 2009] der FGSV sind unterschiedliche Sicherungsmaßnahmen zur Reduzierung der Sickerwassermengen aufgeführt. Zur praxisnahen Bewertung der Prinzipien einiger dieser Maßnahmen wurden großmaßstäbliche Lysimeteruntersuchungen durchgeführt, um daran Sickerwasserraten und -mengen wie auch Schadstoffkonzentrationen zu quantifizieren. Dazu wurden in einer bereits bestehenden Lysimeteranlage in Augsburg (Derchinger Strasse) durch die BASt in acht Lysimeter der Ausschnitt einer Straßenböschung einschließlich eines etwa ein Meter breiten Bankettstreifens eingebaut. Diese werden seit Juli 2010 von der Hochschule Augsburg in Zusammenarbeit mit der BASt untersucht. Auf den Böschungen wurden unterschiedliche technische Sicherungsmaßnahmen eingesetzt. Zusätzlich wurden zum Vergleich auch Varianten ohne technische Sicherungsmaßnahme realisiert. Für den Aufbau der Böschungskerne wurde für vier Lysimeter feinkörniges (schwach durchlässiges) und für die anderen vier grobkörniges (durchlässiges) Bodenmaterial ausgewählt und mit Schadstoffen (Cadmiumacetat, Kaliumferrocyanid und Kupfersulfat) dotiert. Gemessen wurden die Sickerwasser- und Oberflächenabflussmengen, die Menge des Straßenabflusses und der Niederschlag an der Versuchsanlage sowie in jedem Lysimeter die volumetrische Feuchte, Temperatur und Salinität an jeweils zwei Punkten der eingebauten Böschungskörper. Ergänzend zu den hydraulischen Größen (Niederschlag, Menge von Sickerwasser und Oberflächenabfluss der Lysimeter), wurden Konzentrationen der zudotierten Schadstoffe und weiterer Parameter im Sickerwasser der Lysimeter und im Straßenabfluss bestimmt, die für den Einsatz von Ersatzbaustoffen (z.B. RC-Baustoffe und industrielle Nebenprodukte) und für die Straßenentwässerungsplanung relevant sein können. Dabei handelte es sich um Chlorid, Sulfat, Cyanid (ges.), Arsen, Blei, Cadmium, Chrom (ges.), Kupfer, Nickel, Quecksilber, Zink, Thallium, Molybdän, Antimon und Vanadium sowie pH-Wert, Temperatur und elektrische Leitfähigkeit. Das Sickerwasser und der Straßenabfluss wurden als Mischprobe gesammelt und regelmäßig analysiert. Qualitativ konnte für den Untersuchungszeitraum von September 2010 bis März 2013 festgestellt werden: - Die Auswahl des Dammbaustoffes hat den wesentlichen Einfluss auf den Anteil des Sickerwassers. Dieser betrug, bezogen auf die gesamte erfasste Wassermenge, bei den Becken mit bindigem Boden zwischen 4% und 16%, bei den Becken mit kiesigem Boden zwischen 45 % und 71 %. - Beim kiesigen Boden konnte gezeigt werden, dass ein hoher Anteil des Wassers bereits im Bankett versickert. - Eine Bitumenanspritzung als technische Sicherungsmaßnahme bewirkt bei beiden Bodenarten keine Verminderung des Sickerwasseranteils. - Die Möglichkeit einer gut wasserleitenden Schicht zeigte die größte Reduzierung der Sickerwassermengen. Sie wurde auf den Böschungen mit bindigem Boden im Böschungskern eingesetzt. Hinsichtlich der chemischen Parameter konnte im Untersuchungszeitraum (Juli 2010 bis November 2013) im Ergebnis festgestellt werden: - Die während des Messzeitraumes aus jedem Lysimeter ausgetragenen Stoffmengen sind relativ gering. Dies gilt auch für gut lösbare Stoffe wie Cyanid. - Hohe Chloridkonzentrationen im Sickerwasser haben eine mobilisierende Wirkung auf mehrere Schwermetalle. - Die ungleichmäßige Verteilung der Zuflüsse zu den Lysimetern hat auch auf die im Versuchszeitraum angefallenen Frachten wesentlichen Einfluss. Die Ergebnisse der Frachtermittlung zeigen - wie auch die gemessenen Konzentrationen - deutlicher den Unterschied zwischen den beiden eingebauten Böden als zwischen den realisierten technischen Sicherungsmaßnahmen. - Die mittleren Konzentrationen im Sickerwasser der Lysimeter ähneln sich bei gleichem eingebautem Boden sehr stark. Damit paust sich die Qualität des Zulaufes direkt auf die Frachtberechnung durch und diese erlaubt keine endgültigen Schlüsse auf die Wirkung der technischen Sicherungsmaßnahmen. Die Verringerung der die Böschung durchsickernden Wasseremenge bewirkt jedoch eine entsprechende Verringerung der ausgetragenen Stoffmenge. Es ist seitens der BASt ein Folgeprojekt geplant, um bisher noch offene Fragen mit Bezug zum Wasserhaushalt der Lysimeter zu beantworten.
In der vergangenen Zeit ist das Thema Feinstaub durch die Einrichtung der Umweltzonen in das Blickfeld der Öffentlichkeit getreten. Neben den gesundheitlichen Risiken werden auch die Quellen und mögliche Maßnahmen zur Eindämmung im Rahmen zahlreicher Forschungsprojekte untersucht. Der motorisierte Straßenverkehr stellt eine bedeutende Quelle für Feinstäube dar, weshalb hier im Rahmen des Projekts "Einfluss der Straßenrandbegrünung auf die PM10-Konzentration" Möglichkeiten zur Beeinflussung der Feinstaubkonzentration durch Pflanzen entlang von Fernstraßen bewertet werden sollten. Ziel des Projektes war es zu ermitteln, in wie weit Pflanzen am Straßenrand Feinstäube auf ihren Blattoberflächen abscheiden und so einen Beitrag zur Senkung der Feinstaubbelastung leisten können. Auf der anderen Seite sollten aber auch die Belastungen der Pflanzen untersucht werden, der sie durch die Feinstäube ausgesetzt werden. Es konnte gezeigt werden, dass Pflanzen grundsätzlich in der Lage sind, größere Mengen an Feinstaub auf ihren Blättern abzuscheiden. Darüber hinaus haben die Untersuchungen gezeigt, dass die Blätter durch den Regen zumindest teilweise von ihrer Staubfracht befreit werden können. Durch Messungen an Autobahnen im Raum Wuppertal konnten diese ersten Ergebnisse zum Teil bestätigt werden. Teilweise zeigten sich aber auch lokale Erhöhungen der Feinstaubkonzentration, für die bislang keine eindeutige Begründung gefunden werden konnte. Die Ergebnisse zeigen eine erste Möglichkeit auf, die Feinstaubbelastung mit Hilfe von Pflanzen zu senken. Allerdings sind bis zu einem gezielten, für die PM10-Konzentration relevanten Einsatz von Pflanzen noch umfangreiche Untersuchungen erforderlich, um die hier aufgeworfenen Fragestellungen abschließend klären zu können.
Radfahrer-Schutzhelme sind ab Mitte der 70er Jahre durch Einsatz von neuen Materialien entscheidend verbessert worden. Sie bestehen heute fast immer aus einer circa 20 Millimeter dicken Schale aus geschäumtem Polystyrol, und in den meisten Fällen existiert eine zusätzliche harte Aussenschale. Für diese Helme wurden Sicherheitsstandards unter anderem in den USA und Australien erarbeitet, deren Schwerpunkte im Stoßdämpfungstest und in der Belastung der Helm-Trageeinrichtung liegen. In Anlehnung an diese Standards wurden 15 Helme des deutschen Marktes nach dem Testverfahren gemäß ECE-R22 für Motorradhelme, jedoch mit einer reduzierten Fallhöhe von 1 Meter, geprüft. Die Mehrheit der Helme erreichte maximale Verzögerungen von unter 200 Gramm, was den Zielvorstellungen vom Arbeitspapier DIN 33954 entspricht. Die Trageeinrichtungen erfüllen alle die vorgegebenen Festigkeitsanforderungen. Eine Literaturstudie zeigt große Helmtrageaktivitäten besonders in Australien, den USA und in Schweden. In diesen Ländern wurde die Helmtragequote seit vielen Jahren durch entsprechende Werbekampagnen, besonders bei Schulkindern, erheblich gesteigert. Der Abbau von psychologischen Barrieren, wie auch staatliche Unterstützung beim Kauf eines Helmes, gehörten zu den Maßnahmen. Bei einzelnen Gruppen wurden Tragequoten bis zu 30 Prozent ermittelt. Demgegenüber sind Radfahrer-Schutzhelme in der Bundesrepublik Deutschland lediglich bei sportlichen Veranstaltungen, weniger jedoch im öffentlichen Straßenverkehr auszumachen.
Neben der zunehmenden Bedeutung der aktiven Sicherheit bleiben Maßnahmen der passiven Sicherheit bei der Entwicklung moderner Kraftfahrzeuge unabdingbar. Die Weiterentwicklung von Maßnahmen zum passiven Fußgängerschutz war zunächst größtenteils durch Verbraucherschutztests wie zum Beispiel Euro NCAP oder JNCAP getrieben und ist nun auch durch gesetzliche Regelungen verpflichtend geworden. Im vorangegangenen Forschungsprojekt der BASt FE 82.229/2002 Schutz von Fußgängern beim Scheibenaufprall ist die Grundlage eines modularen Prüfverfahrens für den Kopfaufprall im Bereich der Windschutzscheibe, bestehend aus einem Versuchs- und einem Simulationsteil, erarbeitet worden. Im Rahmen dieses Projektes wurde ein hybrides Testverfahren bestehend aus Versuch und Simulation ausgearbeitet, das den Bereich der Windschutzscheibe und dabei auch crashaktive Systeme wie Airbags berücksichtigt. Das Testverfahren kombiniert Komponentenversuche mit einem Simulationsteil, in dem Fahrzeug-Fußgänger-Simulationen und lmpaktorsimulationen durchgeführt werden. Zusätzliche Dummyversuche dienten zur Bewertung des Testverfahrens. Alle erarbeiteten virtuellen und realen Testmethoden wurden an einem Referenzfahrzeug (Opel Signum), welches repräsentativ für eine durchschnittliche Mittelklasselimousine steht, durchgeführt. Das Fahrzeug wurde mit einem Airbagsystem ausgerüstet und der Testprozedur mit und ohne diesem System vergleichend unterzogen. Innerhalb dieser Untersuchungen konnte gezeigt werden, dass neue Testmethoden unter Ausnutzung von Simulationen und Komponententests es erlauben, realistischere Versuchsbedingungen unter Berücksichtigung von potenziellen Kopfaufprallpositionen und -zeiten zu definieren. Dabei können sehr gute Übereinstimmungen zwischen Fußgängersimulation und Dummyversuch erreicht werden. Die Randbedingungen für den Kopfaufprall und die Aufprallzeit wurden durch den Einsatz von Fußgängermodellen ermittelt. Weiterhin ermöglichen die Simulationen, zusätzliche Einflussdaten wie Vektoren mit den Kopfaufprallgeschwindigkeiten und -winkeln zu bestimmen.
Die Bundesanstalt für Straßenwesen hat eine Projektgruppe eingerichtet, deren Aufgabe es ist, die Erkenntnisse über Sachstand und Entwicklungen auf dem Gebiet des Rettungswesens zu systematisieren und zu interpretieren. Auf dieser Grundlage werden Problembereiche beschrieben und Vorschläge für Forschungsaktivitäten erarbeitet, die unter anderem im Rahmen der Forschungsplanung der BASt berücksichtigt werden sollten, beziehungsweise die von anderen Trägern mit Unterstützung durch die BASt durchgeführt werden sollten. Für den Projektgruppenbericht wurden folgende Themenschwerpunkte genannt: 1. Laienhilfe - ein problematischer Bereich des Rettungswesens, 2. Sind Notfallrettung und Krankentransport eine Einheit?, 3. Kommunikation und Kommunikationssysteme im Rettungswesen, 4. Notarztsysteme - Bestandsaufnahme und kritische Wertung, 5. Bewältigung eines Massenanfalls von Verletzten, 6. Die Verbindung von Rettungsdienst und Krankenhaus - eine Schwachstelle?, 7. Leistungsfähigkeit, Wirksamkeit und Effizienz von Rettungssystemen.
Die Erhaltung des Brückenbestandes des Bundes hat hohe Priorität, um eine uneingeschränkte Mobilität im Bundesfernstraßennetz gewährleisten zu können. Die Planung des Einsatzes finanzieller Mittel erfordert unter anderem eine genaue Kenntnis des Zustandes der jeweiligen Brückenbauwerke. Die Bauwerksprüfung erfolgt derzeit "handnah" in festen Intervallen mit einem nach DIN 1076:1999-11 festgelegten Prüfungsumfang. Man spricht von einem zustands- bzw. schadensbasierten Erhaltungsmanagement. Das derzeitige Verfahren beschreibt den IST-Zustand ohne detaillierte Rückschlüsse auf die Entstehung von Schäden zu liefern. Strukturelle Abhängigkeiten bzw. gegenseitige Beeinflussung von Schädigungsmechanismen werden bisher nicht berücksichtigt. Das Ziel des Themenschwerpunktes "intelligente Bauwerke" ist daher, ein verbessertes Konzept für herausragende, bedeutende Brücken zu entwickeln. Von der reinen Datensammlung soll ein Übergang zu einem Brückenmodell erfolgen, welches Informationen direkt weiterverarbeiten kann. Im Rahmen dieses Projekts wird ein Systemmodell entwickelt, welches sowohl strukturelle Abhängigkeiten als auch Interaktionen zwischen Schädigungen berücksichtigt. Das Modell fungiert nicht als "Black-Box", sondern erlaubt es, Rückschlüsse auf die Schadensursachen zu ziehen sowie Informationen über die Relevanz der Schäden bzw. deren Wirkungen auf die einzelnen Bauteile und das Gesamtsystem zu erhalten. Ein neuer Modellierungsansatz für die Bauwerksprüfung und Zustandsbewertung für Brückenbauwerke wurde entwickelt, der so genannte Einflussbaum. Der Einflussbaum ermöglicht eine detaillierte Abbildung von Schädigungsmechanismen durch die Einführung flexibler Logischer Verknüpfungen. Im Gegensatz zu reinen Boole'schen Verknüpfungen herkömmlicher Modellierungsmethoden kann dieses Element auf verschiedene Arten die komplexen Zusammenhänge des Einflusses von Schäden abbilden. Die Verknüpfungen können frei definierte Gleichungen bzw. Vorschriften beinhalten. Auf diese Weise können sowohl einfache grenzwertbasierte als auch vollprobabilistische (zuverlässigkeitsbasierte) Zustandsbewertungen abgebildet werden. Der konzipierte Einflussbaum besteht aus drei Modellebenen: der Strukturebene, der Ebene der Schadensbilder und der Parameterebene. Im Zuge des Ausarbeitens eines Einflussbaumes wird das Bauwerk in einzelne Bauteile strukturiert zerlegt und die entstehenden Elemente hierarchisch angeordnet. Die einzelnen Elemente geben auf einer zugeordneten Skale ihren Zustand aus. Eine Nachverfolgbarkeit verschiedener Einflüsse ist somit gegeben. Für die Beschreibung aller Ebenen des Einflussbaums kommt die grafische Notationssprache Systems Modeling Language (SysML) zum Einsatz. SysML ermöglicht die Modularisierung benutzerdefinierter Strukturteile des Einflussbaums. Die Module können in das Gesamtmodell unkompliziert eingefügt werden. Der Modellierungsprozess wird dadurch stark beschleunigt. Das Hauptergebnis des Projekts FE 15.038 ist ein neues, modellbasiertes Bauwerkszustandsermittlungssystem (Einflussbaum), welches die Berechnung des Zustands nicht nur für das Gesamttragwerk, sondern auch für dessen einzelne Komponenten ermöglicht. Mithilfe des Einflussbaums können zum einen bestehende Schädigungen modelliert und zum anderen Schädigungsabläufe simuliert werden. Der Einflussbaum kann somit im Rahmen der Zustandsbewertung von Bauwerken eingesetzt werden und darüber hinaus als Prognosetool zur Ermittlung des künftigen Bauwerkszustands herangezogen werden. In der Planungsphase ermöglicht das Systemmodell mit einer Parameterstudie kritische Bauteilkomponenten, sog. HotSpots, zu lokalisieren. Die gewonnen Erkenntnisse können als Entscheidungshilfe für die Platzierung von Sensorik dienen. Im Vergleich der neuen systemmodell-basierten Methode und einer herkömmlichen Bauwerksbewertung liegt der Hauptunterschied darin, dass eine Systemanalyse mit einem Einflussbaum den zugrundeliegenden Schädigungsmechanismus aufzeigt. Es werden detailliert die Eingangsparameter für Schädigungen, die jeweiligen vorherrschenden Schädigungsprozesse und die betroffenen strukturellen Komponenten ermittelt. Dies trägt zu einem tieferen Verständnis der Zustandsentwicklung von Bauwerken bei und ermöglicht einerseits eine realitätsnahe Zustandsbeurteilung und andererseits auch eine Berücksichtigung des Erkenntnisgewinns in der Planung von Neubauten hinsichtlich potentieller Schwachstellen bzw. eines effektiven Einsatzes von Monitoringkonzepten.
Ziel der Untersuchung war die Findung von Grundlagen, die eine Beurteilung des Rettungsdienstes im Hinblick auf seine Effizienz ermöglichen. Für die Durchführung der Effizienzanalyse wurde ein Messkonzept entwickelt, mit dessen Hilfe Input und Output des Systems "Rettungsdienst" erfasst und mit Hilfe von Kenngrößen einer vergleichenden Analyse unterzogen werden konnten. Mit der Analyse des Inputs wurden alle im Rettungsdienst eingesetzten Faktoren mengen- und wertmäßig erfasst sowie deren Kombination durch Analyse der Aufbau- und Ablauforganisation ermittelt. Als wesentliche Grundlage einer Kostenanalyse diente eine vollständige und detaillierte Kostenrechnung. Die Analyse, die zum Aufbau eines Kenngrößensystems erfolgt, wurde für ein konkretes Untersuchungsgebiet vorgenommen. Auf der Outputseite wird ein erheblicher Informationsmangel im Hinblick auf die Einsatzqualität festgestellt. Gefordert wird eine einheitliche Dokumentation wesentlicher Einsatzmerkmale, die eindeutige Rückschlüsse auf das Einsatzgeschehen zulässt.
Der Parkraum in den Innenstädten ist zu einem knappen Gut geworden. Deshalb wird schon seit vielen Jahren eine flächendeckende Bewirtschaftung aller verfügbaren Parkstände und Stellplätze angestrebt. Bisher sind gemäß § 13 StVO die Parkuhr, der Parkscheinautomat und bei Gebührenfreiheit auch die Parkscheibe zur Parkraumbewirtschaftung zugelassen. In den vergangenen Jahren wurden verschiedene neue Methoden und Systeme entwickelt, welche die Parkraumbewirtschaftung vereinfachen sollen. Hinsichtlich der Anwendung dieser neuen Methoden und Systeme besteht aber noch eine große Unsicherheit, da es bisher nur wenige Erfahrungen über ihre Einsatzfähigkeit und ihre Einsatzgrenzen gibt. Ziel dieser Untersuchung war es, die heute vermehrt angebotenen alternativen Methoden und Systeme zur Überwachung der Parkdauer sowie zur Zahlung der Parkgebühren im Detail darzustellen. Dabei wurden ihre Einsatzmöglichkeiten und Einsatzgrenzen analysiert und bewertet. Neben der Überprüfung der tatsächlichen Tauglichkeit und Einsatzfähigkeit waren die rechtlichen Rahmenbedingungen darzustellen und die Akzeptanz für die Nutzung solcher Systeme zu untersuchen. Dabei wurden nur Systeme einbezogen, die im öffentlichen Straßenraum anwendbar sind. Dem deutschen Gesetzgeber wird grundsätzlich empfohlen, die alternativen Systeme in Deutschland zuzulassen, wenn die Anpassungen der Systeme an den deutschen Markt erfolgt sind. Eine Anpassung des Rechts sollte auf der Grundlage der Ergebnisse dieser Untersuchung erfolgen und aus Sicht des Gutachters parallel zur Durchführung von Pilotprojekten vorbereitet werden. Die rechtlichen Randbedingungen in Deutschland sind von den Systemanbietern einzuhalten und die Technik ist daran anzupassen. In Deutschland sind im Hinblick auf das Straßenverkehrsrecht, den Datenschutz und die Parkraumpolitik der Kommunen Änderungen bei den Systemen erforderlich. Durch die rechtliche Notwendigkeit, dass auch bei Einführung eines alternativen Systems weiterhin ein konventionelles System angeboten werden muss, verursacht ein alternatives System auf jeden Fall zusätzlichen Aufwand für die Kommune. Wenn diese sich für die Einführung alternativer Systeme entschieden hat, sind in Zusammenarbeit der Kommune und des jeweiligen Systemanbieters die Randbedingungen der Einführung festzulegen. Die Parkraumpolitik sollte durch die Systeme unterstützt, nicht aber von der Technik diktiert werden.
An die Lichtsignalsteuerung richten sich hohe Qualitätsanforderungen, da ihr für einen sicheren und flüssigen Verkehrsablauf im Straßennetz eine wichtige Rolle zukommt. Um eine hohe Qualität der Lichtsignalsteuerung auch im wachsenden Altbestand von Anlagen zu gewährleisten, liegt es nahe, eine regelmäßige, systematische Überprüfung vorzunehmen, um Mängel frühzeitig erkennen und beheben zu können. Ziel des Forschungsvorhabens war es, eine aufwandsoptimierte Verfahrensweise und die notwendigen Hilfsmittel für ein systematisches Qualitätsmanagement für Lichtsignalanlagen (LSA) zu entwickeln. Hierzu wurde zunächst die Lichtsignalsteuerung als Gegenstand des Qualitätsmanagements eingehend erörtert. Auf dieser Grundlage wurden Verfahrensweisen und EDV-gestützte Hilfsmittel entwickelt, mit denen die Güte des Verkehrsablaufs und die Verkehrssicherheit im Straßennetz und an einzelnen Knotenpunkten mit geringem Aufwand überprüft werden kann. Zur Qualitätsbewertung werden Unfalldaten, Prozessdaten und Betriebsdaten analysiert sowie der Verkehrsablauf vor Ort beobachtet. Der Aufbau einer Wissensbasis diente dazu, den Kenntnisstand zu Möglichkeiten der Qualitätsverbesserung an Lichtsignalanlagen für die Anwendung verfügbar zu machen. Hierin sind typische Qualitätsmaengel an Lichtsignalanlagen mit Möglichkeiten der Abhilfe verknüpft. Ferner sind Prüfbedingungen der Eignung und Umsetzbarkeit der Maßnahmen hinterlegt. Mit Hilfe dieses Expertensystems können Maßnahmen identifiziert und bewertet werden. Die Anwendung des Verfahrens an verschiedenen Knotenpunkten zeigt, dass der systematische und modulare Aufbau gut geeignet ist, aussagekräftige Informationen zur Qualität der Lichtsignalsteuerung zu erlangen und geeignete Maßnahmen zur Qualitätsverbesserung zu identifizieren. Das Verfahren kann mit geringem Aufwand durchgeführt werden und kann daher einen Beitrag für die verbreitete Anwendung des Qualitätsmanagements für Lichtsignalanlagen leisten.
In Deutschland existieren bereits seit Jahren viele leistungsfähige Telematiksysteme und Referenzarchitekturen für Teilbereiche, z. B. TLS (BASt, 2002) und MARZ (BASt, 1999) zum Aufbau von Verkehrsbeeinflussungsanlagen an Bundesfernstraßen. Die Entwicklungen solcher Systeme in Deutschland gehen bis in die 1990er Jahre und davor zurück. Zum Teil wurden diese Ansätze auch von anderen Ländern übernommen und sind dort erfolgreich implementiert. Bislang fehlt aber in Deutschland ein nationaler Orientierungsrahmen für den Aufbau und die Vernetzung von Telematiksystemen, sodass viele Implementierungen als unvernetzte Insellösungen betrieben werden und mögliche Synergien ungenutzt bleiben. Die Vorteile einer übergreifenden ITS-Architektur wurden bereits durch zahlreiche Arbeiten seit den frühen 1990er Jahren belegt und sind heute unstrittig. In anderen Ländern liegen solche nationalen Orientierungsrahmen bereits seit Jahren vor. Die USA hat als erstes Land im Jahr 1996 eine nationale ITS-Architektur (NITSA) veröffentlicht, die bis heute bereits zur sechsten Version fortgeschrieben wurde. Im Rahmen dieser Entwicklungen wurde ein ganzes Netz an Zuständigkeiten und Organisationseinheiten eingerichtet, um eine effiziente und nachhaltige Nutzung der NITSA zu gewährleisten. Auch rechtliche Maßnahmen wurden ergriffen, um eine Verbindlichkeit für die Anwendung der ITS-Architektur in Teilen zu erreichen und deren Verbreitung zu sichern. Viele andere Länder ausserhalb und innerhalb Europas besitzen ebenfalls seit Jahren eigene nationale ITS-Architekturen. Auf europäischer Ebene gibt es bereits seit den frühen 1990er Jahren Forschungsprojekte zu einer europaweit harmonisierten ITS-Architektur. Mit KAREN wurde im Jahr 2000 die erste Version einer europäischen ITS-Rahmenarchitektur veröffentlicht. In den FRAME-Projekten, bis hin zum aktuellen Projekt E-FRAME, wurde und wird diese ITS-Architektur fortgeschrieben. In der europäischen Verkehrspolitik spielt die Telematik eine wesentliche Rolle. Mit dem Aktionsplan zur Einführung von ITS in Europa (KOM(2008) 886) oder dem Richtlinienvorschlag zur Festlegung eines Rahmens für die Einführung von ITS im Straßenverkehr (KOM(2008) 887) sind gezielte Maßnahmen, auch im Hinblick auf eine europäische ITS-Architektur, in Vorbereitung. Deutschland nimmt im Angesicht dieser Entwicklungen eine Sonderrolle ein, weil hier noch kein Orientierungsrahmen zum Aufbau einer nationalen ITS-Architektur geschaffen wurde. Dass solch ein Orientierungsrahmen anzustreben ist, wird von allen beteiligten Interessengruppen aus dem Bereich ITS gleichermaßen vertreten. Im Rahmen dieses Forschungsprojekts wurde ein Workshop durchgeführt, der dies deutlich bestätigte. Das wesentliche Ziel dieses Forschungsprojekts bestand darin, aus den Entwicklungsprozessen und Erfahrungen in anderen Ländern und den bisherigen Erfahrungen im Inland Empfehlungen für den Aufbau einer nationalen ITS-Architektur in Deutschland abzuleiten. Dazu wurden zunächst im Rahmen einer Strukturierung Begriffsbestimmungen vorgenommen und ein Beschreibungs- und Bewertungsschema für die Analyse von ITS-Architekturen entwickelt. Ein Workshop wurde durchgeführt, um einen Eindruck über die Standpunkte der beteiligten Interessengruppen zu gewinnen und festzustellen, wie der Prozess für die Entwicklung einer nationalen ITS-Architektur in Deutschland begonnen werden könnte. Im Anschluss an diese Arbeiten wurden zum einen eine Auswahl von Beispielen für ITS-Architekturen in Deutschland und zum anderen nationale ITS-Architekturen weltweit analysiert. Aus den Analysen wurden Handlungsempfehlungen für die Entwicklung einer ITS-Architektur für Deutschland abgeleitet. Diese Empfehlungen beziehen sich zum einen auf den gesamten Prozess zur Erstellung und Fortschreibung einer nationalen ITS-Architektur und zum anderen auf die Inhalte der zu erarbeiteten Dokumente wie des nationalen ITS-Leitbilds und des nationalen ITS-Rahmenplans, der Rahmenarchitektur und der Referenzarchitekturen. Als Ergebnis dieses Forschungsprojekts wurden 40 Empfehlungen für den Aufbau einer nationalen ITS-Architektur in Deutschland formuliert.
Die Richtlinien für Lichtsignalanlagen (RiLSA), Ausgabe 1992 [FGSV 1992] "enthalten grundlegende verkehrstechnische Bestimmungen und Empfehlungen für die Einrichtung und den Betrieb von Lichtsignalanlagen." Ihre Regelungen zielen darauf ab, den Verkehrsablauf an Lichtsignalanlagen für alle Verkehrsteilnehmergruppen mit hoher Qualität sicher zu gestalten. Um der ständigen Weiterentwicklung des komplexen Handlungsfelds gerecht zu werden, ist eine ständige Anpassung der Lichtsignalsteuerung erforderlich. Die Regelungen der Richtlinien sind in regelmäßigem Abstand kritisch daraufhin zu überprüfen, ob sie noch die aktuellen Anforderungen und den Stand der Technik widerspiegeln und somit ihren Gültigkeitsanspruch sowie ihre Praxisrelevanz aufrecht erhalten können. Ziele dieser Untersuchung waren die Erfassung, die strukturierte und anschauliche Darstellung sowie die kritische Analyse der Forschungstätigkeit und der Forschungsergebnisse auf dem Gebiet der Lichtsignalsteuerung in Deutschland, im benachbarten europäischen Ausland, in den USA und in Japan seit 1990, um die Erkenntnisse für eine Neufassung der RiLSA verfügbar zu machen. Im ersten Arbeitsschritt wurde in ausgewählten Fachliteratur-Datenbanken und -Verzeichnissen systematisch nach themenbezogenen Veröffentlichungen ab 1990 recherchiert. Die so ermittelten Veröffentlichungen wurden Themengebieten, die aus der Gliederung der neuen RiLSA abgeleitet wurden, zugeordnet. Aufbauend auf einer ersten Bewertung der Relevanz der einzelnen Literaturfundstellen wurden die so ausgewählten etwa 400 Artikel in einer Datenbank erfasst und hinsichtlich der Bedeutung der behandelten Fragestellung, der Praxisrelavanz, der Aktualität und weiterer Kriterien vorbewertet. Ergänzend wurden zur Erschließung der relevanten Erkenntnisse und praktischen Erfahrungen in Japan vor Ort Gespräche mit Experten in der Verkehrstechnik geführt sowie Besichtigungen und eigene Beobachtungen durchgeführt. Die positiv bewerteten Quellen wurden eingehend analysiert und die Ergebnisse im Einzelnen anschaulich aufbereitet. Diese Recherche- und Analyseerkenntnisse wurden in einer synoptischen Darstellung zusammengestellt. Die Bearbeitung der Themenfelder erfolgte dabei immer in den gleichen Schritten. Zuerst erfolgte die Darstellung der Vorgehensweise in den aktuellen RiLSA. In den nächsten Schritten wurden der erreichte Forschungsstand, die Berücksichtigung der Thematik in den Richtlinien anderer Länder sowie die zusätzliche Anmerkungen aus der Praxis dargestellt. Daraus wurden Aussagen zum verbleibenden Forschungsbedarf, zum Innovationsgrad der Fragestellung und zum Handlungsbedarf für die Neufassung der RiLSA abgeleitet.
Das Ziel der vorliegenden Arbeit war der Vergleich verschiedener Stauendewarnungen hinsichtlich ihrer Effekte auf die Fahrsicherheit. Hierfür wurden im Rahmen einer Fahrsimulatorstudie mit N = 32 Probanden mit Bewegungssystem on-trip Warnungen vor Stauenden auf Autobahnen untersucht. Es wurden in zwei Verkehrsbedingungen ("mit Verkehr" vs. "ohne Verkehr": Stauenden werden mit oder ohne Umgebungsverkehr erreicht) jeweils zwei Stauendearten simuliert: (1) Umgebungsverkehr bremst kurz vor dem Stauende plötzlich ab ("hartes Stauende") bzw. Stauende ist durch die Streckengeometrie nicht einsehbar ("verdecktes Stauende") vs. (2) Umgebungsverkehr reduziert die Geschwindigkeit vor dem Stauende graduell ("weiches Stauende") bzw. Stauende ist einsehbar ("unverdecktes Stauende"). Zudem wurde der erstmalige Zeitpunkt der Warnung ("3.5 km" vs. "1.5 km" vs. "0.3 km" vor Stauende) und die Warnpräzision ("präzise Warnung": Distanz zum Stauende wird angezeigt und regelmäßig aktualisiert vs. "unpräzise Warnung" ohne konkrete Distanzangabe) variiert. Außerdem wurden Stauenden in einer nicht-gewarnten Kontrollfahrt angefahren. Es wurde ein Bewertungskonzept für die Fahrsicherheit entwickelt, anhand dessen die eingeführten Warnkonzepte mittels Indikatoren für Längs- und Querregelung, Ereigniserkennung und Probandenbefragung verglichen werden können: (1) Die Rohdaten verschiedenartiger Indikatoren wurden in einem deskriptiven, graphischen und inferenzstatistischen Vorgehen interpretiert und (2) die so ermittelten Kennwerte wurden in eine integrierte statistische Auswertung mittels TOPSIS (Technique for Order Preference by Similarity to Ideal Solution), das einen standardisierten Vergleich verschiedener Warnalternativen ermöglicht, überführt. Dieses Bewertungskonzept wurde auf die in der Fahrsimulation aufgezeichneten Daten angewendet, so dass für die eingeführten Variationen der Stauendearten (Warnpräzision und Warndistanz) in Abhängigkeit der Verkehrsbedingung eine vergleichende Bewertung der Sicherheitswirkungen ermöglicht wurde. Durch eine ergänzende kritische Einordnung der Ergebnisse und des Versuchsaufbaus dienen die Ergebnisse als Entscheidungsunterstützung bei der Entwicklung und Einführung von Stauendewarnungen.
Das Ziel des Forschungsvorhabens war es festzustellen, welche Bordsteinformen für den Einsatz an Überquerungsstellen mit einer Einbauhöhe von 3 cm (eine Einbauhöhe (oder Auftrittshöhe) von 3 cm bedeutet, dass die Oberkante der Auftrittsfläche des Bordsteins 3 cm über dem Niveau der angrenzenden Fahrbahn liegt) sowie vorzugsweise zu verwendeten Bodenindikatoren aus Sicht unterschiedlicher Gruppen behinderter Menschen geeignet sind. Zunächst wurde eine umfangreiche Literaturanalyse nationaler und internationaler Literatur durchgeführt, um allgemeine Gestaltungsgrundsätze für barrierefreie Überquerungsstellen abzuleiten. Zusätzlich dazu sollte eine umfangreiche Befragung sehbehinderter Menschen zu ihren Erfahrungen bei der Mobilität im Straßenraum weiteren Aufschluss geben. Auf Grundlage der Literaturanalyse und Befragung wurde im Rahmen der Untersuchungen ein mehrschichtiges Verfahren aus qualitativen sowie objektiven und subjektiven Methoden angewendet. Dieses sollte darüber Aufschluss geben, welche Borsteinformen und Bodenindikatoren aus Sicht von blinden und sehbehinderten Menschen mit Langstock sowie der Nutzer von rollbaren Hilfsmitteln (Rollator, Rollstuhl) für einen Einbau an Überquerungsstellen bevorzugt werden. Die Untersuchungsergebnisse bestätigen die Einbauhöhe von 3 cm als weiterhin brauchbaren Kompromiss, auch wenn sich mit dieser Einbauhöhe die unterschiedlichen Anforderungen von Rollstuhl- und Rollatornutzern einerseits sowie blinden und stark sehbehinderten Menschen andererseits nicht optimal erfüllen lassen. Allerdings konnten auf Grundlage der Untersuchungsergebnisse Empfehlungen für eine im Rahmen des Kompromisses gut geeignete Bordsteinform an Überquerungsstellen abgeleitet werden. Die Messungen und Versuche mit unterschiedlichen Bodenindikatoren gaben Aufschluss darüber, welche Strukturen im Hinblick auf die Taktilität und die Überrollbarkeit an Überquerungsstellen grundsätzlich gut geeignet sind. Es wurde grundlegende und detaillierte Empfehlungen für die Ausbildung und Anwendung der Bordsteine und Bodenindikatoren an Überquerungsstellen an Hauptverkehrsstraßen ausgearbeitet. Diese sollten in die Fortschreibung relevanter Regelwerke einfließen. Darüber hinaus konnte durch das Forschungsvorhaben zusätzlicher Forschungsbedarf für weitere Verbesserungsmöglichkeiten an Überquerungsstellen aufgezeigt werden.
Walzbeton ist ein erdfeuchter Beton, der mit üblichen Straßenfertigern eingebaut und mit Walzen verdichtet wird. Er erreicht eine große Druckfestigkeit und Oberflächenfestigkeit sowie hohe Verformungsstabilität und Tragfähigkeit. Walzbeton wird im klassifizierten Straßenbau als Tragschicht mit einer dünnen Asphaltüberdeckung oder als direkt befahrene Tragdeckschicht für Industrieflächen, Werkstraßen oder ländliche Wege verwendet. Anforderungen sind im "Merkblatt für den Bau von Tragschichten und Tragdeckschichten mit Walzbeton für Verkehrsflächen" enthalten. In Laborversuchen mit Walzbeton wurde festgestellt, dass die Druckfestigkeit bei abnehmendem Hohlraumgehalt und im allgemeinen mit zunehmendem Zementgehalt und dadurch - bei annähernd gleichbleibendem optimalem Wassergehalt - abnehmendem w/z-Wert größer wurde. Auch bei niedrigem Verdichtungsgrad von nur 96 Prozent der modifizierten Proctordichte erreichten Walzbetone mit ausreichendem Zementgehalt von mindestens 240 kg/m3 die für Tragdeckschichten geforderte Druckfestigkeit von mindestens 40 N/mm2. Bei niedrigen Zementgehalten und bei Ersatz von Zement durch Steinkohlenflugasche wurde eine anforderungsgerechte Druckfestigkeit erst bei sehr sorgfältiger Verdichtung auf einen Verdichtungsgrad von mehr als 98 Prozent erreicht. Die Abwitterung bei Frostbeanspruchung lag beim Walzbeton unabhängig von der Zuschlagart und dem Zementgehalt deutlich unter dem für ausreichend hohen Frost-Tau-Widerstand üblicher Betone festgelegten Grenzwert. Einen ausreichend hohen Frost-Tau-Widerstand erreichte der untersuchte Walzbeton mit Zugabe von Luftporenbildner unabhängig vom Zusatzstoff und ohne Luftporenbildner, wenn ein hoher Zementgehalt von 270 kg/m3 und zusätzlich Basaltmehl als Zusatzstoff zugesetzt wird. Mit dem CBR-Versuch können Aussagen über die Grünstandfestigkeit von Walzbeton und die Art des Herstellens der Kerben gemacht werden, wofür aber noch keine Bewertungskriterien angegeben werden können. Im Rahmen des Baues einer Ortsumgehung einer Bundesstraße wurde eine Versuchsstrecke mit Walzbetontragschicht unterschiedlicher Dicke und dünner Asphaltüberdeckung eingerichtet. Zustand und die Qualität der Schichten wurden dokumentiert und dienen als Grundlage für Untersuchungen des Langzeitverhaltens. Mit den ermittelten Werkstoffkennwerten kann das Verhalten des Walzbetons beschrieben werden. Aufgrund der Untersuchungen sollte die Walzbeton-Tragschicht einlagig eingebaut werden und die Dicke 20 cm nicht überschreiten. Der Abstand der Querkerben sollte 3,0 m betragen, um eine kleine Kerbenöffnung und damit eine bessere Rissverzahnung und Querkraftübertragung zu erreichen. Bisher zeigte die von Verkehr befahrene Versuchsstrecke ein gutes Verhalten. Die bisherigen Forschungsergebnisse sind in die Überarbeitung des Merkblatts für Walzbeton eingeflossen. Der Bericht umfasst folgende Teile: Kompendium (Birmann,D; Burger,W; Weingart,W; Westermann,B); Teil 1: Einfluss der Zusammensetzung und der Verdichtung von Walzbeton auf die Gebrauchseigenschaften (1) (Schmidt,M; Bohlmann,E; Vogel,P; Westermann,B); Teil 2: Einfluss der Zusammensetzung und der Verdichtung von Walzbeton auf die Gebrauchseigenschaften (2) (Weingart,W; Dressler,F); Teil 3: Messungen an einer Versuchsstrecke mit Walzbeton-Tragschicht an der B54 bei Stein-Neukirch (Eisenmann,J; Birmann,D); Teil 4: Temperaturdehnung, Schichtenverbund, vertikaler Dichteverlauf und Ebenheit von Walzbeton (Burger,W).
Die Autoren stellen heraus, dass die Problemstellung "Verkehrssicherheit" außerordentlich komplex ist und nur in ihrer Verknüpfung mit gesamtgesellschaftlichen Werte- und Einstellungsdimensionen gelöst werden kann. Versuche, Verkehrssicherheit durch Gesetze, Aktionen oder Kampagnen zu erreichen, bleiben nach Auffassung der Autoren nur Detaillösungen, da eine Lösung der komplexen Problematik durch Widerstände auf höherer Ebene blockiert wird. Durch Ansätze eines Sozio-Marketings koennen nur Teilaspekte bearbeitet werden, da dieser Ansatz ebenfalls einer linearen Denkhaltung entspricht. Es wird aufgezeigt, dass weder die gesamte Bandbreite einer solchen Konzeption eingesetzt wurde noch vernetzte oder systematische Lösungsansätze für die Problematik entwickelt worden sind.
Hemmschwellen zur Hilfeleistung - Untersuchung der Ursachen und Empfehlung von Maßnahmen zum Abbau
(1990)
Die Analysen der Hemmschwellen der Hilfsbereitschaft stützen sich auf eine umfangreiche Datenbasis, die insgesamt 935 Interviews und Verhaltensbeobachtungen umfasst und durch Befunde aus zwei EMNID-Umfragen mit 4.088 Personen ergänzt wird. In der Motivanalyse der Ersthelfer treten Verantwortungsgefühl, Selbstwertsteigerung und soziale Anerkennung unter den Vorteilen der Hilfeleistung hervor. Auf der Seite der Risiken stehen ihnen Zeitverlust, wahrgenommene Inkompetenz und Gefühl der Selbstgefährdung gegenüber. Der Ausbildungsstand wirkt sich auf die Hilfsbereitschaft indirekt aus, da sein Einfluss über das subjektive Kompetenzgefühl vermittelt wird. Das Kompetenzgefühl fördert die Hilfsbereitschaft. Es hängt neben dem Ausbildungsstand auch vom Zeitraum ab, der seit der Ausbildung verstrichen ist sowie von Alter und Geschlecht der potentiellen Helfer. Der Vergleich zwischen erwiesenen Ersthelfern und Nichthelfern zeigt, dass sich zwischen beiden Gruppen nur geringe Unterschiede im Ausbildungsstand fanden. Sie unterscheiden sich aber in einigen Persönlichkeitsmerkmalen deutlich, die sich zu einem Helferprofil zusammenfassen lassen. Erwiesene Ersthelfer hatten ein ausgeprägtes Verantwortungsgefühl, glaubten, dass es in der Welt gerecht zugeht und schrieben sich Kontrolle über die Ereignisse in ihrer Umwelt zu. Sie zeichneten sich durch eine Gemeinschaftsorientierung aus, die durch soziale Integration, Feinfühligkeit und Toleranz geprägt war. Ihre Unsicherheit war geringer als die der Nichthelfer und ihre Haltung gegenüber den Mitmenschen weniger feindselig. Eine prozessorientierte Analyse des Hilfsverhaltens unterstreicht den Stellenwert des situativen Verantwortungsgefühls, das der Bereitschaft zur Hilfeleistung direkt vorgeordnet ist. Das Verantwortungsgefühl wird seinerseits durch das Ausmaß der Entschlusskraft gestärkt, die wiederum von Kompetenzgefühl (und somit indirekt vom Ausbildungsstand) und einer instrumentellen Handlungsbereitschaft gefördert wird. Diese Ergebnisse ermöglichen Hinweise auf Verbesserungen in der Erste-Hilfe-Ausbildung.
Für die Kontrolle der Herstellung von Tragschichten ohne Bindemittel (ToB) im Straßenoberbau wird eine Referenzdichte benötigt, die in Deutschland und vielen anderen europäischen Staaten durch den Proctorversuch nach DIN EN 13286-2 ermittelt wird. Während eines Proctorversuches wird mit einem Fallgewicht, das auf die Prüfkörperoberfläche nach festgesetzten Parametern fällt, der Hohlraumanteil einer Versuchsprobe reduziert und die Raumdichte erhöht. Durch Wasserzugabe wird der Verdichtungsprozess gefördert, wobei es für eine Versuchsprobe einen Wassergehalt gibt, bei dem sie sich in Abhängigkeit von der eingesetzten Verdichtungsenergie optimal verdichten lässt und eine maximal erreichbare Trockendichte erzielt. Aufgrund des relativ geringen Feinanteils der Sieblinie eines Baustoffgemisches für ToB ist der Proctorversuch hier jedoch nur eingeschränkt verwendbar, da sich vollständige Verdichtungskurven aufgrund von Entwässerungsprozessen während des Versuches häufig nicht generieren lassen. Statt konvexen werden auch konkave Kurven, lineare Anstiege oder nicht zweckdienliche Kurvenverläufe gemessen, die eine Bestimmung eines optimalen Wassergehaltes und einer Trockendichte nach der gängigen Auswertemethode (Kurvenmaximum) nicht ermöglichen. Zur Herstellung einer ToB werden Baustellenfahrzeuge und -geräte eingesetzt, die zur Verdichtung die Parameter Frequenz, Amplitude und Eigenlast nutzen. Konträr dazu erfolgt die Laborverdichtung, die für die Verdichtung entsprechend Proctorverfahren ein Fallgewicht nutzt. Neben der Tatsache, dass der Proctorversuch für dränierende Baustoffe nicht optimal geeignet ist, besteht somit eine Diskrepanz zwischen der Labor- und der In-situ-Verdichtung. Neben dem Proctorverfahren stehen europäisch genormte Laborverdichtungsverfahren zur Verfügung, die Verdichtungsparameter nutzen, die der In-situ-Verdichtung entsprechen. Aufgrund der vorgestellten Problematik des Proctorversuches wurde daher ein umfassendes Forschungsprojekt durchgeführt, welches das Ziel hatte, Lösungsansätze für dränierende Baustoffe während der Laborverdichtung zu finden. Dies beinhaltete im primären Sinne die Suche nach einem alternativen Verdichtungsverfahren, das die Problematik für dränierende Baustoffe nicht aufweist und das mehr der In-situ-Verdichtung entspricht. Das Forschungsprojekt identifizierte das Vibrationshammerverfahren nach DIN EN 13286-4 als das Verfahren, welches sehr vergleichbare Ergebnisse zum Proctorverfahren liefert. Weiterhin ist dieses Verfahren sehr in-situ konform, leicht in der Handhabung und weniger kostenintensiv. Anhand von Literaturquellen konnte die scheinbare Kohäsion als Ursache für konvexe Verdichtungskurven identifiziert werden. Zudem konnte gezeigt werden, dass Auswertevorgaben für derartige Kurvenverläufe existieren. Weiterhin besteht eindeutig die Möglichkeit ofentrockene Proben zu verdichten und dennoch ein vergleichbares oder leicht erhöhtes Trockendichteergebnis im Vergleich zu einer optimalen Verdichtung zu erzielen. Nachteil hierbei ist jedoch die fehlende Angabe für den Wassergehalt auf der Baustelle. Daher scheint die Vibrationshammerverdichtung mit einem Wassergehalt knapp über der Trockenverdichtung, die beide notwendigen Parameter liefert, ein erfolgversprechender Ansatz zur Lösung der Problematik des Proctorversuches für ToB-Baustoffgemische zu sein.
Ziel des Projektes war es, bedingt durch die wachsende Anzahl der im Verkehr befindlichen elektrisch und hybrid-elektrisch betriebenen Fahrzeuge, notwendige Anpassungen der periodisch technischen Überwachung zu erarbeiten. Dazu wurden von verschiedenen Fahrzeugen die relevanten Bauteile des elektrischen Antriebsstrangs identifiziert und deren Ausfallverhalten analysiert. Um die Degradationsauswirkungen einzelner Bauteile und Funktionen auf das gesamte System bestimmen zu können, hat die FSD ein Simulationsmodell erstellt. Die daraus ermittelten Ergebnisse waren Grundlage für die Bestimmung verkehrssicherheits- und umweltkritischer Bauteile sowie deren Funktionen. Diese Modellaussagen wurden mit Realversuchen an Fahrzeugen validiert. Zusätzlich konnten in einem Feldversuch 2.560 Fahrzeuge mit elektrischem Antriebsstrang untersucht werden. Aus diesen Ergebnissen lassen sich Änderungsvorschläge für die Untersuchungen und Vorgaben ableiten. Dafür ist für einen Großteil dieser Untersuchungen die Nutzung von Diagnosedaten eine geeignete Möglichkeit. Die 47. Verordnung zur Änderung straßenverkehrsrechtlicher Vorschriften berücksichtigt bereits an vielen Stellen die neuen Antriebskonzepte. Von daher werden lediglich geringe Anpassungen in der StVZO für -§ 19 und den Beispielkatalog dazu, -§ 29, Anlage VIIIa, Anlage VIIId sowie die HU-Richtlinie vorgeschlagen. Für die Durchführung der Untersuchungspunkte zum HV-System ist die Entwicklung einer Hochvolt-Richtlinie empfehlenswert. Einige wichtige Prüfverfahren lassen sich derzeit technisch noch nicht umsetzen. Dazu sind Änderungen der internationalen Bau- und Betriebsvorschriften notwendig. Diese werden bei der EU/UNECE anzuregen sein. Es besteht über dieses Projekt hinaus weiterhin Forschungsbedarf, um sich intensiv mit diesen Fahrzeugen zu befassen und deren Weiterentwicklung zu beobachten, damit notwendige Auswirkungen auf die PTI rechtzeitig erkannt werden können.
Das Emissionsberechnungsmodell TREMOD (Transport Emission Model) bildet den motorisierten Straßen-, Schienen-, Schiffs- und Flugverkehr in Deutschland hinsichtlich seiner Verkehrs- und Fahrleistungen, dem Energieverbrauch und den zugehörigen Luftschadstoffemissionen für den Zeitraum 1960 bis 2030 ab. TREMOD ist eng verknüpft mit dem als PC-Datenbank realisierten "Handbuch Emissionsfaktoren für den Straßenverkehr", das europaweit abgestimmte repräsentative Emissionsdaten für den Straßenverkehr bereitstellt. Im Rahmen des vorliegenden Vorhabens wurden aus heutiger Sicht relevante alternative Antriebe und Energieträger für den Straßenverkehr in das Emissionsrechenmodell "TREMOD" implementiert. Dies soll es ermöglichen, Szenarien bis 2050 zu rechnen, um die Auswirkung der Einführung neuer Fahrzeugkonzepte auf den Energieverbrauch, die Klimagasemissionen und relevante Luftschadstoffemissionen abschätzen zu können. Im vorliegenden Bericht werden die Eigenschaften der ausgewählten neuen Kraftstoffe und Antriebe, die verwendeten Kennzahlen sowie die Implementierung in das TREMOD-Modell ausführlich beschrieben. Schließlich wird beispielhaft ein Trendszenario unter Berücksichtigung von neuen Antrieben und Energieträgern bis 2050 entworfen und mit TREMOD berechnet.
Die Verordnungsgeber haben länderübergreifende Normen und Vorschriften für die Durchführung und Auswertung von Crashversuchen mit Personenkraftwagen bei verschiedenen Aufprallarten entwickelt, die im Rahmen der Entwicklung und Zulassung neuer Fahrzeuge Anwendung finden. Verbraucherschutzorganisationen, Automobilclubs und Fachzeitschriften tragen mit der Durchführung und Publikation eigener Tests dazu bei, dass die passive Sicherheit von Personenkraftwagen in der breiten Öffentlichkeit mehr und mehr beachtet wird. Im Gegensatz dazu ist die Durchführung von Crashtests zur Untersuchung und Bewertung der passiven Sicherheit von Motorrädern relativ neu. Vor diesem Hintergrund hat die Bundesanstalt für Straßenwesen das vorliegende Forschungsprojekt vergeben. Hierbei waren unter Verwendung geeignet erscheinender Prüfverfahren reale Unfallsituationen nachzubilden. Unter Beachtung der Vielfalt der motorisierten Zweiräder mit ihrer Einteilung in verschiedene Zulassungs-Kategorien und zugehöriger Unfalldaten wurde das reale Unfallgeschehen analysiert. Neben Daten aus der amtlichen Unfallstatistik wurden dabei Informationen aus der Literatur und eigene Erhebungen ausgewertet. Ergänzend ist der aktuelle Kenntnisstand zur Biomechanik aufbereitet worden. Eine Beschreibung des Status quo der passiven Motorradsicherheit erfolgte unter Analyse der hierbei relevanten Elemente, Baugruppen und Eigenschaften des Motorrades. Dazu gehören Lenker, Sitzbank, Fußrasten, Tank, Verkleidung, Airbag (noch nicht im Hersteller-Angebot), Vorderradgabel und Standrohre sowie die Aufsassen-Kopfhöhe. Weiterhin gingen die Ergebnisse von Full-Scale-Crashtests, die im internationalen Standard ISO 13232 beschrieben sind, mit Anstößen von Motorrädern an der Seite von Personenkraftwagen in die Darstellung des Status quo der passiven Motorradsicherheit ein. Zusätzlich wurden im Rahmen des Forschungsprojektes Schlittenversuche durchgeführt. Ein zur Darstellung des rechtwinkligen Motorradanpralles an der Seite eines stehenden Personenkraftwagens geeigneter Schlitten ist im Rahmen des Projektes entworfen, realisiert und eingesetzt worden. In der Literatur beschriebene Motorrad-Sicherheitskonzepte und Vorschläge für besondere Motorrad-Sicherheitselemente sind ebenfalls dargestellt worden. Im Rahmen des Forschungsprojektes wurde ein umfassender Ansatz verfolgt. Er enthält die Bewertung von Sicherheitsmerkmalen, die aus technischen Beschreibungen entnommen und am stehenden Fahrzeug ermittelt werden können (Primärdaten) sowie die Ergebnisse von dynamischen Crash- und Schlittentests (Sekundärdaten). Dabei erfolgt stets die Orientierung am realen Unfallgeschehen (Tertiärdaten). Der internationale Standard ISO 13232 wird als geeigneter Ausgangspunkt eines umfassenden Prüf- und Bewertungsverfahrens für die passive Sicherheit motorisierter Zweiräder erkannt. Zur Erweiterung der bereits definierten Testverfahren werden Schlittentests vorgeschlagen. Außerdem werden Alleinunfälle des Motorrades zu beachten sein. Die Ergebnisse des Forschungsprojektes tragen dazu bei, die Aspekte der passiven Sicherheit von motorisierten Zweirädern zu objektivieren.
Die Zielsetzung des Projektes bestand darin, ein praktisch anwendbares Modell zur Wirkungsabschätzung von Aufklärungsmaßnahmen im Verkehrsbereich zu entwickeln. Im Vordergrund stand dabei, den Verantwortlichen in der Verkehrssicherheitsarbeit wissenschaftlich fundierte Informationen zur Verfügung zu stellen, die es ihnen erlauben, erfolgversprechende Kampagnen und Programme von weniger erfolgversprechenden besser abgrenzen zu können. Die Konstruktion des Modells zur Wirkungsabschätzung von Maßnahmen der Verkehrsaufklärung erfolgte in vier Hauptarbeitsschritten. In einem ersten Arbeitsschritt wurden die konstituierenden Grundelemente beziehungsweise einzelnen Teilkomponenten des Modells im Sinne von Modellbausteinen festgelegt und je nach individuellem Stellenwert definiert (= analytische Modellebene). In einem zweiten Arbeitsschritt sind die zu Variablengruppen beziehungsweise Faktorenkomplexen zusammengefassten Modellbausteine in einen konzeptionellen Modell- beziehungsweise Erklärungsrahmen eingebunden worden (= konzeptionelle Modellebene). In einem dritten Arbeitsschritt wurden die Wirkungszusammenhänge beziehungsweise -interdependenzen zwischen den als Inputvariablen, intervenierende Variablen und Outputvariablen definierten Modellbausteinen beziehungsweise -komponenten mit Hilfe von Wirkungshypothesen festgelegt im Sinne einer Präzisierung der Richtung beziehungsweise des Ausmaßes zu erwartender, wahrscheinlicher Wirkungseffekte (= empirische Modellebene). In einem vierten Arbeitsschritt wurde aufgezeigt, wie in der Praxis konkret vorzugehen ist, um die Wirksamkeit von Maßnahmen der Verkehrsaufklärung methodisch abschätzen zu können (= methodisch-evaluative Modellebene). Mit dem in dieser Studie entwickelten Modell zur Wirkungsabschätzung werden den Verantwortlichen in der Verkehrssicherheitsarbeit wissenschaftlich fundierte Richtlinien beziehungsweise Bewertungskriterien (= Handlungsempfehlungen beziehungsweise -richtlinien) zur Verfügung gestellt, die es ermöglichen, besser beziehungsweise präziser als bisher - Erwartungen hinsichtlich der Wirkung geplanter Aufklärungsmaßnahmen abzuschätzen; - Zusammenhänge zwischen Maßnahmenaufwand (Mittelaufwand, Zeitaufwand etc.) und erreichbarem Wirkungsgrad herzustellen; und - Erkenntnisse über Interdependenzen von Maßnahmenzielen, -formen sowie -anlässen einerseits und den anvisierten Zielgruppen andererseits in die konzeptionelle Planung beziehungsweise praktische Durchführung von Aufklärungsmaßnahmen einfließen zu lassen. Es bleibt zu wünschen, dass das in dieser Studie erarbeitete Modell zur Wirkungsabschätzung von Maßnahmen der Verkehrsaufklärung von den Verantwortlichen in der Verkehrssicherheitsarbeit bei der Konzeption, Planung, Durchführung und Evaluation der verschiedenen Maßnahmen beziehungsweise Programme auch praktisch eingesetzt wird.
Bereits in dem 1. Teil der Untersuchung, der Makroanalyse, in welche alle 92 kreisfreien Städte der Bundesrepublik Deutschland (West) einbezogen wurden, hat sich gezeigt, wie wichtig es ist, Schwerverunglücktenbelastungen und Leichtverletztenbelastungen grundsätzlich getrennt zu untersuchen. Die Städte weisen zum Teil völlig entgegengesetzte Entwicklungen bei beiden Größen auf, und es sind unterschiedliche Einflussgrößen dafür verantwortlich. Der Kfz-Motorisierungsgrad und die Bevölkerungsdichte der jeweiligen kreisfreien Stadt haben in der Makroanalyse zunächst den größten Einfluss auf die Schwerverunglücktenbelastungen. Je höher der Motorisierungsgrad und je dünner der Raum besiedelt ist (je mehr Platz zur "Verkehrsentfaltung" zur Verfügung steht), um so höher ist die Schwerverunglücktenbelastung. Je mehr Haushalte pro Einwohner gezählt werden können, je kleiner also der durchschnittliche Haushalt ist, desto höher liegen die Leichtverletztenbelastungen. Dahinter steckt die Risikogruppe Schüler und Studierende. Die Mikroanalyse, der 2. Teil der Untersuchung, in welcher zehn kreisfreie Städte vertieft analysiert wurden, hat ergeben, dass nur zwei Gruppen von Determinanten einen statistisch gesicherten, zum Teil sogar starken Einfluss auf die Schwerverunglücktenbelastungen haben: Je höher das Radverkehrsaufkommen und je niedriger der Anteil vierarmiger Knoten und die Anzahl Lichtsignalanlagen ist, desto höher ist die Schwerverunglücktenbelastung. Dass zwischen Radverkehrsaufkommen und Schwerverunglücktenbelastung jedoch kein so linearer Zusammenhang vorausgesetzt werden kann, wird im Rahmen eines Exkurses "Radverkehr und Verkehrssicherheit" mit Hilfe einer Modellvorstellung differenziert erläutert. Die Schwerverunglücktenbelastungen bei Kindern werden dagegen vor allem durch möglichst viele Lichtsignalanlagen an Fußgängerüberwegen sowie durch ein möglichst langes, getrennt geführtes Radwegenetz gesenkt. Auf die Leichtverletztenbelastungen haben nur zwei Variablen signifikanten Einfluss: Je höher die Zahl der bewirtschafteten Stellplätze außerhalb des öffentlichen Straßenraumes und je höher die Zahl der Einpendler ist, desto höher ist die Leichtverletztenbelastung. Auf statistisch besonders auffällige Resultate wird in Form von Exkursen detailliert eingegangen.
Transportable Schutzeinrichtungen werden in Deutschland im Bereich von Autobahnbaustellen eingesetzt, um entgegengesetzt gerichtete Verkehrsströme zu trennen und Arbeitsstellen gegenüber dem laufenden Verkehr zu sichern. Bei schweren Unfällen kann es erforderlich werden, dass Schutzeinrichtungen geöffnet werden müssen, um den Rettungskräften den Zugang zur Unfallstelle zu erleichtern. Die deutschen Regelwerke sehen bislang keinen Einsatz von Notöffnungsmöglichkeiten in transportablen Schutzeinrichtungen vor. Ziel des Projektes war es, zu ermitteln, ob und wo durch die Verwendung von Öffnungsmöglichkeiten die Zugänglichkeit zum Unfallort erleichtert werden kann. Im zweiten Schritt sollten Vorgaben für eine einheitliche Gestaltung von Notöffnungen erarbeitet werden, die mit den marktgängigen Schutzeinrichtungen umsetzbar sind, und die es den Einsatzkräften ermöglichen, ohne Vorkenntnisse und ohne Werkzeuge die Öffnungen schnell und einfach zu bedienen. Dazu sollten sowohl Verschlussmechanismen wie auch eine visuelle Kennzeichnung betrachtet werden. Die Untersuchungen haben gezeigt, dass Notöffnungen mit sehr vielen marktgängigen Schutzeinrichtungen realisiert werden können. Das größte Problem bei der Umsetzung stellt für die meisten Systeme das hohe Eigengewicht der Elemente dar. Von einer grundsätzlichen Verwendung von Notöffnungen an Arbeitsstellen auf Autobahnen ist abzuraten. Jedoch können unter bestimmten Voraussetzungen, die in einem Kriterienkatalog zusammengefasst wurden, durch den Einsatz von Notöffnungen die Zugriffsmöglichkeiten bei Unfällen verbessert werden. Aus Gründen der Verkehrssicherheit empfiehlt es sich, Notöffnungen jeweils am Beginn und am Ende einer Baustelle zu platzieren. Sind zusätzliche Öffnungspunkte dazwischen erforderlich, muss sehr gut abgewägt werden zwischen dem Faktor Zeitgewinn und dem erhöhten Risiko für Einsatzkräfte und den nachfolgenden Verkehr.
Im Rahmen der Erhaltung bestehender Straßen ist die Erfassung und Bewertung der Tragfähigkeit von großer Bedeutung. Zu deren Messung stehen statische, quasistatische und dynamische Verfahren zur Verfügung. Seit etwa 20 Jahren wird weltweit die dynamische Messmethode mit dem Falling Weight Deflectometer (FWD) angewendet. Die mit dem Falling Weight Deflectometer (FWD) gemessenen Deflexionen werden meistens unter vereinfachten Annahmen bezüglich der Last, der Materialgesetze für verschiedene Schichten und der dynamischen Effekte analysiert. Um einen Überblick über die wissenschaftlichen Veröffentlichungen zu erhalten, wurde eine Literaturstudie durchgeführt, aus der sich folgende Gliederung ergab: - Arbeits- und Wirkungsweise des FWD, - Rückrechnungsmethoden, - Interpretierbarkeit der FWD-Messergebnisse, - Vergleich verschiedener Rückrechnungsprogramme, - Vergleich verschiedener FWD-Geräte, - Vergleich FWD mit anderen Messverfahren, - Sonstiges. Ein Ergebnis dieser Literaturstudie ist, dass eine theoretische Analyse des FWD-Verfahrens, wie sie in diesem Forschungsvorhaben durchgeführt wurde, noch nicht existiert. Darüber hinaus wurde das FWD-Verfahren detailliert mathematisch-physikalisch analysiert. Anhand der mathematisch-physikalischen Analyse des FWD-Verfahrens wird deutlich, das die E-Moduli elasto-statisch zurückgerechnet werden können. Allerdings kann die Dämpfung ab einer Deflexion von etwa größer gleich 0,4 mm die Messergebnisse des Falling Weight Deflectometer beeinflussen. Wie sich die Dämpfung auf die Messergebnisse auswirkt müsste analysiert werden. Darüber hinaus konnte nachgewiesen werden, dass die Dispersion zu keiner nennenswerten Verfälschung der Impulsform führt. Des weiteren wurden Deflexions-, Einsenkungs- und Krümmungsmessungen auf ehemaligen Untersuchungsstrecken und auf Strecken aus den jungen Bundesländern durchgeführt. Anhand der Messergebnisse auf ehemaligen Untersuchungsstrecken wurden die Schicht-E-Moduli zurückgerechnet und interpretiert. Hierzu wurden folgende Programme verwendet: - Mehrschichtenprogramm, - FWD-Rückrechnungsprogramm, - PROBE90-Programm und - Finite-Element-Programm. Zur Überprüfung der Rückrechnungsergebnisse erfolgten Asphalt-E-Modul-Bestimmungen im Labor.
Teil 1: Literaturauswertung: Da zur Zeit kein einheitliches Untersuchungskonzept zur Bestimmung des Einflusses der Bruchflächigkeit von Edelsplitten auf die Standfestigkeit von Asphalten besteht, wurde eine Literaturstudie durchgeführt und mit dem Ziel ausgewertet, wissenschaftlich abgesicherte und eindeutige Erkenntnisse herauszuarbeiten. Die Literaturstudie erfolgte nach einem einheitlichen Schema z.B. hinsichtlich der Zielsetzung der Untersuchungen, der Art der Prüfung, der Art der Mischgutsorte, der Art der Asphaltzusammensetzung, der Art und Herkunft der Mineralstoffe, der Kornverteilung, des Bindemittelgehaltes etc. Da sich nur vier relevante Veröffentlichungen mit Asphalten aus Kiesedelsplitten auseinandersetzen und sich 14 auf Asphalttragschichten beziehen, wurde nach der Erfahrungssammlung aus dem bisherigen Stand der Prüfverfahren und Untersuchungsmethodik ein zielgerichtetes Konzept für eine Laboruntersuchung vorgeschlagen, die es ermöglichen soll, den Einfluss der Bruchflächigkeit von Edelsplitten auf die Standfestigkeit von Asphalten zu quantifizieren und wissenschaftlich abzusichern. Es wurde festgestellt, dass dieser Einfluss bisher in keiner Literaturstelle wissenschaftlich haltbar und eindeutig beantwortet wurde. Es ist ziemlich unwahrscheinlich, dass alle Einflussgrößen so genau erfasst und beurteilt werden können, dass daraus zielsicher auf die Standfestigkeit eines Asphaltes geschlossen werden kann. Was zur zielsicheren Herstellung von standfesten Asphalten fehlt, ist nicht das Mehr an gebrochener Oberfläche, sondern ein Prüfverfahren und die dazugehörigen Anforderungswerte, mit denen im Rahmen der Eignungsprüfung eine zuverlässige und praxisorientierte Beurteilung der Standfestigkeit von Asphalt möglich ist. Damit sollten auch Baustoffe und Baustoffgemische bestimmter Herkunft oder Zusammensetzung auf deren Eignung zur Herstellung standfester Asphalte zielsicher beurteilt werden können. Teil 2: Einfluss des Rundkornanteils auf die Scherfestigkeit von Gesteinskörnungen: Die Untersuchungen sollen zur Klärung beitragen, inwieweit Edelsplitte aus gebrochenem Kies mit unterschiedlichen Bruchflächenanteilen verwendet werden können, ohne die Verformbarkeit von Asphaltschichten wesentlich zu beeinflussen. Die Untersuchung wurde auf die bodenmechanische Fragestellung ohne Berücksichtigung des Einflusses des Bindemittels beschränkt. Verwendet wurden ungebrochene und gebrochene Terassenkiese vom Oberrhein, die im wesentlichen aus Quarzen, verschiedenen Kalksteinen, Kieselschiefern, Sandsteinen, kristallinen Gesteinen und dichten kieseligen Gesteinen bestehen. Es sind an Versuchsreihen mit unterschiedlich zusammengesetzten Korngemischen Dreiaxial- und CBR-Versuche bei verschiedenen Bruchflächenanteilen durchgeführt worden, um Beziehungen zwischen Druckspannungen bzw. CBR-Werten und Bruchflächenanteilen zu ermitteln. Für eine Versuchsreihe ist zudem die Beziehung zwischen dem Reibungswinkel j und dem Bruchflächenanteil bestimmt worden. Alle vier für die Überprüfung des Einflusses der Bruchflächen auf die Festigkeit von Korngemischen durchgeführten Versuchsreihen führen zu vergleichbaren ähnlichen Ergebnissen. Dreiaxialversuche wie auch CBR-Versuche zeigen mit zunehmendem Bruchflächenanteil ein Ansteigen der Druck- bzw. der Scherfestigkeit bis zu einem Maximalwert, der im Bereich des Bruchflächenanteils von 50 % bis 75 % liegt. Größere Anteile an Bruchflächen ergeben bei gleichen Versuchsbedingungen keinen Anstieg der Festigkeitswerte. Diese Aussage gilt ausschließlich für die untersuchten ungebundenen Mineralgemische bei vergleichbaren Versuchsbedingungen. Inwieweit ein Bindemittel z.B. Bitumen, diese Erkenntnisse beeinflussen könnte, ist nur durch eine ergänzende Forschungsarbeit zu beantworten.
In der vorliegenden Arbeit wurde der Erkenntnisstand zu psychologischen und physiologischen Einflüssen auf das Fahrerverhalten auf Außerortsstraßen erfasst und eine mögliche Umsetzung in den Straßenentwurf geprüft. Auf Basis von Unfalluntersuchungen, einer Analyse der Annahmen des bestehenden Regelwerks sowie eines Modells der kognitiven Prozesse, die für das Fahren relevant sind, wurden Hypothesen zu potentiellen Einflussfaktoren abgeleitet, die zur Strukturierung der Analyse der nationalen und internationalen Literatur zum Fahrerverhalten auf Landstraßen dienten. Neben einer Betrachtung von Fahrerreaktionen auf Parameter der Straßenumgebung fand dabei besondere Berücksichtigung, wie die subjektive Klassifikation der Straße sich auf das Fahrerverhalten auswirken kann und inwiefern diese Klassifikation durch den Konzeptansatz der so genannten "Selbsterklärenden Straße" unterstützt werden kann. Die Befunde wurden hinsichtlich ihrer statistischen Aussagekraft und Konsistenz bewertet und anhand der Hypothesen in einer Synopse zusammengefasst. Daraus wurden zum einen konkrete Erkenntnisse für die neuen Richtlinien zur Anlage von Landstraßen (RAL) abgeleitet als auch Forschungsbedarf identifiziert.
Die Behandlungskosten von Unfallverletzten werden herkömmlich durch Multiplikation der durchschnittlichen Krankenhaus-Verweildauer mit dem vollpauschalierten und für alle Patienten gleichen Krankenhaus-Tagessatz ermittelt. Zielsetzung der vorliegenden Untersuchung ist es, den tatsächlichen Leistungsaufwand für die Gruppe der Unfallverletzten differenzierter zu erfassen, und zwar durch Addition von Einzelleistungen, die den Input für die stationäre Behandlung darstellen. Eine solche fallbezogene Kostenkalkulation wurde in ausgewählten Krankenhäusern für alle straßenverkehrsunfallverletzen Patienten des Jahres 1989 vorgenommen. Für Unfallverletzte in ambulanter Behandlung ergeben sich durchschnittliche Fallkosten in Höhe von 244 DM. Für die 5 häufigsten Einzeldiagnosen wurden folgende Werte ermittelt. 1. Prellungen der unteren Extremitäten: DM 287 je Patient. 2. Verstauchungen und Zerrungen im Rückenbereich: DM 149 je Patient. 3. Prellungen des Kopfes und des Halses: DM 326 je Patient. 4. Prellungen der oberen Extremitäten: DM 196 je Patient. Für Unfallverletzte in stationärer Behandlung ergeben sich durchschnittliche Fallkosten in Höhe von DM 4.824. Die Kosten liegen bei der Hälfte aller stationär behandelten Patienten unterhalb von DM 2.000. Bei 37 Prozent der Verletzten belaufen sie sich auf einen Betrag zwischen DM 2.000 und DM 7.000, wohingegen 13 Prozent der Fälle eine Behandlung benötigte die mehr als DM 10.000 an Kosten verursachte. Betrachtet man die Kosten der 10 häufigsten Einzeldiagnosen, so lassen sich zwei Gruppen bilden. Gehirnerschütterungen, Prellungen und Verstauchungen verursachten Kosten von weniger als der Hälfte des Durchschnittswertes von DM 4.824, wogegen für Frakturen als zweiter Gruppe weit darüber liegende Beträge errechnet wurden. Die Behandlungskosten von Unfallverletzungen mit Todesfolge liegen aufgrund der Verletzungsschwere bei DM 17.246 im Durchschnitt. Die Ergebnisse zeigen, dass die durchschnittlichen Behandlungskosten von Unfallverletzten in Akutkrankenhäusern in etwa den durchschnittlichen Behandlungskosten aller Patienten in Akutkrankenhäusern entsprechen.
Die volkswirtschaftlichen Kosten, die durch Straßenverkehrsunfälle entstehen, umfassen die Personenschadens- und Sachschadenskosten. Diese Kosten werden jährlich durch die Bundesanstalt für Straßenwesen ermittelt. Grundlage für diese Berechnung ist ein Rechenmodell aus dem Jahre 1996. Seit dieser Zeit sind deutliche Veränderungen eingetreten. Die Änderungen betreffen die Unfallzahlen und die Unfallschwere, die Kosten des Gesundheitssystems zur Wiederherstellung, die Einkommensverhältnisse und damit die wirtschaftlichen Verluste von Unfällen sowie der Wissensstand zur Bewertung der Unfallschäden. Die Fortschreibung der volkswirtschaftlichen Kosten durch Straßenverkehrsunfälle erfordert somit eine Überprüfung und Aktualisierung des Rechenverfahrens. Im Auftrag der Bundesanstalt für Straßenwesen wurden daher im Rahmen des Forschungsprojektes "Volkswirtschaftliche Kosten durch Straßenverkehrsunfälle in Deutschland" die Kosten der Personen- und Sachschäden neu ermittelt. Im Rahmen des Projektes erfolgte eine Überprüfung und Aktualisierung sämtlicher Rechenmodelle für die einzelnen Kostenkomponenten. Beispielsweise wurde der polizeiliche Bearbeitungsaufwand für einen Unfall auf Basis von Angaben der Landesinnenministerien neu ermittelt und die Rechtsprechungskosten wurden auf Grundlage der Rechtschutzstatistiken des Statistischen Bundesamtes neu bewertet. Für die Berechnung der Unfallkosten wurden zudem die Eingangsdaten, zum Beispiel über die Kosten und die Dauer der medizinischen Behandlung, bei Versicherern vollständig neu erhoben. Zusätzlich zu den bisher vorgenommenen Bewertungen wurden unfallbedingte Zeitverluste auf Bundesautobahnen abgeschätzt und monetär bewertet. Eine Untersuchung der Kosten schwerstverletzter Unfallopfer erfolgte getrennt. Die neu berechneten Unfallkosten betragen im Jahr 2005 annähernd 31.477 Mrd. Euro Die Personenschäden hatten daran einen Anteil von 15.226 Mrd. Euro die übrigen 16.252 Mrd. Euro entfielen auf die Sachschäden.
Für eine quantitativ exakte Beschreibung der mit der Gefahrgutbeförderung verbundenen Risiken fehlen sowohl statistische Voraussetzungen als auch eine wissenschaftlich begründete Risikoanalyse. Eine Risikoanalyse der Gefahrgutbeförderung soll zweckmäßigerweise auf Transportketten und nicht auf den direkten Vergleich von Verkehrsträgern abstellen. Zentrale Kategorie zur Definition des Risikos sollte dabei der Unfall sein. Zusammen mit der Transportleistung sollte er das Risiko als Wahrscheinlichkeitsaussage beschreiben. Mit in die Risikobestimmung einzubeziehen ist die Unfallschwere. Im Rahmen des Beitrages schlägt eine Projektgruppe eine dreistufig angelegte Risikoanalyse vor. Die Bausteine dieser Risikoanalyse bestehen aus 1. einer mathematisch-statistischen Risikoanalyse, 2. einer Schwachstellenanalyse und 3. einem Systemmodell zur ständigen Analyse des Gefahrgutbeförderungsrisikos. Dazu werden in dem Forschungsbericht grundsätzliche Überlegungen zur Risikobewertung angestellt, auf das Regelwerk des Gefahrguttransportes eingegangen, Ausbildung, Training und Überprüfung der Fahrzeugführer behandelt sowie auf das Gefahrgut und die Gefahrgutumschließung eingegangen. Ferner befasst sich der Bericht mit der Fahrzeugtechnik, der Verkehrsinfrastruktur, Informationssystemen und der Sicherheit im Gefahrguttransport in den neuen Bundesländern. Zum Schluss werden Forschungsempfehlungen bezüglich der Sicherheit in der Gefahrgutbeförderung formuliert.
Die Richtlinie 2008/96/EG der EU zum Straßenverkehrsinfrastruktur-Sicherheitsmanagement wurde im Dezember 2010 in nationales Recht überführt. Sie sieht Sicherheitsaudits für Infrastrukturprojekte, Sicherheitseinstufung und Sicherheitsmanagement des in Betrieb befindlichen Straßennetzes sowie regelmäßige Sicherheitsinspektionen vor. Während mit den Empfehlungen für das Sicherheitsaudit von Straßen seit 2002 ein bewährtes formalisiertes Verfahren zur Beurteilung der Sicherheitsbelange geplanter Straßen zur Verfügung steht, besteht insbesondere Bedarf an einem geeigneten Verfahren zur Detektion von Sicherheitsdefiziten im Bestand. Dies verdeutlichte die Grundlagenanalyse. Durch Befragungen, Erfahrungsaustausche und erste Pre-Tests mit Straßenmeistereien und Verkehrsbehörden zeigten sich in der Verfahrensanalyse Stärken und Schwächen der bestehenden Verfahren. Die Streckenkontrolle baut dabei auf wesentlich zuverlässigeren und stabileren Strukturen auf als die Verkehrsschau. Abgeleitet wurden hieraus Verbesserungsbedarf für die bestehenden Verfahren sowie Grundlagen und Ansätze für ergänzende Sicherheitsüberprüfungen. Mit der erweiterten Streckenkontrolle als flächendeckende Inspektion für ausgewählte Themenschwerpunkte und dem anlassbezogen Bestandsaudit als ganzheitliches Verfahren wurden zwei unterschiedliche Ansätze entwickelt. Geeignete Werkzeuge wie Defizitlisten, Schulungsprogramme und Anweisungen für die Anwender wurden aufgebaut und anhand von Pilotanwendung und Expertengesprächen abgestimmt. In der erweiterten Streckenkontrolle wurden etwa 1.840 km Strassennetz durch die Streckenwarte inspiziert. Es zeigte sich, dass der Strassenbetriebsdienst über einen großen Erfahrungsschatz hinsichtlich der Straßeninfrastruktur und Straßenausstattung verfügt und grundsätzlich in der Lage war, sicherheitsrelevante Defizite aus dem planerischen Bereich zu benennen. Die meisten Defizite wurden allerdings bei Hindernissen im Seitenraum und Fahrzeug-Rückhaltesystemen festgestellt. Die Durchführung von exemplarischen Bestandsaudits auf sechs Strecken brachten wichtige Erkenntnisse im Hinblick auf die Ausgestaltung des Verfahrens. Wie bei der erweiterten Streckenkontrolle zeigte sich, dass die methodische Vorgehensweise und die entwickelten Werkzeuge von Grund auf funktionieren und lediglich kleinerer Anpassungen bedürfen.
Der Entwurf und der Betrieb von Tunneln im Zuge von Bundesautobahnen sind in den Richtlinien für die Anlage von Autobahnen (RAA 2008) und in den Richtlinien für die Ausstattung und den Betrieb von Straßentunneln (RABT 2006) geregelt. Hier sind die Hinweise zu der Wahl des Tunnelquerschnittes und zu den anzusetzenden Trassierungsgrenzwerten sowie die Anforderungen hinsichtlich Sicherheit und Betriebsabläufen enthalten. Zielsetzung des Forschungsvorhabens war es daher, die Tunnelbauwerke bezüglich ihrer Verkehrssicherheit zu untersuchen. Auf Grundlage der vorhandenen Informationen zur Trassierung wurden die Tunnelbauwerke gemäß ihrer Besonderheiten typisiert. Die Typisierung der 41 untersuchten Tunnel wurde anhand der Merkmale Fahrstreifenanzahl, dem Vorhandensein von Seitenstreifen und Ein- und Ausfahrten in Tunneln sowie der Höhe der zulässigen Höchstgeschwindigkeit vorgenommen. Im nächsten Arbeitsschritt wurde eine makroskopische Unfallanalyse durchgeführt. Für die Analyse wurden die Verkehrsunfallanzeigen bzw. vergleichbare Unfalldaten aus Lieferungen der Polizeidienststellen herangezogen. Darauf aufbauend wurden Unfallkenngrößen der einzelnen Tunnelröhren ermittelt. Das Tunnelkollektiv umfasste Tunnelstrecken sowohl mit als auch ohne Anschlussstellen. In der makroskopischen Unfallanalyse wurden die ermittelten Unfallkenngrößen der Tunnelteilkollektive gegenübergestellt sowie mit denen der Aussenstrecken verglichen. Die Bewertung des Unfallgeschehens in Tunneln führte zu der Erkenntnis, dass eine Anordnung von Seitenstreifen zur Senkung der Unfallrate und der mittleren Unfallkostenrate bei 2-streifigen Tunnelquerschnitten beitragen kann. In der anschließenden mikroskopischen Unfallanalyse wurden die Anschlussstellen innerhalb der Tunnelbauwerke untersucht. Hierbei wurden vor allem die Unfallmerkmale wie Unfallursachen und Unfallumstände näher betrachtet. Die Betrachtung der Lage von Ein- und Ausfahrten in Tunneln hat ergeben, dass diese keine eindeutige Auswirkung auf das Unfallgeschehen hat. Infolge der Ein und Ausfahrvorgänge treten jedoch vermehrt Unfälle in diesen Bereichen auf. Somit sind die Ein- und Ausfahrten in Tunneln nach Möglichkeit zu vermeiden. Darüber hinaus wurde eine Analyse zum Verkehrsablauf in Tunneln durchgeführt. Im Rahmen dieser Analyse erfolgten für ausgewählte Tunnel die Modellierung von q-V-Beziehungen und die Ermittlung von Kapazitätswerten.
Immer wieder werden Straßenbaumaßnahmen geplant und realisiert, bei denen die Möglichkeiten der geltenden Technischen Regelwerke für eine verkehrssichere Gestaltung nicht ausgeschöpft werden. Zielsetzung des Forschungsvorhabens war es, Schulungsunterlagen zu entwickeln, die sowohl zur Qualifizierung von Sicherheitsauditoren als auch zur Weiterbildung von Planern geeignet sind. Die zu erstellenden Materialien sollen Planern und Auditoren das Erkennen von Defiziten sowie das Vermeiden von Planungsfehlern erleichtern. Neben verfügbaren Auditauswertungen Dritter und 315 von den Forschungsnehmern selbst erstellten Auditberichten wurden bestehende Schulungsunterlagen für Planer bzw. Sicherheitsauditoren auf ihren Umfang, ihre Inhalte und Konzepte hin ausgewertet. Die Festlegung der Schulungsmodule orientierte sich sowohl an den bereits in der Praxis angewendeten Curricula für die Auditorenausbildung als auch an der durchgeführten Auswertung vorhandener Auditberichte sowie der Analyse vorliegender Schulungsunterlagen. Die Schulungsmodule und deren Inhalte wurden im Arbeitsausschuss Sicherheitsaudit von Straßen vorgestellt und diskutiert. Sie sind bereits im Anhang 1 des im Druck befindlichen Merkblatts für die Ausbildung und Zertifizierung der Sicherheitsauditoren von Straßen (MAZS 2008) aufgenommen. Für die festgestellten Defizite der relevanten Entwurfselemente wurden auf Grundlage der Entwurfsregelwerke jeweils die sicherheitsrelevanten Aussagen und Entwurfslösungen herausgearbeitet und zugeordnet. Im Ergebnis wurde eine Material- und Beispielsammlung erstellt, die in den Schulungsunterlagen zu jedem Grundlagen- und Thematischen Modul auch entsprechende Beispielsequenzen zu jedem Modul beinhaltet. Diese sehr umfangreichen Schulungsunterlagen (Kap. 3) sind dem Bericht als DVD beigefuegt.
Eine Zielsetzung dieses Forschungsprojekts war es, die bisher im Entwurf des "Handbuchs für die Bewertung der Verkehrssicherheit" (HVS) aus dem Jahr 2008 für Strecken und Knotenpunkte von Landstraßen und Autobahnen gesetzten Werte für Grundunfallkostenraten (gUKR) und Zuschläge zu diesen Unfallkostenraten (zUKR) bei Abweichungen vom richtliniengerechten Ausbau durch praktische Anwendung zu überprüfen und gegebenenfalls Vorschläge für erforderliche Modifikationen zu unterbreiten. Dazu erfolgte eine beispielhafte Anwendung des standardisierten Verfahrens nach dem HVS-Entwurf 2008 zur Ermittlung von standardisierten Unfallkostenraten bei einer größeren Zahl von konkreten Planungsmaßnahmen, wobei auch die Praxistauglichkeit dieses Verfahrens beurteilt werden sollte. Darüber hinaus wurde im Rahmen des Forschungsprojekts ein zwischenzeitlich vorliegendes, auf der Basis von so genannten "Verallgemeinerten Linearen Modellen" (GLM) entwickelter Ansatz zur Abschätzung von standardisierten Unfallkostenraten von Landstraßen auf das Kollektiv der Autobahnen erweitert. Es zeigte sich, dass das standardisierte Verfahren des HVS-Entwurfs 2008 auf der Grundlage von strecken- und knotenpunktspezifischen Grundunfallkostenraten und Zuschlägen auf Grund nicht regelgerechter Planung nach einer gewissen Einarbeitungszeit für einen Planer, der Sicherheitsbewertungen durchführen soll, einfach anwendbar ist. Die Anwendung des Verfahrens bei den ausgewählten Planungsmaßnahmen zeigte, dass sehr niedrige Unfallkostenraten von sicheren Landstraßen und Autobahnen mit dem Modellansatz ebenso wenig abgebildet werden können wie sehr hohe Unfallkostenraten, wie sie bei Unfallhäufungsstellen beobachtet werden können. Die mit den entwickelten Modellansätzen ermittelten standardisierten Unfallkostenraten haben eine relativ schmale Bandbreite. Das standardisierte Verfahrensmodell des HVS-Entwurfs 2008 ist deshalb nicht geeignet, für einzelne Netzelemente das Unfallgeschehen zu prognostizieren, es dient vielmehr dazu, die Sicherheitswirkungen bestimmter Entwurfselemente, besser als bisher, quantitativ abzuschätzen. Die aus den Untersuchungen resultierenden konkreten Vorschläge für die Weiterentwicklung des Verfahrens sollen dem Arbeitsausschuss 2.13 "Verkehrssicherheitsbewertung von Straßen" der Forschungsgesellschaft für Straßen- und Verkehrswesen (FGSV) als Grundlage für die weiterführenden Beratungen dienen.
Im Vorhaben wurde das Verhalten von offenporigen Fahrbahnbelägen in Bezug auf brennbare Flüssigkeiten im Vergleich zu dichten Fahrbahnoberflächen untersucht und analysiert inwieweit die speziellen Eigenschaften von offenporigen Asphalten Auswirkungen auf die Sicherheitsannahmen für risikobasierte quantitative Untersuchungen für Tunnel oder teilgeschlossene Bauwerke aufweisen. Hierzu wurden umfangreiche Versuche an großflächigen Versuchsplatten (80 x 80 cm) mit Deckschichten aus offenporigem Asphalt (PA) und Splitt-Mastix-Asphalt (SMA) sowie ergänzende CFD-Berechnungen durchgeführt. Die Ermittlung des Durchfluss- und Ausbreitverhaltens erfolgte bei konstanter Flüssigkeitsaufgabe auf die Versuchsplatten und Fassung der an den Plattenseiten austretenden Flüssigkeit in Messzylindern. Über diese wurde für die verschiedenen Deckschichten das zeitliche und räumliche Ausbreitungsverhalten analysiert. Die Ermittlung des Einflusses einer Oberflächenneigung erfolgte durch Variation der Ableitversuche mit zwei unterschiedlichen Plattenneigungen. Die Ermittlung des Brandverhaltens erfolgte in zwei Schritten. In einer ersten Versuchsreihe wurden auf die Platten verschiedene zuvor definierte Kraftstoffmengen aufgegeben und anschließend gezündet, so dass bei Brandbeginn beim SMA ein übersättigter und beim PA, je nach Aufgabemenge ein übersättigter, gesättigter oder teilgesättigter Asphalt vorlag. In der zweiten Versuchsreihe erfolgte während des Abbrands ein kontinuierlicher Benzinzufluss. Die Analyse der umfangreichen Daten aus den Versuchsreihen ermöglichte die Bereitstellung detaillierter Eingangsgrößen für die CFD-gestützte Modellierung und Validierung des zeitlichen und räumlichen Ausbreitungs- und Abbrandverhaltens für die betrachteten Fahrbahnoberflächen. In der sich anschließenden Wirkungsanalyse wurden die sich aus der Modellierung ergebenden Auswirkungen der unterschiedlichen Fahrbahnoberflächen (PA und SMA) ermittelt und unter Anwendung des Verfahrens für die Bewertung der Sicherheit von Straßentunneln miteinander verglichen. Der quantitative Sicherheitsvergleich zeigte, dass offenporige Asphaltbeläge in Einhausungs- und Tunnelbauwerken unter risikoorientierten Gesichtspunkten nicht ungünstiger als dichte Fahrbahnbeläge einzustufen sind.
Seit Ende der 80iger Jahre sind in Deutschland eine ganze Reihe von automatisch gesteuerten Verkehrsbeeinflussungsanlagen (VBA) im Einsatz. Das Bundesministerium für Verkehr, Bau und Stadtentwicklung hat den Bau in den 90er Jahren stark forciert und in einem Rahmenprogramm gefördert. Vor diesem Hintergrund soll untersucht werden, welche Nutzen und Kosten solche Anlagen im Zuge ihres Lebenszyklus' implizieren. Ziel der vorliegenden Arbeit war es deshalb, aufzuzeigen, wie sich solche Nutzen/Kosten-Verhältnisse präzisieren lassen, wenn der gesamte Lebenszyklus einer VBA betrachtet wird. Im Rahmen einer Befragung von Betreibern solcher Anlagen wurden die Kosten der verschiedenen Lebensphasen erhoben. Es zeigte sich, dass sich für verschiedene Anlagentypen auch sehr unterschiedliche Verteilungen der Kostenanteile für die einzelnen Lebensphasen ergaben. Die Berechnung der Nutzen erfolgt auf der Basis bereits in anderen Forschungsvorhaben und im Rahmen der Arbeitskreise der Forschungsgesellschaft für Straßen- und Verkehrswesen entwickelten Methoden und Modelle. Die so ermittelten Kostensätze und Nutzen dienen als Grundlage für Lifecycle-Tools, mit deren Hilfe eine Gesamtbewertung einer beliebigen VBA über den gesamten Lebenszyklus erstellt werden kann. In diese Lifecycle-Tools eingebunden sind die Excel-Tools der Technischen Universität München. Für die Wirksamkeitsberechnung von TSF wurde das AVP-Programm zugrunde gelegt. Anwendungen der Tools auf drei exemplarischen Anlagen zeigten, dass sich bei der Lebenszyklusbetrachtung grundsätzlich höhere Nutzen/Kosten-Verhältnisse ergeben als bei der bisherigen Betrachtungsweise. Mit den Lifecycle-Tools für VBAn steht dem Anwender ein Instrumentarium zur Verfügung, mit dessen Hilfe er innerhalb weniger Minuten eine Nutzen/Kosten-Abschätzung für den entsprechenden Anlagentyp über den gesamten Lebenszyklus vornehmen kann.
Das von der Generaldirektion (DG) XII der Kommission der EU geförderte Projekt umfasst drei Teile: (1) Eine Literaturstudie über mechanische Prüfungen an Gesteinskörnungen, die ergab, dass bei der Festigkeit der Los Angeles-Versuch als Referenzverfahren für Widerstand gegen Zertrümmerung geeignet ist. (2) Eine Serie von Ringanalysen (1993 bis 1997), die 20 Prüfverfahren zu 21 Eigenschaften von Gesteinskörnungen umfasste, unter Beteiligung von rund 50 europäischen Prüfstellen. Zu 19 Ringanalysen wurden ausführliche Berichte erstellt, die eine Beschreibung des Ringversuchs, eine statistische Auswertung einschließlich Versuchsergebnissen und die gewonnenen Präzisionsangaben enthielten. Die Berichte schlugen für einige Verfahren Verbesserungen vor und ermöglichten jeder teilnehmenden Prüfstelle, die eigene Leistung zu kontrollieren. Ein Ringversuch zur Petrographie wurde beschreibend ausgewertet. Ein Überblick über die Prüfverfahren mit dem Versuch einer Wertung ihrer Präzision wurde gegeben: Verfahren mit zufriedenstellender Genauigkeit wurden ebenso aufgezeigt wie solche, bei denen noch Schwierigkeiten vorhanden sind. Faktoren, die zur Streuung der Ergebnisse beitragen, wurden diskutiert und mögliche Verbesserungen vorgeschlagen. (3) Eine Studie über Probenahme unter unterschiedlichen Bedingungen untersuchte den Probenahmefehler, der durch Schwankungen der Produktion sowie durch die Probenahme selbst verursacht wird. 22 Probenahmen, von Transportbändern und verschiedenartigen Halden, die meisten in der Praxis vorkommenden Fälle umfassend, wurden durchgeführt. Die Proben unterschieden sich in Größtkorn, Kornabstufung und Art der Gesteinskörnung. An ihnen wurden insgesamt 575 Siebungen und 958 Ausleseversuche ausgeführt. Die Ergebnisse zeigten, dass, wenn der Probenahmefehler den Fehler des Prüfverfahrens nicht überschreiten soll, Sammelproben aus mindestens 15 Einzelproben bestehen sollten. Im Falle der Probenahme vom Band, die zu bevorzugen ist, stellt eine große Einzelprobe eine annehmbare Alternative dar, sofern die Produktion die Zusammensetzung der Körnung gut kontrolliert.
In der vorliegenden Untersuchung wurde das Geschwindigkeitsverhalten freifahrender Pkw bei etwa 400 Verfolgungsfahrten auf vier Bundes- und Landesstraßen im Odenwald und im Hessischen Ried analysiert. Dazu mussten die Geschwindigkeitsprofile relativ aufwendig geglättet werden, um die (Längs-)Beschleunigung und (Längs-)Rückprofile als Maß für die Reaktionsstärke und den Reaktionsort berechnen zu können. Die ermittelten Profile wurden getrennt nach typischen Fahrtengruppen aufgetragen. Außerdem wurden an auffälligen Stellen die Verteilungen der Geschwindigkeiten und der ausgenutzten Seitenreibungsbeiwerte ermittelt. Es zeigt sich, dass Verfolgungsfahrten recht gut geeignet sind, um das Reaktionsverhalten freifahrender Fahrer zu studieren. Die Messmethodik kann allerdings noch verfeinert werden. Die wichtigsten Ergebnisse sind: - Das höhere Beschleunigungsvermögen stärker motorisierter Fahrzeuge wirkt sich auf die gesamte Fahrweise aus. - Die höchsten Werte der Verzögerungen sind bei manchen engen und unübersichtlichen Kurven nicht vor, sondern in den Kurvenbereichen zu finden. - Die Fahrer akzeptieren vor allem bei Nässe wesentlich höhere Seitenreibungswerte als in den Richtlinien angenommen. Die akzeptierten Maxima der Seitenreibungswerte unterscheiden sich bei engen Radien von Kurve zu Kurve kaum. Die maximale Seitenbeschleunigung ist damit wahrscheinlich eine maßgebliche Eingangsgröße der Geschwindigkeitswahl. Die Sichtverhältnisse haben (auch bei der Trassierung im Höhenplan) einen großen Einfluss auf das Reaktionsverhalten. Sollten sich in den weiteren Teilen des gesamten Forschungsvorhabens noch Fragestellungen in Bezug auf bestimmte Fahrergruppen oder ähnliches ergeben, so wäre eine weitere Auswertung des vorhandenen Datenmaterials, zum Beispiel getrennt nach Fahreralter oder Ortsansässigkeit durchaus denkbar.
Ziel des Forschungsvorhabens war die Untersuchung des Einflusses einzelner Zustandsparameter auf das Unfallgeschehen unter Berücksichtigung von Verkehrs- und Infrastrukturmerkmalen. Durch die Zusammenführung von Informationen aus den beiden Netzanalysesystemen "Zustandserfassung und -bewertung" (ZEB) und der (Empfehlungen für die) "Sicherheitsanalyse von Straßennetzen" (ESN) sollten Verbesserungspotenziale für die Optimierung des Sicherheitsmanagement der Straßeninfrastruktur abgeleitet werden. Daten aus drei Analyseländern für Bundesautobahnen sowie Bundes- und Landesstraßen wurden datentechnisch durch neu geschaffene Aggregations- und Auswerteverfahren auf ein gemeinsames Netzmodell aufbereitet. In Pilotanalysen wurden deskriptive Auswertungen des Unfallgeschehens und der Zustandsparameter durchgeführt. Verschiedene Analysemethoden für die Quantifizierung eines Zustandseinflusses auf das Unfallgeschehen wurden vergleichend gegenübergestellt und zentrale Randbedingungen (z. B. Abschnittslängen, Verteilungskennwerte der Zustandsparameter) definiert. Anhand multikriterieller Analyseansätze wurden Zusammenhänge zwischen Zustandsgrößen (z. B. Griffigkeit, Quer- und Längsebenheit), Infrastrukturparametern (z. B. Fahrstreifenanzahl, Längs- und Querneigung oder Kurvigkeitsäquivalent), den Verkehrsmengen und dem Unfallgeschehen modellhaft beschrieben. Für die Griffigkeit lassen sich signifikante und verallgemeinerbare Zusammenhänge mit Fahr- und Längsverkehrsunfälle auf Bundes- und Landesstraßen ableiten. Bei den übrigen untersuchten Zustandsgrößen " z. B. Ebenheit in Längs und Querrichtung " ergaben sich keine einheitlichen Ergebnisse. Aus den Modellen wurde ein allgemeingültiges Verfahren entwickelt, welches vermeidbare Unfallkosten pro Jahr für Veränderungen in der Griffigkeit bei gegebenen Infrastrukturgrößen abschätzt. Das dargestellte DV-Verfahren ermöglicht den bidirektionalen Datenaustausch zwischen der ZEB und der ESN und die Berücksichtigung der zusammengeführten Informationen im Rahmen des Erhaltungsmanagements.
Eine konsequente Förderung des Radverkehrs wird im Kontext von Klimaschutz, Lärmminderung und Luftreinhaltung als ein geeigneter verkehrsplanerischer Ansatz gesehen. Quantifizierte Aussagen zu den Einsparpotenzialen, die durch eine wirksame Zunahme des Radverkehrsanteils an den (innerörtlichen) Verkehrsleistungen zur Umweltentlastung erschlossen werden können, lagen bislang nur vereinzelt vor und basieren meist auf pauschalen Ansätzen. Die Quantifizierung von Maßnahmenwirkungen wird in diesem Forschungsprojekt auf der Ebene Gesamtstadt mit einem makroskopischen Verkehrsmodell für die Bestandssituationen ("Analysefall") und definierten Struktur- und Infrastrukturentwicklungsszenarien ("Prognosefälle") für drei Beispielstädte gebildet. Aus den Analysen der verkehrlichen Wirkung wurde deutlich, dass eine Reduzierung der Kfz-Fahrleistung in allen Beispielstädten möglich ist. Die Reduzierung der Fahrleistung ist im Wesentlichen von der Ausgangslage und den angesetzten Maßnahmen abhängig. Die ermittelten Kenngrößen (Modal-Split, Verkehrsleistungen im motorisierten Verkehr) und Kfz-Verkehrsbelastungen stellen die Grundlage zur Ermittlung von Veränderungspotenzialen in Bezug auf Umweltwirkungen dar, die mit makroskopischen Modellen zur straßennetz- bzw. flächenbezogenen Abbildung von Klimagasemissionen (CO2), Verkehrslärm und Luftschadstoffbelastungen (PM10, PM2,5 und NO2) ermittelt werden. Im Vergleich von Analysefall und Prognosefällen wurden so die umweltbezogenen Veränderungspotenziale aus den zugrunde gelegten Szenarien konkret für die drei Beispielstädte quantifiziert