Buch (Monographie)
Filtern
Erscheinungsjahr
- 2021 (84)
- 2015 (62)
- 2022 (62)
- 2023 (56)
- 2017 (53)
- 2016 (48)
- 2014 (47)
- 2006 (44)
- 2019 (44)
- 2013 (43)
- 2020 (43)
- 2018 (42)
- 2024 (42)
- 2010 (41)
- 2011 (34)
- 2012 (34)
- 1991 (33)
- 2007 (33)
- 2008 (32)
- 2009 (32)
- 2004 (31)
- 1989 (27)
- 1987 (25)
- 1988 (25)
- 1992 (25)
- 2005 (24)
- 1993 (22)
- 1996 (21)
- 1990 (19)
- 2003 (18)
- 1979 (17)
- 1995 (17)
- 1986 (14)
- 1998 (14)
- 2002 (14)
- 1981 (12)
- 1982 (12)
- 1997 (12)
- 1978 (11)
- 1999 (11)
- 1983 (10)
- 2001 (10)
- 1984 (9)
- 1985 (9)
- 2000 (9)
- 1976 (8)
- 1980 (6)
- 1994 (6)
- (3)
- 1977 (3)
- 1974 (1)
Dokumenttyp
- Buch (Monographie) (1354) (entfernen)
Sprache
- Deutsch (1334)
- Englisch (18)
- Mehrsprachig (2)
Schlagworte
- Deutschland (701)
- Germany (697)
- Forschungsbericht (645)
- Research report (634)
- Safety (252)
- Sicherheit (251)
- Bewertung (224)
- Versuch (187)
- Test (184)
- Measurement (158)
Institut
- Sonstige (634)
- Abteilung Straßenverkehrstechnik (191)
- Abteilung Verhalten und Sicherheit im Verkehr (179)
- Abteilung Brücken- und Ingenieurbau (111)
- Abteilung Straßenbautechnik (109)
- Abteilung Fahrzeugtechnik (72)
- Stabstelle Presse und Öffentlichkeitsarbeit (17)
- Stabstelle Forschungscontrolling, Qualitätsmanagement (1)
Im Rahmen der Untersuchung wurde der Einfluss von Lang-Lkw auf den Verkehrsablauf an planfreien Knotenpunkten mit Hilfe des mikroskopischen Simulationsprogramms BABSIM analysiert. Dazu wurde der Verkehrsablauf an verschiedenen Typen von Ausfahrten und Einfahrten sowie einer Verflechtungsstrecke nachgebildet. Die Simulationsmodelle der Untersuchungsstellen wurden anhand der Daten von Dauerzählstellen für Schwerverkehrsanteile zwischen 10 % und 15 % kalibriert und validiert. Für jede Untersuchungsstelle wurden Simulationen mit Lang-Lkw-Anteilen von 0 %, 1 %, 2 % und 5 % der Gesamtverkehrsstärke sowie in der Regel drei unterschiedlichen Verkehrsstärkeanteilen des ein- bzw. ausfahrenden Verkehrs durchgeführt. In einem weiteren Ansatz wurden Szenarien verglichen, bei denen die Transportleistung von drei herkömmlichen Lkw durch zwei Lang-Lkw ersetzt wurde. Für jedes Szenario wurde der Mittelwert der Verkehrsstärken vor Zusammenbrüchen des Verkehrsflusses als Schätzwert der Kapazität ermittelt. Insgesamt liefern die Ergebnisse der Verkehrsflusssimulationen einen Anhaltspunkt dafür, dass die Kapazität von planfreien Knotenpunkten bei den hier analysierten hohen Lang-Lkw-Anteilen von 1 bis 5 % der Gesamtverkehrsstärke im Allgemeinen nur gering beeinflusst wird. Die ermittelten Auswirkungen der Lang-Lkw auf die Kapazität liegen in der Größsenordnung der Bandbreite der Kapazität, die in der Realität auch im Vergleich unterschiedlicher Knotenpunkte mit ähnlichen verkehrlichen und streckengeometrischen Randbedingungen auftreten.
In der Untersuchung wurde der Einfluss des Schwerverkehrs auf den Verkehrsablauf an planfreien Knotenpunkten analysiert. Als Grundlage dienten Daten von Dauerzählstellen für die Analyse auf makroskopischer Ebene, ergänzt durch Messungen an hochbelasteten Knotenpunkten für eine mikroskopische Analyse des Schwerverkehrs. Für die Untersuchung hoher Schwerverkehrsanteile wurden außerdem Verkehrsflusssimulationen an ausgewählten Knotenpunkten mit dem Programm BABSIM durchgeführt. Makroskopisch wurden die Daten von Dauerzählstellen und aus der Simulation mit den Verfahren des HBS (2015) verglichen und vor allem bezüglich der Umrechnung in Pkw-Einheiten ausgewertet. Dabei zeigte sich, dass die bestehenden Verfahren auch für hohe Schwerverkehrsanteile anwendbar sind, der Einfluss des Schwerverkehrs auf die Kapazität mit dem bislang angesetzten Pkw-Gleichwert von 2,0 aber bei Schwerverkehrsanteilen größer oder gleich 20 % eher überschätzt wird. Weiterhin wurden Regressionsanalysen durchgeführt, die dazu dienten, eine Funktion der für die Einfahrt maßgebenden Belastung des rechten Fahrstreifens zu identifizieren. Diese Funktion diente als Eingangsgröße für die Kalibrierung und Erweiterung eines analytischen Modells, mit dem die Veränderung der Fahrstreifenaufteilung im Bereich von Ein- und Ausfahrten nachgebildet werden kann. Als weiterer Ansatz wurden die Verfahren der stochastischen Kapazitätsanalyse für die Untersuchung von planfreien Knotenpunkten erweitert. Für die Anwendung des Verfahrens ist eine sehr umfangreiche Datengrundlage erforderlich, die nicht immer verfügbar ist. Im Rahmen der mikroskopische Analyse des Schwerverkehrs an planfreien Knotenpunkten wurden empirisch erhobene Einzelfahrzeugdaten hinsichtlich des Fahrstreifenwechselverhaltens der Schwerverkehrsfahrzeuge im Bereich der Knotenpunkte und der Zeitlückenverteilungen in verschiedenen Abständen von der Trenninselspitze analysiert. Mithilfe dieser Auswertungen wurden die um den Aspekt des Schwerverkehrs erweiterten analytischen Modelle kalibriert.
Die Beschleunigungsvergütung ist ein wichtiges Instrument zur Bauzeitverkürzung auf Bundesautobahnen. Die im HVA B-StB bislang angegebenen Nutzungsausfallkosten sind veraltet und stellen für die beschleunigte Durchführung von Baumaßnahmen keinen ausreichenden Anreiz dar.
Im Rahmen der Untersuchung erfolgte daher eine Erweiterung und Aktualisierung der Nutzungsausfallkostentabelle. Dazu wurden die arbeitsstellenbedingten Kostenveränderungen der Fahrtzeiten im fließenden Verkehr, der Fahrtzeitverluste, der Zuverlässigkeit des Verkehrsablaufs, des Unfallgeschehens, des Kraftstoffverbrauchs und der Schadstoffbelastung modellbasiert ermittelt.
Für typische Verkehrsführungen auf vier-, sechs- und achtstreifigen Autobahnen wurden tägliche volkswirtschaftliche Kosten sowie Mehrkosten als Differenz der Kosten im Zustand mit und ohne Arbeitsstelle für verschiedene Szenarien bestimmt. Anhand der Berechnungsergebnisse konnte der Einfluss der maßgebenden Randbedingungen hinsichtlich der Verkehrsnachfrage und der Kapazität mit und ohne Arbeitsstelle analysiert werden.
Basierend auf diesen Untersuchungen wurden zur Ermittlung aktualisierter Nutzungsausfallkosten Bezugsrandbedingungen festgelegt, mit denen ein möglichst großer Teil der Strecken des deutschen Autobahnnetzes abgedeckt wird. Im Ergebnis werden Nutzungsausfallkosten in Abhängigkeit vom DTV für 32 Arbeitsstellenverkehrsführungen in drei Tabellen für vier-, sechs- und achtstreifige Autobahnen angegeben, die zukünftig als Grundlage für die Vereinbarung von Bonus-Malus-Regelungen dienen können.
Die Bemessung von Verkehrsanlagen erfolgt üblicherweise anhand einer bestimmten Spitzenstunde (n-te Stunde). In Deutschland wird dafür bislang die 30. Stunde der Dauerlinie der Verkehrsnachfrage zugrunde gelegt. Im Rahmen der Untersuchung wurden die Eignung der 30. Stunde als Bemessungsgrundlage geprüft und alternative Bemessungskonzepte analysiert. Für 50 Messquerschnitte von Bundesautobahnen wurden anhand einer stochastischen Ganzjahresanalyse mit dem Simulationsprogramm KAPASIM staubedingte Fahrtzeitverluste ermittelt. In Verbindung mit den jeweiligen Fahrtzweckanteilen und den entsprechenden Zeitkostensätzen wurden so für jede Stunde des Jahres volkswirtschaftliche Zeitkosten berechnet. Darüber hinaus wurde der Zusammenhang zwischen dem Auslastungsgrad und den überlastungsbedingten Zeitverlusten durch eine Modellfunktion beschrieben. Bei vorwiegend von Urlaubs- und Freizeitverkehr geprägten Strecken entsteht der Großteil der staubedingten Zeitkosten in den 30 höchstbelasteten Stunden des Jahres. Bei Strecken mit überwiegendem Pendlerverkehr treten dagegen auch jenseits der 300. Stunde noch Zeitverluste auf, der Anteil der überlastungsbedingten Zeitkosten in den ersten 30 Stunden der Dauerlinie beträgt zwischen ca. 40 bis 80 %. Für die Wahl des in der Bemessungsstunde relevanten Schwerverkehrsanteils wird der Median im Bereich der (n " 5)-ten bis (n + 5)-ten Stunde der Dauerlinie der Verkehrsnachfrage empfohlen. Für alternative Bemessungskonzepte konnten im Ergebnis der Untersuchung keine Vorteile im Vergleich zum Ansatz der n-ten Stunde festgestellt werden. Hinsichtlich der Wahl einer n-ten Stunde ergeben sich nur geringe Unterschiede zwischen der 30. und der 50. Stunde, so dass im Sinne einer Harmonisierung der europäischen Bemessungsverfahren ein Wechsel von der 30. zur 50. Stunde erwogen werden kann.
In der vorliegenden Untersuchung wurden die methodischen Grundlagen für ein Verkehrsanalysesystem entwickelt, mit dem die im Leitfaden zum Arbeitsstellenmanagement auf Bundesautobahnen geforderte Bewertung der Auswirkungen von Arbeitsstellen auf den Verkehrsablauf umgesetzt werden kann. Dazu wurden makroskopische Modelle zur Nachbildung des Verkehrsablaufs auf Autobahnen geprüft und weiterentwickelt. Der Ansatz für die Quantifizierung der verkehrlichen Auswirkungen von Engpässen ist die intervallgenaue Modellierung von Verkehrsnachfrage und Kapazität über einen längeren Zeitraum. Die Anwendung dieser sogenannten Ganzjahresanalyse führt zu einer deutlich präziseren Nachbildung des Verkehrsablaufs im Vergleich zur Analyse einer einzelnen Bemessungsstunde.
Zur Auswahl eines Modells für das Verkehrsanalysesystem wurden geeignete Kombinationen der Modellkomponenten analysiert und empirisch validiert. Diese unterscheiden sich in ihren Berechnungsansätzen, in der betrachteten Intervalldauer und in der Berücksichtigung der Stochastizität von Verkehrskenngrößen. Die empirische Grundlage bildeten Daten von Dauerzählstellen sowie Fahrtzeitmessungen. Anhand lokal an Dauerzählstellen erfasster Daten wurden fünf Untersuchungsstrecken mit ausgeprägtem Engpass analysiert. Für die Ermittlung der durch den Engpass bedingten Fahrtzeitverluste wurde der Verkehrsablauf zwischen den Zählstellen detailliert rekonstruiert. Anhand der Übereinstimmung der modellbasierten und empirischen Ergebnisse und unter Berücksichtigung praktischer Erwägungen hinsichtlich der Umsetzbarkeit im Verkehrsanalysesystem wird für den Anwendungsfall der Baubetriebsplanung ein deterministisches Warteschlangenmodell mit deterministischen Eingangsgrößen in Stunden-Intervallen vorgeschlagen.
Die durch die Ganzjahresanalyse ermittelten verkehrstechnischen und volkswirtschaftlichen Kenngrößen können in ein übergeordnetes Bewertungskonzept integriert werden. Durch eine Erweiterung des Berechnungsmodells ist das Verkehrsanalysesystem auch für wissenschaftliche Analysen geeignet.
In der Untersuchung wurden Verfahren zur Schätzung der Wartezeiten an signalisierten Knotenpunkten mit unterschiedlichen Steuerungsverfahren auf der Grundlage umfangreicher empirischer Erhebungen und Simulationsuntersuchungen überprüft und für deutsche Verkehrsverhältnisse kalibriert. Die Analyse umfasste Knotenpunkte mit koordinierter Festzeitsteuerung sowie Einzelknotenpunkte mit verkehrsabhängiger Steuerung. Durch den Vergleich mit den Ergebnissen der empirischen Erhebungen und der Simulationsuntersuchungen wurde die Güte der Wartezeitermittlung mit den einzelnen Verfahren festgestellt und Möglichkeiten zur Kalibrierung überprüft. Die Betrachtung der Fehlermaße zeigte für alle Verfahren ähnliche Abweichungen zu den empirischen Verlustzeiten. Aus Gründen der einfacheren Handhabbarkeit werden die Verfahren nach HCM 2010 für Zufahrten an koordiniert gesteuerten Lichtsignalanlagen und nach HCM 2000 für verkehrsabhängig gesteuerte Lichtsignalanlagen für die Anwendung im deutschen Regelwerk vorgeschlagen. Die Parameterkalibrierung ergab für das Verfahren für verkehrsabhängig gesteuerte Lichtsignalanlagen eine Anpassung des Korrekturfaktors der Grundwartezeit. Das HCM-Verfahren für Zufahrten an koordiniert gesteuerten Lichtsignalanlagen, welches in dieser Form bereits im HBS 2015 enthalten ist, kann dagegen unverändert beibehalten werden. Die Verfahren wurden anhand von Simulationsmodellen aus Praxisbeispielen validiert. Die Ergebnisse der Validierung bestätigen die Praxistauglichkeit der Verfahren.
Ziel der Untersuchung war es, eine Methodik für die HBS-konforme Durchführung und Auswertung von Simulationsstudien zu erarbeiten. Dazu wurden HBS-konforme Standardelemente in den Simulationsprogrammen BABSIM, VISSIM, Aimsun, Paramics und SUMO modelliert und an den Bemessungswerten des HBS kalibriert. Die Ermittlung der Kapazität erfolgte anhand der Identifikation von Zusammenbrüchen des Verkehrsflusses, die durch Steigerung der Verkehrsstärke auf bis zu 120 % der Kapazität nach HBS in der Simulation erzeugt wurden. An Teilknotenpunkten wurden sechs Verhältnisse der Verkehrsstärke auf der Hauptfahrbahn zur Verkehrsstärke des ein- bzw. ausfahrenden Stroms untersucht. Als Kriterium für die Übereinstimmung der in der Simulation ermittelten Kapazität und q-v-Beziehung mit dem HBS wurde eine maximale Abweichung von 5 % festgelegt. Die Fehlergrenze konnte mit den Simulationsprogrammen BABSIM, VISSIM, Aimsun und Paramics in der Regel eingehalten werden, während sich in SUMO größere Abweichungen ergaben. Die Übertragbarkeit der Parametersätze auf nicht HBS-konforme Bemessungssituationen wurde anhand der Daten realer Untersuchungsobjekte überprüft. Im Ergebnis werden Empfehlungen und Standardparameterkombinationen für die HBS-konforme Simulation des Verkehrsablaufs auf Autobahnen bereitgestellt, die als Ausgangsparameter für die Simulation nicht HBS-konformer Untersuchungsobjekte herangezogen werden können.
Zur effektiven Lenkung des weiterhin wachsenden Straßenverkehrs sind digitale Verkehrsma-nagementlösungen unabdingbar. Die technischen Möglichkeiten zur Umsetzung örtlicher Ver-kehrsmanagementstrategien durch die Verkehrsleitzentralen (VLZ) sind jedoch auf ein strategi-sches Netz begrenzt. Kommunen ohne eigene VLZ haben zudem kaum Möglichkeiten aktive Len-kungsmaßnahmen zu ergreifen. Gleichzeitig bieten moderne Mobilitäts-Apps von Routingdiensten dem Verkehrsteilnehmer viele Optionen, sich informieren und leiten zu lassen. Letztere arbeiten jedoch meist unabhängig von den öffentlichen Akteuren. So führen unterschiedliche Routenemp-fehlungen zur Verunsicherung der Verkehrsteilnehmer. Ein direkter Informationsaustausch zwi-schen den VLZ und den Routingdiensten existiert bislang nicht. Dabei ist dies ein Schlüsselfaktor für eine effizientere Verkehrslenkung.
City2Navigation entwickelte daher ein Konzept für die Einführung eines deutschlandweiten C2N-Dienstes als Grundlage für die Vernetzung des öffentlichen Verkehrsmanagements mit Routing-diensten. Er ist ein entscheidender Baustein für ein zukunftsweisendes, digitales Verkehrsma-nagement und unterstützt das Ziel des IVS Aktionsplans Straße des BMVI.
Der C2N-Dienst umfasst eine Reihe innovativer Komponenten: Der Strategieeditor ist der zentrale Zugangspunkt für die Behörden zum C2N-Dienst und dient zur Erfassung, Verwaltung, Publikation, Schalten, zum Beenden und zur Auswertung von VM-Strategien. Alle Strategien werden über den Mobilitäts Daten Marktplatz (MDM) als zentrale Informationsdrehscheibe bereitgestellt („Hinka-nal“) und von dort von den Routingdiensten abgerufen. Die Informationsweitergabe erfolgt über DATEX II Profile, die eine unmittelbare und automatisierte Informationsverarbeitung durch die Routingdienste erlauben. Das Konzept sieht einen „Rückkanal“ vor, über den die VLZ ein Feedback zur Nutzung und Qualität ihrer VM-Strategien von den Routingdiensten erhalten. Diese Informati-onen werden ebenfalls im DATEX II Format über den MDM gesendet. Dieses Feedback wird im Auswertungsmodul des Strategieeditors analysiert. Aktivieren benachbarte Kommunen gleichzeitig VM-Strategien, können sich diese u.U. gegenseitig negativ beeinflussen. Eine automatisierte Kon-flikterkennung erkennt solche Fälle und benachrichtigt die betroffenen Behörden.
Für die Realisierung des C2N-Dienstes wurden wichtige Randbedingungen identifiziert. Im Umgang mit dem MDM wurden technische Lösungen zur vereinfachten Anmeldung, Subskription, Publizie-rung und Pooling von Strategiemeldungen entwickelt. Um die unterschiedlichen IT-Anforderungen der Behörden zu berücksichtigen wurden Optionen für die Umsetzung des Strategieeditors erar-beitet. Das vorgeschlagene dreistufige Implementierungskonzept zielt auf eine zügige, große Flä-chenabdeckung Deutschlands ab. Bei der Umsetzung spielt ein zentraler Vermittler als Ansprech-partner und Repräsentant des C2N-Dienstes eine wichtige Rolle; neben grundlegenden techni-schen Aufgaben für den Dauerbetrieb übernimmt er auch inhaltliche und organisatorische Aufga-ben im Rahmen des Kooperationskonzeptes. Er wird von regionalen Vermittlern unterstützt, die engen Kontakt zu allen beteiligten Akteuren halten.
Zur Unterstützung von Umsetzungsprojekten dienen Handreichungen. Neben einem Lastenheft für den Strategieeditor wurde eine IVS-Referenzarchitektur für den Gesamtdienst entwickelt. Checklisten für Behörden und Routingdienste geben Anleitungen zur Einführung des Dienstes. Fertige Implementierungen können vom Vermittler zertifiziert werden. Der Erfolg des C2N-Dienstes sollte regelmäßig anhand von Erfolgsfaktoren und Evaluierungskriterien überprüft wer-den. Alle Ergebnisse von City2Navigation sind in einem umfassenden Abschlussbericht dokumen-tiert. Damit steht ein umfassender Werkzeugkasten für Umsetzungsprojekte zur Verfügung.
Teilnehmende Akteure profitieren durch den C2N-Dienst in verschiedener Weise. Er erweitert kommunale Möglichkeiten zur Verkehrslenkung, indem VM auch abseits strategischer Netze und von Behörden ohne Verkehrsrechner betrieben werden kann, indem VM-Maßnahmen spezifi-scher und zielgerichteter definiert und proaktiv Strategien zur Stauvermeidung publiziert werden können, und indem mögliche Konflikte detektiert und die Wirkungen der Strategien umfassend analysiert werden. Die Routingdienste profitieren von zusätzlichen, in maschinenlesbarer Form bereitgestellten Informationen, können die spezifischeren VM-Strategien zielgerichtet an ihre Endkunden weitergeben und dadurch die Kundenzufriedenheut erhöhen. Der Rückkanal bietet Möglichkeit zur Rückmeldung an die Behörden zur Verbesserung zukünftiger VM-Maßnahmen. Schließlich generiert C2N Möglichkeiten für neue Geschäftsmodelle entlang des gesamten Wert-schöpfungskreises.
Der zukünftige C2N-Dienst schafft mit der Vernetzung des öffentlichen Verkehrsmanagements mit Routingdiensten für alle Akteure wesentliche Mehrwerte für ein zukunftsweisendes digitales Ver-kehrsmanagement.
Da Polymer-, Gummi-, wachs- und mehrfachmodifizierte Bitumen seit Jahren im Asphaltstraßenbau eigesetzt werden, kommen diese vermehrt im Ausbauasphalt vor. Zur Bewertung des Ausbauasphalts ist es daher notwendig, die Modifizierungen an der Mischanlage zu identifizieren. Die Ausbildung des Bindemittelsacks beim Erweichungspunkt Ring und Kugel ist charakteristisch für die Modifizierung. Hierdurch können wachsmodifizierte Bitumen (WmB) recht präzise und Polymermodifizierten Bitumen (PmB) teilweise identifiziert werden. Mittels Differential Scanning Calorimetry (DSC) werden die Schmelztemperaturen der Wachse erfasst. Hierdurch können WmB identifiziert und die Wachsarten unterschieden werden. Die Analytik mittels Dynamischem Scherrheometer (DSR) startet mit der Bestimmung der Äquisteifigkeitstemperatur EG*T. Bei EG*T werden Frequenz-, Amplituden- und MSCR-Tests durchgeführt. Die Grenze des LVE-Bereichs dient der Identifizierung von WmB. Anhand der Kennwerte bei 0,1 Hz können PmB erkannt werden. Die Rückformung (MSCRT) dient der Identifizierung von Mehrfachmodifizierungen. Da Gummimodifizierte Bitumen (GmB) bei der Extraktion erkannt werden, können alle Modifizierungsarten identifiziert werden. In den FTIR-Spektren (Fourier-Transformations-Infrarotspektroskopie) der modifizierten Bitumen verursachen einige Polymere und Wachse charakteristische Banden, wodurch diese erkannt werden. Die Identifizierung der übrigen Additive erfolgt mithilfe einer multivariaten Auswertung, wodurch mit Ausnahme der GmB (nicht erforderlich) alle Additive erkannt werden. An Stichproben konnte zudem eine Abgrenzung von Mehrfachmodifizierungen sowie eine Abschätzung der Zugabemenge erreicht werden. DSR und FTIR ermöglichen beide eine schnelle, einfache und zielsichere Identifizierung der Bitumenmodifizierungen. Durch die FTIR-Analytik können die Modifizierungen mit der größtmöglichen Präzision bestimmt werden. Die DSR-Analytik erlaubt dafür zusätzlich eine baupraktische Bewertung der Bindemittel.
A series of drop tests and vehicle tests with the adult head impactor according to Regulation (EC) 631/2009 and drop tests with the phantom head impactor according to UN Regulation No. 43 have been carried out by the German Federal Highway Research Institute (BASt) on behalf of the German Federal Ministry of Transport, Building and Urban Development (BMVBS). Aim of the test series was to study the injury risk for vulnerable road users, especially pedestrians, in case of being impacted by a motor vehicle in a way described within the European Regulations (EC) 78/2009 and (EC) 631/2009. Furthermore, the applicability of the phantom head drop test described in UN Regulation No. 43 for plastic glazing should be investigated. In total, 30 drop tests, thereof 18 with the adult head impactor and 12 with the phantom head impactor, and 49 vehicle tests with the adult head impactor were carried out on panes of laminated safety glass (VSG), polycarbonate (PC) and laminated polycarbonate (L-PC). The influence of parameters such as the particular material properties, test point locations, fixations, ambient conditions (temperature and impact angle) was investigated in detail. In general, higher values of the Head Injury Criterion (HIC) were observed in tests on polycarbonate glazing. As the HIC is the current criterion for the assessment of head injury risk, polycarbonate glazing has to be seen as more injurious in terms of vulnerable road user protection. In addition, the significantly higher rebound of the head observed in tests with polycarbonate glazing is suspected to lead to higher neck loads and may also cause higher injury risks in secondary impacts of vulnerable road users. However, as in all tests with PC glazing no damage of the panes was observed, the risk of skin cut injuries may be expected to be reduced significantly. The performed test series give no indication for the test procedure prescribed in UN Regulation No. 43 as a methodology to approve glass windscreen not being feasible for polycarbonate glazing, as all PC panes tested fulfilled the UN R 43 requirements. The performance of the windscreen area will not be relevant for vehicle type approval according to the upcoming UN Regulation for pedestrian protection. However, it is recommended that pedestrian protection being considered for plastic windscreens to ensure at least the same level of protection as glass windscreens.
Neben den Airbags für den Frontalaufprall haben sich auch Seitenairbags in allen Fahrzeugklassen etabliert. Diese sind für viele Fahrzeugmodelle auch auf den äußeren Fondsitzplätzen, dem typischen Sitzplatz für Kinder im Auto, erhältlich. Seitenairbags können das Verletzungsrisiko für erwachsene Pkw-Insassen in einem Seitenaufprall reduzieren. Doch der Einfluss dieser Airbagsysteme auf Kinder, die mit Kinderrückhaltesystemen im Fahrzeug gesichert sind, war bislang weitgehend unbekannt. In dieser Studie wurden die Wechselwirkungen zwischen Seitenairbags und gesicherten Kindern experimentell untersucht. Zunächst wurden die Unfalldatenbanken der Medizinischen Hochschule Hannover und des GDV abgerufen. Dort waren jedoch keine Fälle registriert, bei denen ein Seitenairbag auf einem Sitzplatz mit installiertem Kinderrückhaltesystem ausgelöst wurde. Da nicht auf Unfalldaten zurückgegriffen werden konnte, wurde zunächst versucht, die Häufigkeit von Seitenairbagsystemen im deutschen Straßenverkehr so exakt wie möglich zu quantifizieren. Dabei sollten auch die konzeptionellen Unterschiede der Airbagsysteme berücksichtigt werden. Darüber hinaus wurden die möglichen Sitzpositionen von Kinderdummys in gebräuchlichen Kinderrückhaltesystemen untersucht. Ziel war es, Aufschluß über möglicherweise gefährliche Sitzpositionen zu erlangen. Basierend auf diesen Untersuchungen wurden fünf Konfigurationen für die experimentellen Untersuchungen festgelegt. Das Hauptaugenmerk lag dabei auf sogenannten Risiko-OoP-Situationen, bei denen sich das richtig gesicherte Kind im Rahmen seiner Bewegungsmöglichkeiten innerhalb des Sitzes dem Airbagmodul nähert. Aufgrund der in Deutschland herrschenden Pflicht, Kinder entsprechend ihrem Alter im Fahrzeug zu sichern, blieben die in den entsprechenden Richtlinien (ISO, 1999; LUND, 2000) definierten OoP-Konfigurationen unberücksichtigt. Auch gefährliche Misuse-Situationen, in denen das Kind aufgrund falsch installierter Rückhaltesysteme in den direkten Entfaltungsbereich des Seitenairbags gelangen kann, wurden nicht betrachtet. Da diese Sitzpositionen generell das Verletzungsrisiko für Kinder im einem Unfall erhöhen können, wurde sich in dieser Studie auf den Normalfall, das korrekt gesicherte Kind, konzentriert. Letztendlich sind fünf Fahrzeuge für die experimentellen Untersuchungen ausgewählt worden. Diese wurden in Stand- und full-scale-Versuchen mit verschiedenen Dummys der Hybrid III-Serie und Kinderrückhaltesystemen getestet. Ausgehend von den Resultaten der Airbagstandversuche wurden in den full-scale-Versuchen die Systeme mit dem vermeintlich geringsten Schutzpotential sowie der am meisten gefährdete Kinderdummy mit verschiedenen Seitenairbags kombiniert. Von jedem Fahrzeugmodell wurden zwei Fahrzeuge des gleichen Baujahres sowie mit gleicher Ausstattung beschafft. Jeweils ein Fahrzeug wurde mit Seitenairbag und das andere ohne Seitenairbag getestet. So konnten positive oder negative Effekte des Airbags im Seitenaufprall überprüft werden. Zur Beurteilung der Messwerte wurden die Belastungsgrenzen und Schutzkriterien der "Side Airbag Out-of-Position Injury Technical Working Group" (LUND, 2000) verwendet. Die in den Standversuchen ermittelten Dummybelastungen blieben zum Teil deutlich unter den Limits. In den full-scale-Versuchen konnte der Seitenairbag die Kopf- und Brustkorbbelastungen teilweise reduzieren. Jedoch führt der Seitenairbag zu einer starken Drehung des Dummykopfes um die z-Achse. Der Grenzwert von 17 Nm wurde jeweils überschritten. Die durchgeführten Analysen und Versuche lassen den Schluss zu, daß Seitenairbags gesicherte kindliche Insassen nicht außerordentlich gefährden. In bestimmten Situationen bieten sie dem Kind zusätzlichen Schutz. Dennoch ist ein Airbag kein harmloses System. Treffen ungünstige Randbedingungen zusammen, so kann der Seitenairbag das Verletzungsrisiko auch für gesicherte Kinder erhöhen. Als besonders sensibel erwies sich der Hals der Dummys. Hier kann ein ungünstiges Airbagdesign zu erhöhten Belastungen führen.
Eine Bewertung für Betone, die den Anforderungen der Expositionsklasse XF2 genügen sollen, ist derzeit nur nach dem deskriptiven Konzept möglich. Um den Frost-Tausalz-Widerstand von Betonen in der Expositionsklasse XF2 durch ein Laborprüfverfahren nachweisen zu können, wurde in den letzten Jahren das modifizierte CDF-Verfahren (XF2) entwickelt, das einen abgeschwächten Frost-Tausalz-Angriff gemäß XF2-Exposition erzeugt und eine Beurteilung des Frost-Tausalz-Widerstandes bei mäßiger Sättigung zulässt. Hierbei wird bei gleicher Abkühlrate wie beim bekannten CDF-Verfahren für die Exposition XF4 die Minimaltemperatur auf -10 -°C angehoben und die Prüfdauer auf 14 Frost-Tau-Wechsel verkürzt. Aufgrund der geringen Datenbasis war es bisher nicht möglich ein Abnahmekriterium festzulegen, mit dem für die Expositionsklasse XF2 geeignete Betonzusammensetzungen zuverlässig von ungeeigneten unterschieden werden können. Auch konnte das Prüfverfahren für eine Validierung noch nicht ausreichend charakterisiert werden. Eine Validierung des Prüfverfahrens würde es ermöglichen, Betonmischungen auch in der Expositionsklasse XF2 zu bewerten. Die Ziele des Forschungsvorhabens waren deshalb, eine Empfehlung für ein an der Praxis orientiertes Abnahmekriterium zu geben und das modifizierte CDF-Verfahren (XF2) zu validieren. Da eine Bewertung des Frost-Tausalz-Widerstands über ein Laborprüfverfahren nur dann möglich ist, wenn ein an der Praxis orientierter Grenzwert vorliegt, wurde auf Basis der Prüfung von 17 verschiedenen Betonrezepturen eine Empfehlung für ein Abnahmekriterium von 1000 g/m-² mittlerer aufsummierter Abwitterung nach 14 Frost-Tau-Wechseln gegeben. Dieses Kriterium gilt für die untersuchten Betone, die bis auf die Mindestdruckfestigkeit die Anforderungen an die DIN-Normen erfüllen. Um die Prüfstreuung des modifizierten CDF-Verfahrens (XF2) zu beurteilen und damit die Qualität des Prüfverfahrens abschätzen zu können, wurden die Präzisionsdaten in Anlehnung an DIN ISO 5725 ermittelt. Die Präzision ist ein wichtiges Kriterium für die Qualität eines Prüfverfahrens. Die Wiederholpräzision wurde am cbm der TU München durch die Prüfung von 29 Betonen mit 17 verschiedenen Zusammensetzungen bestimmt. Bei einer mittleren Abwitterung von 1500 g/m-² lag die Wiederholpräzision mit rund 13 % leicht über der Wiederholpräzision, die für das bereits bekannte CDF-Verfahren ermittelt wurde. Für eine mittlere aufsummierte Abwitterung von 1000 g/m-² ergibt sich ein Variationskoeffizient von 13,9 %. Die Präzision unter Zwischenbedingungen umfasst den Einfluss aus der Betoncharge (Zeit) sowie aus unterschiedlichen Bearbeitern und Prüfgeräten. Die in diesem Forschungsvorhaben durchgeführten Untersuchungen zeigten mit einem Variationskoeffizienten von 18% bei einer mittleren Abwitterung von 1000 g/m-² eine verhältnismäßig geringe Streuung der Prüfergebnisse unter Zwischenbedingungen. Die Vergleichspräzision gibt das Maximum der Streuung an. Sie wird durch Messungen unter veränderlichen Bedingungen (verschiedenen Labors, verschiedenen Bearbeiter und verschiedene Geräteausstattung) ermittelt. Zur Bestimmung der Vergleichspräzision wurde ein Ringversuch durchgeführt, an dem sich fünf deutsche Institute beteiligten. Untersucht wurden drei Betone, die sich deutlich in ihrem Frost-Tausalz-Widerstand unterschieden. Die Betonqualitäten konnten eindeutig voneinander unterschieden werden. Alle Institute ermittelten für jeden Beton eine Steigung im Abwitterungsverlauf, die der erwarteten Schädigung entsprach. Bei einer mittleren Abwitterung von 1000 g/m-² ergab sich ein Variationskoeffizient unter Vergleichsbedingungen von 26 %. Zusammenfassend kann festgestellt werden, dass das modifizierte CDF-Verfahren (XF2) gemäß DIN EN ISO 17025 validiert ist. Die Korrelation zur Praxis wurde bereits in einem vorangegangen Forschungsvorhaben festgestellt. Für die hier untersuchten Betone wurde ein Abnahmekriterium von 1000 g/m-² mittlerer aufsummierter Abwitterung nach 14 Frost-Tau-Wechseln abgeleitet. Die Präzision des modifizierten CDF-Verfahrens (XF2) liegt in der Größenordnung anderer etablierter Festbetonprüfungen (zum Beispiel der Druckfestigkeitsprüfung). Demnach liefert das modifizierte CDF-Verfahren (XF2) reproduzierbare und präzise Ergebnisse.
Gegenstand der Studie ist die Sicherheitsbeurteilung kleiner Stadt-Pkw. Durch die Auswertung von Herstellerunterlagen zur konstruktiven Gestaltung, von Veröffentlichungen zum Kollisionsverhalten und zur Betriebssicherheit, in Kontakten mit einem Importeur solcher Fahrzeuge und durch eigene Begutachtung mehrerer Modelle wurde der technische Stand gegenwärtig angebotener Fahrzeuge erfasst. Die rechtliche Situation der Fahrzeuge in der Bundesrepublik Deutschland, Frankreich, Italien und Japan wurde zusammengestellt. Die gesetzlichen Anforderungen dieser Staaten an diesen Fahrzeugen unterscheiden sich deutlich. Europäische Fahrzeuge berücksichtigen nur in geringem Maß Belange der passiven Sicherheit, da die Fahrzeuge in ihren Herstellungsländern Vorschriften zum Aufprallverhalten und zum Insassenschutz nicht erfüllen müssen. Japanische Fahrzeuge sind in ihren Eigenschaften herkömmlichen Fahrzeugen ähnlich. Wichtige Anforderungen an die innere und äussere passive Sicherheit dieser Stadt-Pkw werden zusammengestellt.
Das vorliegende Dokument stellt eine Handlungsempfehlung zur Nutzung des C2X-Kommunikationsstandards IEEE 802.11p für die ÖV-Priorisierung an signalisierten Knotenpunkten zur Verfügung. Die erstellte Roadmap baut auf die Systeme im Status quo auf und zeigt Wege für ein sukzessives Upgrade hin zur C2X-basierten ÖV-Priorisierung. Die Priorisierung des Öffentlichen Verkehrs ist eine seit den 1980er Jahren angewendete Praxis zur Verbesserung der Reisezeiten der Öffentlichen Verkehrsmittel und der Stärkung des Umweltverbundes auf Basis der Steigerung der Attraktivität des Öffentlichen Verkehrs. Signalisierte Knotenpunkte sind unerlässliche Bestandteile des innerstädtischen Hauptstraßennetzes. Sie beeinflussen maßgeblich die Qualität des Verkehrsablaufs und sind damit von besonderer Bedeutung in Bezug auf die verkehrliche Steuerung und die mitunter verkehrspolitisch motivierte Lenkung des Verkehrsgeschehens. Seit geraumer Zeit rücken die Potenziale der C2X-Kommunikation aus der theoretischen Forschung hin zur praktischen Erprobung und nähern sich kontinuierlich einer Marktreife an. Kooperative Intelligente Verkehrssysteme (C-ITS) wurden bereits in mehreren urbanen Testfeldern erfolgreich implementiert und getestet. Die Grundidee der Kooperation zwischen der Lichtsignalanlage (LSA) als infrastrukturseitige Einrichtung und dem Fahrzeug inklusive der fahrzeugführenden Person besteht im gegenseitigen Informationsaustausch zur Verbesserung der Qualität des Verkehrsablaufs und zur Erhöhung der Verkehrssicherheit. Infolge der hohen zu erwartenden Potenziale, welche durch Vernetzung erschlossen werden können, hat sich die Bundesrepublik Deutschland mit dem „IVS-Aktionsplan Straße“ zur koordinierten Weiterentwicklung bestehender und zur beschleunigten Einführung neuer Intelligenter Verkehrssysteme in Deutschland bekannt. Da sich das bestehende System der ÖPNV-Priorisierung bereits seit Jahrzehnten bewährt hat, ist ein Umstieg auf ein neues C2X-basiertes System nicht einfach. Umstrukturierungen im Frequenzbereich des Analog-Funks geben in vielen Städten jedoch Anlass für eine Änderung der Bestandssysteme. Die Nutzung der C2X-Kommunikation ermöglicht zum einen die Modernisierung des Datenübertragungssystems und zum anderen ein Optimierungspotenzial für die ÖPNV-Priorisierung sowie weitere Synergien. Ausgehend von einer Bestandsaufnahme zu gegenwärtig genutzten Verfahren zur ÖPNV-Priorisierung (Kapitel 1) und zu ersten C2X-Erprobungsprojekten (Kapitel 2) erfolgt die Ableitung eines Rahmenkonzeptes zur Migration der konventionellen Technik hin zu einer C2X-basierten Priorisierung (Kapitel 3). Die Aspekte der kommunalen Seite – als Anbieter der streckenseitigen Infrastruktureinrichtungen – und der Verkehrsunternehmen – als Betreiber des Öffentlichen Verkehrs – werden speziell betrachtet. Aufbauend auf den Aspekten von Planung, Umsetzung und Betrieb der ÖPNV-Priorisierung sowie der C2X-Nachrichten und Nachrichteninhalte wird ein Leitfaden zum schrittweisen Übergang der Priorisierung vom Status quo hin zur C2X-basierten ÖPNV-Priorisierung vorgestellt. Die C2X-basierte Priorisierung bietet völlig neue Möglichkeiten zur Optimierung der Verkehrssteuerung. Dabei werden in Kapitel 4 die Wechselwirkungen zwischen den unterschiedlichen Verkehrsarten auf der einen Seite sowie die Wechselwirkungen zwischen den verschiedenen C-ITS Services auf der anderen Seite dargestellt. Als Ergebnis des Dokuments werden in Kapitel 5 ein Pilotierungskonzept sowie eine Handlungsempfehlung/Roadmap zur gezielten Umrüstung hin zur C2X-Infrastruktur für die ÖPNV-Priorisierung, wie sie zielführend von Städten/Kommunen sowie Verkehrsunternehmen umgesetzt werden sollte, aufgezeigt. Dabei wird einerseits auf den stufenweisen Ausbau der Hard- und Softwarekomponenten fokussiert und andererseits die zeitliche Komponente der Realisierung thematisiert. Das beispielhafte Pilotierungskonzept berücksichtigt die spezifischen Anforderungen der Städte und Kommunen sowie die Anforderungen und Wünsche der Verkehrsunternehmen an eine ÖPNV-Priorisierung. In einem abschließenden Ausblick wird die Schnelllebigkeit der Informationstechnik als Motivation aufgegriffen, frühzeitig die erforderlichen Entwicklungsschritte anzustoßen.
Bei der weiteren Erprobung des Bohrverfahrens an Brückenbauwerken traten praktische Schwierigkeiten an einzelnen Gerätekomponenten auf, so dass insbesondere die Bohrkrone hinsichtlich ihrer Schnittleistung, der Bohrantrieb und die Schneideigenschaften und das Verschleissverhalten der Diamantbohrkrone hinsichtlich ihrer Leistungsfähigkeit überarbeitet werden mussten. Zur Beurteilung der Betonqualität im oberflächennahen Bereich ist zusätzlich eine Kleinverpressanlage zum Verpressen der Kleinbohrkerne mit einem Spezialharz entwickelt worden. Die verpressten und ausgehärteten Proben werden in Scheiben geschnitten, und die Schnittflächen können dann unter dem Mikroskop beobachtet, angesprochen und fotografiert werden. Die Dichtheit der Betondeckung ist ein wesentliches Kriterium für die Korrosionswahrscheinlichkeit der Bewehrung. Auf der Grundlage des Zustandes der Bohrkerne lässt sich recht gut auf die Eigenschaften und Qualität des Betons hinsichtlich der Bindung des Zuschlages in der Zementsteinmatrix und der Festigkeit sowie auf die Intensität der Nachbehandlung schließen. Wenn man in Betonen unterschiedlicher Nachbehandlungs-Qualität mit jeweils demselben Bohrgerät und unter den jeweils selben Bedingungen Kleinbohrkerne zieht, erhält man bei gut nachbehandelten und dichten Betonen überwiegend ungestörte Proben. Bohrkerne aus nicht beziehungsweise schlecht nachbehandeltem Beton zerfallen in der Regel in mehrere Einzelteile. Im Zustand der Karbonatisierung ist die Dichtheit der beiden Teilschichten der Passivierung nicht mehr gegeben, weil die Passivierungsschicht "löchrig" wurde. Die Korrosion des Stahls beginnt. Durch pH-bedingte Fehlstellen in der Passivierung ergibt sich eine Abhängigkeit des chloridinduzierten Korrosionsfortschrittes. Bei der Betrachtung der Bewehrungskorrosion infolge Chloridbelastung sind sowohl die Betondeckung und deren Dichtigkeit als auch die chemische Grenzflächensituation des Stahls zu berücksichtigen. Ist die Betondeckung bis zur Passivierungsschicht karbonatisiert, erhöht sich aufgrund der "undichten" Passivierungsschicht die Korrosionsgeschwindigkeit infolge Cl-Eindringens. Somit ist also die chloridinduzierte Korrosion sowohl vom Cl-Gehalt im Beton als auch vom pH-Wert des Betons abhängig; je höher der pH-Wert ist, desto geringer ist selbst bei hohen Chloridgehalten das Korrosionsrisiko. Ein ausreichend dichter Beton, der nicht stark austrocknen kann, verhindert den beschriebenen Korrosionsablauf zusätzlich, weil er mögliche Feucht/Trocken-Wechsel an der Passivierungsgrenzfläche reduziert. Bei diesem Vorgang wird aus dem neutralen trockenen Metallsalz bei der Befeuchtung eine Säure (Aquosäurenbildung) mit zusätzlichem Korrosionspotenzial. Zusätzlich wird die Bilden von Eisenoxyd aus dem Eisenchlorid durch die Sauerstoffdiffusionsreduzierung des dichten Betons sehr stark herabgesetzt beziehungsweise vollständig unterbunden.
Erfahrungen mit Instandsetzungsmaßnahmen an Betonbauwerken aus der Vergangenheit haben deutlich gemacht, dass frühzeitiges Erkennen und Beseitigen von Betonschäden ganz wesentlich zur Kostenreduzierung beitragen können. Die auslösende Anregung zur Entwicklung des Bohrverfahrens resultierte daraus, dass es bisher kein baustellengerechtes und zerstörungsarmes Verfahren zur gemeinsamen Untersuchung der Karbonatisierungstiefe und des Chloridgehaltes gab. Ziel des Projektes war, ein solches Verfahren zu entwickeln, mit dessen Hilfe durch vergleichende Beurteilung der Bausubstanz eine Dringlichkeitsreihung möglich wird, mit der die verfügbaren Geldmittel für Erhaltungsmaßnahmen gezielter und wirkungsvoller einzusetzen sind.Das transportable und mobil einzusetzende Bohrverfahren erlaubt, unmittelbar aus dem beim Bohren entstehenden Bohrmehl Konzentrationsänderungen in der Bohrflüssigkeit zu bestimmen. Die Konzentrationsbestimmung kann direkt der Bohrtiefe zugeordnet werden. Derzeit können die für die oberflächennahe Betonsituation wichtigen Parameter pH-Wert und Chloridgehalt in den jeweiligen Tiefenhorizonten unmittelbar bestimmt werden. Anhand der unmittelbar nach der Messung ausgegebenen Messprotokolle kann kurzfristig entschieden werden, ob gegebenenfalls in kritischen Bereichen zur statistischen Untermauerung der Stichprobenerhebungen weitere Bohrungen erforderlich sind. Hierbei wird ein im Durchmesser etwa 18 mm großes und rund 50 mm tiefes Bohrloch erbohrt, so dass man von einem zerstörungsarmen Verfahren sprechen kann. Die Bestimmung der beiden Werte wird am Aufschluss des Bohrmehls aus dem gleichen Bohrloch vorgenommen. Die Bohreinrichtung besteht aus Elementen, die ein kontinuierliches und schlagfreies Bohren in beliebig gerichtete Betonbauteile ermöglichen. Dabei transportiert eine Messlösung das Bohrmehl in einem geschlossenen Kreislauf. Mit Hilfe spezieller Elektroden werden die Alkalität und der Chloridgehalt gemessen. Die Messwerte werden elektrisch umgesetzt, digitalisiert, gespeichert und mittels eines DV-Programmes so bearbeitet, dass eine Darstellung des pH-Wertes sowie des Chloridgehaltes jeweils in Abhängigkeit von der Bohrtiefe nach dem Beenden der Bohrung in Form entsprechender Messkurven erfolgen kann.
Die Erhaltung von Bauwerkssubstanz im Zuge von Verkehrswegen gewinnt zunehmend an Bedeutung. Die wirtschaftliche Optimierung der Planung und Durchführung von Erhaltungsmaßnahmen erfordert die frühzeitige Erkennung von Schäden, die Abschätzung von Schadensentwicklungen, die Vermeidung von Schadensvergrößerungen und die planmäßige und wirtschaftliche Vermeidung oder Beseitigung von Schäden. Der Hauptanteil der Finanzmittel wird für Arbeiten an Betonoberflächen verwendet. Um eine dauerhafte Instandsetzung zu erzielen, ist vor der Einleitung der notwendigen Maßnahmen eine Schadensanalyse durchzuführen, die die Kenntnis der Struktur des vorliegenden Betons voraussetzt. Die bisherigen Verfahren haben unter anderem den Nachteil, dass das Verpressharz nicht ausreichend tief in die Proben eindringt. Zielsetzung dieses Projekts ist die Entwicklung eines neuen Verpressverfahrens, mit dem die vorhandene Betonstruktur von Bauwerken bis in größere Tiefen zu erfassen und leichter und besser zu analysieren ist. Das Verpressverfahren mit fluoreszierendem Harz ermöglicht die Analyse an ungestörten Proben. Mit diesem Verfahren können nahezu alle weiteren porösen Materialien verpresst werden, also auch Naturstein für den Denkmalschutz und Asphaltbeton im Straßenbau. Das mit Harz verpresste Porensystem kann unter dem Mikroskop bei ultraviolettem Auflicht sichtbar gemacht und so Hohlräume, Poren und Risse abgebildet werden.
Das Ziel dieses Teilprojekts bestand darin, vorhandene Forschungserkenntnisse, die für die Verbesserung der Laienausbildung wichtig sind, und Untersuchungen der derzeit praktizierten Ausbildungsformen zusammenzutragen, sie in ihrer Relevanz für das Gebiet der Ersten Hilfe (nachfolgend EH) zu prüfen, zu analysieren und Umsetzungsvorschläge zu erarbeiten. Wir fragten: 1. Mit welchen (Ausbildungs-)Maßnahmen könnte die Hilfsbereitschaft in der Bevölkerung und bei jedem einzelnen gesteigert werden? 2. Wie könnte das Interesse an der EH-Ausbildung geweckt werden? 3. Mit welchen Maßnahmen könnte die Handlungsfähigkeit und das Kenntnisniveau auch über längere Zeiträume hinweg aufrechterhalten werden? Zwei Schritte kennzeichneten unsere Annäherung an die Aufgabe: Den ersten Arbeitsschritt bezeichnen wir als "Dissemination von Forschungsergebnissen", wobei es uns speziell darauf ankam, auch Forschungsresultate aufzugreifen, die nicht ohne weiteres für die Praxis erreichbar sind oder dort als relevant erkannt werden. Den zweiten Arbeitsschritt nennen wir Wissenstransfer - ein Verfahren, das sich auf die Evaluation der praktischen Bedeutung der Forschungsergebnisse für die Vergrößerung des Ersthelferpotentials und die Optimierung der Ausbildung bezieht. In diesem Kontext wurden die Aufnahmebereitschaft der Praxis für die Vorschläge, die aus der Forschung resultieren, und insgesamt die Innovationsbereitschaft, analysiert und geprüft. Den Ausgangspunkt und zugleich den Schwerpunkt dieses Berichts bildet der Versuch einer erziehungswissenschaftlichen Fundierung der EH; dieses basiert - wie auch die nachfolgenden Kapitel - auf einer Sekundäranalyse vorhandener Untersuchungen. Eine Vertiefung erfährt der erziehungswissenschaftliche Berichtsteil durch die Diskussion der notwendigen inhaltlichen Modifizierung bisheriger Ausbildungsangebote. Die Grundlage bilden hier Forschungsergebnisse bezüglich der hypothetischen und realen Hilfsbereitschaft und ihrer sozialen, psychologischen und situativen Determinanten. Ein dritter Schwerpunkt ist bei der moralischen Dimension der Hilfsbereitschaft angesiedelt. Einen weiteren Schwerpunkt bildet die Umsetzbarkeit der formulierten Aussagen und Vorschläge. Es wird nach der Innovationsbereitschaft der Praxis gefragt und untersucht, ob notwendige Veränderungen und Implikationen unter den gegebenen Bedingungen überhaupt von der Praxis aufgenommen werden können. Dieser Arbeitsschritt basiert auf den Originaldaten, die in Experteninterviews gewonnen wurden.
Im Zentrum steht die Frage, wie lückenlos und in welchem Umfang ein ganzes Großstadtgebiet von dem NAW-Dienst versorgt wird, der den Anspruch erhebt, flächendeckend zu arbeiten. Untersucht wird, wie dieser Dienst den spezifischen gebiets- und bevölkerungsstrukturellen Unterschieden Rechnung trägt. Ferner wird gefragt, inwieweit die Einsatz- und Interventionsstrategien des NAW-Dienstes nicht so angelegt sind, dass sie Versorgungsungleichheiten produzieren und/oder verstärken. Dokumentiert und ausgewertet wurden 15.716 Einsätze, die der mit 5 Notarztwagen ausgestattete NAW-Dienst in Berlin-West innerhalb eines zwölfmonatigen Zeitraums durchgeführt hat. Zusätzlich wurden Daten des ökologischen Kontexts einbezogen, ferner Feuerwehrdaten (technische Einsatzdaten) und klinische Beurteilungen der NAW-Patienten, die in Krankenhäuser eingewiesen wurden. Die Ergebnisse zeigen zeitliche und regionale Differenzen der Einsätze, das Einsatzspektrum des ganzen NAW-Dienstes wie auch der einzelnen Fahrzeuge und die Phasen des Einsatzes. Weite Teile des Berichts verdeutlichen, wie sich differente Interventionsstrategien einzelner Stützpunkte auswirken. Untersucht wird die Wirksamkeit des NAW-Dienstes in Begriffen der Indikationsverifizierung, der Überlebenschancen und der prospektiven Versorgungsaufwendungen für NAW-Patienten nach der klinischen Behandlung.
Es werden der institutionelle und organisatorische Kontext des Rettungsdienstes und die Rahmenbedingungen des Betriebs der dazugehörenden zentralen Einsatzleitstelle beschrieben. Ausgangspunkt der Ergebnisdarstellung bildet eine analytische Deskription des Alltagsbetriebs in der Einsatzleitstelle, um die Arbeitsabläufe und Alltagsroutinen beim Empfang von Notfallmeldungen herauszuarbeiten. Abschließend werden spezifische Arbeits- und Qualifikationsanforderungen identifiziert, die aus der Leitstellenarbeit resultieren.