Filtern
Erscheinungsjahr
Dokumenttyp
- Buch (Monographie) (224)
- Wissenschaftlicher Artikel (89)
- Konferenzveröffentlichung (82)
- Bericht (11)
- Arbeitspapier (11)
- Teil eines Buches (Kapitel) (5)
- Sonstiges (1)
Sprache
- Deutsch (355)
- Englisch (67)
- Mehrsprachig (1)
Schlagworte
- Bewertung (423) (entfernen)
Institut
Auftausalze werden zur Vermeidung von Schnee- und Eisglätte eingesetzt. Hierbei ist Natriumchlorid das meist verwendete Salz. Diese Salze sind in Wasser leicht löslich und können in den Wasser-kreislauf gelangen. Mögliche Eintragspfade sind direkter Abfluss aus dem Entwässerungssystem zu Oberflächengewässern und Versickerung ins Grundwasser. Da die Salze im Grundwasser mobil sind, gelangt die eingetragene Stoffmenge auch zu den Vorflutern. Sowohl im Grundwasser als auch in Oberflächengewässern können erhöhte Salzkonzentrationen zur Beeinträchtigung von Natur und Umwelt oder sonstiger Nutzung führen. In diesem Projekt wurde der Wissensstand zu gewässerschutzrelevanten Wirkungen von Chlorid durch eine Literaturauswertung zusammengefasst, insbesondere zu Konzentrationsbereichen und zugehörigen Wirkungszeiträumen, die akute und chronische Toxizität für Gewässerorganismen auslösen. Auch die Transportpfade und das Verhalten des auf Straßen ausgebrachten Tausalzes wurden beschrieben. Hauptziel des Projektes war herauszufinden, welche Versickerungs- und technische Entwässerungseinrichtungen und welche Betriebsweisen die Konzentrationen von Tausalz in Gewässern unterschiedlicher Größe auf ein verträgliches Maß reduzieren können. An ausgewählten Punkten, wie Grundwasser oder Fließgewässer, wurden die berechneten Salzfrachten und -konzentrationen immissionsbezogen bewertet. Als maßgebender Punkt im Fließgewässer wird i.d.R. der unterstromige Pegel eines Gewässerkörpers betrachtet. Das Endziel des Projektes war, die Verdünnung und den Rückhalt von Tausalz bei verschiedenen Entwässerungsmethoden, die nach den RAS Ew vorgegeben sind, unter Einsatz numerischer Modellierung zu untersuchen. Der Salztransport wurde nicht für reale Standorte modelliert. Vielmehr wurden Modellierungsberechnungen an mehreren repräsentativen Szenarien durchgeführt, die auf andere Fälle übertragen werden können. Dafür wurden unterschiedliche Kombinationen von Tausalzmengen, Straßenausbildung, Art der Entwässerung sowie hydrologischen und hydrogeologischen Ortseigenschaften ausgewählt und in den Modellen als Randbedingungen eingebaut. Die Ergebnisse zum Transportpfad Untergrund zeigten deutliche Vermischungs- und Dämpfungseffekte durch Dispersion und Verdünnung. Die Berechnungen zeigten, dass sich ein Jahresmittelwert der Chlorid-Konzentration, der auf Tausalzeinsatz und Transport im Untergrund zurückzuführen ist, gut mit einer Massenbilanz berechnen lässt. Die saisonalen Schwankungen in den berechneten Chlorid-Konzentrationen waren in der Regel sehr gering. Somit kann in vielen Fällen auf eine numerische Modellierung des Transportpfades Untergrund verzichtet und stattdessen eine vereinfachte Massenbilanzierung verwendet werden. Die Berechnungen zum Transportpfad der technischen Entwässerung können aus den Eingangsparametern sensitive und weniger sensitive Größen hinsichtlich des Transportverhaltens identifizieren. So hat z.B. die Regencharakteristik nur einen geringen Einfluss auf die Ergebnisse. Dagegen hatten die Streumengen und die betrachtete maximale Konzentration im Straßenablauf wie erwartet eine sehr starke Auswirkung. Auch wurden insbesondere die Möglichkeiten des Rückhaltes und der Verdünnung von Tausalz in unterschiedlichen Beckenanlagen der technischen Straßenentwässerung untersucht. Die Ergebnisse zeigten, dass die Ausgestaltung der Becken einen deutlichen Einfluss auf die Ergebnisse hatte. Die Berechnungsergebnisse der beiden Transportpfade lieferten jeweils einen Input (Wassermenge und Chloridkonzentration) zu einem Gewässer. Diese wurden dann an einem Auswertepunkt im Gewässer zusammengeführt. I.d.R. liegt dieser Auswertepunkt am unterstromigen Ende des Gewässerkörpers. Zur Überlagerung von Konzentrationen aus Sickerwasser, Grundwasser, technischen Einleitungen und Oberflächengewässer wurden in einer Mischungsrechnung jeweils die Stoffgehalte und die Wassermengen aufgenommen. Bei Betrachtung eines (Teil-)Einzugsgebiets eines Gewässers wurde dann zunächst der Zufluss im Gewässer und dessen Hintergrundkonzentration am Oberstromende zusammen mit dem Austausch über den Transportpfad Untergrund betrachtet. Die Berechnung lieferte dann einen Gewässerabfluss und eine Hintergrundkonzentration am unterstromigen Ende. Danach wurde die Mischungskonzentration am unterstromigen Ende des Gewässers mit der Einleitung aus dem technischen Entwässerungssystem berechnet. Neben den berechneten Komponenten (Wassermenge und Konzentration) aus den Transportpfaden Untergrund und technischem Entwässerungssystem gingen als Randbedingungen der Mischungsberechnung der Abfluss und die Hintergrundkonzentration des Gewässers in die Berechnung ein. Diese beiden Größen wurden in einer Matrix berücksichtigt, um ein breites Anwendungsspektrum zu erreichen. Hierbei wurden die berechneten Zuflüsse (Menge und Konzentration) zum Gewässer mit einer frei wählbaren Matrix aus Abfluss und die Hintergrundkonzentration des Gewässers in der Mischungsrechnung betrachtet.
Jährlich fallen bei Erdbauarbeiten mehrere Millionen Tonnen Bodenaushub an, die nicht wieder eingebaut werden. Die als bautechnisch schwierig eingestuften Böden, wie beispielsweise Böden mit hohem Feinkornanteil, werden oft als mineralische Restmassen deponiert. Aus ökonomischen und ökologischen Gründen ist der qualifizierte Wiedereinbau anzustreben. Um die Anforderungen an Hinterfüllbereiche von Bauwerken zu erfüllen, werden jedoch im Regelfall grob- und gemischtkörnige Böden mit ≤ 15 M.-% Feinkornanteil verwendet. Für die Untersuchung der Eignung bindemittelbehandelter, bindiger Böden für Hinterfüllbereiche wurden ein fein- und ein gemischtkörniger Boden mit einem Feinkornanteil > 15 M.-% der Bodengruppe TL bzw. ST* gemäß DIN 18196 gewählt. Die Böden wurden mit je zwei Bindemitteln und drei Bindemittelgehalten (3 %, 5 %, 7 %) untersucht. Die Untersuchungen an Boden TL erfolgten mit einem Weißkalkhydrat und einem Mischbindemittel 50/50 (50 % Kalk/50 % Zement). Boden ST* wurde mit den Mischbindemitteln 50/50 und 30/70 untersucht. Mit einem Laborprogramm aus insgesamt ca. 360 Laborversuchen aus einer Kombination von einaxialen Druckversuchen, CBR-Versuchen, Triaxialversuchen und Ödometerversuchen an den Ausgangsböden und den Boden-Bindemittel-Gemischen wurde deren Festigkeit und Verformungsverhalten bestimmt, um die Gleichwertigkeit mit herkömmlichen, grobkörnigen Böden nachzuweisen. Mit den Laborergebnissen und über Setzungsberechnungen konnte bei allen untersuchten Boden-Bindemittel-Gemischen die Gleichwertigkeit zu herkömmlichen Hinterfüllmaterialien nachgewiesen werden. Es wurden Handlungsempfehlungen für die Praxis erarbeitet. Diese beinhalteten die Ermittlung der Scherparameter auf Basis von einaxialen Druckversuchen über empirisch abgeleitete Grenzwerte und der Angabe von prinzipiell erreichbaren Scherparametern für eine Anwendung im Regelfall. Weiterhin wird eine Empfehlung für die Ableitung des Steifemoduls aus den Ergebnissen einaxialer Druckversuche gegeben.
An die Lichtsignalsteuerung richten sich hohe Qualitätsanforderungen, da ihr für einen sicheren und flüssigen Verkehrsablauf im Straßennetz eine wichtige Rolle zukommt. Um eine hohe Qualität der Lichtsignalsteuerung auch im wachsenden Altbestand von Anlagen zu gewährleisten, liegt es nahe, eine regelmäßige, systematische Überprüfung vorzunehmen, um Mängel frühzeitig erkennen und beheben zu können. Ziel des Forschungsvorhabens war es, eine aufwandsoptimierte Verfahrensweise und die notwendigen Hilfsmittel für ein systematisches Qualitätsmanagement für Lichtsignalanlagen (LSA) zu entwickeln. Hierzu wurde zunächst die Lichtsignalsteuerung als Gegenstand des Qualitätsmanagements eingehend erörtert. Auf dieser Grundlage wurden Verfahrensweisen und EDV-gestützte Hilfsmittel entwickelt, mit denen die Güte des Verkehrsablaufs und die Verkehrssicherheit im Straßennetz und an einzelnen Knotenpunkten mit geringem Aufwand überprüft werden kann. Zur Qualitätsbewertung werden Unfalldaten, Prozessdaten und Betriebsdaten analysiert sowie der Verkehrsablauf vor Ort beobachtet. Der Aufbau einer Wissensbasis diente dazu, den Kenntnisstand zu Möglichkeiten der Qualitätsverbesserung an Lichtsignalanlagen für die Anwendung verfügbar zu machen. Hierin sind typische Qualitätsmaengel an Lichtsignalanlagen mit Möglichkeiten der Abhilfe verknüpft. Ferner sind Prüfbedingungen der Eignung und Umsetzbarkeit der Maßnahmen hinterlegt. Mit Hilfe dieses Expertensystems können Maßnahmen identifiziert und bewertet werden. Die Anwendung des Verfahrens an verschiedenen Knotenpunkten zeigt, dass der systematische und modulare Aufbau gut geeignet ist, aussagekräftige Informationen zur Qualität der Lichtsignalsteuerung zu erlangen und geeignete Maßnahmen zur Qualitätsverbesserung zu identifizieren. Das Verfahren kann mit geringem Aufwand durchgeführt werden und kann daher einen Beitrag für die verbreitete Anwendung des Qualitätsmanagements für Lichtsignalanlagen leisten.
Die Richtlinien für Lichtsignalanlagen (RiLSA), Ausgabe 1992 [FGSV 1992] "enthalten grundlegende verkehrstechnische Bestimmungen und Empfehlungen für die Einrichtung und den Betrieb von Lichtsignalanlagen." Ihre Regelungen zielen darauf ab, den Verkehrsablauf an Lichtsignalanlagen für alle Verkehrsteilnehmergruppen mit hoher Qualität sicher zu gestalten. Um der ständigen Weiterentwicklung des komplexen Handlungsfelds gerecht zu werden, ist eine ständige Anpassung der Lichtsignalsteuerung erforderlich. Die Regelungen der Richtlinien sind in regelmäßigem Abstand kritisch daraufhin zu überprüfen, ob sie noch die aktuellen Anforderungen und den Stand der Technik widerspiegeln und somit ihren Gültigkeitsanspruch sowie ihre Praxisrelevanz aufrecht erhalten können. Ziele dieser Untersuchung waren die Erfassung, die strukturierte und anschauliche Darstellung sowie die kritische Analyse der Forschungstätigkeit und der Forschungsergebnisse auf dem Gebiet der Lichtsignalsteuerung in Deutschland, im benachbarten europäischen Ausland, in den USA und in Japan seit 1990, um die Erkenntnisse für eine Neufassung der RiLSA verfügbar zu machen. Im ersten Arbeitsschritt wurde in ausgewählten Fachliteratur-Datenbanken und -Verzeichnissen systematisch nach themenbezogenen Veröffentlichungen ab 1990 recherchiert. Die so ermittelten Veröffentlichungen wurden Themengebieten, die aus der Gliederung der neuen RiLSA abgeleitet wurden, zugeordnet. Aufbauend auf einer ersten Bewertung der Relevanz der einzelnen Literaturfundstellen wurden die so ausgewählten etwa 400 Artikel in einer Datenbank erfasst und hinsichtlich der Bedeutung der behandelten Fragestellung, der Praxisrelavanz, der Aktualität und weiterer Kriterien vorbewertet. Ergänzend wurden zur Erschließung der relevanten Erkenntnisse und praktischen Erfahrungen in Japan vor Ort Gespräche mit Experten in der Verkehrstechnik geführt sowie Besichtigungen und eigene Beobachtungen durchgeführt. Die positiv bewerteten Quellen wurden eingehend analysiert und die Ergebnisse im Einzelnen anschaulich aufbereitet. Diese Recherche- und Analyseerkenntnisse wurden in einer synoptischen Darstellung zusammengestellt. Die Bearbeitung der Themenfelder erfolgte dabei immer in den gleichen Schritten. Zuerst erfolgte die Darstellung der Vorgehensweise in den aktuellen RiLSA. In den nächsten Schritten wurden der erreichte Forschungsstand, die Berücksichtigung der Thematik in den Richtlinien anderer Länder sowie die zusätzliche Anmerkungen aus der Praxis dargestellt. Daraus wurden Aussagen zum verbleibenden Forschungsbedarf, zum Innovationsgrad der Fragestellung und zum Handlungsbedarf für die Neufassung der RiLSA abgeleitet.
Obwohl rezyklierte Baustoffe und industrielle Nebenprodukte verstärkt im Ober- und Unterbau von Straßen eingesetzt werden, fehlt zurzeit ein genormtes Prüfverfahren zur Beurteilung des Frostverhaltens dieser Baustoffgemische. Gleiches gilt für die Beurteilung des Frostverhaltens von kalkbehandelten Böden. Zur realitätsnahen Simulation der Frostbeanspruchung wurde eine neue Versuchs- und Messeinrichtung auf Grundlage der in der Forschungsarbeit von WEINGART, WIELAND "Weiterentwicklung des Frosthebungsversuches" festgelegten Rahmenbedingungen zur Durchführung von Routineprüfungen erprobt. Dazu wurden Vergleichsuntersuchungen an unterschiedlichen Böden und Baustoffgemischen, mit denen die Bandbreite der im Straßenbau eingesetzten Tragschichten erfasst und unterschiedliche frostempfindliche Böden untersucht werden sollten, von insgesamt 7 Versuchsteilnehmern durchgeführt. Von 4 Teilnehmern wurde das neu entwickelte Frosthebungsgerät verwendet, 3 Teilnehmer führten die Versuche mit anderen Frosthebungsgeräten durch. Die Versuchsrandbedingungen wurden in einer Arbeitsanweisung vorgegeben, um die bestmögliche Vergleichbarkeit der Versuche zu garantieren. Mit dem neuen Frosthebungsgerät können jeweils Doppelversuche in getrennten Versuchskammern durchgeführt werden. Zur Minimierung der Wandreibung bestehen die Probezylinder aus Teflonringen, die sich während des Versuches voneinander lösen können, um die frostbedingte Hebung des Materials zu ermöglichen. Die Proben stehen in einem Wasserbad, damit während des gesamten Versuchszeitraumes Wasser nachgesaugt werden kann. Die Befrostung wird durch einen Kühlkopf von oben auf die Probe aufgebracht. Nach einer 24-stündigen Temperierungsphase folgt die 4-tägige Absenkphase, in der die Kühlkopftemperatur so gesteuert wird, dass die 0-°C-Isotherme mit konstanter Geschwindigkeit in Probenmitte erreicht wird. Diese Lage wird während der 3-tägigen Befrostungsphase beibehalten. Während der 24-stündigen Auftauphase erfolgt das vollständige Auftauen der Probe. Gemessen werden die Temperatur an der Oberfläche und in der Mitte der Probe sowie die Temperatur des Wasserbades. Daneben wird die Hebung der Probe bestimmt. Waehrend des gesamten Versuches werden diese Messdaten in 5-minütigen Intervallen vollautomatisch gemessen und aufgezeichnet. Um Kriterien zur Beurteilung der Frostempfindlichkeit festzulegen wurden mehrere Parameter untersucht und bewertet. Hierzu wurden die Quellung in der 24-stündigen Temperierungsphase, die maximale Frosthebung, die nach dem Auftauen verbleibende Resthebung sowie die maßgebende Frosthebungsgeschwindigkeit (die Hebungsdifferenz zwischen letztem und vorletztem Befrostungstag) untersucht. Zusätzlich wurden die Kornverfeinerung, der Wassergehalt und die Tragfähigkeitsabnahme durch Vergleich der CBR-Werte vor und nach Befrostung, ausgewertet. Verglichen wurden diese Größen mit dem Kornverteilungskriterium gemaess ZTVE-StB und den Festlegungen in Österreich und in der Schweiz zur Beurteilung der Frostempfindlichkeit. Die geringe und variierende Anzahl der Versuche ermöglicht keine statistischen Vergleiche. Das neue Frosthebungsgerät eignet sich zusammen mit dem festgelegten Befrostungsregime zur Durchführung von Frosthebungsversuchen an RC Baustoffgemischen, industriellen Nebenprodukten und kalkbehandelten Böden. Für die Beurteilung der Frostempfindlichkeit sollte die maximale Frosthebung bewertet und limitiert werden. Daneben ist die massgebende Frosthebungsgeschwindigkeit zu begrenzen. Nur wenn während der Befrostungsphase eine deutliche Abflachung der Hebungskurve erreicht wird, sind die gemessenen maximalen Hebungen aussagekräftig. Es werden Verbesserungsvorschläge für die Festlegung der Einbaubedingungen gemacht. Auf Grundlage der Ergebnisse der Vergleichsuntersuchungen wurde der Entwurf einer Technischen Prüfvorschrift für Frosthebungsversuche an kalkbehandelten Boeden, rezyklierten Baustoffen und industriellen Nebenprodukten weiterentwickelt und konkretisiert. Zur Festlegung von Kriterien zur Klassifizierung der Frostempfindlichkeit sind die Durchführung und Auswertung weiterer Versuche an unterschiedlichen natürlichen und rezyklierten Baustoffen und Baustoffgemischen und kalkbehandelten Böden nach den Vorgaben dieser Technischen Prüfvorschrift erforderlich.
Für die Kontrolle der Herstellung von Tragschichten ohne Bindemittel (ToB) im Straßenoberbau wird eine Referenzdichte benötigt, die in Deutschland und vielen anderen europäischen Staaten durch den Proctorversuch nach DIN EN 13286-2 ermittelt wird. Während eines Proctorversuches wird mit einem Fallgewicht, das auf die Prüfkörperoberfläche nach festgesetzten Parametern fällt, der Hohlraumanteil einer Versuchsprobe reduziert und die Raumdichte erhöht. Durch Wasserzugabe wird der Verdichtungsprozess gefördert, wobei es für eine Versuchsprobe einen Wassergehalt gibt, bei dem sie sich in Abhängigkeit von der eingesetzten Verdichtungsenergie optimal verdichten lässt und eine maximal erreichbare Trockendichte erzielt. Aufgrund des relativ geringen Feinanteils der Sieblinie eines Baustoffgemisches für ToB ist der Proctorversuch hier jedoch nur eingeschränkt verwendbar, da sich vollständige Verdichtungskurven aufgrund von Entwässerungsprozessen während des Versuches häufig nicht generieren lassen. Statt konvexen werden auch konkave Kurven, lineare Anstiege oder nicht zweckdienliche Kurvenverläufe gemessen, die eine Bestimmung eines optimalen Wassergehaltes und einer Trockendichte nach der gängigen Auswertemethode (Kurvenmaximum) nicht ermöglichen. Zur Herstellung einer ToB werden Baustellenfahrzeuge und -geräte eingesetzt, die zur Verdichtung die Parameter Frequenz, Amplitude und Eigenlast nutzen. Konträr dazu erfolgt die Laborverdichtung, die für die Verdichtung entsprechend Proctorverfahren ein Fallgewicht nutzt. Neben der Tatsache, dass der Proctorversuch für dränierende Baustoffe nicht optimal geeignet ist, besteht somit eine Diskrepanz zwischen der Labor- und der In-situ-Verdichtung. Neben dem Proctorverfahren stehen europäisch genormte Laborverdichtungsverfahren zur Verfügung, die Verdichtungsparameter nutzen, die der In-situ-Verdichtung entsprechen. Aufgrund der vorgestellten Problematik des Proctorversuches wurde daher ein umfassendes Forschungsprojekt durchgeführt, welches das Ziel hatte, Lösungsansätze für dränierende Baustoffe während der Laborverdichtung zu finden. Dies beinhaltete im primären Sinne die Suche nach einem alternativen Verdichtungsverfahren, das die Problematik für dränierende Baustoffe nicht aufweist und das mehr der In-situ-Verdichtung entspricht. Das Forschungsprojekt identifizierte das Vibrationshammerverfahren nach DIN EN 13286-4 als das Verfahren, welches sehr vergleichbare Ergebnisse zum Proctorverfahren liefert. Weiterhin ist dieses Verfahren sehr in-situ konform, leicht in der Handhabung und weniger kostenintensiv. Anhand von Literaturquellen konnte die scheinbare Kohäsion als Ursache für konvexe Verdichtungskurven identifiziert werden. Zudem konnte gezeigt werden, dass Auswertevorgaben für derartige Kurvenverläufe existieren. Weiterhin besteht eindeutig die Möglichkeit ofentrockene Proben zu verdichten und dennoch ein vergleichbares oder leicht erhöhtes Trockendichteergebnis im Vergleich zu einer optimalen Verdichtung zu erzielen. Nachteil hierbei ist jedoch die fehlende Angabe für den Wassergehalt auf der Baustelle. Daher scheint die Vibrationshammerverdichtung mit einem Wassergehalt knapp über der Trockenverdichtung, die beide notwendigen Parameter liefert, ein erfolgversprechender Ansatz zur Lösung der Problematik des Proctorversuches für ToB-Baustoffgemische zu sein.
Teil 1: Ziel des vorliegenden Forschungsprojektes ist es, Schutzeinrichtungen auf Brücken mit einem sehr hohen Aufhaltevermögen nach DIN EN 1317 zu testen und dabei die auftretenden Kräfte zu messen. Gleichzeitig sollen Erkenntnisse über das Verhalten der Schutzeinrichtungen mit einem sehr hohen Aufhaltevermögen bei begrenzten Platzverhältnissen gewonnen werden. In diesem Forschungsprojekt haben sechs Schutzeinrichtungen den Nachweis ihrer Funktionsfähigkeit gemäß DIN EN 1317 erbracht. Anhand der insgesamt durchgeführten 27 Anprallprüfungen an 14 Systemen zeigt sich, dass die Entwicklung von Schutzeinrichtungen mit einem sehr hohen Aufhaltevermögen bei gleichzeitig begrenztem Wirkungsbereich schwierig ist. Kommen weitere Randbedingungen, wie z.B. Lärmschutz oder Fortführung auf der Strecke hinzu, so zeigt sich, dass derzeit keines der geprüften Systeme universell einsetzbar ist. Für die Verwendung muss vielmehr im Einzelfall geprüft werden, ob und welches System eingesetzt werden kann. Vor diesem Hintergrund wird empfohlen, dass möglichst frühzeitig eine enge Abstimmung der Brückenplanung mit der Streckenplanung erfolgt, um sinnvolle und verkehrssichere Lösungen zu bekommen. Daher sollte nach Möglichkeit bereits in der Planung eines Brückenbauwerkes die Schutzeinrichtung unter Berücksichtigung aller anderen Randbedingungen einbezogen werden. Eine separate Planung der Schutzeinrichtung im Anschluss oder gar die Berücksichtigung als letztes Element des Bauwerks kann dazu führen, dass keine geeignete Schutzeinrichtung zur Verfügung steht. Die Kraftmessungen beruhen auf Einzelereignissen, zeigen aber dennoch die Größenordnung der beim Anprallvorgang entstehenden Einwirkungen und bestätigen damit die vorherigen Untersuchungen. Aus den Messwerten wurden Vorschläge erarbeitet, für welche Einwirkungen Brücken bemessen werden sollen, auf denen die hier diskutierten Schutzeinrichtungen installiert werden sollen. Die Größenordnung der Werte zeigt, dass die Einwirkungen bei H4b-Systemen um bis zu sechsmal höher liegen als der seinerzeitige Lastansatz des DIN-Fachberichts 101 "Einwirkungen" Ausgabe 2003. Damit wurden wichtige Eckwerte für die zukünftige Bemessung neuer Brücken beziehungsweise für das Nachrüsten bestehender Brücken gewonnen. Die Ergebnisse wurden bereits in der Fortschreibung des neuen DIN-Fachberichtes von 2009 berücksichtigt. Die untersuchten und hier vorgestellten Schutzeinrichtungen erfüllen die Anforderungen an Aufhaltefähigkeit und Insaßenschutz und weisen Kraftmessungen auf. Wünschenswert wären weitergehende Entwicklungen, die auch weitere Anforderungen erfüllen, die in diesem Bericht aufgeführt sind. Da die Anforderungen an die Verkehrssicherheit nicht gleichbleibend sind, sondern sich den Anforderungen der Entwicklung anpassen, wird auch zukünftig eine Weiterentwicklung der Schutzeinrichtungen mit sehr hohem Aufhaltevermögen erforderlich sein. So werden die Anforderungen an das Aufhaltevermögen steigen, wenn zum Beispiel Schwerfahrzeuge mit höheren Lasten auf den Straßen fahren werden. rnTeil 2: Die Untersuchungen haben das Ziel, Schutzeinrichtungen bereitzustellen, die in der Lage sind, auch sehr schwere LKW vor dem Absturz von Brücken zu bewahren. Dazu galt es, technische Randbedingungen für die Entwicklung von Schutzeinrichtungen durch die Industrie vorzugeben und geeignete Prüfverfahren zur Sicherstellung der Einsatzfähigkeit auf deutschen Brückenbauwerken zu entwickeln. Im Rahmen des vorliegenden Projektes konnte erstmals gezeigt werden, dass Schutzeinrichtungen, die in einer realen Anprallprüfung der höchsten Aufhaltestufe entsprechend DIN EN 1317 für sehr schwere LKW nachgewiesen haben, auf Brückenbauwerken in Deutschland installiert werden können, ohne inakzeptable Schäden an den Brückenkappen befürchten zu müssen. Darüber hinaus konnten erstmals die Kräfte gemessen werden, die beim Anprallvorgang auf das Bauwerk einwirken. Eine Anprallprüfung stellt zwar ein Einzelergebnis dar. Dennoch zeigen diese Messungen die Größenordnung der beim Anprallvorgang entstehenden Einwirkungen. Aus den Messwerten wurde ein Vorschlag zur Festlegung der bei der statischen Auslegung eines Brückenbauwerks anzusetzenden Einwirkungen (Kräfte und Momente) erarbeitet, wenn auf dem Bauwerk Schutzeinrichtungen mit sehr hohem Aufhaltevermögen installiert werden sollen. Die genauen Werte der ermittelten Einwirkungsgrößen gelten spezifisch für die untersuchte Schutzeinrichtung. Die Größenordnung der Werte lässt sich jedoch auf andere Schutzeinrichtungen mit sehr hohem Aufhaltevermögen auf Brücken übertragen. Der Vorschlag sieht Einwirkungen vor, die etwa 3 bis 4 mal höher liegen, als der derzeitige Lastansatz des DIN-Fachberichts 101 "Einwirkungen".
Im Jahre 1983 wurde in Hamburg ein Konzept zur Verlangsamung des Verkehrs in Wohngebieten erarbeitet, das die Einrichtung von Tempo 30-Zonen außerhalb eines vorher festgelegten "Vorbehaltsnetzes" von Verkehrsstraßen vorsah. Im Jahre 1985 hat das Land Baden-Württemberg einen Versuch Tempo 40/60 initiiert. Im Rahmen dieses Versuchs sollten ausgewählte Gebiete als Tempo 40-Zonen eingerichtet werden, gleichzeitig sollte auf geeigneten peripheren Verkehrsstraßen die zulässige Höchstgeschwindigkeit von vorher generell 50 km/h auf 60 km/h angehoben werden. Zur wissenschaftlichen Begleitung des Hamburger Tempo 30-Konzeptes und des Versuchs Tempo 40/60 in Baden-Württemberg hat die Bundesanstalt für Straßenwesen (BASt) einen Untersuchungsplan aufgestellt. Die Untersuchungen, die von mehreren Forschungsstellen im Auftrag der BASt durchgeführt wurden, waren vornehmlich auf folgende Gesichtspunkte gerichtet: - Veränderung der gefahrenen Geschwindigkeit und Beachtung der jeweiligen Geschwindigkeitsbeschränkung; - Veränderung von Unfallhäufigkeit und –schwere; - Einstellung der Bevölkerung (Anlieger, Kraftfahrer) und betroffener Betriebe zur Zonenregelung. Die Ergebnisse dieser Untersuchungen wurden im vorliegenden Bericht zusammengefaßt. Darüber hinaus wurden Untersuchungen zu Unfallentwicklungen in einigen Tempo 30-Zonen in Baden-Württemberg und in Darmstadt sowie Erfahrungen von 25 weiteren Gemeinden für den Bericht ausgewertet. Ebenso wurden veröffentlichte Ergebnisse aus anderen Untersuchungen zu Zonengeschwindigkeiten einbezogen. Berichtet wird ferner über Einflüsse der Zonengeschwindigkeit auf den öffentlichen Personennahverkehr (ÖPNV) sowie auf Lärm und Abgas.
Im Rahmen dieses Projekts wurde eine Überführung des mittels XMI definierten Datenaustauschstandards OKSTRA zur Beschreibung von Daten des Straßenwesens in eine Repräsentation auf Basis der Ontology Web Language (OWL) realisiert. Dadurch stehen nun Methoden und Techniken des Semantic Web auch für OKSTRA-Datensätze zur Verfügung. Insbesondere ist im Sinne des Linked Data Ansatzes die Verknüpfung mit Datensätzen anderer Schemata bzw. Domänen möglich. Dies kann u.a. durch Nutzung der Anfragesprache SPARQL zur integrativen Analyse der Daten der verschiedenen Ontologien erfolgen. Wie im Zuge von Fallstudien gezeigt werden konnte, können auf diese Weise beispielsweise Daten der niederländischen Straßen-Ontologie CB-NL/RWS mit OKSTRA-Daten zusammen abgefragt und analysiert werden. Dadurch lassen sich eine Reihe von grenzüberschreitenden Anwendungsszenarien realisieren, wie z.B. die Planung von Schwerlasttransporten. Andere Anwendungen von Linked Data im Straßenwesen liegen in der intergierten Analyse von 3D-Stadtmodellen im Format CityGML mit OKSTRA-Daten oder der Verknüpfung von Bestands- mit Entwurfsdaten des OKSTRA-Formats. Besonderes Potential ergibt sich durch die Nutzung räumlicher Operatoren, die durch die Anfragesprache GeoSPARQL zur Verfügung gestellt werden. Damit können Verbindungen zwischen Objekten verschiedener Datenmodelle anhand ihres geographischen Kontextes hergstellt werden. Für die Überführung von OKSTRA in okstraOWL standen eine Vielzahl unterschiedlicher Abbildungsoptionen zur Verfügung, deren jeweiligen Vor- und Nachteile im Bericht ausführlich dargelegt wurden. Bestimmte Eigenheiten des OKSTRA-Standards wie beispielsweise die sog. Fachbedeutungslisten erschweren zwar das Mapping, grundsätzlich ist aber eine Semantik-wahrende Überführung möglich. Der durchgängige Einsatz von Beschreibungsformaten (RDF) und Abfragesprachen (SPARQL) sowohl für Schema- als auch für Instanzdaten über alle Fachmodelle hinweg stellt einen bedeutenden Vorteil gegenüber anderen Ansätzen wie bspw. Programmierschnittstellen (APIs, Webservices etc.) dar. In anderen heterogenen Informationsverbünden müssen meist format-, syntax- und strukturspezifische Adapter, Konverter und Schnittstellen für die Ursprungssysteme erstellt werden, die sich nicht einheitlich verarbeiten lassen. Dagegen kann die Bereitstellung vorhandener Information in Form von RDF einheitlich erfolgen und mithilfe von Triplestores bzw. Graphdatenbanken mit universell standardisierten Abfrageschnittstellen (SPARQL) effizient verarbeitet werden, ohne sich mit den jeweiligen Systemdetails kleinteilig auseinander setzen zu müssen. Obgleich Linked Data Funktionalitäten mit der Definition von okstraOWL nun prinzipiell zur Verfügung stehen, hat sich im Zuge des Projekts (insbesondere bei der Arbeit mit realen Datensätzen) jedoch herausgestellt, dass die eigentliche Herausforderung bei der Verknüpfung verschiedener Ontologien in der unterschiedlichen semantischen Struktur und Granularität der verschiedenen Datenmodelle liegt. Auch Methoden des semiautomatischen Matchings anhand textueller Übereinstimmungen können hier nur bedingt unterstützend wirken. Stattdessen ist es erforderlich, dass der Nutzer der Abfragemechanismen Detailkenntnisse zur Semantik und Struktur der beteiligten Ontologien besitzt und anhand dessen und unter Berücksichtigung des zu erzielenden Abfrageergebnisses implizite bzw. manuelle Verknüpfungen herstellt. Die durchgehende, ggf. europaweite Nutzung von Straßeninformationsbanken erfordert daher trotz der Verfügbarkeit der Semantic Web und Linked Data Technologien eine prinzipielle Harmonisierung der Datenstrukturen insbesondere in Hinblick auf die die semantische Struktur und Granularität.
Die Griffigkeit wurde erstmals als Anforderung für die Abnahme und bis zum Ablauf der Verjährungsfrist für Mängelansprüche bei allen Straßenbau- und -erhaltungsmaßnahmen des Bundes in die Bauverträge durch die Einführung der Regelwerke ZTV Asphalt-StB 01 (Zusätzliche Technische Vertragsbedingungen und Richtlinien für den Bau von Fahrbahndecken aus Asphalt) und ZTV Beton-StB 01 (Zusätzliche Technische Vertragsbedingungen und Richtlinien für den Bau von Fahrbahndecken aus Beton) im Jahr 2001 aufgenommen. Die Auswirkungen zeigen sich in den Messergebnissen der Zustandserfassungen und -bewertungen (ZEB). So werden niedrige Griffigkeiten auf Bundesautobahnen, Fahrstreifen 1 und Bundesstraßen seit 2001 stärker abgebaut als vor der Einführung der Regelwerke. Die somit erzielten Verbesserungen der Verkehrssicherheit würdigen die gemeinsamen Anstrengungen von Forschung, Bauverwaltung und Bauindustrie. Die Genauigkeit der Messtechnik zur Erfassung der Griffigkeit hat eine zentrale Bedeutung bei der Akzeptanz der Messergebnisse und der Sicherung des Messniveaus. Die erforderlichen Prüfungen aus den Regelwerken belegen die erreichte Präzision des Griffigkeitsmessverfahrens SCRIM und des neuentwickelten deutschen Messreifens. Weiterentwicklungen zum Beispiel bei der Temperaturkorrektur dienen vor allem der Absicherung des Betriebs bei stabiler Messqualität.
Im "Europäischen Komitee für Normung" ("Comité Européen de Normalisation", CEN) wird zur Zeit die Bewertung der Längsunebenheit von Straßen im europäischen Rahmen festgelegt. Dabei wird der Spektralen Dichte eine herausragende Bedeutung zugemessen. Neben der Definition der Spektralen Dichte werden Methoden zur Reduzierung von Fehlereinflüssen (langwellige Trends, begrenzte Profillänge) erläutert. Die Glättung des Rohspektrums erfolgt dabei nach einem ISO-Normenentwurf ("International Standardisation Organisation"). Der aus der Spektralen Dichte ermittelte Kennwert "Unebenheitsmaß" wird dem Abnahmeprinzip: "4 mm unter der 4-m-Latte" gegenübergestellt. Die "Welligkeit", ein Maß für das Amplitudenverhältnis von langwelligen zu kurzwelligen Anteilen im Profil wird als "fraktale Dimension" der Chaostheorie erkannt. Damit wird die Abschätzung der Rauheitsamplitude einer Straße ermöglicht. Neben dem wünschenswerten Einsatz der Spektralen Dichte bei der Abnahme neuer oder erneuerter Straßen wird diese Kenngröße in der "Zustandserfassung und -bewertung" (ZEB) auf dem Bundesfernstraßennetz in Deutschland schon eingesetzt. Für das derzeitig in der Entwicklung befindliche "Management der Straßenerhaltung" (MSE) bildet das "Unebenheitsmaß" eine Zustandsgröße, die Aufschluss über die Entwicklung der Fahrbahnbefestigung - auch der Substanz - gibt. Weitere Unebenheitsindikatoren zum Beispiel für periodische Unebenheiten und Einzelhindernisse sind noch in der Entwicklung.
Die Zielsetzung des Projektes bestand darin, ein praktisch anwendbares Modell zur Wirkungsabschätzung von Aufklärungsmaßnahmen im Verkehrsbereich zu entwickeln. Im Vordergrund stand dabei, den Verantwortlichen in der Verkehrssicherheitsarbeit wissenschaftlich fundierte Informationen zur Verfügung zu stellen, die es ihnen erlauben, erfolgversprechende Kampagnen und Programme von weniger erfolgversprechenden besser abgrenzen zu können. Die Konstruktion des Modells zur Wirkungsabschätzung von Maßnahmen der Verkehrsaufklärung erfolgte in vier Hauptarbeitsschritten. In einem ersten Arbeitsschritt wurden die konstituierenden Grundelemente beziehungsweise einzelnen Teilkomponenten des Modells im Sinne von Modellbausteinen festgelegt und je nach individuellem Stellenwert definiert (= analytische Modellebene). In einem zweiten Arbeitsschritt sind die zu Variablengruppen beziehungsweise Faktorenkomplexen zusammengefassten Modellbausteine in einen konzeptionellen Modell- beziehungsweise Erklärungsrahmen eingebunden worden (= konzeptionelle Modellebene). In einem dritten Arbeitsschritt wurden die Wirkungszusammenhänge beziehungsweise -interdependenzen zwischen den als Inputvariablen, intervenierende Variablen und Outputvariablen definierten Modellbausteinen beziehungsweise -komponenten mit Hilfe von Wirkungshypothesen festgelegt im Sinne einer Präzisierung der Richtung beziehungsweise des Ausmaßes zu erwartender, wahrscheinlicher Wirkungseffekte (= empirische Modellebene). In einem vierten Arbeitsschritt wurde aufgezeigt, wie in der Praxis konkret vorzugehen ist, um die Wirksamkeit von Maßnahmen der Verkehrsaufklärung methodisch abschätzen zu können (= methodisch-evaluative Modellebene). Mit dem in dieser Studie entwickelten Modell zur Wirkungsabschätzung werden den Verantwortlichen in der Verkehrssicherheitsarbeit wissenschaftlich fundierte Richtlinien beziehungsweise Bewertungskriterien (= Handlungsempfehlungen beziehungsweise -richtlinien) zur Verfügung gestellt, die es ermöglichen, besser beziehungsweise präziser als bisher - Erwartungen hinsichtlich der Wirkung geplanter Aufklärungsmaßnahmen abzuschätzen; - Zusammenhänge zwischen Maßnahmenaufwand (Mittelaufwand, Zeitaufwand etc.) und erreichbarem Wirkungsgrad herzustellen; und - Erkenntnisse über Interdependenzen von Maßnahmenzielen, -formen sowie -anlässen einerseits und den anvisierten Zielgruppen andererseits in die konzeptionelle Planung beziehungsweise praktische Durchführung von Aufklärungsmaßnahmen einfließen zu lassen. Es bleibt zu wünschen, dass das in dieser Studie erarbeitete Modell zur Wirkungsabschätzung von Maßnahmen der Verkehrsaufklärung von den Verantwortlichen in der Verkehrssicherheitsarbeit bei der Konzeption, Planung, Durchführung und Evaluation der verschiedenen Maßnahmen beziehungsweise Programme auch praktisch eingesetzt wird.
Die Berücksichtigung aller Einflüsse im gesamten Lebenszyklus einer Brücke bildet die Grundlage für Nachhaltigkeitsanalysen. Hierfür müssen Instandhaltungsszenarien auf Basis von Erneuerungszyklen für die einzelnen Bauteilgruppen " das sind Lager, Fahrbahnübergänge, Kappen etc. " definiert werden. Dieser Beitrag leitet drei Strategien für den deutschen Raum her, die für die Nachhaltigkeitsbewertung von Brückenbauwerken angewendet werden können. Die Auswertungen der in Deutschland vorhandenen empirischen Datenbasis bildet hierfür die Grundlage. Zwei Strategien werden abschließend an einer Referenzbrücke als Autobahnüberführung in Integralbauweise zur Anwendung gebracht und mit Hilfe einer Ökobilanzierung, als Teil einer Nachhaltigkeitsanalyse, aus ökologischer Sicht bewertet.
Im Auftrag des Bundesministeriums für Verkehr, Bau- und Wohnungswesen (BMVBW) hat die Projektgruppe "Gefahrguttransport" Forschungsbedarf zur Sicherheit in der Gefahrgutbeförderung ermittelt. Experten der drei Landverkehrsträger Bahn, Binnenschiffahrt und Straße sowie von Sicherheitsinstitutionen waren Mitglieder in der Projektgruppe. Durch eine enge Zusammenarbeit mit Sicherheitsbehörden, Sachverständigenorganisationen, den ständigen Arbeitsausschüssen des Gefahrgut-Verkehrs-Beirats des BMVBW, ASV und ATT und Fachverbänden der chemischen Industrie, der Mineralölwirtschaft und des Transportgewerbes konnte der Forschungsbedarf für den Landverkehr sehr umfassend erhoben werden. Leitideen bei der Auswahl des Forschungsbedarfs waren die Umsetzung der Forderungen nach Vernetzung der Verkehrsträger, der Harmonisierung der Beförderungsbedingungen und -vorschriften im liberalisierten europäischen Verkehrsmarkt und Aspekte des globalisierten Wirtschaftens. Die vorliegenden Forschungsergebnisse zur Risikoanalyse des Gefahrguttransports sollen um weitere Forschungsvorhaben zum Aufbau eines Risiko-Analyse-Systems ergänzt werden. Ausgehend von den Ergebnissen eines Forschungs- und Entwicklungs (F&E)-Vorhabens zur Entwicklung einer Strategie für ein integriertes Forschungskonzept zum Einfluss menschlicher Faktoren auf die Sicherheit des Gefahrguttransports werden Projektvorschläge entwickelt, in denen zu untersuchen sein wird, inwieweit verkehrspädagogische Konzepte und Interventionen Beiträge zur Unfallvorsorge leisten können und wie Anreizsysteme und technische Systeme der Vermeidung von Unfällen förderlich sind. In der zukünftigen Forschungsarbeit zum Regelwerk soll Fragen zur Harmonisierung der Regelwerke, der Anwenderfreundlichkeit der Vorschriften einschließlich vermittelnder Institutionen wie der des Gefahrgutbeauftragten nachgegangen werden. Ein verkehrsträgerübergreifendes Sicherheitskonzept mit Bezug auf Europäisierung und Liberalisierung in der Gefahrgutklassifizierung wird mit zahlreichen Vorschlägen zu Stoff- und Umschließungsvorhaben angestrebt. Einen anderen Schwerpunkt bilden Projektvorschläge, mit denen risikoanalytische Grundlagen zur Tankkonstruktion und -zulassung erarbeitet werden sollen. In einem Kapitel zur Verkehrs- und Fahrzeugtechnik werden für die Sicherheit auf Binnenwasserstraßen Forschungsvorhaben empfohlen, die dem Schutz der Schiffsbesatzungen und der Umwelt dienen. Die Sicherheit im Eisenbahnverkehr soll mit Forschungsvorhaben zur aktiven und passiven Sicherheit, insbesondere durch eine informationstechnologisch gestützte Zugüberwachung verbessert werden. Für den Bereich Straße wurden Themen konzipiert, die zum Ziel haben, Unfallvorsorge durch Kfz-Technik zu verbessern. Mit Forschungsvorhaben zur Ladungssicherung und zur Schnittstellenproblematik soll vorhandenes Wissen systematisiert und Grundlagenwissen erarbeitet werden. Unter dem Stichwort "Sicherheit durch vernetzte Informationen" werden Konzepte vorgeschlagen, die verkehrsträgerübergreifend und international anwendbar sein sollen. Einzelprobleme rettungsdienstlicher Ausrüstung zur Bergung von Gefahrgut sowie systematische Schwachstellenanalysen ausgewählter Teilsysteme stehen im Mittelpunkt der Auswahl von Forschungsvorhaben für das Rettungswesen. In einem abschließenden Kapitel werden Empfehlungen zum Forschungsmanagement vorgelegt und eine zeitliche Dringlichkeitsreihung der vorgeschlagenen Forschungsvorhaben aufgestellt.
Die volkswirtschaftlichen Kosten, die durch Straßenverkehrsunfälle entstehen, umfassen die Personenschadens- und Sachschadenskosten. Diese Kosten werden jährlich durch die Bundesanstalt für Straßenwesen ermittelt. Grundlage für diese Berechnung ist ein Rechenmodell aus dem Jahre 1996. Seit dieser Zeit sind deutliche Veränderungen eingetreten. Die Änderungen betreffen die Unfallzahlen und die Unfallschwere, die Kosten des Gesundheitssystems zur Wiederherstellung, die Einkommensverhältnisse und damit die wirtschaftlichen Verluste von Unfällen sowie der Wissensstand zur Bewertung der Unfallschäden. Die Fortschreibung der volkswirtschaftlichen Kosten durch Straßenverkehrsunfälle erfordert somit eine Überprüfung und Aktualisierung des Rechenverfahrens. Im Auftrag der Bundesanstalt für Straßenwesen wurden daher im Rahmen des Forschungsprojektes "Volkswirtschaftliche Kosten durch Straßenverkehrsunfälle in Deutschland" die Kosten der Personen- und Sachschäden neu ermittelt. Im Rahmen des Projektes erfolgte eine Überprüfung und Aktualisierung sämtlicher Rechenmodelle für die einzelnen Kostenkomponenten. Beispielsweise wurde der polizeiliche Bearbeitungsaufwand für einen Unfall auf Basis von Angaben der Landesinnenministerien neu ermittelt und die Rechtsprechungskosten wurden auf Grundlage der Rechtschutzstatistiken des Statistischen Bundesamtes neu bewertet. Für die Berechnung der Unfallkosten wurden zudem die Eingangsdaten, zum Beispiel über die Kosten und die Dauer der medizinischen Behandlung, bei Versicherern vollständig neu erhoben. Zusätzlich zu den bisher vorgenommenen Bewertungen wurden unfallbedingte Zeitverluste auf Bundesautobahnen abgeschätzt und monetär bewertet. Eine Untersuchung der Kosten schwerstverletzter Unfallopfer erfolgte getrennt. Die neu berechneten Unfallkosten betragen im Jahr 2005 annähernd 31.477 Mrd. Euro Die Personenschäden hatten daran einen Anteil von 15.226 Mrd. Euro die übrigen 16.252 Mrd. Euro entfielen auf die Sachschäden.
Für eine quantitativ exakte Beschreibung der mit der Gefahrgutbeförderung verbundenen Risiken fehlen sowohl statistische Voraussetzungen als auch eine wissenschaftlich begründete Risikoanalyse. Eine Risikoanalyse der Gefahrgutbeförderung soll zweckmäßigerweise auf Transportketten und nicht auf den direkten Vergleich von Verkehrsträgern abstellen. Zentrale Kategorie zur Definition des Risikos sollte dabei der Unfall sein. Zusammen mit der Transportleistung sollte er das Risiko als Wahrscheinlichkeitsaussage beschreiben. Mit in die Risikobestimmung einzubeziehen ist die Unfallschwere. Im Rahmen des Beitrages schlägt eine Projektgruppe eine dreistufig angelegte Risikoanalyse vor. Die Bausteine dieser Risikoanalyse bestehen aus 1. einer mathematisch-statistischen Risikoanalyse, 2. einer Schwachstellenanalyse und 3. einem Systemmodell zur ständigen Analyse des Gefahrgutbeförderungsrisikos. Dazu werden in dem Forschungsbericht grundsätzliche Überlegungen zur Risikobewertung angestellt, auf das Regelwerk des Gefahrguttransportes eingegangen, Ausbildung, Training und Überprüfung der Fahrzeugführer behandelt sowie auf das Gefahrgut und die Gefahrgutumschließung eingegangen. Ferner befasst sich der Bericht mit der Fahrzeugtechnik, der Verkehrsinfrastruktur, Informationssystemen und der Sicherheit im Gefahrguttransport in den neuen Bundesländern. Zum Schluss werden Forschungsempfehlungen bezüglich der Sicherheit in der Gefahrgutbeförderung formuliert.
Nutzen-Kosten- sowie Kosten-Wirksamkeits-Analysen sind als methodische Konzepte zur Bewertung von Verkehrssicherheitsmaßnahmen anerkannt, werden jedoch bisher eher selten von den verantwortlichen Entscheidungsträgern angewendet. Die konsequente Nutzung dieser Bewertungsverfahren würde jedoch einen effizienteren Einsatz öffentlicher Mittel im Bereich der Verkehrssicherheitsmaßnahmen ermöglichen. Im Oktober 2002 startete daher das Europäische Thematische Netzwerk ROSEBUD ("Road Safety and Environmental Benefit-Cost and Cost-Effectiveness Analysis for Use in Decision-Making"), dessen Ziel es ist, langfristig die Akzeptanz ökonomischer Bewertungsverfahren für Verkehrssicherheitsmaßnahmen zu verbessern und so zu einem verstärkten Einsatz dieser Bewertungsinstrumente beizutragen. Das Netzwerk wird von der Europäischen Kommission finanziert und hat eine Laufzeit von 3 Jahren.
Luftverunreinigungen durch Partikel tragen zur Trübung der Atmosphäre und somit zu Sichtminderung bei, zeichnen sich aber ebenso durch ihr gesundheitliches Schadenspotenzial aus. Die EU-Richtlinie 1999/30/EG über Grenzwerte für Schwefeldioxid, Stickstoffdioxid und Stickstoffoxide, Partikel und Blei in der Luft gibt daher seit 01.01.2005 für Partikel mit einem aerodynamischen Durchmesser kleiner 10 Mikrometer (PM10) einen Jahresmittelgrenzwert von 40 Mikrogramm/m3 und einen Tagesmittelgrenzwert von 50 Mikrogramm/m3 vor. Letzterer darf an maximal 35 Tagen pro Jahr überschritten werden. Zu den Partikelquellen, die durch menschliche Aktivitäten hervorgerufen werden, zählen insbesondere industrielle Prozesse wie Verbrennung und mechanische Zerkleinerung, Hausbrand, Landwirtschaft und Verkehr. Partikel können jedoch auch natürliche Ursachen haben wie zum Beispiel Pollen, Pilzsporen, Saharastaub, Vulkanasche oder Seesalzaerosole. Um zu erfahren, wie sich die Schadstoffbelastung durch Partikel an Bundesautobahnen entwickelt, wird durch die Bundesanstalt für Straßenwesen seit mehreren Jahren an zwei Standorten eine kontinuierliche Messwertaufnahme von Partikeln PM10 durchgeführt. Die Ergebnisse dieser Messungen werden vorgestellt. Um die an den Autobahnstandorten gemessenen Partikelkonzentrationen einordnen zu können, wird ein kurzer Vergleich mit den in zwei Büroräumen aufgezeichneten Innenraumkonzentrationen gegeben. Es zeigt sich, dass die Einhaltung der geforderten Grenzwerte an beiden stark frequentierten BAB-Standorten bisher keine Probleme aufwarf.
Es wird über das Ende 2002 abgeschlossene EU-Projekt ADVISORS berichtet. Ziel dieses Projektes, an dem sich 16 Organisationen aus 10 europäischen Ländern beteiligten, war es, die Entwicklung, Testung und Implementierung von Fahrerassistenzsystemen (FAS) zu unterstützen. Es wurde eine umfassende Methodik zur Bewertung von FAS entwickelt und auf dieser Basis wurden eine Reihe von Evaluationsstudien zu ausgewählten FAS durchgeführt. Des Weiteren wurden Implementierungsstrategien für bestimmte FAS entwickelt und mit Experten verschiedener Länder diskutiert.
Abschluss des deutsch-französischen Verbundprojekts "Inter-Vehicle Hazard Warning" (DEUFRAKO-IVWH)
(2004)
Im Rahmen der Deutsch-Französischen Kooperation im Verbundprojekt "Inter-Vehicle Hazard Warning" (DEUFRAKO-IVWH) wurde ein auf Fahrzeug-Fahrzeug-Kommunikation basierendes Warnsystem konzipiert und bewertet. Die im Rahmen des Projekts durchgeführten Arbeiten haben gezeigt, dass ein auf Fahrzeug-Fahrzeug-Kommunikation basierendes Warnsystem prinzipiell geeignet ist, einen Beitrag zur Erhöhung der Verkehrssicherheit zu leisten. Das Ausmaß der zu erwartenden positiven Effekte ist allerdings ganz wesentlich abhängig vom Ausstattungsgrad der Fahrzeugflotte mit einem solchen System.