zurück

 

Kristians Umweltkurztexte (zufällige Auswahl) 

2000-2004

 

Schnecken als Schädlinge 

 Lebhaft schlägt sie das flossenförmig verformte Schwanzende hin und her. Im selben Moment gibt sie zähflüssigen, durchsichtigen Schleim ab. Die Mittelmeer-Ackerschnecke, die hier bei der Mahlzeit gestört wurde, ist nicht die einzige ihrer Art, die von der Blüte bis zur Wurzel Schäden an Pflanzenteilen anrichtet. Auch die genetzte Ackerschnecke, die etwas länger gebaut ist, ist mindestens genauso verfressen. Sie gibt bei Reizung einen eher weißlichen Schleim ab - ein wichtiges Unterscheidungsmerkmal zwischen den Arten. Wegschnecken sind noch größer als Ackerschnecken. Sie werden bis zu 15 Zentimeter lang. Die beiden Schneckenarten unterscheiden sich darüber hinaus durch die Lage des Atemlochs. In den letzten Jahren kam es aufgrund der milden Winter immer wieder zu einer massenhaften Vermehrung dieser Schadschnecken. Die niedrigen Temperaturen führten dazu, dass viele Eier und Jungtiere aus dem letzten Herbst überleben konnten. Aber auch die modernen Anbaumethoden fördern die Vermehrung der Schnecken, deren mit Chitin-Zähnchen besetzte Radula kleinere Gewebeteile abraspelt und größere abzupft. Erste Hinweise eines Befalls sind die Schleimspuren. Schon diese unschönen Blattverziehrungen können zu Folgekrankheiten wie Pilzbefall führen. Den Artgenossen dienen sie außerdem dazu, den Weg zur Futterquelle zu finden. Die offensichtlichsten Schäden sind aber die Fraßschäden an Stängeln, Blättern, Blüten und Früchten. Aber auch vor Samen oder Kartoffeln machen die Schnecken nicht Halt. Die Bekämpfungsmaßnahmen sind vielfältig, jedoch nicht immer effektiv. So ist das nächtliche Absammeln, das Aufstellen von Bierfallen oder Schneckenzäune bei einer Masseninvasion unwirksam. Und dehydrierende Maßnahmen wie Ätzkalke, Kalkstickstoff, Gips oder Kupfersulfat, die auf den Wasserhaushalt der Schnecke zielen, wirken nur bei Trockenheit. Auch die Schlagkraft biologischer Präparate ist nicht immer gesichert. Guten Schutz vor Schadschnecken geben dagegen chemische Bekämpfungsmittel. Sie sind äußerst effektiv und preiswert. Ackerbauliche Maßnahmen spielen als prophylaktischer Schutz eine besondere Rolle. Denn je weniger Versteckmöglichkeiten die Schnecke hat, desto weniger Chancen hat sie sich zu vermehren.

Bekämpfung von Pharaoameisen

Sie kriechen unter Verbände, um sich dort am Wundsekret zu laben. Sogar in Schläuchen für Bluttransfusionen sind sie schon aufgespürt worden. Nach Paragraph 13 des Bundesseuchengesetzes gelten Pharaoameisen als Vektoren von Krankheitskeimen. Sie übertragen Krankheiten wie Typhus, sorgen für Wundinfektionen oder rufen Lungenentzündungen hervor. Bei Frühgeborenen und Säuglingen können Pharaoameisen für Hautverletzungen sorgen. Auch der Stich der nur wenige Millimeter großen Ameise ist sehr schmerzhaft. Ihre Winzigkeit ist auch einer der Gründe für ihr starkes Ausbreitungspotential, denn meist werden sie dadurch übersehen. Ein weiterer Grund liegt in der ungewöhnlichen Organisation dieses ursprünglich aus Indien eingeschleppten Ameisenvolkes. So kommen in den Kolonien immer mehrere Königinnen vor, die mit anderen Arbeiterinnen auch das Nest verlassen. Werden diese verschleppt, so ist der Grundstein für ein neues Volk gelegt. In beheizten Gebäuden legen die Ameisen ihre Nester an die wärmsten Stellen und breiten sich über die Heizungsrohre aus. In Ballungsgebieten finden sie sich u.a. in Großküchen, Krankenhäusern, Bäckereien. Die Bekämpfung der Pharaoameise muss generell großflächig durchgeführt werden. Am Besten eignen sich dazu die sogenannten Fraßköder. Es werden Köder eingesetzt, die entweder giftig wirken oder die Entwicklungsstadien der Ameise beeinflussen. In günstigen Fällen sind die Kolonien bereits nach sechs Wochen vernichtet. Meist gestaltet sich die Bekämpfung aber langwieriger.

Industrieschneefälle

'Industrieschneefälle' sind künstlich erzeugte Niederschläge in urbanisierten Ballungsgebieten. Sie treten immer wieder im selben, auf wenige Quadratkilometer begrenzten Gebiet auf. Wiener Forscher werteten vorhandene Dokumentationen von 'Industrieschneefällen' in Berlin, Mannheim, Freiburg i. Br., Basel, Bern und Graz aus. Erste Beobachtungen eines sogenannten 'Stadtschnees' gab es schon 1949. Aus 'heiterem' Himmel fiel in Teilen Mannheims Schnee aus einer Hochnebeldecke. 1969 wurde ein auf wenige Stadteile in Berlin begrenzter Niederschlag beobachtet. Und in Freiburg i. Br. führte der Industrieschnee mit einer Rekordhöhe von 7 cm und einer Ausdehnung von 10 Quadratkilometer zu einem Einsatz von Streu- und Räumfahrzeugen. Die Untersuchungen der Wissenschafftler zeigen, dass zwei Ursachen für dieses Fänomen maßgeblich sind: Zum einen ist dies eine Inversionswetterlage mit Hochnebel in 500 bis 700 m Höhe. Durch vertikale Temperaturzunahme, die bei mindestens 10 Grad Celsius zwischen Boden und Inversionsobergrenze liegt wird der anthropogene Schneefall begünstigt. Und je höher die Temperaturdifferenz ist, desto höher ist die Wahrscheinlichkeit eines Schneefallereignisses. Die relative Luftfeuchtigkeit liegt meist über 80 Prozent und bei geringer Windgeschwindigkeit unter 2,5 m/s. Wichtigster Punkt sind aber die Wasserdampfemittenten, die über die aufsteigende Dampffahne eine Übersättigung der Umgebungsluft bewirken. Die dadurch bewirkte Labilisierung der Luftmassen führt dann zum Niederschlag. Die Schneefälle treten meist im Dezember und Januar auf. In Tal- und Kessellagen ist die Neigung zu Industrieschneefällen grundsätzlich höher als in den Ebenen. In den Niederschlägen sind als Folge der industriellen Einwirkung erhöhte Sulfat-, Nitrat- und Ammoniumgehalte gemessen worden. Ob diese Schadstoffe positiv oder negativ zu beurteilen sind ist noch unklar – tragen die Niederschläge doch auch zur Reinigung der Luft bei. Negativ zu beurteilen ist aber auch jeden Fall die Auswirkungen auf das Verkehrsgeschehen. Für den Autofahrer stellt der „Industrieschnee“ grundsätzlich ein erhöhtes Unfallrisiko dar.

Was ist mit Bruno Manser geschehen?

In einem Gebüsch versteckt verfasste der Regenwaldschützer Bruno Manser sein letztes Lebenszeichen, ein Brief an seine Freundin. Seitdem gehen die Spekulationen über den Verbleib des gelernten Meistersenn weit auseinander. Sitzt der 47-jährige im Gefängnis, ist er krank, tot oder ist er nur abgetaucht, um das Urwaldvolk Penan in ihrem letzten Kampf gegen die Holzkonzerne zu unterstützen? Zwischen 1984 und lebte Manser bei diesen, inzwischen von Polizei, Militär und Rodungsmaschinen eingeschlossen Waldnomaden auf der Insel Borneo, Teilprovinz Sarawak. Hier hat er ihre Sprache und ihre Überlebenstechniken als Jäger und Sammler erlernt und wurde zum 'Laki Penan', einem Penan-Mann. Der Schweizer erkannte bald, dass die Abholzung des Regenwaldes dem übrigen Penan Volk schon in wenigen Jahren die Lebensgrundlage entziehen würde und entschloss sich zum Protest. So organisierte er mit den Penan friedliche Straßenblockade und wurde zum Leitsymbol des Widerstandes. 1990 musste er das Land verlassen, da er zum lästigen Widersacher der Raubbauindustrie geworden war. Malaysia erklärte ihn zum Staatsfeind Nummer eins. Zurück in der Schweiz gründete er den Brundo-Manser-Fonds, der heute ein angesehenes Aktions- und Informationszentrum für Tropenwaldbelange ist. Zahlreiche Vorträge im In- und Ausland, die immer auch den Tropenwald, entwurzelte Ureinwohner, neue Straßen, kahlgeschlagene Landschaften erodierte Berge, verschwundene Pflanzen und Tierwelten thematisierten, folgten. Um auf die zunehmend verzweifeltere Lage der Penan aufmerksam zu machen, und um die malayische Regierung zur Einlösung ihres Versprechens einer Schutzzone zu bewegen, führte Manser teilweise recht riskante Aktionen durch. Am 15. Februar 2000 brach er zusammen mit einem Kamerateam wieder in Richtung Borneo auf. Seither ist er verschollen.

Regenwaldschutz ist käuflich 

Nur das von Metalloxiden orange gefärbte Wasser, das aus einigen Bohrlöchern hervorsprudelt, erinnert noch an das Minenprojekt der Firma Bishimetal. Hier im ehemaligen Minencamp entlang des Rio Junin regiert wieder die Vegetation. Umgestürzte Bäume und hohe Büsche haben die Herrschaft über diesen Teil des Intag übernommen. Doch die japanische Tochtergesellschaft von Mitsubishi ging nicht ganz ohne Zwang. Umweltaktivisten von Decoin und Accion Ecologica verjagten zusammen mit den ansässigen Bauern die Bohrarbeiter von ihrem Land. Mit dieser Aktion verhinderten sie eine von der ecuadorianischen Regierung und der Weltbank geplante riesige Kupfermine, der große Teile des tropischen Intag betroffen hätte. Diese Mine hätte nicht nur zur Folge gehabt, dass die Bewohner umgesiedelt worden wären, auch die Rodung der Wälder und das Umleiten der Flüsse war geplant. Noch dominiert im Intag, das nördlich Quito an der Grenze zu Kolumbien gelegen ist, das Dunkelgrün der tropischer Bergwälder. Doch durch die hohen Auslandsschulden ist das relativ arme Land auf die Bodenschätze angewiesen. Eine Gesetzesinitiative erlaubt seit jüngstem auch den Abbau in Schutzgebieten. So könnte das angrenzende Cotacachi-Cayapas-Schutzgebiet schon bald bedroht sein. Hier leben noch Tierarten wie Brillenbär, Jaguar und Harpie. Im Intag hat sich inzwischen vor allem auf Initiative von Decoin viel getan, um dieser Entwicklung entgegenzuwirken. So wurden mit finanzieller Unterstützung von 'Rettet den Regenwald' große Teile des Bergwaldes mitten in der geplanten Kupfermine aufgekauft. Auch sind die Berggemeinden zu umweltverträglichen Nutzungen übergegangen. Zum Beispiel gehört der früher übliche Flächenabbrand der Vergangenheit an. Heute werden für die Düngung Komposthaufen angelegt. Auch die Kooperative 'Rio Intag für organischen Kaffee', die mit einem japanischen 'Fairtrade' Unternehmen zusammenarbeitet, gibt neue Entwicklungsschübe in einem Land, in dem ein Tagesverdienst von zwei Dollar täglich üblich sind.   

Mögliche Umweltbelastungen durch die Nutzung von MTBE als Kraftstoffzusatz in Deutschland und Westeuropa

Mit der Einführung bleifreier Kraftstoffe gewann MTBE sehr schnell technische Bedeutung. Die sauerstoffhaltige Verbindung MTBE dient der Senkung des Aromaten- und Benzolgehaltes in Otto-Kraftstoffen. Dadurch werden cancerogene Emissionen aber auch CO- und HC-Emissionen gemindert. In Kalifornien wurde Ende 1999 allerdings entschieden den Zusatz von MTBE zu verbieten. Grund ist der Nachweis von MTBE im Grundwasser, der langsame biologische Abbau und der Verdacht auf krebserzeugende Wirkung. Darüber hinaus kommt es bei größeren Konzentrationen im Grundwasser zu einer starken geruchlichen Beeinträchtigung. Das amerikanische Verbot, das ab Ende 2002 gelten soll, führte auch in Deutschland zu einer Diskussion über den Schadstoffeintrag von MTBE. Es stellte sich heraus, das sich die amerikanische und deutsche Schadstoffsituation in wesentlichen Punkten unterscheiden. Während zum Beispiel in Kalifornien defekte Tanks Hauptursache für die Grundwasserkontamination sind, treten in Deutschland auf diesem Wege kaum Schadstoffe in den Untergrund ein. Denn zwischen 1992 und 1998 wurden alle größeren Tankstellen auf doppelwandige Tanks und flüssigkeitsfeste Bodenoberflächen umgestellt. Auch die Konzentration von MTBE im Kraftstoff selbst ist deutlich geringer als in den USA. In Deutschland sind nur wenige Grundwasserkontaminationen durch MTBE bekannt, die von den Behörden überwacht werden. Modellbetrachtungen ergeben abnehmende Umwelteinträge. Auch nach Meinung der WHO stellt MTBE, das in die Wassergefährdungsklasse (WGK) 1 eingestuft wird, für die Bevölkerung keine Gesundheitsgefährdung dar.

Abflussdynamik und Stofftransport im Einzugsgebiet des wiederentstehenden Salzigen Sees

Der Salzige See gehört zur mitteldeutschen Seenlandschaft der sogenannten Mansfelder Seen, die teilweise schon im Mittelalter verlandet sind. Von den ehemals drei Seen existiert nur noch der Süße See mit einer Fläche von etwa 247 ha und einem Wasserstand von 92 m. ü. NN. Der Salzige See, südöstlich von Eilsleben gelegen, war mit 880 ha noch im letzten Jahrhundert der größte See Mitteldeutschlands. 1894 wurde er trocken gelegt, da er den Kupferschieferbergbau beeinträchtigte. 1995 fasste das Land Sachsen-Anhalt den Beschluss den ehemaligen Salzigen See wieder entstehen zu lassen. Da aber das Wasser der Zuflüsse noch nicht die erhoffte Qualität aufweist, haben die Forscher, die für ihre Hochwasserereignisse bekannten Zuflüsse der Seen untersucht. Die Methodik der Untersuchung wurde durch die hohe Durchflussamplitude bestimmt. Denn Nährstoff- und Sedimentfrachten waren für Zeiten hohen Abflusses unbekannt. Es wurde ein über den Durchfluss gesteuertes Messprogramm mit einem statistischen gekoppelt. Es wurden insgesamt 83 Durchflusswellen registriert. Bei 37 kam es zu einer automatischen Probenahme. Die Untersuchungen zeigten, dass für Sediment- und Phosphoreintrag hauptsächlich der Oberflächenabfluss verantwortlich ist. 70 Prozent des Stickstoffeintrages wird über den Basisabfluss transportiert. Die Methodik der durchflussorientierten automatischen Probenahme wurde bestätigt. Offensichtlich ist sie für Untersuchungen in Gewässern mit einer hohen Abflussdynamik geeignet, da auch einzelne Abflusswellen analytisch erfasst werden können. Dennoch ist diese Methodik nur für ausgewählte Untersuchungen möglich, da die besondere Methodik einen hohen Betreuungsaufwand im Gelände erfordert. Die spezielle Anforderung an Probenahme und Analytik erhöhen die Kosten.

Flusskostenmanagement: Ein neuer Ansatz zur systematischen Kostensenkung durch Umweltentlastung

Neben der Monetarisierung der verursachten Umweltschäden und der Umweltschutzkostenrechnung gehört die Flusskostenrechnung zu den Ansätzen der Umweltkostenrechnung. Die Idee der Flusskostenrechnung ist gesamtbetrieblich Stofftransporte zu verbessern, um dadurch Kosten zu senken. Denn 50 bis 80 Prozent der Kosten werden im produzierenden Gewerbe durch Energie und Material verursacht. Ziel ist es das Unternehmen für das Flusskostendenken zu sensibilisieren und dieses Denken auch zu verankern. Dazu werden vier Ablaufschritte vorgeschlagen. Die Grundlage soll die Erstellung eines durchgängigen Flussmodells sein, dass die wichtigsten Materialwanderungen innerhalb des Betriebes bis hin zur Emission darstellt. Im nächsten Schritt werden die realen Flusskosten in einer Nebenrechnung erstellt. Dabei liegt der Fokus besonders auf Kosten für Materialverluste und Reststoffe wie Abwasser, Abfälle und Abluft. Diese Größen treten in herkömmlichen Kostenrechnungen in den Hintergrund. Schließlich ist die Integration der Flusskostenrechnung in das Informationssystem anzustreben. Dann können die Erfahrungen aus der Flusskostenberechnung dauerhaft im Betrieb umgesetzt werden. Meist wird die bestehende Kostenänderung nur wenig angepasst, so dass der Arbeitsaufwand nicht wesentlich ins Gewicht fällt. Der letzte Schritt der Unternehmensintegration ist die Erarbeitung eines Flusskostenmanagements. Hier werden die Verantwortlichkeiten geregelt, Ziele festgelegt und Erfolgskontrollen durchgeführt. In Zukunft soll die Flusskostenrechnung den Materialfluss im Unternehmen im gleichen Maße optimieren wie Maßnahmen zur Senkung von Personalkosten.

Institutionelle Anleger - Die neue Triebkraft für eine nachhaltige Entwicklung

Im deutschsprachigen Raum gibt es über 15 Aktionfonds, die sich besonders an den sozial und ökologisch interessierten Kunden wenden. In den letzten Jahren sind die in diese Art Anlagegefäße investierten Geldmengen stark gewachsen. In den vergangenen fünf Jahren war ein jährlicher Zuwachs von 25 Prozent zu verzeichnen. Doch bislang sind es nur private Anleger oder ökologisch und sozial ausgerichtete Organisationen, die sich für diese Produkte interessieren. Grund für den geringen Zuspruch ist ein bislang in der öffentlichen Meinung verankerter Irrglaube: Ökologisch und sozial verantwortliches Investieren lässt sich mit einer finanziellen Performance nicht vereinbaren. In den letzten Jahren hat sich allerdings gezeigt, dass diese Anlageprodukte durchaus zufrieden stellende Renditen erzielen. Mit dem Dahinschmelzen der Vorurteile haben auch institutionelle Anleger Interesse am 'Ökoinvestment' gezeigt. Pensionskassen und Versorgungswerke verwalten zwar häufig große Geldmengen, unterliegen aber oft starken Kontrollen, was Risiko und Ausschüttung angeht. Für diese Kunden müssen die Anlagekonzepte daher speziell zugeschnitten werden. Das funktioniert aber nur wenn der Performance-Beitrag des Nachhaltigkeitsratings empirisch messbar wird. Interessant für Großanleger ist darüber hinaus die Frage in wie weit eine nachhaltige Geldanlage das Ertrags-/Risikoprofil des Gesamtvermögens ändert. Auch der Messung des Performancebeitrags der Nachhaltigkeit fällt in Zukunft eine besondere Bedeutung zu. Am Beispiel der schweizerischen Anlagestiftung Ethos wird gezeigt, dass sich diese neuen Anlagekonzepte durchaus auf dem Markt durchsetzen können. Ethos arbeitet mit strengen Auswahlkriterien. Sie nimmt nur Firmen in den Fond auf, die sowohl finanziell als auch ökologischen und sozialen Ansprüchen gerecht werden. Firmen, die Waffen, Atomstrom oder Tabak produzieren werden ausgeschlossen. Schließlich wird bei Ethos großen Wert auf Dialog gelegt. So bietet sie zum Beispiel eine Generalversammlungs-Dienstleistung an, die den Mitgliedern eine bewusstere Stimmausübung ermöglicht. Dadurch sollen aus 'schlechten' Unternehmen 'gute' werden. Ende 1998 war denn auch der messbare Nachhaltigkeitsbeitrag zur Performance bei Ethos positiv. Wenn in Zukunft die Anforderungen an Sicherheit, Liquidität und Rendite anhalten, besteht auch für die übrigen 'Ökofonds' die Hoffnung größere Marktanteile hinzu zu gewinnen.

Erfolgsbedingungen ökologischer Wettbewerbsstrategien

Sowohl ökonomische als auch ökologische Faktoren beeinflussen das Umweltmanagement. Innerhalb dieser Schnittmenge werden offensive und defensive Maßnahmen unterschieden. Offensiv sind zum Beispiel alle Maßnahmen, die der Imageverbesserung und Profilierung als umweltbewusstes Unternehmen dienen. Mit Hilfe defensiver Maßnahmen vermeidet das Unternehmen umweltbedingte Nachteile. Ein Beispiel defensiven Umweltmanagements ist die ökologische Marktabsicherungstrategie. Sie dient dazu bestehende Geschäftstätigkeiten und Interessen zu schützen. Durch Kommunikation und Dialog aber auch durch Selbstverpflichtungen will das Unternehmen in den Öffentlichkeit ein sauberes 'image' erzielen. Auch ökologische Kostenstrategien sind Ziel einer defensiven Strategieausrichtung. Hierbei stehen besonders interne Betriebsvorgänge im Vordergrund, weniger das Produkt. Ziel ist die Effizienz. Offensive Strategien wie die ökologische Differenzierung treten dagegen mit der Vorgabe an innovativ zu sein und dies auch nach außen zu tragen. Bestes Beispiel ist Coop, dass verstärkt Kundenbindung über qualitativ hochwertige Ökoprodukte erreichte. Eine weitere offensive Strategie ist die ökologische Marktentwicklung. Anreiz sind meist politische Vorgaben wie zum Beispiel die Forderung einer Emissionssenkung. Oft laufen mehrere Wettbewerbsstrategien parallel. Die Grundlage jeglicher ökologische Wettbewerbsstrategie ist aber die Vision. Sie geht über die rein ertragswirtschaftlichen Ziele und Zwecke hinaus und sollte sich motivierend auf die Mitarbeiter auswirken. An dieser Stelle sind die Führungskräfte gefragt, die mit sichtbaren Engagement als 'Fahnenträger' die Richtung weisen. Schließlich müssen die Erfolge auch messbar gemacht werden, um die Basis für ein 'benchmarking' zu schaffen. Kommunikation und Kooperation spielen bei ökologischen Wettbewerbsstrategien eine ähnlich entscheidende Bedeutung wie Lernen und Entwicklung.

Die grenzenlose Unternehmung: Chancen und Risiken für eine umweltorientierte Unternehmensführung

Digitalisierung, Vernetzung und sinkende Informations- und Kommunikationskosten (IuK) lassen grenzenlose, virtuelle Unternehmen entstehen. Nicht nur Markt- und Unternehmensstrukturen verändern sich sondern auch Wertschöpfungsprozesse. Das stellt neue Anforderungen an umweltorientierte Unternehmen. Denn IuK-Techniken bringen zwar neue Möglichkeiten der Kommunikation mit sich, führen aber nicht immer zu einer Einsparung von Ressourcen. So sind Beispiele aus der Textilindustrie bekannt, bei denen es durch die IuK-Technik sogar zur Erhöhung des Energie- und Materialverbrauchs kommt. Ware die auf Grund des Lohnniveaus durch halb Europa 'gekarrt' wird, ist für den Verbraucher dann nur in ökonomischer Hinsicht günstiger. Die Ökologie bleibt auf der Strecke. Durch die Pflege weltweiter Kommunikation hat sich in den letzten Jahren auch das Reiseaufkommen erhöht. Das sogenannte 'Telekommunikations - Paradoxon' fordert seinen Tribut. Je öfter die Menschen miteinander reden desto größer wird das Bedürfnis zur 'Face-To-Face' Kommunikation als vertrauensbildende Maßnahme. Aber das sind nicht die einzigen Auswirkungen der globalen IuK-Techniken - u.U. erhöht sich sogar der Materialverbrauch. Auf der anderen Seite der Medaille stehen die Einsparungen durch die IuK-Techniken: Telearbeit oder die Kommunikation über Email sind in diesem Zusammenhang zu nennen. Ein weiterer Vorteil: Durch die erhöhte Kommunikation beschleunigt sich auch die Verbreitung umweltrelevanten Wissens. Chancen und Risiken der neuen Entwicklungen liegen also nah beieinander und werden zum Beispiel durch Entwicklungen der Transportkosten und neuer Logistikkonzepte gesteuert. Aber auch das Maß der Dematerialisierung und das Produktdesign werden den Weg in die eine oder andere Richtung weisen. Steuer- und Verkehrspolitik beeinflusst diesen Prozess ebenfalls.

 Umweltschutz - ein wichtiger Faktor für die Raffinerie

 Für eine Raffinerie bedeutet Umweltschutz einen großen betriebswirtschaftlichen Mehraufwand. Höhere Betriebskosten durch zusätzliche Prozessschritte, der Einbau von Filter- und Abwasserreinigungsanlagen und andere emisionsmindernde Maßnahmen sind notwendig. Im Idealfall gehen diese Aktivitäten aber mit neuen Produktentwicklungen und einem günstigerem ökologischem Profil einher, die die Mehrkosten ausgleichen. Wie in jedem anderen Unternehmen führt verstärkter Umweltschutz, der über das gesetzliche Maß hinaus geht, auch in einer Raffinerie zu einem verbesserten Image. Dadurch entstehen außer den ökologischen langfristig auch ökonomische Vorteile. Nach dem Zweiten Weltkrieg und mit dem beginnenden Wirtschaftswunder waren Raffinerien zunächst ungezügelte Luftverschmutzer, die lediglich auf Wachstum und Ertragsausschüttung ausgerichtet waren. Heute sind sie an Emissionsgrenzen und Umweltauflagen gebunden, die die Raffinerien in den letzten 20 Jahren sauberer gemacht haben. Bedingt durch den hohen Energieeinsatz, der für die Verarbeitung von Rohöl notwendig ist, werden auch heute noch Schadstoffe frei. Luftschadstoffe wie Schwefeldioxid fallen in der Raffinerie hauptsächlich bei der Erzeugung von Energie an. Teilweise wird Schwefeldioxid über Rauchgasentschwefelungsanlagen entsorgt, teilweise wird auch Energie hinzugekauft. Kohlenmonoxid- und Staubemissionen sind dank des Einsatzes einer FCC-Anlage (Fluid Catalytic Cracker) zum Beispiel in der Raffinerie Schwechat um 90 Prozent zurück gegangen. Auch der Ausstoß von Stickoxiden (40 Prozent) und Flüchtigen Kohlenwasserstoffen wurde in den letzten Jahren reduziert. Teil der Anlage in Schwechat ist darüber hinaus ein Fackelsystem, das aber nur in Störfällen eingesetzt wird und über ein modernes Injektorsystem verfügt. Die Rußentwicklung wurde dadurch deutlich reduziert. Als Vorsorge gegen Havarien sind die Tanks in Doppelmantelversion ausgeführt, die gegen Durchrostung geschützt sind. Sogenannte Sleepergräben, die unterhalb des Rohrleitungsnetzes verlaufen, fangen austretene Flüssigkeit bei einer Leckage auf. Dadurch wird das Erdreich geschützt. Durch die hohen Entsorgungspreise tritt die Vermeidung von Abfällen in den Vordergrund. Vollständige Abfallvermeidung ist aber nicht zu erreichen. Kontaminierte Abwässer werden in Schwechat in einer standorteigenen Kläranlage gereinigt. Das Abwassersystem ist je nach Kontaminationsgrad in verschiedene Untersysteme aufgeteilt (Blau-, Grün-, Rotsystem). Die sicherste und umweltschonenste Methode für den Transport von Rohöl ist die Pipeline. In Raffinerien wird verstärkt auf umweltverträgliche Mineralölprodukte und Umweltschutzmanagement-Systeme gesetzt.  

Naturwissenschaftliche Anmerkungen zu Argumenten der Treibhausdiskussion

 Das Thema globaler Treibhauseffekt wird unter Wissenschaftlern seit Jahren heftig diskutiert. Im wesentlichen spalten sich die streitenden Parteien in drei Gruppen: den Warnern, den Klima-Skeptikern und den von der Politik beauftragten Wissenschaftlern. Während die Skeptiker den Treibhauseffekt teilweise gänzlich in Abrede stellen, sind die Warner die Protagonisten einer potentiell gefährlichen Klimaerwärmung. Den Berechnungen zur Physik und Quantifizierung des Treibhauseffektes liegen komplizierte Berechnungen zugrunde, die unterschiedliche Interpretationen zu lassen. Auch mit Hilfe der Paläoklimatologie ist keine eindeutige Korrelation von Erdtemperatur und Kohlendioxid-Konzentration zu erreichen. Die Erkenntnisse aus den instrumentellen Temperatur-Aufzeichnungen sind ebenfalls nicht eindeutig. Die verschiedenen Theorien und Ansätze lassen aber den Schluss zu, dass der anthropogene Treibhauseffekt existiert und tatsächlich zu einer Erderwärmung führt. Allerdings ist die Anreicherungsrate in der Atmosphäre weniger dramatisch als es von der etablierten Wissenschaft angegeben wird. Die Temperaturerhöhungssensivität der Treibhausgase wird zwar deutlich unterschätzt, der Einfluss der Sonnenaktivität geht dagegen kaum in die Klimaberechnungen ein. Der Ersatz kohlenstoffreicher Energieträger und die Erhöhung der Energieeffizienz sollten Kernpunkt der sogenannten 'no regret' Maßnahmen sein. In Zukunft werden sich die klimapolitischen Einsichten hin zu einer weniger dramatischen Situationsbewertung wandeln.  

Immuntoxikologie chronischer Quecksilberbelastung

Quecksilber wird von einem Großteil der Bevölkerung über die Nahrungskette und das Zahnamalgam aufgenommen. Wie sich diese chronische Quecksilberbelastung auf die Gesundheit auswirkt ist ungeklärt. Erfahrungsgemäß entwickeln chronisch Metallbelastete gehäuft Spättyp-Immunsensiblisierungen. In neueren Studien wird davon ausgegangen, dass die Induktion spezifische T-Zellen für diese Sensibilisierung verantwortlich sind. Eingehende Untersuchungen, die sich mit der Frage Autoimmunität befassen, sind bislang nicht durchgeführt worden. Zwei Untersuchungsreihen mit Metall- und Zahnamalgam belasteten Patienten sollten auf diese Frage näher eingehen. Im Verlauf der Studie zeigte sich, dass unter dem Einfluss der Schwermetalle Organ-unspezifische Autoantikörper induziert werden. Besonders Methylquecksilber, dass durch Endozytose und retrograden Transport in Nervenzellen gelangt, verfügt über ein hohes neurotoxisches Potential. Entzündungsreaktionen und Demyelinisierungen können durch das Schwermetall ausgelöst werden. Die prooxidative Wirkung von Quecksilberverbindungen und andere Mechanismen wie ein spezifisch neuronaler Mangel an adäquaten Schutzmechanismen, kann ernst zu nehmende Folgen für die Integrität des Nervengewebes haben. Wegen des komplexen menschlichen Immunsystems muss aber davon ausgegangen werden, dass verschiedene Faktoren zusammen treffen müssen. Erst dann ist ein Bruch der Eigentoleranz und Autoimmunität wahrscheinlich. Der Alterungsprozess, Infektionen, Medikamente, chronische Schadstoffbelastungen und Stress können neben der genetischen Prädisposition in diese Richtung führen. Eine Erweiterung der Analyse durch Hg-assoziierte Autoantikörper würde zukünftig zur Verbesserung der Diagnostik beitragen können.

Fördern Edelmetalle aus zahnärztlichen Legierungen den intestinalen Candida-befall durch suppressive Wirkung auf das darmassoziierte Immunsystem?

Zahnärztliche Edelmetall-Legierungen werden allgemein als gut verträglich erachtet. Außer Gold enthalten die Legierungen Anteile weiterer Metalle wie zum Beispiel Palladium. Eine Praxisstudie sollte zeigen in wie fern Edelmetall-Restaurationen gelöst, und über den Speichel in den Körper gelangen. An der Studie, die in einer Umweltmedizinischen Praxis durchgeführt wurde, waren insgesamt 97 Patienten beteiligt. 19 davon waren ohne Zahngold. Der Rest der Probanden war durch Kronen und Inlays versorgt, die mindestens ein Jahr alt sein mussten. Bestimmte Versuchspersonen, wie Raucher, Alkoholiker oder Patienten mit positiver Tumoranamese wurden nicht berücksichtigt. Unberücksichtigt blieben auch Personen, die beruflich eine starke Metallexposition haben wie zum Beispiel Zahntechniker. Am Stuhl der Probanden wurden auf Sprosspilze und die sIgA-Konzentration hin untersucht. Gold und Palladium wurde quantitativ über induktiv gekoppelte Plasma-Massenspektrometrie (ICP-MS) nachgewiesen. Die Untersuchungen zeigten, dass die fäkale Goldausscheidung signifikant invers mit der Höhe der sekretorischen korrelierte. Darüber hinaus zeigte es sich, dass im Stuhl von Patienten mit einer größeren Anzahl Goldrestaurationen auch größere Mengen Candida-Kolonien nachzuweisen war. Für Palladium waren diese Zusammenhänge nicht nachzuweisen. Die Studie lässt den Schluss zu, dass goldhaltige Legierungen die Zusammensetzung der intestinalen Mikroflora im distalen Colon und das lokale Immunsystem der Darmmukosa negativ beeinflussen.

Die OECD-Leitsätze für multinationale Unternehmen

In der OECD-Erklärung aus dem Jahre 1976 sind die OECD-Leitsätze verankert. Diese legen die wichtigsten Verantwortlichkeiten von Regierungen im Umgang mit multinationalen Unternehmen fest. Die Leitsätze wurden Zug um Zug den veränderten Prioritäten der Regierungen angepasst. Sie sind Vorgabe und Orientierung aber nicht rechtsverbindlich. Erst 1991 wurde den Leitsätzen ein Kapitel über Umweltschutz hinzugefügt. Zwar waren schon vorher die Umweltauflagen in den Unternehmen oft strenger als die nationale Gesetzgebung. Doch meist hielten freiwillige Verhaltensregeln und Selbstverpflichtungen nicht das was sie versprachen. Zu groß waren die Unterschiede der Erklärungen und deren Detailgenauigkeit. Die 1992 auf der UNCED-Konferenz in Rio verabschiedete Agenda 21 war der Ausgangspunkt für die umweltschutzbezogenen Leitsätze der OECD. Es sind jedoch weitere Ergänzungen notwendig, um die OECD-Leitsätze in Zukunft noch weiter auf nachhaltige Entwicklung auszurichten. Um das zu erreichen, dürften Umweltüberlegungen nicht auf das Kapitel Umweltschutz beschränkt sein. Auch das Kapitel über die Förderung des Umweltschutzes müsste erweitert werden. Grundlage wäre die Aufnahme von Textpassagen, die die multinationalen Unternehmen zu internationalem Transfer umweltfreundlicher Technologie ermutigt. Und was für finanzielle Aspekte schon seit langem gilt, sollte auf soziale und umweltrelevante Belange ausgedehnt werden: Transparenz und Berichterstattung fördern langfristig die Anerkennung eines Unternehmens. Auch hinsichtlich der Umweltverantwortung der multinationalen Unternehmen sind Nacharbeiten im OECD-Papier notwendig. Die Unternehmen sollten nicht nur produktions- und standortbezogene Umweltauswirkungen wie Abwasser und Flächenemissionen zu verantworten haben. Auch langfristigen Auswirkungen auf die Umwelt sollten die Leitsätze stärker ins Kalkül ziehen. Daneben fehlen in den Leitsätzen bislang Bestimmungen zum externen Monitoring und zur Überprüfung der Zielerreichung gesteckter Umweltziele. Messbare Umweltgrößen sind ebenfalls nicht genannt. Eine allzu rigide Regulation schließt das OECD-Papier allerdings aus. Dies würde eine Nachhaltige Entwicklung verhindern.

Hochwasserstände an Nord- und Ostseeküsten 

Der Wasserstandsvorhersagedienst des Bundesamtes für Seeschifffahrt und Hydrographie gibt tägliche Prognosen über die Wasserstände an Nord- und Ostsee des nächsten Tages. Die Wasserstände beziehen sich an der Ostsee auf Normalnull (NN). An der Nordsee ist das mittlere Hoch- und Niedrigwasser (MHW und MNW) maßgebend. Die Prozesse, die an der Ostsee zu Wasserstandsänderungen führen, werden größtenteils durch die Kraft des Windes ausgelöst. Dieser bringt zum Teil extreme Hochwasserstände mit sich. So kann ein Tief über der zentralen Ostsee innerhalb weniger Tage eine Wasserstandserhöhung von bis zu 3,0 m zur Folge haben. Lokale Winde sind in der Lage innerhalb weniger Stunden den Wasserstand um bis zu 1,0 m zu erhöhen. Kurzfristige Wasserstandsänderungen innerhalb von 12 bis 18 Stunden lösen auch die sogenannten Seiches aus. Ein durchziehendes Tief in dem der Wind plötzlich nachlässt, erzeugt Eigenschwingungen, die eine Schaukelbewegung der Wasseroberfläche nach sich zieht. Weitaus geringere Wasserschwankungen verursachen dagegen saisonale Schwankungen und die Gezeiten (20 cm in 6 Stunden). Ein besonderes Fänomen ist, dass langfristig der mittlere Wasserstand im Norden der Ostsee zu sinken scheint. Im Süden steigt er dagegen an. Ursache ist die Kippbewegung der Erdkruste. Beeinflusst wird der Wasserspiegel der Ostsee auch von periodischen und nicht-periodischen Ereignissen, wie den Sonnenflecken. Die Wasserstände der Nordsee sind stark von den Gezeiten abhängig. Wasserstandsänderungen von 3,5 m an der Küste und bis zu 4,0 m flussaufwärts sind üblich. Kurzfristige Änderungen werden auch hier durch Winddruck verursacht. Lage und Ausdehnung sind dabei entscheidend für die zeitliche Auswirkung. So führt ein Tief nördlich der Nordsee zu Wassererhöhungen von 5 m innerhalb eines Tages. In der gleichen Größenordnung, aber innerhalb weniger Stunden, wirkt sich ein Tief über der zentralen Nordsee aus. Fernwellen haben eine Wasserstandsänderung von bis zu 0,8 m zur Folge. Ihr Auftreten wird meist schon 12 Stunden vorher an der englischen Küste erkannt. Darüber hinaus ist in der Deutschen Bucht ein langfristiger Anstieg zu verzeichnen. Dieser liegt zwischen 17-29 cm in 100 Jahren. Für eine genaue Beantwortung der Frage nach der Häufigkeit der Hochwasserüberschreitung sind Methoden der Extremwertstatistik notwendig.

Luftverschmutzung und Umweltschäden im 19. Jahrhundert 

Eine Umfrage des Preußischen Landwirtschaftsministeriums unter privaten Waldbesitzern aus dem Jahre 1899 ergab Alarmierendes. Die Umweltbelastung in den Städten Dortmund und Bochum war inzwischen so stark angewachsen, dass eine Aufzucht von Fichten nicht mehr möglich war. Die 50er Jahre des 19. Jahrhunderts markierten in Westfalen den Übergang zur industriellen Wirtschaftsweise. Einschneidende Veränderungen im Bereich des Ruhrreviers traten vor allen Dingen in Hattingen, Hagen, Bochum und Dortmund ein. Ursache war das Auftreten der ersten modernen Hochöfen. Auch andere Rauchemissionen, die zum Beispiel in Sodafabriken, Industriehalden, Metallhütten und bei der Sulfatherstellung entstanden beeinträchtigten nunmehr die Natur. Da sich der industrielle 'Boom' besonders im Ruhrrevier fortsetzte, siedelten dort in den 80er und 90er Jahre besonders viele Kokereien, Chemiefabriken sowie Eisen- und Stahlwerke. Diese Aktivitäten verursachten eine starke Rauchentwicklung in den Städten. In den Siegerländer Niederwäldern schädigten die säurehaltigen Gase Bäume in einem Umkreis von bis zu fünf Kilometern. Der Säureeintrag in der Stadt Dortmund erhöhte sich von zwölf Tonnen pro Quadratkilometer auf 40 Tonnen bis zur Jahrhundertwende. Folge waren schnell an der Natur abzulesen. Krüppelwuchs und andere Schäden stellten sich nicht nur in der als 'Rauch und Staubstadt' bekannten Stadt Bielefeld ein. Noch Jahrzehnte später konnte diese Periode starker Kontamination über den Rückgang von Jahresringen nachvollzogen werden. Damals wurden die Fabriken mit besonders hohen Schornsteinen ausgerüstet, um der lokalen Belastung Herr zu werden. Diese Maßnahme hatte den Vorteil, dass der Verschmutzungsverursacher nicht mehr eindeutig nachzuweisen war. Denn laut preußischer Gewerbeordnung von 1845 war genau das Voraussetzung für Schadensersatzansprüche. Umweltkonflikte werden in der Literatur schon sehr früh erwähnt so der Fall des Freiberger Hüttenrauchs. Für Fragen der Luftverschmutzung waren im 19. Jahrhundert Berg- und Forstakademien zuständig. Sie eigneten sich anhand von konkreten Schadensfällen das nötige Wissen an und beschrieben schon damals die Mehrzahl der Schadenssymptome. In erster Linie war Schwefel und schwermetallhaltige Dämpfe als Schadensverurscher ausgemacht. Die frühe Rauchschadensforschung machte aber auch nicht vor den wasserlöslichen Luftschadensstoffen halt, deren Nachweis aber zunächst erhebliche Probleme mit sich brachte. Am Ende dieser Entwicklung standen die ersten Grenzwerte. Umweltschutzmaßnahmen entstanden meist nur dann, wenn sie für den Betrieb einen Mehrwert versprachen.

Gebiets- und Stoffhaushalt in der Lößregion des Elbegebiets 

Im Mittelpunkt der Untersuchungen in der Lössregion des Elbegebietes stehen folgende Punkte: Bilanzierung und Minderung des Stickstoffaustrages. Die Lössregion ist in erheblichem Umfang am Stickstoffaustrag beteiligt. Dieser liegt bei sechs Milligramm pro Liter und soll halbiert werden. Probleme ergeben sich aus den unterschiedlichen geologischen Standortbedingungen. Löss-Schwarzerde, Löss-Parabraunerde sowie Löss-Pseudogley- und Sandlössgebiete unterscheiden sich bezüglich der landwirtschaftlichen Bodennutzung und den Stickstoffausträgen. Auch die Landnutzung hat sich in den letzten zehn Jahren im Elbeeinzugsgebiet stark verändert. Die Nährstoffeintragspfade in die Fließgewässer sind unbekannt. Es werden regional differenzierte Umweltqualitätsziele notwendig. Bei der Modellierung bereiteten vor allen Dingen die bisher verfügbaren digitalen Geländemodelle Probleme, da sie für die Modellierung lateraler, wassergebundener Stoffflüsse unzureichend waren. Die entsprechenden Daten mussten Sekundärquellen entliehen werden. Um eine durchgängige Modellierung des Nitratstromes zu erreichen, wurden die verwendeten Modelle REPRO, CANDY, ASGi und PART gekoppelt. Zwischenergebnisse zeigen, dass als Folge der Überdüngung in den 80er Jahren der Stickstoffaustrag aus der ungesättigten Zone in den 90ern noch gestiegen ist. 1995 traten wie schon vor 1989 im Schwarzerdegebiet die höchsten N-Entzüge auf. Das ergaben erste Vergleiche der Stickstoffbilanzen zwischen den 80er und 90er Jahren. Darüber hinaus ist im Gesamtgebiet Sachsen-Anhalt ein signifikanter Rückgang der N-Überschüsse zu verzeichnen. Um im Lössgebiet Leitbilder und Umweltqualitätsziele für die Landnutzung zu entwickeln, sind sechs verschiedene Szenarien denkbar. Sie reichen von der Umstellung auf ökologischen Landbau über die Teilnahme am Förderprogramm 'Umweltverträgliche Landwirtschaft' bis hin zur Begrenzung der Mineral-N-Düngung.

Umweltbewusste Verbraucher - ein Risikofaktor für die Wirtschaft? 

Zweifellos beeinflusst die Konsumgüternachfrage wirtschaftliches Wachstum und Beschäftigungslage einer Volkswirtschaft. Nebeneffekt sind die Auswirkungen auf die Umwelt. Denn Konsumenten entscheiden mit dem Kauf eines Produktes auch über zukünftige Investitionen, Wirtschaftsstandorte, Rohstoffverbrauch und Reststoffanfall. Motive, die das Verhalten des Verbrauchers steuern sind für die Wirtschaft von ebenso großem Interesse wie konsumtheoretische Ansätze. Dadurch kann das Risiko aus dem Kaufverhalten minimiert werden. Die Umweltprobleme nehmen seit den 70er Jahren dramatisch zu und werden von einer breiten öffentlichen Diskussion begleitet. Im Laufe der Jahre hat sich die Zahl derjeniger Haushalte erhöht, die sich als umweltbewusst einstufen. Waren dies Anfang der 70er Jahre noch 20 Prozent, stieg diese Zahl auf zwei Drittel Mitte der Neunziger. Diese Klientel ist bereit auch höhere Preise für umweltfreundliche Produkte zu zahlen. Die Änderung des Verbraucherverhaltens führte im Bereich der Wirtschaft zu Anpassungsreaktionen, die ungeahnte Chancen boten. So grenzten sich ganze Industriezweige von Konkurrenten ab, indem man die von dem Verbraucher gewünschten umweltfreundlichen Produkte fertigte. Staatliche Eingriffe durch umweltpolitische Entscheidungen erfordern dagegen eine höhere Anpassungsfähigkeit der Wirtschaft - haben sie doch zum Teil sogar Auswirkungen auf die Produktionskosten. Auf längere Sicht werden diese kurzfristig negativen Auswirkungen aber von verbesserten Exportmöglichkeiten aufgewogen. Auf dem Gebiet der Umwelttechnik war diese Entwicklung in den letzten schon zu beobachten. Im Endeffekt profitiert auch die Wirtschaft vom Verbraucherverhalten und umweltpolitischen Maßnahmen, da die Umwelt selbst ein immens wichtiger Produktionsfaktor ist. Überbeanspruchung würde die wirtschaftlichen Aktivitäten beeinträchtigen.

Die öffentliche Wasserversorgung zwischen Daseinsvorsorge und Wettbewerb 

Wasser ist Leben und eine Grundvoraussetzung jeglicher Zivilisation. Kein Wunder, dass das feuchte Element zunehmend als Produkt mit Renditeaussichten auf sich aufmerksam macht. Strukturveränderungen in der Wasserversorgung würden sowohl das Unternehmen aber auch den Kunden betreffen. Dieser fordert eine preisgünstige und ressourcenschonde Versorgung. Kernpunkt eines Wettbewerbes im Wassersektor sollte daher vor allem die langfristige Daseinsvorsorge und der Schutz der Umwelt sein. Gefragt sind Verantwortung, weniger kurzfristige Gewinnmaximierung. Veränderungen würden sich aus dem Verdrängungswettbewerb zwischen Großkonzernen und kommunalen Wasserversorgern ergeben. Dennoch kann der Wettbewerb im Energiesektor nicht auf den Wettbewerb im Wassersektor übertragen werden - zu grundsätzlich sind die Unterschiede. Während Strom sich in Watt und Volt misst, hat Wasser als Naturprodukt eine Fülle weiterer Qualitätsfaktoren inne. In Deutschland ist die Güte des Wasser so hervorragend, dass die 1995 veröffentlichte Studie Briscoe eine Privatisierung anregte. Außerdem kritisierte sie die hohen Preise und Qualitätsstandarts sowie mangelndes Kostenbewusstsein. In der zweiten Hälfte des 19. Jahrhunderts entwickelte sich in Deutschland die Wasserversorgung, die als Teil der Wasserwirtschaft auf zu fassen ist. Sie wurde, als Folge einer steigenden Bevölkerung in den Städten und um wasserärmere Regionen zu versorgen, zügig ausgebaut. Seitdem folgte die Wasserversorgung grundsätzlich der Prämisse einer ortsnahen und naturverträglichen Ressourcennutzung. Dies soll auch in Zukunft so bleiben. 

Perspektiven einer nachhaltigen Stadtentwicklung

Die Leitbilder einer nachhaltigen, zukunftsträchtigen Entwicklung gelten auch für den Städtebau. Diese 'regulative Idee' hat zum Beispiel durch die Konferenz von Rio de Janeiro in die öffentliche Diskussion Eingang gefunden. Nachhaltige Politik ist eng mit ökologischen, ökonomischen und sozialen Zielen verknüpft. Es gilt diese drei Dimensionen so zu integrieren, dass sie gleichberechtigt berücksichtigt werden. Analog dazu teilen sich die Ziele der Stadtplanung in drei untrennbare Größen. Für die Dimension der ökologischen Stadt sind Faktoren wie Umwelt- und Ressourcenschutz maßgeblich. Dabei wird eine ganzheitliche Betrachtung notwendig: Kosten, Nutzungsdauer und immaterielle Einflüsse sind zu nennen, aber auch die Wirtschaftlichkeit einer ökonomischen Stadt. Denn die Leistungs- und Konkurrenzfähigkeit der Stadt muss sichergestellt sein. Ein ganzheitliches Qualitätsniveau fordert das Zusammenspiel von Umwelt, Wirtschaft und Gesellschaft. Die soziale Stadt soll Gerechtigkeit, Chancengleichheit und Schutz vor Ausgrenzung bieten. Zukünftige Stadtplanung sollte den regionalen Austausch der Städte mit dem Umland und großräumige Umstrukturierung der Vorstädte anstreben. Auch die Rückgewinnung belasteter Freiflächen ist anzustreben. Region, Suburbia und Kernstadt bilden in der nachhaltigen Stadt eine untrennbare Einheit. Die strukturelle Gliederung der vorstädtischen Bereiche hat dabei Planungspriorität. Optimierung der Material- und Verkehrsströme, Beteiligung der Bürger an Entscheidungsprozessen und computergesteuerte Telekommunikation ebnen den Weg zur intelligenten Stadt der Zukunft. Auch die Wahrung des kulturellen Erbes und die umfassende Information jedes Bürgers sowie die Möglichkeit zur Mitgestaltung politischer Ziele ist Teil einer nachhaligen Entwicklung der Stadtplanung. Grundsätzlich gilt bei all diesen Maßnahmen, dass Stadtumbau die Natur entlastet. Neuausweiung von Bauland bietet dagegen keine politische Perspektive.

Energiepolitische Gestaltungsmöglichkeiten aus psychologischer Sicht 

Mit dem Ende des Energie-Monopols gewinnt der Bürger immer mehr Einfluss. Die Nachfrage des Einzelnen bekommt auf dem liberalisierten Markt eine immense Bedeutung. Vielfältige individuelle Entscheidungen steuern in Zukunft die bislang unter staatlichem Reglement stehenden Märkte. Sind die energiepolitischen Weichen erst einmal gestellt, kann jeder einzelne zu mehr Energieeinsparung beitragen. Um das energieschonende Verhalten des Individuums vorranzutreiben ist in Zukunft das Wissen der Psychologie verstärkt gefragt - wird der 'homo oeconomicus' doch überwiegend über den eigenen Vorteil gelenkt. Mit Hilfe der Theorie des geplanten Verhaltens erhält man erste Ansätze aus psychologischer Sicht: Besonders wichtig ist die soziale Wertigkeit und die Anerkennung eines bestimmten Verhaltens. Aber auch die Handlungsspielräume müssen erweitert und in der Bevölkerung verbreitet werden. Eine 'Ich-Beteiligung' hängt darüber hinaus stark von dem eigenen Wissens- und Erfahrungsschatz ab. Gewohnheiten und Handlungsroutinen haben ebenfalls Einfluss. Schließlich ist die Frage der Motivation zu lösen. Umweltschonendes Handeln muss sich auch lohnen - aber nicht zu sehr. Aus psychologischer Sichtweise sollte gerade mit Belohnungen vorsichtig umgegangen werden sonst wird zu sehr auf Förderung von außen gesetzt. Motivallianzen wie zum Beispiel einer Gesundheitsmotivation (Fahrradfahren zum Job) sind anzustreben. Solch einer Entwicklung hinderlich sind die in letzter Zeit verstärkt auftretenden Kommunikationsprobleme. Hier stellt die Psychologie Analysewerkzeuge und Kommunikationsmodelle zur Verfügung, die im Endeffekt die Glaubwürdigkeit erhöhen. Die Politik kann dadurch den verloren gegangenen Kontakt zur Bevölkerung wieder herstellen. Auch bei den immer wieder hitzig diskutiert diskutierten Umweltthemen kann die Psychologie zur Seite stehen. Der Einsatz von psychologisch geschulten Mediatoren in solchen Konfliktsituationen ist sinnvoll. Ein dringliches Problem ist die Mensch-Maschine-Schnittstelle. Auf diesem Feld könnte die Psychologie kostengünstig Übersetzerarbeit leisten. Vor-Ort Berater, eine Denkfigur der Innovationstheorie, sind als sogenannte 'change agents' denkbar. Sie führen private Energieberatung durch und wirken dadurch als Multiplikator.

Dauerdüngungsversuche in Halle/Saale 

In mehr als 160 Publikationen wurden bislang Ergebnisse der Hallenser Dauerdüngungsversuche beschrieben. Sie werden auf dem 'Julius-Kühn-Feld', einer Versuchsstation der Landwirtschaftlichen Fakultät der Martin-Luther Universität, Halle durchgeführt. Zu den Dauerdüngungsversuche gehört der 1878 von Julius Kühn eingerichtete Versuch 'Ewiger Roggenbau' und die 'Dauerdüngungsversuche' von Karl Schmalfuß aus dem Jahre 1949. Heute sind auf insgesamt 1116 Parzellen Kalk-, Kalium-, Phophat- und Stickstoffdüngungsversuche sowie Versuche zur organischen Düngung untergebracht. Der Standort besteht aus Sandlössböden, denen eine Geschiebemergelbank unterlagert ist. Das Wasserspeichervermögen des Lößes ist begrenzt. Das hat einen erhöhten Trockenstress zur Folge. Der Standort ist den Sandlöss Gebieten zwischen Saale, Elbe und Mulde ähnlich. Er ist auch repräsentativ für viele Trockenstandorte des mitteleuropäischen Raumes sowie osteuropäischer Gebiete. Die Versuche bewiesen die Nachhaltigkeit einer Mineral-N-Düngung. Sie ist einer nährstoff-äquivalenten organischen Düngung durchaus ebenbürtig. Es zeigte sich des weiteren, dass die N- und C-Gehalte der Böden auf Dauer von den durch organischen Düngung zugesetzten Mengen an schwer zersetzbarer Substanz abhingen. Die Möglichkeiten einer Steigerung des Humusgehaltes scheinen begrenzt. Hohe Mineral-N-Applikation wirkte sich förderlich auf den Humusgehalt. Bei den Hallenser Dauerdüngungsversuche wurden auch langfristige agroökosystemare Reaktionen auf Bewirtschaftungsveränderungen untersucht. Die Ergebnisse beweisen, dass Maßnahmen wie Einstellung der Düngung oder Veränderungen des Anbausystems frühstens nach 30 Jahren messbar werden. Neue Fließgleichgewichte stellen sich oft erst nach 70 Jahren ein. Diese Resultate gewinnen in Hinblick auf aktuelle Flächenstilllegungen an Aktualität. Auch ein hohes P-Nachlieferungsvermögen aus dem Boden ließ sich bei den Versuchen zeigen. Außerdem war auf dem Versuchsstandort die Akkumulation von leichtlöslichen Salzen zu beobachten. In Jahren mit hohen Niederschlägen erhöht dies die Auswaschungsgefahr. 

Die Volksrepublik China und ihr Schutzgebietssystem

1996 stellte der WWF und das Forstministerium Chinas schwerwiegende Lücken im System der chinesischen Schutzgebiete fest. Aufgrund der anhaltenden Zerstörungen in den chinesischen Naturschutzgebieten wurde empfohlen diese auf den Status von Landschaftsschutzgebieten zurück zu stufen. Grund für die schlechten Bedingungen in den Schutzgebieten ist das Fehlen gesetzlicher Grundlagen für den Naturschutz sowie der Mangel an Personal und Geld. Vor allem der Geldmangel führte dazu, dass in vielen Schutzgebieten die natürlichen Ressourcen zum Selbstzweck geworden sind. Sie müssen ausgebeutet werden, um das Naturschutzgebiet zu erhalten. Etwa ein Drittel der über 1.000 chinesischen Naturschutzgebiete befinden sich in dieser kritischen Situation. Viele der Parks versuchen verstärkt über Tourismus die Kassen zu füllen. Da aber Richtlinien für umwelt- und naturverträglichen Tourismus unbekannt sind, schließt sich der Teufelskreis der Selbstzerstörung. Etwas besser geht es den sogenannten Nationalparks wie Wolong. Dieser über die Grenzen Chinas hinaus bekannte natürliche Nationalschatz beherbergt den Pandabären und hat im In- und Ausland repräsentative und wissenschaftliche Bedeutung,. Daher werden diese Parks entsprechend finanziell bedacht. Die Strukturen der Schutzgebiete, die in den 80er Jahren entstanden, sind nicht wie in Deutschland nach unterschiedlichen Schutzintensitäten eingeteilt. Vielmehr erfolgt die Klassifizierung objektorientiert nach deren Schutztyp. Die chinesischen Schutzgebiete sind in drei Zonen unterteilt. Die Kernzone ist ein Gebiet strikten Schutzes. Bei der Pufferzone handelt es sich um ein halberschlossenes Gebiet. Die Versuchszone dient der Regenerierung von Ökosystemen mit menschlicher Hilfe. Das wirtschaftliche Wachstum Chinas erhöht den Druck auf die Naturschutzzonen weiter. Gleichzeitig wächst das Bewusstsein der chinesischen Politik und der Bevölkerung für die Natur ihres Landes, dass weltweit die höchste Biodiversizität aufzuweisen hat. Erste Ansätze gab es nach der UNO-Konferenz in Rio de Janeiro. China erkannte seine verantwortungsvolle Rolle im Naturschutz an. 1998 wurde versucht die Zusammenarbeit zwischen den einzelnen Institutionen des Naturschutzes auf nationaler Ebene zu verbessern.

Waldland Iran?

Im Jahre 2000 wurde im Iran entschieden, nochmals zehn Prozent der Waldfläche des Kaspischen Meeres zu schützen. Und erst kürzlich hat das iranische Fachministerium für Forstwirtschaft angekündigt, sämtliche Nutzwälder kahlschlagsfrei durch Einzelplenterung zu nutzen. Die Chancen für Forstschutz im Iran stehen daher nicht schlecht, auch durch die forstliche Fakultät in Teheran, die eine vorbildliche Lehre bietet. Forstschutz im Iran hat darüber hinaus eine lange Tradition. Seit den 50er Jahren sind im Iran weite Teile der Kaspischen Wälder geschützt, die kaum ein Europäer kennt. Dabei sind sie Vorbild an Unberührtheit und Ursprünglichkeit in einem Land, das vorwiegend aus Wüste besteht. In der 1.000 Kilometer langen Gebirgsregion des Elburs-Gebirge hat sich dank der geologischen Gegebenheiten ein Wald entwickelt, der circa 12,4 Millionen Hektar umfasst (BRD etwa 10 Millionen Hektar) und bis in Höhen von 1.500 Meter ansteigt. Die Jahresniederschläge liegen zwischen 800 und 2.000 Millilitern. Zusammen mit den Jahresdurchschnittstemperaturen, die zwischen -7 Grad und +36 grad Celsius liegen, ergeben sich ideale Bedingungen für die vorhandene Baumartenvielfalt. Darunter befindet sich zum Beispiel ein mächtiger 2.000 - 3.000 Jahre alter Eibenwald mit Einzelexemplaren von bis zu 30 m Höhe. Besonders ist auch die Entstehung des Kaspischen Waldes. Denn Eiszeiten, die Teile der Nordhalbkugel im Tertiär und Quartär bedeckten, erreichten den Kaspischen Wald nicht. Er konnte sich über Jahrmillionen ungeschützt entwickeln was heute seine Schutzwürdigkeit rechtfertigt. In diesem Weltnaturerbe leben zwischen 300.000 und 400.000 Menschen. Probleme bereiten vor allem der zunehmende Bevölkerungsdruck und der Großschirmschlag, der dem Artenreichtum der Wälder nicht gerecht wird. Auch ist das rudimentäre Forstsystem noch nicht in der Lage den Waldschutz zu garantieren und für die bäuerliche Subsistenzwirtschaft fehlen die Kontrollmechanismen. Größtes Hindernis sind aber die zwei Millionen Schafe und Kühe, die im Kaspischen Wald für Zwecke der Weidewirtschaft gehalten werden.

Werden die Ölreserven allmählich knapp?

Seit 1987 werden die weltweiten Rohölreserven konstant mit 42 Jahren angegeben. Von 1965 bis 1975 haben sie sich faktisch verdoppelt. Dies ist eine Folge der besseren Ausbeuterate und den Neufunden in den 90er Jahren. Viele Geowissenschaftler und Ingenieure gehen allerdings davon aus, dass die Reserven in wenigen Jahren erschöpft sein werden. Für die meisten Wirtschaftswissenschaftler ist dagegen noch lange kein Ende des Ölstroms abzusehen. Die Debatte zwischen den Pessimisten und den Optimisten gipfelte sogar in einem Streit um die Definition von Öl: Sollte Tiefsee- und Arktisöl als konventionelles Rohöl in die Analyse einfließen? Fakt ist, dass die Ölförderung ungeachtet aller früheren Prognosen steigt. Gleichzeitig bleiben die Preise stabil. Diese Tatsache widerlegt die Hypothese der Pessimisten, die im Aufwärtstrend des Ölpreises den Nachweis einer drohenden Erschöpfung der Reserven sehen. Ob die Reserven zu irgendeinem Zeitpunkt soweit verringert sein werden, dass die Bedarfsdeckung gefährdet ist, erscheint darüber hinaus zweifelhaft. Denn mit Preisanstieg und technologischem Fortschritt steigt der Anreiz Öl zu suchen und zu fördern. Schon allein die Erdölfunde aus den 50er Jahren, die im Vorderen Osten erschlossen wurden stellen eine gewaltige Reserve dar. Auch die Förderungen der Non-OPEC Staaten zeigen eine konstant positive Entwicklung. Ölfunde der jüngsten Zeit zeigen darüber hinaus, dass mit moderner Technologie die Ölreserven noch einmal vergrößert werden können. Dennoch übersteigt der aktuelle Ölverbrauch die geophysikalische Erschließung der neuen Ölquellen. De facto ist also in Zukunft mit einer Abnahme der weltweit förderbaren Ölreserven genauso zu rechnen wie mit der Erschöpfung einzelner Felder. Der Reservenschwund wurde aber global schon durch eine verbesserte Technologie eingeholt. Eine bevorstehende Verknappung ist aus den gegenwärtigen wirtschaftlichen Daten nicht abzulesen.

Der Risikobegriff in der praktischen Umsetzung von Naturschutzvorhaben

Die nachhaltige Umsetzung von Naturschutzmaßnahmen ist mit einem hohen Risiko verbunden. Eine Vielzahl Unwägbarkeiten müssen bedacht werden, um kulturelle und sozio-ökonomischen Entwicklungen mit ökologischen Belangen zu verschmelzen. Im Endeffekt ist dieses System aber schwer kalkulierbar. Das 'Naturschutz-Risiko' als negative Abweichung von den naturschutzfachlichen Leitbildern beginnt schon bei den Grunddaten und deren Bewertung: Unsichere Erhebungen, fehlerhafte Interpretationen sowie lückenhafte wissenschaftliche Kenntnisse können bereits im Vorfeld eines Projektes zu falschen Prognosen führen. Ein weiteres Problem ist, dass die Risiken je nach Standpunkt und Grad der Betroffenheit unterschiedlich eingestuft werden. Am Beispiel des Erprobungs- Entwicklungsvorhabens 'Revitalisierung in der Ise-Niederung' wurde deutlich wie eng die Wechselwirkungen zwischen den einzelnen Risiken sind. Es zeigte sich außerdem, das gerade ökonomische Risiken, ökologische Entwicklungen beeinflussen. Eine erfolgreiche oder gescheiterte Einbindung der Bevölkerung in die Naturschutzvorhaben hatte ebenfalls großen Einfluss auf Erfolg oder Misserfolg der Maßnahme. Unsicherheiten und Risiken können aber schon bei der Planung von Naturschutzvorhaben verringert werden. Ausschlaggebend sind intensive Kommunikation in allen Planungsschritten. Besonders das Schließen von Kenntnislücken sowie eine enge Zusammenarbeit zwischen wissenschaftlicher Begleitung und Umsetzung ist erforderlich, um die Risiken sowohl aus Naturschutzsicht als auch aus ökonomischer und emotionaler zu reduzieren.

'Botschaft vom Drachenfels' - Geotopschutz, die neue Aufgabe im Natur- und Landschaftsschutz 

Der Drachenfels am Rhein wurde 1836 unter Schutz gestellt. Es ist damit das erste überhaupt in Deutschland unter Naturschutz gestellte Objekt. Bemerkenswert ist, dass es sich nicht um ein heute allseits bekanntes 'Biotop', sondern um ein 'Geotop' handelt. Grund für diesen frühen Naturschutz war die alte Burgruine, die im Zuge der Abbauaktivitäten einzustürzen drohte. Der hier gewonnene Trachyt wurde für seine gute Bearbeitbarkeit geschätzt und u.a. für den Bau des Kölner Domes verwendet. In späterer Zeit fand der Felsen bei den Rheinromantikern starken Zuspruch. Vom Mittelalter bis in die Gegenwart interessierten sich Dichter und Maler für Landschaften und verewigten sie in ihren Schriften und Zeichnungen. Bekannte Beispiele sind Johann Wolfgang von Goethe und Caspar David Friedrich. Vom 'Geotop' sprach man aber erst in den 80er Jahren der 20. Jahrhunderts in der DDR. Vorher galt noch der Begriff des 'Monument de la nature' von Alexander von Humboldt. Das vordringlichste Streben des Geotopschutzes ist die Erhaltung von Aufschlüssen als 'Archiv der Erdgeschichte'. Bislang sind von den geologischen Diensten bundesweit über 15.000 Geotope erfasst worden. Leider erfahren die Geotope durch diese Aufnahme keinen Schutz, da die gesetzlichen Regelungen fehlen. Mangel an Geld in den Bundesländern, Städten und Kommunen gestalten darüber hinaus den Geotopschutz schwierig. Die Aufnahme des Begriffes 'Geotop' in das Umweltrecht ist daher anzuraten. Auch die Weiterentwicklung von geowissenschaftlichen Grundlagen und Bewertungsverfahren für den Geotopschutz wären wünschenswert. Dadurch würde ein ganzheitlicher Naturschutz gefördert werden.

Zero Emissions: Ein Konzept des 21. Jahrhunderts 

Das Konzept 'zero emissions' wird seit 1994 an der United Nations University in Tokyo entwickelt. Ziel von 'zero emissions' ist die Einrichtung von Netzwerken verschiedener Industrietypen, den sogenannten 'cluster'. Damit soll eine effektive Wiederverwertung der Ressourcen erreicht werden. Hauptaugenmerk des Konzeptes gilt den Materialkreisläufe innerhalb von Unternehmen und deren Produktionsprozessen. Das Konzept soll die gemeinsame Nutzung von Rohmaterialien und Zwischenprodukten für verschiedene Industrien, das sogenannte upsizing ermöglichen. Kernpunkt des Zero-Emissions-Konzepts ist aber das Entstehen neuer Industriezweige und dadurch die Schaffung neuer Einkommen und Beschäftigungsmöglichkeiten. Steigende Gewinne und eine bessere Umweltsituation sollen im Japan der Zukunft eine Einheit bilden. Denn in der Vergangenheit hat sich durch die Produktionsstruktur und den gesellschaftlichen Lebensstil ein so starker Ressourcenverbrauch entwickelt, dass die jährlichen Abfallmengen gigantisch sind - Ergebnis einer industriellen Massenkonsumgesellschaft und der Verbessserung des Lebensstandarts. Die Zukunft wird also auch in Japan in einer nachhaltigen Entwicklung zu suchen sein. Verschiedene Ansätze in der Vergangenheit wie das Konzept des End-of-Pipe oder das Cleaner Production krankten an fehlenden ökonomisch-innovativen Effekten oder allgemeinen Problemlösungsansätzen. Das Zero-emissions-Konzept wird zur Zeit nicht nur in Japan sondern auch in Fidschi und Afrika getestet. Darunter befindet sich auch ein Projekt, das die Möglichkeit eines geschlossenen Materialkreislaufs in der chemischen Industrie prüft.

Ambulante Therapie von Umwelterkrankungen 

Eine Therapie in der Umweltmedizin beginnt erst dann wenn der Arzt den Patienten akzeptiert. Aber auch die Mitarbeit des Patienten ist notwendig. Eine passive Haltung des Patienten wäre in der umweltmedizinischen Praxis kontraproduktiv. Und so muss der Arzt neben der individuellen Hilfestellung und Aufklärungsarbeit, die oft auch in Gruppen oder mit dem Lebenspartner durchgeführt werden, immer wieder zu konsequenter Selbsthilfe auffordern. Meist haben die Patienten schon eine Odyssee zu anderen Ärzten hinter sich, die in ihrem Leiden eine psychatrische Krankheit sehen. Die Nachricht nicht allein mit seinem Krankheitsbild zu sein macht den meisten Patienten Mut – eine notwendige Voraussetzung für die Therapie und den Heilungsverlauf. Bei der Visite wird zunächst die Symptomatik, die zum Arztbesuch veranlasste, in Augenschein genommen. Im Zuge der Differentialdiagnose sollten besonders bislang unbekannte Entzündungsherde erkannt und therapiert werden. Für psychisch auffällige Patienten wäre eine therapeutische Versorgung von Beginn an sinnvoll. Anderenfalls bekommt der Patient möglicherweise den Eindruck, dass er wieder einmal nur abgeschoben werden soll. Für den Behandlungserfolg wichtig ist auch die Analyse des sozialen Umfelds. Hier können die inneren Spannungen entstehen, die dann eine chronische Umwelterkrankung zur Folge haben. An nächster Stelle stehen chemische und physikalische Schädigungsvorgänge: Staub-, Luft- und Materialanalysen im Umfeld des Patienten geben erste Hinweise auf mögliche Belastungen. Auch mögliche Schwermetallbelastung im Gebiss wie durch Amalgam oder andere zahnfremde Materialien sollten erkannt und auf Verträglichkeit untersucht werden. Ein besonderer Augenmerk liegt auf der Bekleidung. Viele 'lipophile' Toxine, die wie PCB eine Halbwertszeit von mehreren Jahren haben, finden über Hautkontakt den Weg in den Körper. Diese Toxine werden meist auch über die Nahrung aufgenommen. Bei tierische Fetten ist daher besonders zu beachten, dass es sich um kontrolliert biologische Kost handelt, da nur diese eine Rückstandsfreiheit von Antibiotika, Enzymen und anderen Pharmaka garantiert. Schließlich können die schon inkorporierten und in den Fettreserven gebundenen Toxine mit ausleitenden Entgiftungsverfahren eliminiert werden. Besonders geeignet sind dazu physikalische Verfahren. In der als 'Environmental Unit' bezeichneten Behandlung wechseln aktive Phasen, die mobilisierend auf die Toxine wirken sollen mit passiven Ruhephasen ab. Um eine Mobilisierung aus tieferen Depots zu erreichen werden Überwärmungskammern eingesetzt, die den Stoffwechsel steigern.

Richtlinien zur Geruchskontrolle 

Lange bevor Begriffe wie 'Umweltschutz' oder 'Bundes-Immisionsgesetz' populär wurden, quälte Bewohner einer Duisburger Wohnsiedlung in den 50er Jahren der Geruch einer Kompostieranlage. Die Proteste waren so heftig, dass die Schließung der Anlage erwogen wurde. Dieser Fall hatte zu Folge, dass verstärkt Abluftbehandlungstechnologien erforscht aber auch Normen und Richtlinien für die Geruchskontrolle erlassen wurden. Im Vordergrund der dabei erarbeiteten Geruchstests stand und steht vor allen Dingen die menschliche Nase. Sie nimmt den subjektiven Reiz auf, der im Zwischenhirn verarbeitet wird. Zur Geruchsmessung werden unterschiedliche Verfahren angewendet. Bei der Prüfung der Geruchsstoffkonzentration wird der Grenzwert des 'Riechbaren' die sogenannte 'Geruchsschwelle' ermittelt. Die Geruchsintensität ist ein weiterer Testwert und wird in einer 6-stufigen Skala von kein Geruch bis unerträglich gemessen. Die hedonische Tönung verwendet eine etwas andere Skala, die von „äußerst unangenehm“ über „neutral“ bis „äußerst angenehm“ reicht. Bei der Bestimmung der Geruchsart sind verbale Beschreibungen des Riechenden gefragt. Der Geruchsprüfer wertet den empfundenen Geruch als stechend, duftend, eklig oder beißend. Schließlich werden zur Geruchsmessung Rasterbegehungen durchgeführt. Sie dienen zur Ermittlung des Geruchszeitanteils in dem jeweiligen Gebiet. Versuchspersonen laufen dazu das Gebiet systematisch ab und geben ihre Geruchseindrücke wieder. Die sogenannten Fahnenbegehungen sollen über die Reichweite von Geruchsbelästigungen unter bestimmten meteorologischen Verhältnissen Auskunft geben. Schließlich sind noch die Belästigungserhebungen zu nennen. Über die Befragung von Ortsansässiger versucht man Auskunft zu erhalten über die gegenwärtige Belästigung des Umfeldes mit Geruchsstoffen.

Balneotherapie 

In der Radon-Balneotherapie sind zwei Anwendungsformen üblich: Radonbäder und Radoninhalationen. Beide Therapieformen bringen gewisse Risiken mit sich, da Radon radioaktiv ist. Dennoch ist Radon auf Grund von empirischen Erkenntnissen als Therapieform gegen Rheuma, Altersbeschwerden und Beschwerden vor und während der Wechseljahre anerkannt. Die möglichen Wirkmechanismen, dieses von Wissenschaftlern auch als spezielle Form der Strahlentherapie bezeichnete Heilverfahren, sind vielfältig: Entzündungshemmung, Schmerzlinderung, Immunmodulation, Steigerung der zellulären Reparaturmechanismen und Hemmung der Zellteilung. Das Problem: Kleine Dosen ionisierender Strahlung, die die sogenannte Strahlungshormesis verursacht. Auf zellulärer Ebene wird dieses Fänomen als Adaptive Response bezeichnet. Im Bereich kleiner radioaktiver Dosen sind allgemein gültige Regeln für das Auftreten hormetischer und adaptiver Antworten allerdings noch wenig erforscht. Erfahrungswerte sind vor allen Dingen bei Menschen mit hohen Strahlungsbelastungen bekannt. Aber auch kleine Dosen können zellverändernde Effekte auslösen. Daher wird im Strahlenschutz das lineare Dosis-Wirkungsmodell ohne Schwellendosis angewandt. Untersuchungen haben gezeigt, dass bei Bergleuten, die längere Zeit Radon ausgesetzt waren ein erhöhtes Lungenkrebs festzustellen ist. Wissenschaftler gehen davon aus, dass sich bei der Radontherapie das Lungenkrebsrisiko besonders im Heilstollen erhöht. Bade- und Trinkkuren gehen dagegen mit deutlich niedrigerem Lungenkrebsrisiko einher. Grundsätzlich gilt, dass der Behandlung von Kindern Jugendlichen und Schwangeren gewichtige strahlenhygienische Gründe entgegenstehen.

Blähschlamm, Schwimmschlamm und Schaum 

Blähschlamm, Schwimmschlamm und Schaum treten immer wieder in Kläranlagen auf, die biologische Abwasserreinigung mittels Belebungsverfahren betreiben. Nicht immer ist es möglich dieses Problem kurzfristig mit verfahrenstechnischen Mitteln zu lösen. Dann ist der Einsatz von organischen und anorganischen Zusatzstoffen angesagt. Nicht selten ist deren Einsatz aber nur wenig erfolgreich, da die Ursache für die Schlamm- und Schaumprobleme nicht richtig erkannt wird. Oft werden diese durch fadenförmige Mikroorganismen ausgelöst. Der Praktiker unterscheidet vier Bakteriengruppen, die für Schlamm und Schaum verantwortlich sind: Gramnegative Hochlastbakterien und Schwefelbakterien verursachen Blähschlammbildung. Actinomyceten sind für Schwimmschlamm- und Schaumbildung verantwortlich. Die grampositiven Schwachlastbakterien sind sowohl Schlamm- als auch Schaumbildner. In Belebtschlammsystemen mit kommunalen Abwasser ist es möglich die verursachenden Bakterien mikroskopisch zu untersuchen. Ist dem System ein hoher Anteil Industrieabwässer beigemengt, müssen für eindeutige Ergebnisse Gensonden zum Einsatz kommen. Erst dann können die fadenförmigen Mikroorganismen, die sich je nach Art im Schaum, Schlamm aber auch in der flüssigen Phase vermehren, mit dem passenden Zusatzstoff bekämpft werden. Auf dem Markt stehen eine Fülle an Produkten zur Verfügung, die diese Schlamm- und Schaumbildung eindämmen: Oxidationsmittel, Kalk, Aluminiumsalze, Beschwerungs- und Aufwuchsstoffe, Enzym- und Bakterienpräparate sowie Flockungsmittel. Zur Erhöhung der Wirksamkeit des Einsatzes ist möglichst schon vor der Auswahl des Produktes eine Checkliste abzuarbeiten. Diese beinhaltet zum Beispiel die Durchführung von Labortests oder die Abklärung verfahrenstechnischer Möglichkeiten.

Analyse des LW-Leitungsnetzes 

Der Bau der ersten Abschnitte des LW-Leitungsnetzes liegt fast 90 Jahre zurück. Im November 1912, kurz nach Gründung der Landeswasserversorgung, wurden die ersten Rohre im Fellbacher Wald verlegt. Der ersten Ausbauphase, bei dem das rund 100 km lange Leitungssystem 1 mit den angeschlossenen Zubringerleitungen entstand, folgte eine zweite Ausbauphase. Mit Leitungssystem 2 wurde Mitte der 30er Jahre begonnen. In den 50er und 70er Jahren wurde das Hauptleitungssystem, deren Gesamtlänge 366 km misst, schließlich vervollständigt. Das Gesamtnetz beträgt 770,4 km. Aufgrund des zeitlich gestaffelten Baus der Leitungen sind große Teile des Systems veraltet. Das mittlere Alter des Rohrleitungsnetzes lag 1999 bei 45 Jahren. 36 Prozent der Leitungen sind älter als 60 Jahre, 11 Prozent sind jünger als 24 Jahre. In circa 10 – 15 Jahren wird die technische Nutzbarkeit der Leitungen erreicht sein. Schon jetzt sind Schäden am Leitungsnetz zu verzeichnen. Allein im Zeitraum von 1973 bis 1993 wurden insgesamt 130 dokumentiert. Ursache war bei der überwiegenden Zahl der Fälle Korrosion. In einem Erneuerungsprogramm sind besonders die Leitungen aus der Gründerzeit der LW, die Fallleitungen 1 und 2 zu berücksichtigen. Bei diesen kommt zum Beispiel der Ersatz des Zweirohrsystems durch ein Einrohrsystem in Frage. Auch die Beseitigung sämtlicher GG-Abschnitte und der Abbau der Behälteranlage Rechenberg wird empfohlen. Diese ist aus hydraulischen Gründen heute nicht mehr notwendig. Die Finanzierung soll über eine möglichst konstante Investitionssumme geschehen. Der jährlichen Erneuerungsbedarf liegt bei 7,7 km Leitungsstrecke. Insgesamt ergibt sich in den nächsten 15 Jahren ein Reinvestitionsbedarf von circa 170 Mio. DM.

Strategische Umweltplanung in Schweden 

Die Umweltpolitik Schwedens hat sich mit der Verabschiedung des 'Environmental Bill' 1998 strategisch neu ausgerichtet. Dieses Gesetz wurde notwendig, um die in den letzten zehn Jahren aufgelaufene Vielzahl an Umweltzielen neu zu strukturieren. Im Mittelpunkt des Gesetzes stehen 15 übergreifende Qualitätsziele, die einen neuen Ansatz in der schwedischen Umweltpolitik darstellen. Kern dieses neuen Ansatzes ist die förmliche Zuweisung der Umsetzverantwortung an über 20 Fachbehörden. Diese sollen bei der Ausarbeitung und Umsetzung von Umweltzielen eng mit der Schwedischen Umweltagentur (SEPA) zusammen arbeiten. Das im gleichen Jahr verabschiedete Umweltgesetzbuch 'Environmental Code' dient ebenfalls der Neuorientierung der schwedischen Umweltpolitik. Es fasst 15 Einzelgesetze zusammen und hat Auswirkungen auf insgesamt fünfzig weitere Gesetze. Schwerpunkt des neuen Gesetzes ist das Vorsorge- und das Verursacherprinzip. Mit Hilfe des Öko-Kreislauf-Prinzip werden Rohstoffe und Energie geschont und das Recycling gefördert. Schließlich soll schon durch die Produktwahl die Umwelt entlastet werden. Ziel ist es chemische Produkte und biotechnische Organismen aus der Umwelt zu verbannen. Auch das Prinzip nur die best mögliche Technik zu nutzen soll helfen Schäden an der Natur zu vermeiden. Umweltpolitik geht in Schweden bis auf das Jahr 1969 zurück. Damals wurde der erste Rat für Umweltfragen geschaffen. Schon bald nach der UN-Umwelt-Konferenz 1972 in Stockholm wurden erste umweltpolitische Grundsätze wie z.B. das Verursacherprinzip Teil schwedischer Politik. Ende der 80er Jahre befasste man sich zunehmend mit Fragen der grenzüberschreitenden Verschmutzung. Stichwort: Versauerung der Seen. 1990 wurde in mehreren Bereichen Umweltabgaben und –steuern eingeführt. Sechs Jahre später legte Schweden eine erste Strategie für eine nachhaltige Entwicklung vor, die alle Regierungsbereiche betraf. Nachhaltige Entwicklung, die die Erde für künftige Generationen bewohnbar erhalten will ist noch heute oberstes Ziel der schwedischen Regierung. Eckpunkte dieser Entwicklung sind Umweltschutz, effiziente Nutzung der Ressourcen und nachhaltige Versorgung.

Dialogforen: Zeitverschwendung oder Chance 

Dialoge und Diskurse sind gelebte Demokratie und helfen Kommunikationsdefizite abzubauen. Gleichzeitig wirken sie einer generellen Kultur des Misstrauens entgegen. In Fragen strittiger Zukunftsgestaltung wie zum Beispiel der Patentierung von Pflanzen und Tieren spielen sie eine zentrale Rolle um Öffentlichkeit zu schaffen. Ihre Anfänge reichen in Deutschland bis in die 70er Jahre zurück. Damals war es die Kernenergie, die die Bevölkerung spaltete und unter Bundesforschungsminister Volker Hauff kontrovers diskutiert wurde. Trotz der verbesserten gesellschaftlichen Kommunikation treten in solchen Technikkontroversen unüberwindliche Kommunikationsblockaden auf, die es zunächst gilt abzubauen. Kommunikationswiderstände ergeben sich auch aus der heimlichen Macht der Begriffe: Zur Schönung des Begriffes Atomkraft ist nur noch von Kernkraft die Rede. Dadurch wird von der Assoziation mit Atombomben abgelenkt. Ein weitere Punkt, der in Dialogforen Misstrauen und Vorurteile entstehen lässt, sind die verschleierten Interessen der Teilnehmer. So geht es den Teilnehmern an einem Disput zum Beispiel über Gentechnologie ganz sicher nicht darum die Wahrheit zu ergründen. Meist steuern Macht und Geld die Argumente der Kontrahenten. Wenig zuträglich für eine ausgewogene Diskussion sind auch die von den Medien häufig verbreiteten Parolen. Wer monatelang mit Titeln wie „Tödliches Risiko aus der Genküche“ bombardiert wird ist oft schon voreingenommen und Dialoge und Diskurse scheinen sinnlos . Erfolgreiche Diskurse, die die gesellschaftliche Kommunikation verbessern, können unter folgenden Voraussetzungen erreicht werden: Herrschaftsfreiheit, Zukunftsoffenheit, Begegnung im geschützten Raum und nicht zu letzt Toleranz.

Die Transparenz macht's aus

Peter Faht, ein Tüftler aus Schwäbischen Landen, verschafft Solar Zellen Durchblick. Noch während des Studiums entdeckte der Physik-Doktorand, dass Silizium-Wafer bei bestimmten Fräsungen lichtdurchlässig werden. Heute wird dieses Verfahren von der Firma sunways GmbH vermarktet. Wassergekühlte, diamantbeschichtete Walzen fahren mit einer Vorschubgeschwindigkeit von 10 cm/sec über die Siliziumscheiben. Dabei entstehen auf der Oberfläche V-förmige, parallele Rillen. Im zweiten Arbeitsschritt wird der 'wafer' um 90 Grad gedreht. Mit dem gleichen mechanischen Strukturierungsverfahren werden auch auf der Rückseite Rillen gefräst. Beide Arbeitsschritte führen zu einem ganz besonderen Effekt: Der 'wafer' wird durchsichtig wie eine Gardine, denn bei der mechanischen Bearbeitung entstehen an den Kreuzungspunkten der Rillen rund 40.000 Löcher. Die Power-Solarzelle erzielt trotz der Strukturierung marktübliche Wirkungsgrade von etwa zehn Prozent. Die Strukturierung der Oberfläche verbessert die Reflexionseigenschaften und die Einkoppelung schräg einfallenden Lichtes. Mit zunehmender Lichtdurchlässigkeit verringert sich der Wirkungsgrad der Zellen. Nur noch acht Prozent Zellenwirkungsgrad sind bei 30 Prozent Lichtdurchlässigkeit zu erzielen. Phosphor-Diffusion, Antireflexbeschichtung und Siebdruckmetallisierung gehören auch bei den Power-Zellen zu den üblichen Arbeitschritten. Einige Zwischenschritte sind dennoch notwendig, die die Zellen vermutlich immer etwas teuerer sein lassen als herkömmliche. Zukünftig sollen die Zellen als Bestandteil von Isolierverglasungen aber auch als Gestaltungselement, Sonnenschutz und natürlich als Stromlieferant eingesetzt werden. Inzwischen existieren zwei Anlagen, die die Solarzellen herstellen. Die Firma sunways will in diesem Jahr insgesamt 10 Mill. DM umsetzen. Peter Faht, der Erfinder der Solarzelle, arbeitet auch heute noch eng mit dem Unternehmen zusammen.

Direkteinspeisung in ein Stadtbahnnetz 

Der neue Betriebsbahnhof der Hannoverschen Verkehrsbetriebe ist mit einem großflächigen Photovoltaikgenerator versehen. Ohne Wandlung und Regelung speist die Photovoltaikanlage (PV-Anlage) in Hannover-Leinhausen ab Mai 2000 das Fahrleitungsnetz der Stadtbahn. Auf 5.500 Quadratmetern unverschatteter Dachfläche wurden drei unterschiedliche Module installiert. Circa 50 Prozent der Nennleistung wird über Standartmodule erzeugt. Diese wurden in konventioneller Flachdachaufständerung errichtet. Die Konstruktion, die im Vorfeld am Computer simuliert wurde, sollte möglichst geringe Abschattungsverluste gewährleisten. Die südseitig in die Oberlichter integrierten Module bringen 37 Prozent der Gesamtleistung und wurden zur Vermeidung von Überhitzung mit einem Sonnenschutz ausgestattet. 12 Prozent der Leistung werden von Fassadenmodulen geliefert, die ebenfalls südwärts ausgerichtet sind. Hier wurden entgegen der ursprünglichen Planung ausschließlich monokristalline Module verwendet, da die Module der Dünnschichttechnologie nicht die notwendige Spannungsfestigkeit erreichen. Mit dem Solargenerator, der in zwölf Teilgeneratoren aufgeteilt ist, wird eine Gesamtleistung von mindestens 250 kWp angestrebt. Die einzelnen Teilgeneratoren sind durch DC-Hochleistungsschmelzsicherungen vor Überströmen aus Generator und Netz geschützt. Die Ankopplung ans Netz erfolgt über einen DC-Schnellschalter. Das Stadtbahnsystem arbeitet mit einem 600-V-Gleichspannungsnetz. Die Kombination von Schwungradenergiespeicher und PV-Anlage wird hier zum ersten Mal erprobt. Diese Art der Energierückspeisung bringt ungewöhnlich hohe dynamische Spannungsänderungen mit sich. Überspannungsschutz bieten Ableiter im Netz und Generator. Zur Vermeidung von Rückströmen wird die PV-Anlage nachts vom Netz getrennt.

Einbindung innovativer Zukunftstechnologien in das Verkehrsmanagement

Der Verkehrsteilnehmer der Zukunft wird das Verkehrsnetz optimaler nutzen können. Das ist zumindest die Meinung der Macher des Verkehrs- und Infrastruktur- Informationssystems, kurz Citactis. Das von der Firma Signalbau Huber in Zusammenarbeit mit der Debis erarbeitete System soll aber nicht nur die Effizienz des Gesamtverkehrssystems steigern. Das vorrangig auf grafische Visualisierung ausgerichtete System soll darüber hinaus die Mobilität nachhaltig gewährleisten und den Verkehrsablauf verbessern. Kernpunkte des Optimierungsstrebens sind mehr Sicherheit und Wirtschaftlichkeit sowie geringere Umweltbelastung und Reisezeit. Das moderne Verkehrsmangement führt unterschiedliche Fachgebiete zusammen. Dazu werden übergreifende verkehrsrelevante Informationen in eine gemeinsame Datenbank abgeleitet. Hier finden sich dann zum Beispiel Daten aus dem Statistischen Bundesamt neben denen des Tiefbauamtes oder der Polizei. Dadurch erhält jeder Nutzer ein vollständiges Bild aller das Verkehrsgeschehen beeinflussender Faktoren. Die Vielzahl der Daten werden als grafische Objekte auf einer digitalen Straßenkarte dargestellt. Auf den ein- und ausblendbaren Layern sind alle verkehrsrelevanten Objekte wie Schulen, Zählstellen oder Baustellen mit einem Mausklick abrufbar. Eine Darstellung zyklischer Verkehrsdaten liefert der städtische Verkehrsrechner in einer Level of Service (LOS) Darstellung. Die Möglichkeit zur Erweiterung der Funktionalität sind schier unbegrenzt. Mit Hilfe eines Modulbaukasten kann das System individuell angepasst werden, zum Beispiel durch eine Unfalltypensteckkarte (UTS) oder ein Verkehrsprognosemodell. Das auf dem Citactis-Server als zentrale Komponente bestehende System vernetzt verschiedene kommunale Ämter untereinander als Client/Server-System. Dadurch wird die gegenseitige Nutzung von Daten ermöglicht. In Zukunft soll dem System eine Internetanbindung hinzugefügt werden. Dann informiert sich der Bürger zur optimalen Nutzung des Netzes mit den neusten Verkehrsdaten vor Antritt der Reise von zu Hause aus.

Akzeptanz innovativer Verkehrsinformationssysteme 

Das innovative Verkehrsinformationssystem Bayerninfo, das im Rahmen des Forschungs- und Entwicklungsprogramms 'Bayern online' entwickelt wurde, will dem Mobilen Bürger in Zukunft als eine Art 'Persönlicher Butler' im Verkehr unter die Arme greifen. 80 Personen testeten die technische Vision eines 'Personal Travel Assistence' unter realen Bedingungen mit Erfolg. Doch trotz des hohen Interesses bei den Endnutzern wird eine kommerzielle Einführung vorerst nicht empfohlen. Zu bruchstückhaft sind noch die Grunddaten im Bereich des Straßenverkehrs. Im Vorfeld des Feldversuches wurde bei den Verkehrsteilnehmern die Akzeptanz solch innovativer Verkehrsinformationssysteme erforscht. In einer bevölkerungsrepräsentative Erhebung in 450 bayerischen Haushalten wurden die Betroffenen zunächst zu verschiedenen Verkehrsproblemen befragt. An oberster Stelle der Ärgernisse im Straßenverkehr lag zähflüssiger Verkehr, gefolgt von Baustellen und rücksichtslosem Fahrverhalten von Verkehrsteilnehmer. Bezüglich des öffentlichen Nahverkehr waren die meisten über Unpünktlichkeit und schlechte Anbindung der Busse erbost. Verkehrsinformationen fragten über die Hälfte der Berufspendler schon vor Fahrtantritt ab. Ein (Kurz)-Urlaub beginnt sogar bei 77 Prozent mit dem Abfragen der Verkehrssituation. Und während der Fahrt informieren sich über 80 Prozent Prozent. Routenplanung, Informationen über Staus und der Straßenzustand waren Informationen, die den Befragten besonders wichtig erschienen. 56 Prozent der Befragten begrüßten solch einen Dienst - nur wenige wollen dafür aber auch zahlen. Eine zweite Erhebung, die über das Internet durchgeführt wurde hatte besonders das Marktpotential des Bayerninfo-Angebotes im Visier. Dabei ergab sich ein starkes Interesse an individuell zugeschnittenen Reiseempfehlungen sowie Tipps für Tagesausflüge und Freizeitangebote. Starker Informationsbesdarf besteht vor allen Dingen in Hinblick auf die Auflösung von Staus. Ob dieser Dienst von der Bevölkerung angenommen wird, hängt von der zukünftigen Verkehrssituation ab. Je häufiger es in unseren Städten zum Verkehrsinfarkt kommt, desto lauter wird der Ruf nach einem Dienst mit dem Mobilität wieder seinen Wortsinn erhält. Die Kostenfrage wird dann in den Hintergrund treten.

Schwergewichte auf leisen Sohlen

Beim Rübenanbau sind die Rodekosten eine der wichtigsten Kalkulationsgrößen. Mit modernen Erntesystemen liegen sie meist unter 600 DM/ha. Erntesysteme, die mit Schlepper arbeiten, bringen allein schon durch den günstigeren Einkaufspreis meist noch höhere Kostenersparnis – sind aber auch nur für jährliche Rodeleistungen bis 200 ha geeignet. Selbstfahrende Rodetechnik muss sehr viel höhere jährliche Rodeleistung erbringen, damit die Kosten wieder eingefahren werden. Die Auswahl des Systems ist aber noch von anderen Faktoren abhängig und muss jeweils auf den jeweiligen Betrieb zugeschnitten werden. Grundsätzlich sind alle Rodegeräte, die gegenwärtig auf dem europäischen Markt angeboten werden mit ergonomisch vorteilhaften Kabinen ausgerüstet. Dadurch wird ein ermüdungsfreies Arbeiten garantiert. Auch die übrige Technik der überwiegend sechs-reihigen Selbstfahrmaschinen bietet höchste Effektivität. Das macht die High-Tech-Erntemaschinen allerdings nicht unbedingt billiger. So regeln zum Beispiel bei der Firma Holmer Sensoren die Arbeitstiefe der Häcksler. Bei allen Rodegeräten haben sich die Hersteller in den letzten Jahren Gedanken um die Sichtverbesserung gemacht und die Rodekörper verändert. Die Reinigungsaggregate bestehen heutzutage meist aus Wendelwalzen und Siebwalzen, teilweise mit Wechselrahmen. All diese Innovationen sind für eine Steigerung der Effektivität unumgänglich. Auch die Belange des Bodenschutzes gingen verstärkt in die Konstruktion der Schwergewichte ein. Neuartige Fahrwerkskonzepte wie zum Beispiel die 1050er Querschnittsreifen von Barigelli oder Franquet ebenen den Weg zu einer schonenderen Bodenüberfahrung. Auch Zweiachs- und Dreiachs-Fahrwerke dienen dazu die Radlast auf so viel Ackerfläche wie möglich zu verteilen und so den Boden zu schonen. Für den Bodenschutz besonders relevant ist die Art der Bunkerbeladung. Eine Verteilung der Last auf alle Räder beim Beladen ist ideal, und kann über ein zentral angeordneten Bunker mit Befüll- oder Verteilschnecke geschehen. Entscheidend für den Bodenschutz ist aber die Gesamtzahl der Überfahrten. Die Arbeitsqualität der Erntekolosse ist sehr unterschiedlich. So verursachen Machinen, die einen überdurchschnittlich hohen Erdanteil fördern die geringsten Beschädigungen am Erntegut. Mit 82,8 Prozent richtig geköpften Rüben ist der Holmer Terra Dos Spitzenreiter vor dem Agrifac ZA 215 EH. Schlusslicht bildet der Kleine SF 40 mit nur 24 Prozent. 

Untersuchung zur Befallsausbreitung von rindenbrütenden Borkenkäfern im Bereich von Sturmschadens-Sukzessionsflächen

Die Stürme des Jahres 1990 nahmen die Forstdirektionen Karlsruhe, Stuttgart und Tübingen zum Anlass bis ins Jahr 1994 insgesamt fünf Sturmwurfflächen auszuweisen. Im Rahmen des Projektes 'Angewandte Ökologie' der Landesanstalt für Umweltschutz Baden-Würtemberg wurde in den Bannwäldern Silbersandgrube, Bayrischer Schlag, Fohlenhaus, Stimpfach und Teufelsries die ungestörte Entwicklung von Waldbiozönosen nach Sturm untersucht. Besonderes Augenmerk widmeten die Forscher der Frage, wie sich Fichtenborkenkäfer im stehenden und liegenden Bestand ausbreiten und welchen Befallsdruck sie auf Sukzessionsflächen ausüben. Auch die Faktoren, die für eine Beurteilung des Befallrisikos relevant sind wurden untersucht. Methodisch wurde folgendermaßen vorgegangen: In bis zu vier Terminen wurden Einbohrlöcher in 0,1 Quadratmeter großen Rindenfenstern ausgezählt und im zwei Meter Abstand am Stamm markiert. Innerhalb der Bannflächen wurden die Befallsflächen jährlich bis etwa 500 m zur Bannwaldgrenze grob kartiert. Die Anzahl jährlich neu befallener Fichten wurde aufgenommen. Der Schwärmverlauf und Populationsdichte der Borkenkäfer wurde mit Hilfe von Pheromonfallen ermittelt. Eine Besiedlungsstudie ergab für die Flächen stark variierende Besiedlungsaktivitäten. So zeigte die Untersuchungen, dass im Vergleich zu anderen Bannwäldern in der Sukzessionsfläche 'Silbersandgrube' relativ wenig Stämme besiedelt wurden. Der Bannwald 'Fohlenhaus' wies dagegen eine hohe Besiedlung mit Kupferstechern aus. Die meisten Befallsflächen wurden in den Bannwäldern 'Bayrischer Schlag' und 'Stimpfbach' gezählt. Der Höhepunkt der Massenvermehrung lag in den Jahren 1992/1993. Befallen wurden vor allem Bestände, die älter als 50 Jahre waren. Dabei korrelierte der Stehendbefall mit der Höhe der Sturmholzmasse. Die Höhe der Sturmholzmasse hat auch Auswirkungen auf die räumliche Ausbreitung des Befalls. Nach Südwesten ausgerichtete Bestandesränder waren besonders befallsgefährdet. Das Befallsrisiko sank dagegen mit dem Anteil der Fichten.

Die Chancen von alternativen Antriebssystemen

Hauptantriebsquellen für den PKW werden auch in 20 Jahren noch Verbrennungsmotoren sein. Weitere Gewichtsreduzierungen und die stetige Verbesserung des Antriebs sind daher notwendig. Dies soll durch die Optimierung der Verbrennung zum Beispiel durch Einsatz von Hochdruckeinspritzung beim Dieselmotor erreicht werden. Auch der Fahrzeugentwicklung und der Nutzungsoptimierung der Fahrzeuge gelten in Zukunft Große Anstrengungen. Systeme zur Bremsenergie-Rückgewinnung oder Motor-Stop während der Verzögerung haben einen ebenso hohen Stellenwert wie die Verbesserung des Startvorganges. Darüber hinaus sollen hochwertigere Kraftstoffe mit geringerem Aromaten- und Schwefelanteil die Schadstoffemmissionen reduzieren. Eine gute Ausgangsbasis für eine Kreislaufwirtschaft könnte aber Methanol bieten. Dagegen spricht allerdings der schlechte Herstellungswirkungsgrad. Biodiesel kann ebenfalls regenerativ hergestellt werden, ist aber von der Energiebilanz her ungünstig. Wasserstoff wird für die mobile Anwendung erst sinnvoll, wenn dafür die passende Infrarstruktur aufgebaut ist. Auf dem Gebiet der Niedrigstemmission ist die Hybrid Technologie zu nennen. Eine besonders hohe Entlastung der Umwelt können in Zukunft Hybridantriebe auf Basis von Brennstoffzellensystemen bringen. Da diese Fahrzeuge zwei Energiewandlungssysteme mit sich führen, ergeben sich aber meist erhebliche Package-Probleme. Auch die Wirtschaftlichkeit dieses Systems muss noch geprüft werden. Keine wirkliche Alternative sind Elektrofahrzeuge. Nachteile wie zum Beispiel die Speicherung der Energie und die geringe Reichweite erschweren die Vermarktung des Elektroantriebes. Käufer orientieren sich primär am Gebrauchswert und Kosten-Nutzen-Verhältnis des Fahrzeugs und weniger an der Umweltfreundlichkeit.

Strahlungshärtung in der Holzlackierung

Strahlungshärtung von Lacken wird weltweit in unterschiedlichsten Industriezweigen eingesetzt. In Japan dominiert die Anwendung in der Elektronik- und Glasfaserindustrie. In den USA findet sie ihre größte Verbreitung in der grafischen Industrie. Innerhalb der europäischen Länder ist der Hauptabnehmer für strahlungshärtbare Beschichtungen die Holz- und Holzwerkstoffindustrie. Sie verbraucht 52 Prozent der in Europa verarbeiteten 45.000 t. Der Bedarf an strahlungshärtenden Acrylaten wächst Jahr für Jahr um acht Prozent. Grund für die gesteigerte Nachfrage sind gestiegene Qualitätsanforderungen der Verbraucher und strengere Umweltgesetzgebungen. Diese betreffen alle Bereiche von der Herstellung bis zur Verarbeitung. Besonders die Nutzung im Innenbereich unterliegt erhöhten Anforderungen: Die Oberflächen sollen geruchsfrei sein, längerfristig emmitierbare Bestandteile sind nicht erwünscht. Die Wurzeln der Strahlungshärtung liegen in den 70er Jahren. Zur Anwendung kamen damals ungesättigte Polyester in Styrol. Die breitere Nutzung der Strahlungshärtung begann aber erst als wässrige Produkte zur Verfügung standen. Vorteile dieser Entwicklung waren vor allen Dingen eine bessere Substrathaftung, der Einsatz von Spritz- und Giesmaschinen aber auch die gute Mattierbarkeit und nicht zuletzt die Wasserverdünnbarkeit. Weitere Argumente für die Strahlungshärtung sind neu entwickelte, effizientere Trocknungsverfahren und das unproblematische Recyling. Der bei Holzlacken übliche Multischichtaufbau erfordert den Einsatz eines wässrigen Primers. Für die notwendigen Zwischenhaftungen werden die Oberflächen entweder angeliert oder zwischen geschliffen. Auch der Mischaufbau mit herkömmlichen Lacken ist bei der Verarbeitung möglich und hat technisch seine Bedeutung.

Neue allgemeine bauaufsichtliche Zulassungen für den Gewässerschutz – Fugen – und Abdichtungssysteme

Fugen- und Flächenabdichtungssysteme benötigen einer allgemein bauaufsichtlichen Zulassung, da für sie keine technischen Regeln in der Bauregelliste A bestehen. Das Deutsche Institut für Bautechnik (DiBt) hat kürzlich neue allgemeine Zulassungen für Anlagen zum Lagern, Abfüllen und Umschlagen (LAU) erteilt. Dabei handelt es sich um eine Straßenfahrzeug-Tragwanne und eine Densiphalt-Dichtschicht. Die Prüfung der Befahrbeikeit und der Widerstand gegenüber der vom Hersteller gewählten Prüfflüssigkeit standen im Vordergrund der Zulassungsprüfungen. Bei der Straßenfahrzeugtragwanne wurden zunächst die Werkstoffkennwerte wie Betonfestigkeit, Bewehrung und die Einbauten überprüft. Anschließend waren Dichtigkeit, Mindestbewehrung und die Gebrauchstauglichkeit sicher zu stellen. Die nun zugelassenen Tragwannen, die aus flüssigdichtem Beton (FD-Beton) bestehen, werden in unterschiedlichen Ausstattungs- und Größenvarianten hergestellt: LR, TR und ME. Sie sind undurchlässig gegenüber Ottokraftstoffen. Im Regelwerk ist die Verantwortung des Betreibers bei Wartung, Unterhalt und Nutzung der Tragwannen festgeschrieben. Auch die ständige Überwachung der Dichtigkeit fällt in seinen Aufgabenbereich. Dem Verlegen der Tragwannen geht eine Prüfung der Unterlage voraus. Der halbstarre Densiphaltbelag wurde auf seine mechanische und dynamische Beanspruchungen sowie auf seine Beständigkeit gegenüber wassergefährdende Flüssigkeiten überprüft. Densiphalt besteht aus einem Asphalt-Traggerüst. Die Hohlräume sind mit mineralisch, hydraulischem Bindemittel gefüllt. Das zugelassene Flächenabdichtungssystem, dass beim jeweiligen Hersteller einer kontinuierlichen Überprüfung unterliegt, besteht aus drei Schichten: Frostschutzschicht und Asphalttragschicht sowie aufliegender Densiphalt-Dichtschicht. Fugenabdichtungsysteme fallen ebenfalls in den Verantwortungsbereich des DiBt. Auch sie benötigen eine allgemeine bauaufsichtliche Zulassung – sind sie doch starken chemischen und physikalischen Belastungen ausgesetzt. Das Sachgebiet Fugenabdichtung regelt zur Zeit die Zulassungsgrundsätze.

Lungenkrebsrisiko durch Radon in Wohnungen – derzeitiger Kenntnisstand aus epidemologischen Studien

Untersuchungen haben gezeigt, dass bei Bergleuten, die längere Zeit Radon ausgesetzt waren ein erhöhtes Lungenkrebs festzustellen ist. Diese Tatsache ist schon seit über 100 Jahren bekannt. Doch Radon-222 kommt als Zerfallsprodukt von Radium praktisch in allen Böden vor. Über Risse und Undichtigkeiten in Fundamenten gelangt es in die Häuser. Die Konzentration von Radon in der Raumluft kann fünfmal höher sein als in der Außenluft. Beim Inhalieren gelangt Radon in die Lunge und lagert sich dort ab. Die Zerfallsprodukte des Edelgases stehen trotz der immer noch geringen Dosierung im Verdacht Lungenkrebs zu verursachen. Zwischen 1990 und 1996 wurden daher vom Institut für Epidemiologie des GSF-Forschungszentrums für Umwelt und Forschung zwei große Fall-Kontroll-Studien zum Lungenkrebsrisiko von Radon in West- und Ostdeutschland durchgeführt. Die in früheren Studien erkannten Problem wie zu geringer Stichprobenumfang, mangelnde Berücksichtigung von Risikofaktoren und unzureichende Radonmessungen sollten vermieden werden. Deshalb wurden die in der Studie beteiligten Lungenkrebspatienten nicht nur über ihre Rauchgewohnheiten befragt. Auch Wohn- und Berufsbiographie kamen zur Sprache. Außerdem wurden in den Wohnräumen einjährige Radonmessungen mit alpha-Spur-Detektoren veranlasst. Die Auswahl einer Gruppe aus geologisch ausgewiesenen Regionen mit höherer geologischer Radonbelastung wie dem Erzgebirge oder der Oberpfalz diente Vergleichszwecken. Die Ergebnisse der beiden Studie deuten auf ein zusätzliches Lungenkrebsrisikos bei erhöhten Radonwerten in der Wohnung hin.

 

 

Lichtblick am KWK-Himmel

 

Durch den Strompreisverfall standen noch vor kurzem viele Kraft-Wärme-Kopplungsprojekte vor dem Aus. Vor allem für Anlagen größerer Leistung bedeutete der liberalisierte Strommarkt das Ende. Für Industrieunternehmen und (kommunale) Energieversorger ist der Strom aus dem Netz billiger als aus den eigenen KWK-Anlagen. Dabei sehen vom Bund beauftragte Gutachter gerade in der KWK-Technik ein wichtiges Instrument zur Reduzierung des Kohlendioxidausstoßes. Durch Kraft-Wärme-Kopplung lassen sich zum Beispiel in der Fernwärmeversorgung über fünfzig Prozent dieses Treibhausgases reduzieren. Die Bundesregierung will bis Ende 2000 die gesetzlichen Grundlagen für eine verstärkte Nutzung der KWK-Technik schaffen. Dadurch soll der Kohlendioxidausstoss bis 2005 jährlich um 10 Mill. t sinken. Bestandteil des bis Ende 2001 geplanten Gesetzgebungsbeschluss ist eine Quotenregelung. Jedes Unternehmen soll einen Teil seines Stromes über KWK-Anlagen produzieren. Rahmenbedingung für diese Initiative schuf das 'Gesetz zum Vorrang erneuerbarer Energien' vom Februar 2000. Dieses soll Anreize für Investitionen in Biogasanlagen und KWK-Anlage schaffen. Das sogenannte KWK-Vorschaltgesetz regelt u.a. die Vergütung des aus KWK-Anlagen gewonnenen Stromes und regelt den von Energieversorgungsunternehmen zu produzierenden Mindestprozentsatz an KWK-Strom. Durch diese gesetzlichen Eingriffe und einen möglichen Atomausstieg hat sich die Situation der Kraft-Wärme-Kopplung in den letzten Monaten gebessert. Um mehr politischen Druck auszuüben, wird sich in nächster Zeit ein Bundesverband konstituieren.

Entsäuerung von Kalksteinpulver in einem Solarreaktor

Weltweit ist die Zementindustrie für fünf Prozent der Kohlendioxidemissionen verantwortlich. Die Emissionsrate moderner Zementwerke liegt bei etwa 0,9 kg Kohlendioxid pro Kilo Klinker. Aber nicht nur die Kohlendioxidemissionen steigen durch die Zementindustrie. Sie hat auch starken Einfluss auf die Abholzung, denn in vielen Ländern wird zur Herstellung von Zement und Kalk noch überwiegend Holz genutzt. Verantwortlich für Kohlendioxidemissionen bei der Zementproduktion ist auch der zum Teil sehr hohe Marktradius. Dieser liegt in Afrika bei etwa 1000 Kilometern. Am Paul-Scherrer Institut (PSI) in Villigen/Schweiz wurden Experimente mit einem Solarreaktor durchgeführt. Ziel war es das Zementrohmehl ohne fossile Energie zu entsäuern. Mit Hilfe eines Parabolspiegels, der mit einem 60 Kilowatt Reaktor kombiniert wurde, konnte nachgewiesen werden, dass die solarthermische Dissoziation von Kalkstein technisch machbar ist. Kern der Modellanlage war ein neu entwickelter atmosphärisch offener Solarreaktor, der eine Öffnung für den Eintritt von konzentrierter Solarstrahlung erhielt. Eine relativ lange Verweilzeit der Kalksteinpartikel im Solarfokus wurde durch Wirbel-/Senkenströmung erreicht. Wesentlicher Teil der Anlage ist eine spezielle Gegenstrom- Wärmetauscher Anlage. Sie ermöglicht die Rückgewinnung der Abgaswärme, die zur Vorwärmung des Kalkmehls genutzt wird. Bei den im Sommer 1995 durchgeführten Experimenten konnten bis zu 85 Prozent des Zementrohmehls entsäuert werden. Die Forscher hoffen, dass in Zukunft nicht nur die solarthermische Dissoziation sondern auch die solarthemische Herstellung von Zement möglich sein wird. Ganz ohne fossile Energie geht es dann aber doch nicht. Denn bei einem 24 Stunden Betrieb solch einer Anlage wäre aber auf jeden Fall eine Zusatzfeuerung notwendig. Der Bau eines solarthermischen Werkes würde im Vergleich zu einem herkömmlichen Werk rund 20 Prozent Mehrkosten verursachen.

Schätzung der MCS-Prävalenz 

Tritt innerhalb eines bestimmten Personenkreises eine Krankheit besonders oft auf, wird dies als Prävalenz bezeichnet. In Deutschland sind die wichtigsten Auslöser einer sogenannten MCS-Prävalenz Lösemittel, Holzschutzmittel, Pestizide, Medikamente und Amalgam. Eine präzise Schätzung der MCS-Prävalenz ist zum Beispiel für die Planung von Umweltkliniken u.ä. sinnvoll. Der Forscher stellt empirische Studien zur MCS-Häufigkeit (Prävalenz) in den USA und Deutschland vor. In US-Studien gaben ein Drittel der Befragten an, Unverträglichkeiten gegenüber bestimmten Chemikalien zu haben. Fünf Prozent litten sogar unter extremen Unverträglichkeiten, besonders gegenüber Chemikalien. Der Forscher kritisiert vor allem methodische Probleme der Studien. Die verschiedenen US-Studien kommen allerdings zu weitgehend übereinstimmenden Ergebnissen, was für die Richtigkeit der Ergebnisse spricht. Nach diesen Ergebnissen ist übertragen auf Deutschland mit mittleren bis schweren MCS-Prävalenz Fällen in der Größenordnung von etwa einer halben Million Fällen zu rechnen. In Deutschland sind Studien, die MCS-Prävalenz in bestimmten Personengruppen untersuchen bislang unbekannt, da keine einheitliche Diagnose von MCS zum Beispiel als Umweltkrankheit getroffen wird. Ein weiteres Problem für die Auswertung ist, dass die Studien meist von der Krankheit ausgehen und nicht von der Exposition. Die deutschen Studien leiden wie die amerikanischen unter Auswahl- und Klassifikationsfehlern. Schließlich führt der Forscher eine eigene Schätzung durch, die er analog der Meta-Analyse der Epidemologie berechnet. Die relativ 'weichen' aber empirisch fundierten Zahlen ergeben, dass in Deutschland rund 54.000 Personen an einer mittelschweren bis schweren Prävalenz leiden.

Energiepolitik und Energieplanung in Dänemark

Wenn Dänemark im Jahr 2000 die Präsidentschaft der nordischen Kooperation übernimmt, werden Fragen der Energieeffizienz und Klimafragen die Tagesordnung bestimmen. Auch die innenpolitischen Veränderungen der letzten Jahre sollen zu den internationalen Klimaschutzbemühungen beitragen. Oberstes Ziel dänischer Politik ist, die drei wichtigsten Treibhaus- und Industriegase um 17 Prozent reduzieren. Dadurch wären die Verpflichtungen aus dem Kyoto-Protokoll erfüllt. Ein Fünf-Punkte Handlungsplan soll den Weg ebnen diese Richtlinien umzusetzen. Im Vordergrund steht die Errichtung einer nordisch-baltischen Kooperation, Technologietransfer und Nachhaltigkeit im Rahmen von Entwicklungshilfe. Innenpolitisch legt Dänemark großen Wert auf Energieeinsparungen und Energieeffizienz. Nachdem der Energieverbrauch noch in den 60er Jahren erheblich anstieg, blieb er in den letzten 30 Jahren weitgehend konstant. Produktion und Verbrauch stiegen im gleichen Zeitraum deutlich an. Wie in vielen europäischen Ländern war auch in Dänemark die Ölkrise Wendepunkt in der Energiepolitik. Aber erst in den 80er Jahren verschoben sich die umweltpolitischen Prioritäten hin zu umfassenderen Umwelterwägungen und einer nachhaltigen Entwicklung. Auf dem liberalisierten Elektrizitätssektor stärken neue Gesetzgebungen daher besonders alternative Energieproduzenten. Im Bereich der Kraft-Wärme-Kopplung ist Dänemark eines der führenden Länder in Europa. Diese Rolle möchte Dänemark auch in Zukunft inne halten und weiter ausbauen. Grund sind bereits getätigte Investitionen und das große Potential der KWK-Anlagen bezüglich der Kohlendioxidreduktion. Insgesamt haben erneuerbare Energien einen Anteil von zehn Prozent am dänischen Stromverbrauch. Hier ist besonders die Windkraft zu nennen. Die Stromreform sieht vor erneuerbare Energien noch weiter auszubauen. Gleichzeitig werden die Stromverbraucher verpflichtet die erhöhte Produktion auch abzunehmen. Ein Ökosteuerpaket soll vor allem im Wirtschaftssektor zu Kohlendioxidreduktionen führen. Auch bei der Öl- und Gasversorgung sind weitere Kohlendioxidreduktionen geplant. Dänische Forschung und Entwicklung konzentriert sich besonders auf erneuerbare Energien und Energieeinsparungen. Letztere sind besonders im Bereich von Neu- und Altbauten vorgesehen.

Die UNEP-Strategie für ein 'Greening' internationaler Märkte

UNEP ist das globale Umweltprogramm der Vereinten Nationen (United Nations Environmental Programme). Bis Ende 2001 ist Deutschland Mitglied im Rat der UNEP, die seit Februar 1999 eine führende Rolle im Bereich Umweltschutz und Handel übernimmt. Ziel der Organisation ist es Umweltschutzanforderungen nachhaltig in die Spielregeln des Welthandels zu integrieren. Dem Erkennen von Umweltschutzschwachstellen und Aufstellen umweltverträglicher Handelsregelungen hat sich die UNEP in Zukunft verschrieben. Gleichzeitig sollen preisverzerrende Subventionen reduziert und internationale Richtlinien für Umweltpolitik geschaffen werden. Die UNEP hat in den letzten Jahrzehnten besonders den Aufbau von Umweltgesetzgebungen in Entwicklungsländern gefördert. Doch diese Gesetze und Regeln alleine können eine nachhaltige Entwicklung nicht garantieren. Daher hat die UNEP ihre Strategie überdacht. Heute sind Eigeninitiative und freiwillige Maßnahmen von Unternehmen Schlüsselbegriffe mit deren Hilfe die UNEP ein 'Greening' der internationalen Märkte erreichen will. Ausgangspunkt dieser Überlegungen sind die erfolgreichen Unternehmen, die schon vor vielen Jahren auf Umweltmanagement gesetzt haben. Diese weisen heute einen deutlichen Wettbewerbsvorsprung vor der Konkurrenz auf. UNEP will daher auf Regierungen, Industrie und Wirtschaft einwirken, um saubere Programme, Strategien und Praktiken zu entwickeln. Dadurch will die UNEP natürliche Ressourcen besser nutzen und Umweltverschmutzungen reduzieren. Schwerpunkte der UNEP Arbeit liegen in der Bewertung von Umweltwirkungen, der Verwaltung umweltpolitischer Instrumente und dem Technologietransfer. Besondere Bedeutung im Programm der UNEP haben das Trinkwasser sowie Afrika. Nachhaltiges Wirtschaften fördert UNEP zum Beispiel mit Programmen zum produktionsbezogenen Umweltschutz, als Vermittler zur Schaffung finanzieller Anreize oder im Umweltmanagement.

Die Grenzen der Selbstregulierung: Verbindliche Umwelt- und Sozialstandarts für transnationale Unternehmen 

Transnationale Unternehmen (TNUs) sind zum Teil für katastrophale ökologische und soziale Konsequenzen verantwortlich. Bestes Beispiel dafür ist Shell in Nigeria. Nebeneffekt dieser transnationalen Kapitalströme ist die sogenannte Mc-Donaldisierung: Die fremden kulturellen Einflüsse verändern Lebensgewohnheiten und Konsumverhalten der Menschen nachhaltig. Doch nicht immer kommt es durch die TNUs zu solch dramatischen Folgen. Teilweise setzen die transnationalen Unternehmen in ihren ausländischen Tochtergesellschaften höhere Umweltstandarts als einheimische Unternehmen. Daher ist die Frage ob die Gesamtwirkung positiv oder negativ zu bewerten ist nicht eindeutig zu beantworten. In letzter Zeit dringt das Thema Verhaltenkodizes in Unternehmen wieder verstärkt in das öffentliche Bewusstsein. Das europäische Parlament hat zum Beispiel auf Initiative des Europaabgeordneten Richard Howitt einen Berichtsentwurf vorgelegt, der den Verhaltenskodex für TNUs thematisiert. Auch Organisationen wie das OECD (Organisation für wirtschaftliche Zusammenarbeit) befassen sich mit diesem Thema, nachdem es jahrelang nur auf nichtstaatlicher Ebene Gehör fand. Die Leitsätze der OECD legen Verhaltensmaßstäbe fest, die bislang nur auf Freiwilligkeit basieren. Ihre praktische Bedeutung ist daher relativ gering. Eine vollständige Reform der OECD-Leitsätze als Basis für rechtsverbindliche Regeln ist geplant. Wichtige Eckpunkte der neuen Regeln sind das Verursacherprinzip, die Verankerung rechtsverbindlicher Umweltstandarts sowie die Erhöhung des Grades der Verbindlichkeit der Leitsätze. Der gewünschte Nebeneffekt solch eines weltweit gültigen Standarts: Diejenigen Betriebe, die sich für ökologische und soziale Produktionsweisen einsetzen, werden wirtschaftlich vor den 'schwarzen Schafen' geschützt.

Das Umwelt-Barometer Deutschland Konzeption und Zielsetzung

Umweltbelastungen sind in den letzten 30 Jahren stark zurückgegangen. Der Erfolg der Umweltpolitik ist besonders an den sichtbaren Umweltschäden abzulesen: Schaumberge auf den Flüssen, tote Fische und Smog gehören weitgehend der Vergangenheit an. Und wilde Müllkippen sind einer geordneten Abfallentsorgung gewichen, die technisch auf höchstem Niveau arbeitet. Auch einige unsichtbare Luftschadstoffe wie Kohlendioxid sind deutlich zurückgegangen. Dennoch sind die Treibhausemissionen noch zu hoch, auch das Artensterben und die Versauerung der Seen sind nicht gestoppt. Das öffentliche Interesse an Umweltthemen ist hoch, obwohl viele politische Entscheidungen nur mittels komplizierter Modellrechnungen nachzuvollziehen sind – man denke nur einmal an den Treibhauseffekt. Das Umwelt-Barometer, das zurzeit im Umweltressort des Bundes entwickelt wird soll dazu beitragen das Interesse an Umweltthemen weiter wach halten. Aus den Bereichen Klima, Luft, Boden, Natur und Ressourcen wurden insgesamt sieben Indikatoren ausgewählt, die als Messlatte ökologischer Tragfähigkeit dienen sollen. Das Umwelt-Barometer soll uns verdeutlichen wie nah oder wie entfernt wir von unseren umweltpolitischen Zielen sind. So enthält es u.a. einfache Blockdiagramme die Umweltpolitik transparent machen sollen. Zum Beispiel werden längerfristig geplante Zielwerte für Schadstoffreduktionen den Ist-Werten gegenübergestellt. Diese sogenannte 'Realversion' des Umwelt-Barometers ist kurzfristig zu realisieren. Langfristig wird eine 'Idealversion' anvisiert, für die der Datenstamm deutlich erhöht werden müsste.

Mögliche Umweltbelastungen durch die Nutzung von MTBE als Krafstoffzusatz in Deutschland und Westeuropa 

Mit der Einführung bleifreier Kraftstoffe gewann MTBE sehr schnell an technische Bedeutung. Die sauerstoffhaltige Verbindung MTBE dient der Senkung des Aromaten- und Benzolgehaltes. Dadurch werden cancerogene Emissionen aber auch CO- und HC-Emissionen gemindert. In Kalifornien wurde Ende 1999 allerdings entschieden den Zusatz von MTBE zu verbieten. Ursache für das amerikanische Verbot ist der Nachweis von MTBE in Grundwasser, der geringe Abbau und der Verdacht auf krebserzeugende Wirkung. Diese Maßnahme führte auch in Deutschland zu einer Diskussion über den Schadstoffeintrag von MTBE. Dabei stellte sich heraus, das sich die amerikanische und deutsche Schadstoffsituation in wesentlichen Punkten unterscheiden. Während zum Beispiel in Kalifornien defekte Tanks Hauptursache für die Grundwasserkontamination sind, treten in Deutschland auf diesen Wege kaum Schadstoffe in den Untergrund ein.

'Blue Team ' promotet Wasserpolitik der Weltbank

Die Umweltexperten der Weltbank, das so genannte 'Blue Team', unterstützen die Umsetzung von nachhaltigen Wasserstrategien, -projekten und -programmen weltweit. Im Vordergrund der Anstrengungen steht die Berücksichtigung der jeweils regional und lokal unterschiedlichen Anforderungen eines Gebietes. So liegen beispielsweise in Trinidad und Tobago (Lateinamerika/Karibik) die Hauptprobleme in einer zunehmenden Wasserverknappung sowie Wasserverlusten im Versorgungsnetz. Auch Überschwemmungen, Wasserverschmutzung durch kommunale Abwässer, Rumproduktion und die Erdölindustrie sind wichtige Faktoren, die es zu berücksichtigen gilt. Die 'Water Ressources Management Strategy' (WRMS) versucht der Wasserressourcenpolitik einen institutionellen Rahmen zu geben. Die WRMS wird durch das 'Water Sector Institutional Strengthening Project' der Weltbank finanziert. Langfristig soll ein Planungsrahmen entstehen, der die Entwicklung der Oberflächengewässer, des Grundwassers und des entsalzten Wassers für die kommunale, industrielle und landwirtschaftliche Versorgung vorsieht. Das Programm wird durch eine umfassende Öffentlichkeitsarbeit unterstützt. Im afrikanischen Tansania soll das 'River Basin Management and Smallholder Irrigation Improvement Project' (RBMSIIP) dazu beitragen eine engere Kooperation zwischen den Ministerien Landwirtschaft, Wasser und Energie zu ermöglichen. Ferner sind Kleinbauern, Viehzuchtgenossenschaften und Umweltinteressierte in den Prozess mit einbezogen. Auch im südlichen Afrika finanziert das 'Blue Team' Projekte. So den Umwelt- und Bodenmanagementsektor der Southern African Development Comunity (SADC). Der Bericht zeigt die anstehenden Probleme im Süden Afrikas auf. Er gibt Lösungsansätze für dringende Probleme. Das 'Lesotho Highland Water Project' LHWPP ist ein weiteres Beispiel für den nachhaltigen Ansatz der Weltbankexperten. 70 Kubikmeter Wasser sollen mit dem komplexen Wasseraustauschprogramm in wasserärmere Regionen exportiert werden. Soziale und ökonomische Aspekte sind wichtige Teile des 'Environmental Flow Assessment', das in vier Stufen abläuft. Nebenbei entwickelt das Blue Team eine Datenbank, die das Verständnis für ein nachhaltiges Wasserressourcenmanagement verbessern soll.

 Regenwasserbewirtschaftung im städtebaulichen Kontext

Der Stadtteil Kronsberg liegt in der Nähe des Expo-Geländes in Hannover. Hier entstehen 6.000 Wohnungen in Geschoss- und Reihenhausbebauung. In geologischer Hinsicht besteht Kronsberg aus wasser undurchlässigen Böden: Mergelkalksteine und Geschiebelehmen. Um in Kronsberg das führende Leitbild nachhaltiger Wasserwirtschaft, das Retentionsprinzip, durchzusetzen, wurden dem städtebaulichen Wettbewerb diese generellen Ziele zugrunde gelegt. Aber erst nach einem zähen Diskurs wurde eine elegante Lösung ausgearbeitet. Denn die ursprüngliche Planung sah eine Riegelbebauung vor, die eine elegante Lösung der Regenwasserbewirtschaftung nicht zuließ. Daher wurde die Planung leicht überarbeitet und die Blockstrukturen geöffnet. Hangabwärts laufende Grünachsen sind nun Teil des Regenwasserkonzepts. Es besteht aus vier Komponenten a) Versickerung sowie dezentraler Rückhaltung, b) Ableitung der Drosselüberläufe in Retentionsflächen, c) zentrale Rückhaltung sowie d) zentrale als auch dezentrale Regenwasserbehandlung. Die Hanglage ergab allerdings schwierige Randbedingungen für Funktion und gefällige Gestaltung der Mulden-Rigolen-Systeme. Abgesichert wurden die ökologischen Ziele im Rahmen von Bauleitplanungen, Satzungen, Kauf- und Erschließungsverträgen sowie städtebaulichen Verträgen. In Berlin-Adlershof war die Regenwasserbewirtschaftung durch ganz andere Grunddaten geprägt. Denn das Gebiet liegt im Schutzgebiet III eines Trinkwasserwerkes. Die Flurabstände sind sehr gering, die Wasserdurchlässigkeit hoch. Vorflutgewässer sind der Teltow-Kanal und die Spree. In Teilbereichen sind tiefgründige Altlasten vorhanden. Der Regenwasserbewirtschaftung ist ein differenziertes Trennsystem angeschlossen. Dieses besteht aus: a) dezentrale Versickerung in Versickerungsmulden und durchlässigen Befestigungen und b) Ableitung stark verschmutzter Niederschlagsabflüsse in ein separates Regenwasserkanalnetz.

 Umweltgerechte Stadtentwicklung und städtischer Umweltschutz in der deutschen Entwicklungszusammenarbeit

 In den Entwicklungsländern finden zwei Drittel des Bevölkerungswachstums in den Städten statt. Seit 1950 liegen die durchschnittlichen, jährlichen Wachstumsraten in den Städten bei drei bis vier Prozent. Bis zum Jahr 2025 wird ein weiterer Anstieg der städtischen Bevölkerung auf insgesamt 4,4 Milliarden Menschen erwartet. Der Grund für diesen rasanten Zulauf sind die guten Standortbedingungen. Neben wirtschaftlichen und sozialen Problemen bringt der zunehmende Verstädterungsprozess aber auch Umweltprobleme mit sich. Darüber hinaus führt er zu erheblichen regionalen Ungleichgewichten in der Entwicklung. Eine wirksame Steuerung des dynamischen Verstädterungsprozesses wird darüber hinaus durch eine Reihe wichtiger Faktoren und Ursachen behindert. Einer der Gründe liegt in den Zuständigkeiten. Diese liegen meist bei den Kommunen, die den vielfältigen Anforderungen aber weder wirtschaftlich noch finanziell gewachsen sind. Städtische Infrastruktur und Dienstleistung sind daher meist in einem desolaten Zustand. Aber trotz der vielfältigen und massiven Probleme birgt der Verstädterungsprozess wichtige und oft unterschätzte Potentiale. Denn inzwischen wird auch in den Entwicklungsländern ein Großteil des Bruttosozialproduktes und des wirtschaftlichen Wachstums in den Städten erzeugt. Klein- und Mittelstädte übernehmen vielfältige Versorgungs- und Entwicklungsfunktionen für den ländlichen Raum. Darüber hinaus bietet der städtische Raum bessere Möglichkeiten für das Entstehen regionaler und überregionaler Märkte. Ferner hat die Stadt günstige Auswirkungen auf die Geburtenrate. Meist sinkt sie in großen Städten rapide. Diese positiven Auswirkungen wurden in der Vergangenheit nicht ausreichend beachtet. Daher müssen Strategien entwickelt werden, die die dunklen Seiten der Städte wie zum Beispiel die Armut überwinden helfen. Für die Entwicklungspolitik sind die Zeichen für die Zukunft klar gesetzt: Autonomie, Dezentralisierung, stärkere Mobilisierung und Partizipation der Bevölkerung und mehr Berücksichtigung der besonderen Bedürfnisse von Frauen sind die wesentlichen Punkte. Außerdem muss die Zusammenarbeit mit Partnern und Geber-Institutionen verbessert werden.

 Biomassehof Allgäu, ein Beispiel aus der Praxis

 1997 war das Gründungsjahr des Biomassehofs Allgäu GmbH. Seitdem vermarktet der Hof Energieholz wie Hackschnitzel, Scheitholz aber auch Holzbriketts oder Holzpellets. Den Löwenanteil seiner Produktion liefert der Biomassehof an das Holzheizkraftwerk (HHKW) des Zweckverbandes für Abfallwirtschaft Kempten Energie GmbH (ZAK). Das HHKW verfügt über eine Kraft-Wärme-Koppelung und produziert neben Wärme auch Strom. Der Biomassehof hat einen Zehnjahresvertrag mit dem HHKW inne; der in den nächsten zehn Jahren das Überleben sichert. Auf dem Biomassehof, der sehr zentral am Autobahnanschluss im Gewerbegebiet Kempten liegt, stehen 18 Hektar Areal zur Verfügung. Hackschnitzel, Brennholz und Langholz werden auf insgesamt 25.000 m2 gelagert. Mit dem Projekt Biomassehof Allgäu sollen sowohl wirtschaftliche, soziale als auch Umweltziele gelöst werden. Denn die Produktion von umweltschonendem CO2 neutralen Energieträgern schont nicht nur die Umwelt sondern schafft auch Arbeitsplätze und kurbelt die lokale Produktion an. Energie aus Holz hat enorme Energiesparpotentiale. Das Sparen beginnt schon bei der Produktion. Auch der Transport ist umweltschonend - wird das Holz doch direkt in den Allgäuer Wäldern produziert. Es hat sich gezeigt, dass die Vermarktung von Energieholz neben den positiven ökonomische Auswirkungen sich auch waldbauökologisch günstig auswirkt.

 Präsentation des Forschungsprogramms 'Zukunftsorientierte Waldwirtschaft'

 Mit dem Forschungsprogramm 'Zukunftsorientierte Waldwirtschaft' soll ein Verfahren entwickelt werden, dass zum einen den Ansprüchen an eine leistungsfähige Waldbewirtschaftung gerecht wird. Zum anderen soll sowohl Natur- als auch Umweltschutz in das Programm integriert werden. Die Anzahl der Forschungseinrichtungen, die an der Ausschreibung teil genommen haben, war hoch. Letztendlich entschied ein Sachverständigenkreis darüber, welche Themen in das Verbundsystem aufgenommen werden. Bei dem Verbundprojekt wird der regionale Waldumbau ganz groß geschrieben. Unter Waldumbau ist die Umwandlung eines Waldbestandes in einen anderen Waldbestand zu verstehen. Dabei wird zum Beispiel die Baumart oder die Bewirtschaftungsweise geändert. Das ist mitunter nicht ganz einfach. Denn die Bäume wachsen äußerst langsam. Erst nach vielen Jahren oder Jahrzehnten kann beurteilt werden, ob die bisherige Bewirtschaftspraxis richtig war. Die Schutzgemeinschaft Deutscher Wald (SDW) kümmert sich vor allem um die Öffentlichkeitsarbeit. Die regionalen Schwerpunkte liegen im südlichen Schwarzwald, im Nationalpark Berchtesgarden, dem Bayerischen Wald/Mittelschwaben, dem Norddeutschen Tiefland, dem Erzgebirge sowie dem sächsischen Tiefland und im Solling (Niedersachsen).

Potsdamer Ansichten zur Landschaftsplanung

Vordringlichstes Ziel der Landschaftsplanung in Potsdam ist die verträgliche Nutzung der Potsdamer Kulturlandschaft. Neben der Sicherung des status quo sollen vor allem nutzungsorientierte Entwicklungen der Landschaft vorrangetrieben werden. Da die herkömmlichen statischen Instrumente der Landschaftsplanung dieser Vorgabe nicht gerecht werden, soll die städtische Landschaftsplanung nun dynamisch fort geschrieben werden. Um die Eignung von Flächen für bestimmte Nutzungen zu prüfen, gibt es als Teil des Landschaftsplanes seit 1998 einen Standortkataster. In diesem werden unterschieden: Tabuflächen, Restriktionsflächen und Dispositionsflächen. Besonders solche Flächen, die sich in der aktuellen Planungsdiskussion befinden, werden vorrangig untersucht. Andererseits werden aber auch Flächen wie das ehemalige Mustergut Bornim in das Kataster aufgenommen. Die Nutzungsentwicklung im ehemaligen Kernbereich der Lenne-chen Feldflur hatte zur Folge, dass erhebliche Landschaftsschäden entstanden sind. Lediglich ein von L. Persius erbauter Aufseherturm ist erhalten geblieben. Die übrige Landschaft wurde mit Gebäuden der industriellen Landwirtschaft überbaut. Der landschaftsplanerische Handlungsbedarf liegt derzeit im Rückbau der landschaftsunverträglichen Gebäudekomplexe. Die Anregungen aus dem vorliegenden Fall sind umfassend in den Flächennutzungsplan übernommen worden. Wesentliche Abriss- und Begrünungsmaßnahmen konnten inzwischen finanziert und realisiert werden. Die Unterhaltung des Persius Turmes finanziert sich über die Nachnutzung als Mobilfunkstation. Auch die Uferbereich werden einer naturschutzfachlichen Analyse unterzogen - haben sie doch eine ganz besondere Bedeutung für die Stadt Potsdam.

Neue Perspektiven im Naturpark Dübener Heide durch ein regionales Netzwerk

Die Dübener Heide liegt im Land Sachsen innerhalb einer hügeligen Endmoränenlandschaft. Um der sich frapant verschlechternden wirtschaftlichen Situation in der Region entgegenzuwirken, hat sich die Arbeitsgruppe Netzwerk Dübener Heide zusammengeschlossen. Ziel des Zusammenschlusses war es, den ländlichen Raum neue Perspektiven zu geben. Die Idee war, eine wirtschaftlich gesunde, in eine intakte Natur eingebettete Gemeinschaft der Orte zu schaffen. Einer der Punkte war das Projekt 'Dorfgestaltung'. Neben der Verschönerung der Dörfer durch Bepflanzungen entstand eine Kommunikationsplattform durch das Projekt 'Ländliche Kommunikation'. Neben Ausstellungen und Messen entstanden dabei auch regionale und überregionale Veranstaltungen wie Huskyrennen sowie Mühlen- oder Backofentage. Zentraler Versammlungsort ist das im Dezember 1996 entstandene Bürgerhaus. Auch im Bereich der Tourismusförderung wurden wesentliche Grundlagen gelegt. So bieten Reisegesellschaften nunmehr ganze Ferienpakete an, die in den Naturpark führen. Wichtiger Tourismusmagnet sind die zwei Dutzend Mühlen im Gebiet. Neben dem Tourismus soll die Kultur als Motor für die wirtschaftliche und soziale Entwicklung dienen. Die Förderung der einheimischen Sprache, die ganzheitlich orientierten Persönlichkeitsbildung und Aktivitäten wie Ausbildungs-Camps haben dabei höchste Priorität. Fünf sozialpädagogische Mitarbeiter der Sächsischen Landjugend e. V. leisten Hilfe im Umgang mit Ämtern, Kommunen, in der Planung und Koordinierung von Jugendarbeit oder in Selbsthilfegruppen.

'Safe' - ein Instrument zur nachhaltigen Unternehmensentwicklung

Außer der internen und externen Unternehmenskommunikation ist die Qualifizierung und vor allem die Beteiligung der Beschäftigten notwendig, um die Beschäftigten in die Veränderungen einzubeziehen. Mit dem neuen Instrument 'SAFE' (Sustainable Assessment For Enterprises) soll dies gelingen. An dem von der EU geförderten Kooperationsprojekt 'Lokal handeln - systemweit denken' sind elf kleinere und mittlere Unternehmen beteiligt. Die Mitarbeiter in den Unternehmen werden durch Qualifizierungsmaßnahmen und Organisationsberatung in die Lage versetzt Potenziale des Umweltmanagementsystems systematisch zu erkennen und umzusetzen. Damit die Analyse- und Managementinstrumente auch nach Beendigung des Projektes weiter laufen, wurde 'SAFE' geschaffen. 'SAFE' schafft Dialog und Kommunikation im Unternehmen. Es soll die Mitarbeiter dazu bewegen an Veränderungsprozessen aktiv mitzuwirken. 'SAFE' kann von den Beteiligten selbst durchgeführt werden, da die Elemente und Methoden von 'SAFE' entsprechend aufbereitet wurden. Das 'SAFE' Team im Unternehmen besteht aus 6-20 Beschäftigten. Zunächst steht eine Status-quo Analyse auf dem Tapet. Danach werden die Fragebögen ausgewertet und es beginnt der Zukunfts-Workshop sowie die Maßnahmenplanung. Schließlich werden die beschlossenen Maßnahmen durchgeführt. In einem letzten Schritt steht das Maßnahmencontrolling. Im Zuge der Projektumsetzung ist vor allem das vernetzte Denken gefragt.

Die nachhaltige Nutzung der Ressource Luft, eine Beurteilung aus naturwissenschaftlicher Sicht

Viele unerwünschte Beiprodukte menschlicher Tätigkeiten gelangen in die Luft und werden dort verdünnt. Wird die Verdünnungskapazität der Atmosphäre überfordert, wird auch die Belastung für den Menschen kritisch. Die verschiedenen Quellen (Haushalte, Industrie, Verkehr und Landwirtschaft) verursachen eine Vielfalt an primären Schadstoffen (SO2, NOx, CO, NH3 usw.), die zu sekundären Effekten wie Versauerung Eutrophierung oder Ozonbildung führen und damit sowohl das Ökosystem als auch den Menschen beeinflussen. Die Wirkungen von Luftschadstoffen auf die menschliche Gesundheit sind vielfältig. Grundsätzlich gilt das Prinzip der Vorsorge: D.h. kanzerogene Substanzen sind möglichst zu vermeiden oder so niedrig wie möglich zu halten. Denn die Gesundheitskosten, die durch Luftverschmutzung verursacht werden, explodieren. Untersuchungen zeigen, dass die Luftverschmutzung äußerst negative Effekte auf die Gesundheit des Menschen hat. Negative Auswirkungen können aber auch über den Schadstoffeintrag aus der Atmosphäre in die Ökosysteme erfolgen. Anhand eines Beispiels wird das Konzept des Critical Loads für Stickstoff diskutiert. Ein großes Problem sind besonders die weiträumigen, grenzüberschreitenden Luftverunreinigungen. Eutrophierung, Versauerung, Ozon- und Aerosolbildung soll im Rahmen der UN/ECE Konvention bekämpft werden. Am Ende soll ein Vertragswerk stehen, das die drei Endpunkte des Prozesses Ökologie, Wirtschaft und Gesellschaft vereint. Wesentlich schwieriger wird dagegen eine Konvention, die das globale Problem der Klimaänderung zum Thema hat, da das klimaaktive CO2 noch nicht kontrolliert wird. Vom Ziel einer nachhaltigen Entwicklung ist man daher noch weit entfernt.

 Die Säugetiere der Trockenaue am südlichen Oberrhein

 Am südlichen Oberrhein zwischen Hartheim und Istein durchzieht eine Trockenaue die Landschaft. Diese setzt sich aus den unterschiedlichsten Biotopen zusammen, in denen diverse Säugetierarten zuhause sind. Zu den typischen Vertretern der oberrheinischen Trockenaue gehört die Waldmaus. Sie ist sehr sprunggewaltig. Versucht sich ein Beutegreifer zu nähern, kann sie sich mit Sprüngen von bis zu einem Meter davon machen. Die Waldmaus ernährt sich hauptsächlich von Samen. Auch die einheimischen Bilche sind charakteristisch für die klimatisch milden Trockenauen. Einer der Hauptvertreter ist der Gartenschläfer. Er ist ein typischer Bewohner der oberrheinischen Trockenaue. Der Gartenschläfer ist viel bunter gefärbt als beispielsweise der grauweiße Siebenschläfer oder die hellbraune Haselmaus. Das üppige Angebot an Baumsamen und Nüssen nutzt das zinnoberrot gefärbte Eichhörnchen. Vorräte versteckt das Eichhörnchen in den Baumhöhlen der Bäume. Daneben treten drei verschiedene Arten von Wühlmausarten auf. Diese haben eine Dichte von 156 Tieren pro Hektar und werden von vielen Beutegreifern als Nahrungsquelle genutzt. Recht selten tritt der Igel in der Trockenaue auf. Ebenfalls recht sporadisch ist das Auftreten der Feldspitzmaus. Ihre Dichte beträgt gerade mal drei Tiere pro Hektar. Großsäuger wie Wildkaninchen finden sich vorwiegend in Bereichen, die einen grabbaren Boden aufweisen. Auch der Feldhase lebt hier und ruht in der Mittagszeit in der niedrigen Vegetation im Schatten der Bäume. Dachse sind in ihrer Nahrungssuche unermüdlich. Im Spätsommer graben sie auf der Suche nach ihrem Lieblingsimbiss den Erdhummeln am Feldrand tiefe Löcher. Zu den im südlichen Oberrhein beheimateten Großsäugern gehört darüber hinaus der Iltis, der Mauswiesel, dem Baummarder und das Hermelin. Ferner ist das Reh und das Wildschwein zu erwähnen.

Das Donaumoos - von der Kultivierung bis zur Renaturierung

Das Donaumoos ist das größte zusammenhängende Niedermoorgebiet Deutschlands. Große Teile werden heutzutage landwirtschaftlich genutzt. Ende des 18. Jahrhunderts wurde unter großen Strapazen damit begonnen das Niedermoorgebiet trocken zu legen und urbar zu machen. Auf dem neuen Land wurde schon 1791 eine erste Kolonie errichtet. Den Erfolg brachten Entwässerungsanlagen. Bereits 1793 waren 473 km Kanäle fertig gestellt. Die Entwässerung war damit prinzipiell vollzogen. Allerdings stellte sich bald Ernüchterung ein. Denn der Moorboden war entgegen der allgemein gehegten Erwartungen nicht fruchtbar und das Wirtschaften wurde durch die extremen Klimaverhältnisse erschwert. Schließlich verlor der Staat das Interesse. Die Folge: Die Gräben und Straßen verfielen. Der Grundwasserspiegel stieg wieder an. Erst um die Jahrhundertwende besserte sich die Situation wieder. Denn 1897 wurde die Landesmoorkulturanstalt gegründet. Sie richtete die Moorversuchsanstalt Karlshuld ein und gab den Bauern Hilfestellung und Beratung beim Ackerbau und bei der Viehhaltung. In der Versuchsstation wurden wichtige Entdeckungen gemacht. So entwickelten die Forscher die Manganzusatzdüngung und erkannten , dass die sogenannte Lecksucht der Rinder durch einen Mangel an Spurenelementen ausgelöst wird. Ende der 50er Jahre war das bayerische Donaumoos das größte geschlossene Kartoffelanbaugebiet Bayerns. Im Zuge einer Nematodenplage wurde im Forschungszentrum eine nematodenresistente Kartoffel gezüchtet. Gegen das ständige Absacken des Moores waren die Maßnahmen allerdings wenig erfolgreich. Eine vollständige Renaturisierung des Moores in der Zukunft ist nur wenig wahrscheinlich. Vom 'Entwicklungskonzept Donaumoos' sind Moorerhalt und Renaturierung auch nur auf 500 ha vorgesehen. Allein eine niedermoorverträgliche Landwirtschaft könnte auf diesem extremen Standort zum Erfolg führen.

  Auswirkungen von Wildtieren und Jagd auf die Vegetation und das Landschaftsbild im Bereich der Trockenaue des südlichen Oberrheins

  Der Erhalt von Natur und Landschaft wird sowohl vom Naturschutz als auch von der Jagd angestrebt. Denn das Wild sorgt immer wieder für Verbiss. So verbeißt zum Beispiel das Reh junge Weiden, Eichen sowie vorgebautes Laubholz unter Kiefern. Besonders häufig wird heutzutage allerdings das Wildschwein gejagt. Es schädigt vor allem Maisäcker. Elektrozäune und Schussanlagen können die Wildschweine nur selten von den Äckern abhalten. Auch künstlich angelegte Folienteiche sind für die Wildschweine oft kein Hindernis die Beregnungsanlagen der Äcker als Suhle zu nutzen. Innerhalb der Trockenaue des südlichen Oberrheins finden regelmäßig Jagden statt. Die Jäger locken das Wild mit Kirrstellen, Lecksteinen und Ablenkfütterungen vor die Hochsitze. Die Trittbelastungen der Vegetation vor den Fütterungsstellen sind daher hoch. Hier siedeln sich vor allem tritt- und verbissresistente Arten an: Unechte Kamille, Vogel-Knöterich und Gänse-Malve. Auf früher intensiv betriebenen Schwarzwildfütterungsplätzen setzen sich selten gewordene Ruderalarten und Nitrophyten durch. Um dem Jäger Wildwiesen, grasige Wegränder, Pirschpfade sowie Randbereiche von Wildfütterungen offen zu halten wird Mulch eingesetzt. Wird das Mulchgut entfernt, entsteht auf der Fläche ein gut ausgebildeter Halbtrockenrasen mit teilweise seltenen und konkurrenzschwachen Pflanzen wie zum Beispiel der Spargelschote. Zur Jagd dienen auch Wildäcker. Sie werden nicht jedes Jahr bestellt: Die Folgevegetation ist vielfältig. Durch den Bodenumbruch der Wildschweine entstehen oftmals auch kiesige Böden auf denen sich Lückenpioniere wie zum Beispiel Hunds-Braunwurz, Rispen-Flockenblume und Natternkopf etablieren können. Auch Kaninchen schaffen durch ihre Wühltätigkeit neue Lebensräume - besonders auf sandigeren Böden. Aus Sicht des Naturschutzes ist die jagdliche Nutzung für den Bereich der Trockenaue zwar ambivalent. Eine grundsätzliche Ablehnung der Jagd durch den Naturschutz ist allerdings nicht angebracht.

 Einführung in den Naturraum - Zur Frage primärer Trockenstandorte in der Wildstromaue des südlichen Oberrheingebietes

 In geologischer Hinsicht ist der Oberrheingraben eine Bruchstruktur, die sich in mehreren Etappen absenkt. Eis- und Warmzeiten im Quartär schufen eine Terrassierung im teilweise mehrere Hundert Meter mächtigen Schotterkörper. Im südlichen Oberrheingraben reicht das durchschnittliche Gefälle noch dazu aus, gröbere Kornfraktionen zu bewegen. Der südliche Rheingraben ist eines der wärmsten Gebiete Deutschlands. Die Jahresdurchschnittstemperaturen liegen bei 9,5 Grad Celsius. Die Jahresniederschlagsmenge hat einen hohen Schwankungsbereich. Die Hauptmenge fällt in die Monate Juni bis August. Im Bereich des Rheines hat sich ein wichtiger Grundwasserkörper ausgebildet. Über die Schotterflächen ergeben sich bei Hochwasser teilweise so starke Drücke, dass in den randlichen Depressionen der Wildstromaue zum Teil Druckwasserquellen austreten. Mit den Wasserständen ändert sich auch die Höhe des Grundwasserspiegels stetig. Hochwasser war schon vor dem 19. Jahrhundert ein Problem. Hochwassersicherungs- und Landgewinnungsmaßnahmen sollten den ständigen Überflutungen Einhalt gebieten. Die Menschen nutzten Weidenfaschinen, um die Altarme abzuschüren. Aber erst die Planungen von Tulla führten zur 'Rectification' des Hauptflusses. Die Nebeneffekte: Sohlenerosion, Erhöhung der Fließgeschwindigkeit und Abnahme der Grundwasserkapazitäten. In der südlichen Oberrheinaue hat sich innerhalb einer kurzen Zeitspanne das Landschaftsbild grundlegend gewandelt. In jüngster Zeit werden immer wieder Stimmen laut, die eine Rekonstruktion der Rheinaue befürworten. Allerdings sind nur wenige Belege und Aufnahmen des früheren Bewuchses vorhanden, so dass solch ein Vorhaben erschwert wird. Rückschlüsse lassen sich am besten aus standortkundlichen Befunden ziehen. Geländemorphologische und bodenkundliche Aspekte sprechen dafür, dass die Wildstromaue im südlichen Oberrheingraben in erheblichem Umfang mit mittelfristig stabilen Trockenstandorten ausgestattet war. Flurgeschichtliche Befunde lassen sich besonders aus den Gemarkungsplänen des 18. Jahrhunderts ziehen. Wald war nach Auswertung dieser Befunde ausschließlich im Randbereich zum Hochgestade vorhanden.

 Zehnjährige Vegetationsentwicklung im Ersatzbiotop Geeste

Nach dreijähriger Bauzeit entstand 1986 das Kühlwasserspeicherbecken Geeste im Emsland. Das dafür errichtete Ersatzbiotop sollte Ersatzlebensraum und ökologischen Ausgleich für die bebaute Flächen sein. Die Erstaufnahme im Ersatzbiotop fand in den Jahren 1986 und 1997 statt. Von besonderem Interesse war die Gesamtentwicklung der Vegetation sowie die Dynamik spontaner bzw. gepflanzter Bestände. Auch die Vegetationszusammensetzung und -struktur sowie die Diasporenbank waren Ziel der Forschung. Pflanzensoziologische Aufnahmen sowie Zufallsaufnahmen und die Auszählung der Diasporenfraktionen auf Filterpapier waren Teil der Untersuchungen. Mit der Ersatzanlage konnte eine ungestörte Sukzession erreicht werden. Gepflanzte Gehölze entwickelten sich allerdings deutlich schlechter als spontane Bestände. Weitere Pflanzungen sind daher in Zukunft nicht vorzusehen. Im Zuge der Arbeiten im Biotop entstanden außerhalb der Wechselwasserzone großflächige Vorwaldbestände. An den Gewässerufern blieb die Vielfalt der Vegetation allerdings erhalten. Alles in allem hat sich gezeigt, dass sich die Vegetation im Ersatzbiotop Geeste in Richtung Klimaxstadium entwickelt. Teile der Uferzonen werden durch die Wasserdynamik und aufgrund der Tätigkeit der Wasservögel offen gehalten.

Abluftreinigung bei der Laserreinigung

Die industrielle Laserbearbeitung von Kunst- und Verbundstoffen ist immer mehr auf dem Vormarsch. Allerdings führen hochgiftige Emissionen zu Umweltproblemen. Denn die klassischen Polymermaterialien werden unter dem Einfluss der hohen Temperaturen des Lasers depolymerisiert und fragmentiert. Im Laufe dieses Prozesses entstehen Stoffe wie Formaldehyd oder Acetaldehyd, aber auch klebrige pastöse Stoffe undefinierbarer Zusammensetzung. Ein geeignetes Konzept verminderter Umweltemissionen umfasst u.a. folgende Grundsätze: a) Fassung der Schadstoffe möglichst nahe am Entstehungsort. b) Toleranz freigesetzter organischer Füllstoffe. c) Möglichst geringe Zufuhr von Fremdenergie d) Eine hohe Abbaurate d) Die Bauart der Behandlungsanlage sollte möglichst auch eine Integration in die Laser Bearbeitungsanlage zulassen. Das neue Prinzip arbeitet mit Lokalabsaugungen, die in einen Reaktor mit Aktivkohle gelangen. Innerhalb des Reaktor befinden sich elektrische Heizkörper, die für eine Verbrennung der gebundenen organischen Stoffe sorgen. Eine Vielzahl an Messungen an Kunst- und Verbundwerkstoffen ergab eine gute Funktionalität des integrierten katalytischen Abgasreinigungsmoduls. Die neue Technologie führt zu umweltverträglichen Bearbeitungsprozessen. Das Abgasreinigungsmodul ist inzwischen mehrfach erprobt. Der Einsatz in vielen anderen industriellen Bereichen ist möglich.

 Sanierungs- und Entwicklungsgebiet Uranbergbau in Südwestsachsen - Gestaltung des Strukturwandels durch Kooperation

Seit Beginn der 90er Jahre werden in der Raumordnung der Bundesrepublik Deutschland verstärkt Möglichkeiten der Schaffung umsetzorientierter Instrumente diskutiert. Neue raumplanerische Instrumente werden zurzeit unter der Bezeichnung 'Sanierungs- und Entwicklungsgebiet' erarbeitet. Eines dieser Projekte ist der Uranbergbau. Das Institut für ökologische Raumentwicklung Dresden ist bei diesem Vorhaben federführend. Das Gebiet liegt im Landkreis Aue-Schwarzenberg und ist Teil der Planungsregion Südwestsachsen, in dem schon Ende des 14. Jahrhunderts Bergbau betrieben wurde. Der Uranbergbau der Sowjet-Deutschen Aktiengesellschaft (SDAG) sorgte für einen allgemeinen wirtschaftlichen Aufschwung nach dem Zweiten Weltkrieg. Nach der 'Wende' sind die wichtigsten Träger der vielfältigen Infrastruktur weggefallen. Ein anderes Problemfeld sind die Kontaminationen, Bergbauhalden, Schächte und Industriebrachen. Insgesamt 876 Altlastenverdachtsflächen wurden im Aktionsraum ermittelt. Das Projekt verfolgt  zunächst das Ziel ein ganzheitliches Sanierungs- und Entwicklungskonzept zu erarbeiten. Die interkommunale Kommunikation und Kooperation wird bei diesem Ansatz ganz groß geschrieben. Mithilfe von Unternehmen, Interessenverbänden und interessierten Bürgern soll eine zukunftsträchtige nachhaltige Entwicklung der Region geschaffen werden. Der Erfolg des Vorhabens hängt allerdings maßgeblich davon ab, ob es gelingt prioritäre Einzelprojekte in der Region durchzusetzen, um dadurch geeignete Fördermöglichkeiten zur Umsetzung zu verhelfen.

 Technik mit Gefühl

 Adaptronic ist ein Forschungszweig mit gewaltigem Potential. Denn diese Systeme ermöglichen extreme technische Leistungssteigerungen auf vielen Gebieten. Meist werden aber noch handelsübliche Sensoren genutzt, um zum Beispiel eine Schwingungsdämpfung herbeizuführen. In Zukunft sollen die Materialien ohne diese Hilfsmittel auskommen und selbst aktiv auf die Umwelteinflüsse reagieren. Eines dieser sogenannten 'smart materials' ist das Blei-Zirkonat-Titanat-System (PZT). Es besteht aus Kristallen, die eine elektrische Ladung erzeugen wenn sie mechanisch belastet werden. Die Fasern, die gerade mal den Durchmesser einer Nervenfaser haben, können Verbundwerkstoffen angepasst werden. Einmal dort eingebaut erspüren sie zum Beispiel veränderte Windverhältnisse, haben aber auch so genannte aktuatorische Eigenschaften. Sie verändern ihre Form und Festigkeit. Besonders für die Konstruktion von Flugzeugen könnte diese Fähigkeit große Bewandtnis haben. Bislang waren Flugzeugflügel immer nur ein Kompromiss. Denn sobald sich die Gewichtsverhältnisse oder die Geschwindigkeit des Fliegers verändert, sind zur Optimierung der Aerodynamik immer andere Flügelgeometrien gefragt. Auch für den Autobau soll das PZT-Material verstärkt eingesetzt werden. Denn hier könnten die piezoelektrischen Fasern Vibrationen im Innenraum mindern. Im Gegensatz zu herkömmlichen Schwingungsdämpfern überzeugt die neue Technik durch ihr geringes Gewicht.

 Wenn der Frühling früher kommt

 Sobald der Frühling in Deutschland Einzug hält, zücken rund 2.000 Phänologen ihre Bleistifte und dokumentieren wo wann was blüht. Die Aufzeichnungen geben wichtige Rückschlüsse über den Klimawandel. Denn schon jetzt wird klar, dass einzelne Pflanzen immer weiter in den Norden vordringen. Auch die Wachstumsperioden einzelner Pflanzen haben sich verlängert. Langjährige Beobachtungen stützen diese Untersuchungen. So konnte eine amerikanische Pflanzenphysiologin zeigen , dass die Goldrute in den 30er Jahren rund 16 Tage später blühte als heute. In Deutschland führt der in Offenbach ansässige Deutsche Wetterdienst (DWD) Buch über die Wachstums- und Entwicklungsphasen von Lebewesen. Es trägt jährlich rund 200.000 phänologische Daten zusammen. Im Gegensatz zu der herkömmlichen Methode der Erfassung von Einzelparametern wie Wind, Temperatur, Niederschlag, Sonnenscheindauer und Bewölkung hat die Phänologie einen entscheidenden Vorteil: Es erfasst die Gesamtheit aller Faktoren. Das Ergebnis phänologischer Beobachtungen sind regionale Prognosen und Trendanalysen, die u.a. auch Pollen-Allergiker und Heuschnupfengeplagte brennend interessieren, denn gerne wollen sie wissen wo und wann Birke oder Buche blühen. Auch für den Fremdenverkehr sind die Informationen der Naturbeobachter aufschlussreich. Besonders im Vollfrühling haben die phänologischen Beobachter, die jeweils ein fest umrissenes Gebiet untersuchen, viel zu tun. Denn dann wandert der Lenz und mit ihm ein blühendes Pflanzenmeer mit Tempo 35 von Griechenland nach Finnland.

 Das Übereinkommen über die biologische Vielfalt

 Die wichtigsten Ziele der 1992 in Rio de Janeiro verabschiedeten Abkommen sind die Erhaltung der biologischen Vielfalt, die nachhaltige Nutzung ihrer Bestandteile und die gerechte Verteilung der Gewinne aus der Nutzung genetischer Ressourcen. Das Abkommen umfasst alles nichtmenschliche Leben. Weltweit 178 Vertragsparteien sind sich über die grundlegenden Elemente des Abkommens einig. So sind neben einem Biosafety Protokoll, eigenständige Finanzierungsmechanismen und als Informationsdrehscheibe ein Clearing-House Mechanismus beschlossen worden. Die interdisziplinäre Zusammenarbeit und die ganzheitliche Betrachtungsweise der Problematik sind weitere wichtige Charakteristika der Biodiversitätskonvention. Sie ist ein völkerrechtlich bindendes Regelwerk, das auf nationaler Ebene umgesetzt werden soll. Um das zu erreichen, ist das Bundesamt für Naturschutz angehalten die Institutionen in Bund und Ländern umfassend über Entwicklungen, Ergebnisse und Beschlüsse der Vertragsstaatenkonferenzen zu informieren. Des weiteren müssen Anleitungen für die Umsetzung geliefert und eine effektive Öffentlichkeitsarbeit etabliert werden. Die Struktur: Jedes Jahr tagt der wissenschaftlich, technische und technologische Ausschuss (SBSTTA). Alle zwei Jahre tritt die Vertragsstaatenkonferenz zusammen, teilweise unterbrochen durch 'Intersessional Meetings'. Neben der Internationalen Ebene gibt es die 'EU ad-hoc Gruppe Biodiversität'. Die einzelnen Aufgabengebiete der Biodiversitätskonvention werden dargestellt. Innerhalb der deutschen Naturschutzaußenpolitik ist das Übereinkommen über die biologische Vielfalt ein zentraler Ankerpunkt und richtet sich besonders auf die EU-Partner und die kommenden Beitrittsländer. Der Forschungsbedarf auf dem Gebiet Biodiversität ist hoch. Vom SBSTTA ist geplant bis 2002 die Schwerpunkte Invasive exotische Arten, Biodiversität in Wäldern und gerechter Vorteilsausgleich bei der Nutzung genetischer Ressourcen zu untersuchen. Danach sollen Schutzgebiete, die Biodiversität in Berggebieten und der Technologietransfers sowie die technologische Zusammenarbeit Bestandteile der Forschung werden.

  Ein Internet-Projekt zur Zusammenführung der Biodiversitätsansätze in Gesellschaft, Wissenschaft und Naturschutz.

Mit den drängenden weltweiten Umweltproblemen wird auch der internationale Informationsaustausch über Umwelt- und Naturschutzfragen immer wichtiger. In der Konvention über die Biologische Vielfalt aus dem Jahre 1992 ist zwar schon der Clearing-House-Mechanismus als Informationsdrehscheibe implementiert, eine effiziente Durchführung dieses Informationsaustausches ist aber nur über moderne Informationstechnologien wie dem Internet möglich. Die deutschen Internetinformationen über Biodiversität sind im Vergleich zu internationalen Anbietern allerdings noch rar gesät. Es erfüllt wenn überhaupt nur Basisanforderungen. Ein Bezug zum praktischen Naturschutz findet kaum statt. Es erscheint aber u.a. schon hinsichtlich der Entwicklung des NATURA 2000-Gebietssystems notwendig Biodiversität auch auf regionalem Level stärker in den praktischen Naturschutz einzubinden. In Zukunft soll über das Internet vorhandenes Wissen zusammengeführt werden und somit eine Kommunikationsbasis zu dem gemeinsamen Thema geschaffen werden. Als zentraler Teil des Angebots soll das 'BioDiv-Forum' entstehen. Es soll eine Kommunikationsbörse darstellen, in dem Themen der Biodiversität in Deutschland diskutiert werden. Eine besondere Softwareapplikation übertrifft die bekannte Online-Kommunikation bei weitem und soll zukünftig verstärkt als Wissensmanagement-Tool eingesetzt werden. Ermöglicht wird diese stärkere Verknüpfung durch den Einsatz der Metasprache XML und deren Derivate. Durch die Vereinigung der fachlichen, konzeptionellen und technischen Säule im BioDiv-Net werden aktuelle Ergebnisse schneller verfügbar gemacht.

 Biodiversität und Ökosystemprozesse im Grünland

 Gibt es einen Zusammenhang zwischen Artenreichtum und Ökosystemprozessen wie zum Beispiel Produktivität oder Stickstoffkreislauf. Diese Frage wollte das EU-Projekt BIODEPHT näher durchleuchten. Dazu wurde an acht europäischen Standorten ein einheitlicher Versuchsaufbau angelegt auf denen Artenverluste simuliert wurden. So wiesen beispielsweise die 64 deutschen Parzellen 16, 8, 4, 2 und eine Art auf. Durch Jäten wurde die Artenanzahl auf den Parzellen regelmäßig konstant gehalten. Unter den Eigenschaften, die auf den Versuchsflächen unter die Lupe genommen wurden, war die Frage nach der Nitratauswaschung im Grundwasser von besonderem Interesse. Auf den Parzellen zeigte sich, dass die Biodiversität entscheidenden Einfluss auf die Biomasseproduktion hatte. Diese Korrelation wurde umso deutlicher wenn bestimmte Pflanzenarten zusammengestellt wurden. So profitierten beispielsweise viele Pflanzen von Pflanzen aus der Familie der Schmetterlingsblütler. Diese haben die Fähigkeit symbiontisch Stickstoff zu binden, der auch das Wachstum der anderen Pflanzen begünstigt. Auf allen Standorten im Biodeph-Projekt wurde klar: Der Ertrag aus den Mischkulturen war stets größer als in den Monokulturen. Auch hinsichtlich der Nitratauswaschungen waren klare Tendenzen zu erkennen. So traten die höchsten Nitratverluste in Monokulturen auf. Und besonders in Klee-Monokulturen waren die Verluste besonders intensiv. Es zeigte sich aber auch, dass für das 'Funktionieren' des Ökosystems die Artenzusammensetzung von besonderer Bedeutung war. Der Verlust von pflanzlicher Diversität beeinträchtigt also zentrale Ökosystemprozesse wie Produktivität und den Stickstoffkreislauf.

 Das Programm des Biosphärenreservat Schaalsee

 Der Schaalsee hat eine Größe von 162 km2. Er liegt in einer Naturlandschaft, die durch die Eiszeit geprägt wurde. Heute ist die Moränenlandschaft, die im Einzugsgebiet der Großstädte Hamburg, Lübeck und Schwerin liegt, von der UNESCO weltweit als Biosphärenreservat anerkannt. Da in dieser Landschaft auch der Mensch maßgeblich Einfluss auf die Landnutzung hatte, war für das zukünftige Konzept auch eine ressourcenschonende Landnutzung vorgesehen. Das Großschutzgebiet Schaalsee soll neben der Schutzfunktion zum Zwecke der Erhaltung der Genressourcen auch Entwicklungs- und Logistikfunktionen erfüllen. Durch eine stärkere Regionalisierung wirtschaftlicher Kreisläufe soll das Beschäftigungspotential im ländlichen Raum gestärkt werden. Die Plattform für alle Maßnahmen ist das PAHLHUUS in Zarrentin, in der auch die Geschäftsstelle des Fördervereins Biosphäre Schaalsee e.V. eingerichtet ist. Im Sommer 1997 wurde die Idee zum Biosphärenreservat Schaalsee geboren. Doch erst 1998 im Zuge einer Diskussionsveranstaltung in Roggendorf nahm diese Idee Gestalt an. Schon zwei Monate danach war das erste Projekt, die SEE-PFERD-TOUR, umgesetzt. Das Prinzip: Über zusätzliche Verdienstmöglichkeiten der Beteiligten sollten Anreize geschaffen werden. Aus diesem Leitmotiv heraus entwickelte sich die Arbeitsgruppe Direktvermarktung und in der Folge der Biosphären-Schaalsee-Markt. Schließlich wurde ein Schutzgebietslogo entworfen, das hervorragende regional und umweltgerecht erzeugte Produkte und Initiativen auszeichnet. Weitere Initiativen wurden im Laufe der Zeit ins Leben gerufen, die vor allem die Zielgruppe Kinder und Jugendliche im Auge haben.

 Machbarkeitsstudie zur fast emissionsfreien Nutzung von regenerativ erzeugtem Wasserstoff - biowasserstoffregion Rügen?

 Als Energieträger ist Wasserstoff zukunftsträchtig. Eines der größten Hindernisse ist die Verfügbarmachung dieses Kraftstoffes. Dies bedarf hoher zeitlicher und finanzieller Vorleistungen. Ein Pilotprojekt auf Rügen sollte die Möglichkeiten zum breiten Einsatz von Wasserstoff durchleuchten. Es sollte zunächst ein Fahrzeug des Unternehmens 'Arkonabahn' für den Einsatz von Wasserstoff umgerüstet werden. Aufgrund des Kreisverkehrs der Arkonabahn war auch nur eine Tankstelle mit dem regenerativem Treibstoff nachzurüsten. Die Idee wurde von Anfang an auch von der Landrätin Rügens unterstützt, denn durch den Einsatz innovativer Energien kann Rügen sein umweltfreundliches Image ausbauen. Das gilt auch für die Arkonabahnbetreiber, die schon seit langem damit beschäftigt sind die Schadstoffemissionen ihrer Fahrzeuge zu reduzieren. Für die Arkonabahn stehen vor allem regenerative Energien im Vordergrund des Interesses. Denn Rügen verfügt über das Potential Wasserstoff aus Biomasse zu erzeugen und später für den Betrieb von Brennstoffzellen zu nutzen. Um das Projekt zu realisieren wären 10 kt Biomasse pro Jahr notwendig. Und auch für weitere Brennstoffzellennutzer wäre bei dieser Größenordnung auf Rügen der Weg gebahnt. Gleichzeitig mit dem Aufbau einer Wasserstoffinfrastruktur könnte auch das Anlanden weiteren Wasserstoffs aus Kanada, Island oder Norwegen vorbereitet werden.

 Nachhaltiger Tourismus oder wenn Radfahren zum Event wird

 Der Reiseveranstalter Strandläufer ist 1993 mit dem Ziel gegründet worden, durch ganz konkrete Reiseangebote den Sanften Tourismus in Mecklenburg-Vorpommern zu fördern. Denn Mecklenburg-Vorpommern ist eine der attraktivsten Tourismusregionen Deutschlands. Für den nachhaltigen Tourismus sollten allerdings einige Grundsätze gelten. Diese beginnen schon bei der Anreise, bei der vornehmlich die Deutsche Bahn genutzt werden soll. Auch innerhalb des Urlaubslandes ist umweltschonende Fortbewegung ganz Groß geschrieben. Trotz einer Übergangsförderung und erster Erfolge gelang es dem Strandläufer allerdings nicht aus der Verlustzone zu gelangen. Vor allem das mangelhafte Marketing, das geänderte Verbraucherverhalten und das Preisgefüge für derartige Reisen brachte dem Strandläufer rote Zahlen. Ferner bereitete es große Schwierigkeiten die Zielgruppe zu erreichen. Da 'Sanfter Tourismus' auch keine Billigreisen sind ist es klar, dass die Großen unter den Reiseunternehmen die ganzheitlich nachhaltig geprägten Veranstalter vom Markt verdrängen. Dennoch konnte sich der Strandläufer auf verschiedenen Marktsegmenten etablieren. So wurde mit der Übernahme des Gutshauses Kogel durch die Grüne Liga ein Standort für eine Jugendumweltbildungsstätte gewonnen. Ermuntert durch den Erfolg hat die Grüne Liga nun einen zweiten Standort in Küstennähe dazugekauft. Auch auf dem Gebiet des maritimen Tourismus konnte der Strandläufer Boden gewinnen. Denn neben dem Segelchartergeschäft bietet der Strandläufer auch noch Naturerlebnisse wie Kranichtouren u.ä. an. Weitere Standbeine sind die Vermietung ökologischer Ferienhäuser sowie die Programmgestaltung für Reisegruppen. Schwierigkeiten bereitet vor allem der Kampf mit der Bürokratie, die Verschwendung staatlicher Gelder und unzureichende Hilfen für Vereine, die den sanften Tourismus fördern.

 

 Benchmarking in der Abwasserentsorgung

 Nur Unternehmen, die ihre Wirtschaftlichkeitspotentiale voll ausschöpfen, werden auf Dauer am Markt erfolgreich sein. Doch wie sehr die Firmen diesem Idealzustand nahe kommen, ist nicht immer klar abzuschätzen. Ein praktikables Instrument, um verschiedene Unternehmen zu vergleichen ist das Benchmarking. Dabei werden Produkte, Leistungen, Kosten sowie Prozesse und Verfahren der einzelnen Unternehmen unter die Lupe genommen. Ziel der Untersuchung ist neben der Frage nach der Leistungsfähigkeit des Unternehmens auch die Frage nach den Ursachen. Endpunkt der Analyse ist ein Maßnahmenkatalog. Um im Unternehmen Benchmarks (Bestwerte) für Prozesse oder Verfahren zu erhalten, ist ein offener und ehrlicher Umgang zwischen den Benchmarking Partnern notwendig. Dazu müssen Beteiligte aus den verschiedensten Berufssparten, wie Ingenieure und Kaufleute, eng zusammen arbeiten. Absolute Vertraulichkeit über die projektbezogenen Informationen ist Pflicht. Auch in der Abwasserentsorgung hält das Benchmarking in jüngster Zeit Einzug. In einem Pilotprojekt wurde 1996 versucht die Benchmarking-Systematik auf die Abwasserbeseitigung anzuwenden. Beteiligt waren dabei die Emschergenossenschaft, der Lippeverband sowie der Aggerverband. Die Kläranlagen wurde in sechs Verfahrensstufen gegliedert für die Kennzahlen entwickelt wurden. Außerdem wurden Normierungen festgelegt, um Einflüsse der Finanzierung oder des Alters der Anlage auszuschließen. Der beschriebene Ansatz wurde 1998 in einem vom Bundesministerium für Bildung und Forschung geförderten Projekt mit dem Titel Benchmarking in der Abwasserbeseitigung auf der Basis technisch-wirtschaftlicher Kennzahlensysteme erweitert. Es sind weitere Projekte im Rahmen eines Vergleichs zwischen Großanlagen der Emschergenossenschaft geplant.

 

 Einsatz gegen Gift und Gase

 53 Berufsfeuerwehrleute halten Brandwacht in Baar-Ebenhausen. Ihre Aufgabe: Brandschutz in der größten Sondermüllverbrennungsanlage in Bayern. Wer allerdings bei der Gesellschaft für Sondermüll in Bayern (GSB) als Feuerwehrmann anfangen will, muss eine lange Ausbildung durchlaufen. Denn neben einem handwerklichen Ursprungsberuf sind noch einmal eineinhalb Jahre Ausbildung an Feuerwehrschulen einzuplanen. Und das nicht ohne Grund. Denn die GSB-Feuerwehrleute agieren mit 'heißer' Ware. Sie müssen mit Gefahrstoffen aller Art umgehen und deren Eigenschaften kennen. Denn sonst kann das Löschen mit Wasser schon mal fatale Folgen haben. So reagieren Chlorsilane auf einen Löschversuch mit solch nassem Regen explosionsartig. 50.000 Kilo Schaummittel sind daher unterirdisch gebunkert, soviel wie sonst nur auf einem Flughafen zur Verfügung stehen. Das 1.250 m3 große Löschwasserbecken wird ergänzt durch eine weitverzeigtes Rohrsystem und einer Löschwasserrückhaltung, da giftige Rückstände auf keinen Fall in die Kanalisation gelangen sollen. Sobald Feueralarm ausgelöst wird, setzt zunächst einmal die automatische Löschanlage ein. Über eine Brandmeldezentrale wird der Schichtführer dann mit allen notwendigen Informationen versorgt. So weiß der Einsatzleiter innerhalb weniger Minuten welche Stoffe in der jeweiligen Halle gelagert werden. Ein TRO-SLF Industrielöschfahrzeug mit einer Pumpenleistung von 6.000 l/min sowie weitere vier Einsatzfahrzeuge sind innerhalb weniger Minuten einsatzbereit. Zur Ausrüstung gehören außerdem Chemikalienschutzanzüge. Die 4.000 DM teuren autarken Einheiten sowie alle anderen Einsatzgeräte werden in der eigenen Werkstatt gewartet. Darüber hinaus ist die Werksfeuerwehr für die Erste Hilfe im Betrieb zuständig. Alle Feuerwehrleute sind beispielsweise dazu ausgebildet das Blausäureantidot 4DMAP zu spritzen.

 

 Fracht nach Osten

 Seitdem die Industrien um die Ostsee 'boomen' quert immer mehr Gefahrgut das Binnenmeer. Oft herrscht an den Häfen allerdings Verwirrung, denn viele Speditionen, die beim Handel über die baltische See mitverdienen möchten, sind über die Beförderungsvorschriften nicht richtig informiert. Die Folge: Papiere fehlen und die Fracht bleibt liegen. Im günstigsten Fall müssen sie nur umstapeln. Im Kieler Hafen fahren zum Beispiel alle Reedereien nach IMDG Code. Denn dieser gewährleistet einen hohen Sicherheitsstandard. Außerdem kommen keine Unklarheiten auf wie zu laden und zu stauen ist. Vor allem für die Reedereien mit hohem Passagieraufkommen kann die neue Regelung von Nutzen sein. Denn so wiegen sich die Fahrgäste in Sicherheit, und das erhöht das Vertrauen in die Fährlinie. In Kiel stieg das Frachtaufkommen im Jahre 2000 um 19 Prozent. Um den osteuropäischen Ländern eine zentrale Anlaufstelle zu bieten, soll in Riga eine Außenstelle entstehen. Da mit einer wachsenden Anzahl an Gefahrguttransporten gerechnet wird, werden weitere Gefahrgutstellplätze am Ostufer bereitgestellt. Auch ab Travemünde wird Gefahrgut befördert. Hier hat die Firma Stena die Nase vorn, die besonders bei Flüssigkeits- und Überseecontainern Zuwächse verzeichnen konnte. Auch Stena fährt nur mit IMDG Code. Eine Besonderheit gibt es am Skandinavienkai. Selbst wenn die Ladung den Vorschriften der MoU entspricht, müssen die Lkw auf dem Gefahrgutstellplatz gemäß IMDG Code gekennzeichnet werden. Denn meist hängen an den Trucks nur die orangen Warntafeln. Im Ernstfall kann mit diesen Schildern aber keiner etwas anfangen.

   Aktuelle Emissionsfaktoren für Feuerungsanlagen der Haushalte und Kleinverbraucher

 Der Beitrag fässt das Vorhaben mit dem Titel 'Ermittlung der mittleren Emissionsfaktoren zur Darstellung der Emissionsentwicklung aus Feuerungsanlagen im Bereich der Haushalte und Kleinverbraucher' zusammen. Das mit Mitteln des Umweltbundesamtes geförderte Projekt stellt aktuelle Emissionsfaktoren mit hohem Differenzierungsgrad sowie das Emissionsaufkommen von Feuerungsanlagen im Bereich der Haushalte und Kleinverbraucher vor. Der Anlagebestand sowie die gerätebezogenen Endverbraucher werden ermittelt. Darüber hinaus wird das Emissionsverhalten von Feuerungsanlagen beschrieben. Abgasbestandteile wie CO2, CO, N0x, SO2, flüchtige organische Kohlenwasserstoffe sowie flüchtige organische Nicht-Methankohlenwasserstoffe (NMVOC, CH4, Partikel, Distickstoffmonoxid (N20) usw. werden ermittelt. Der Berechnung der Emissionsfaktoren liegen Alter und Bauarten der Feuerungsanlagen zu Grunde. Gleichzeitig werden aber auch die Leistungsbereiche und typischen Betriebsweisen der Anlagen betrachtet und mit in die Kalkulation einbezogen. Die zu erwartende Emissionsentwicklung bis in das Jahr 2020 wird durch zwei Emissionsszenarien erhellt.

  Eine gesunde Umwelt als touristischer Standortfaktor in Mecklenburg-Vorpommern

 Tourismus ist der Jobmotor Nummer eins in Mecklenburg-Vorpommern. 3,5 Millionen Gäste und an die 15 Millionen Übernachtungen werden jährlich gezählt. Trotz der guten Steigerungsraten in den letzten Jahren ist es Zeit sich umzuorientieren. Denn viel zu wenig Gäste kommen bislang aus den westlichen Bundesländern. Obwohl gerade dort das größte Steigerungspotential liegt. Auch sind die zurzeit anreisenden Touristen überaltert und reisen ohne Kinder. Dadurch wird langjährige Kundenbindung erschwert. Ferner besteht im Bereich Freizeitangebot erhöhter Nachholbedarf. Da davon auszugehen ist, dass die Anzahl der Betten zunächst einmal ausreichend ist, wird das Geld verstärkt in Kultureinrichtungen und Sportanlagen investiert. Doch besonders auf dem Bereich Werbung und Marketing besteht noch Nachholbedarf. Unternehmen, Kommunen, Verbände und die Politik sind daher gehalten zu kooperieren, um das Standortmarketing zu verbessern. Dabei muss mit den Ressourcen sparsamst umgegangen werden. Die Produkte sind zielgruppenorientiert auszubauen. Auch die Infrastruktur für Surfen, Segeln, Tauchen oder Wasserwandern ist zu optimieren und auszubauen. Aber nicht über die Maßen. Denn die Besucher wollen unsere Natur erleben und aufsuchen können. Konfliktpotential ergibt sich, wie auch in anderen Bundesländern, aus dem Bau von Golfplätzen. Sportarten wie Reiten, Surfen oder Rennbootfahren können allerdings problematisch sein. Ein positives Zeichen setzt das Müritz-Nationalpark-Ticket. Die attraktiven Angebote des ÖPNV sind richtungsweisend für eine nachhaltige Entwicklung.

 Die Aktivitäten der VGB zum Einsatz von schwierigen Brenn- und Abfallstoffen in Kraftwerksfeuerungen

Feste Brennstoffe, die in Hochleistungsfeuerungen zum Einsatz kommen, gestalten sich im Abbrand generell schwierig. Ob Kohle, Ersatzbrennstoffe oder kohleäquivalente Brennstoffe wie Petrolkoks oder Klärschlamm, die Anforderungen an die Verbrennungstechnik sind enorm. So ist neben der geeigneten Bekohlung auch eine zweckmäßige Brennerauslegung notwendig. Auch der Kessel muss optimal an Zündverhalten, Ausbrandgeschwindigkeit und Aschegehalt angepasst sein, um den Feuerungsbetrieb zu gewährleisten. Geringste Temperaturdifferenzen können Verschmutzungen und Korrosionen zur Folge haben. Auf die Abgasreinigungsanlagen sind die Einflüsse der Verbrennung relativ gering. Allerdings können erhöhte Aschegehalte die Funktion der Entaschungsanlage und der Qualität der Asche beeinflussen. Daher kommt dem Einsatz von leistungsfähigen Überwachungssystemen eine immer größere Bedeutung zu. Das gilt generell auch für die Ausweitung des Brennstoffbandes. Durch den erhöhten Wettbewerb erhält Kohle und Mitverbrennung zur Verbesserung der Wirtschaftlichkeit eine immer größere strategische Bedeutung. Ferner lässt sich durch den Einsatz von regenerativen Brennstoffen eine Entlastung der CO2 Bilanz herbeiführen. Grundsätzlich gilt aber, dass nicht sämtliche brennbaren Abfälle für die Abfallverbrennungsanlagen geeignet sind. In Betracht kommen vor allem solche Abfälle, die hier weniger schwierig handhabbar sind als in einer Müllverbrennungsanlage. Mit der ab 2006 in Kraft tretenden TA-Siedlungsabfall werden erhebliche Engpässe in der Entsorgung auftreten. Für die Technische Vereinigung der Großkraftwerksbetreiber e.V. (VGB) ist diese Entwicklung eine Herausforderung, die es nun gemeinsam mit den Mitgliedern zu bewältigen gilt.

Verhalten endokrin wirksamer Substanzen im Klärschlamm

Aus der industriellen Produktion gelangen endokrin wirksame Substanzen in die Umwelt, die das Hormonsystem von Lebewesen beeinflussen können. Auch aus menschlichen und tierischen Ausscheidungen können diese Stoffgruppen über Abwasserleitungen, Sickerleitungen oder Abfalldeponien in die Umwelt gelangen. Die Folge: Verweiblichung von Männchen, Vermännlichung von Weibchen sowie die Unfruchtbarkeit von Vögeln, Wildkatzen, Reptilien und Fischen. Auch auf die Spermienproduktion des Menschen haben die endokrinen Substanzen Einfluss. Das besagt zumindest eine Studie aus dem Jahre 1999. Danach soll die Spermienkonzentration in den letzten 40 Jahren um 70 Prozent zurückgegangen sein. Der Grund: Natürliche und synthetische Östrogene werden in Klärwerken nicht zu 100 Prozent abgebaut. Ein weiterer Eintragspfad dieser Substanzen ist die landwirtschaftliche Klärschlammverwertung. Die endokrin wirksamen Substanzen werden im Klärschlamm mobilisiert und gelangen in den Untergrund und schließlich in das Grundwasser - so die Theorie. In einem Lysimeterversuch mit Sand- und Lehmböden aus dem Dresdner Raum sollte der vertikale Transport durch den Boden näher untersucht werden. Dazu wurde der Gehalt des Klärschlammes an Schadstoffen um das 100fache erhöht. Die Wasserzugabe auf dem ehemaligen Spargelbaugebiet entsprach der statistischen Regenmenge. Die Bodenproben wurden nach einer Versuchszeit von 730 Tagen schichtweise entnommen und auf den Gehalt endokrin wirksamer Substanzen analysiert. Die Beprobung der Eluate erfolgte monatlich. Parallel dazu wurden Versuche zum oberflächlichen Austrag der Substanzen durchgeführt. Es zeigte sich, dass im Sandboden mehr endokrin wirksame Substanzen transportiert werden als im Lehmboden. Gerade bei Starkregenereignissen kann dieser Austragungspfad zu einer starken Belastung von kleineren Oberflächengewässern führen.

 Zwischen Kochkiste und Organisationsförderung

 Bei der Familie Mushonga aus einem Township in Simababwe ist die Kochkiste ein voller Erfolg. Denn nun kann die fünfköpfige Familie eine geschlagene Stunde länger in den Federn bleiben. Auch die Umwelt bedankt sich. Das ohnehin rare Feuerholz wird dadurch geschont. Auch Tonderai Mashava und seine Freunde hatten schon Kontakt zu einem vom DED unterstützten Umweltprogramm. Vor einem Jahr waren die Schulabgänger noch arbeitslos. Heute leiten sie einen kleinen Souvenirladen in dem ausschließlich Produkte aus Naturmaterialien angeboten werden. Zwar werden durch diese Art von Umweltprogramme die Einkommensmöglichkeiten nur eines winzigen Teils der Bevölkerung verbessert, der Erfolg kann aber ein Beispiel für Nachahmer setzen. Andere Umweltprogramme setzen sich ausschließlich mit der Abfallproblematik auseinander. Unter dem Motto Reduce, Re-use und Recycle werden Materialien der simbabwischen Industrie weiterverarbeitet. Die Kartonagen, Schreibpapiere sowie Plastik- und Blechbehälter bringen zumindest bares Geld. Ein Grund mehr für die verarmten Bewohner der Townships ihre Umwelt sauber zu halten. Umweltprogramminitiatoren in Simbabwe machen sich inzwischen Gedanken über die langfristige Absicherung der Maßnahmen, denn dazu sind professionelle Strukturen notwendig, die bislang noch nicht existieren. Auch hier greift der DED unterstützend ein, indem er Kontakte vermittelt und schlüssige Konzepte zur Antragstellung und Durchführung von Umweltprogrammen entwickelt und betreut. Denn die zahlreichen Geber wollen genau über die ordentliche Verwendung der Gelder informiert sein.

Hoffnung für ein zerstörtes Paradies

Die Philippinen bestehen aus 7.100 Inseln. Ihnen vorgelagert sind etwa 27.000 km2 Korallenriffe, die durch ihre vielfältigen Wuchs- und Farbvariationen über die Grenzen des Inselstaates hinaus bekannt sind. Doch dieses Ökosystem ist in höchster Gefahr. Denn seit Jahren nagt die Meeresverschmutzung und der rücksichtslose Tourismus an den reizvollen Unterwassergebilden. In der Inselregion Eastern Samar gibt es ein weiteres Problem: Auf der Suche nach dem schnellen Geld zerstören Einheimische die fischreichen Riffe durch Dynamit- und Giftfischerei. Auf rund 70 Kilometern Länge ist die Unterwasserlandschaft entlang der Küstenlinie des Leyte Golfes schon so stark in Mitleidenschaft gezogen, dass Fischfang unmöglich wird. Dadurch entzieht sich die Bevölkerung ihre eigene Lebensgrundlage und verarmt. Und die Korallenriffe können ihre Funktion auch nicht mehr erfüllen: Die Schutzfunktion für bewohntes und bewirtschaftetes Land wird neutralisiert. Küstenstreifen werden überflutet, Häuser weggeschwemmt. Krankheiten und Obdachlosigkeit sind die Folge. Die lokale Nichtregierungsorganisation Guiuan Development Foundation Inc. (GDFI) in Eastern Samar versucht nun diesen Missstand zu beheben. Unterstützt vom DED wurden gemeinsam mit den Fischern aktuelle Umweltdaten diskutiert. Schließlich konnten die Fischer überzeugt werden einige Jahre auf Reisbau umzusatteln, um eine Regeneration der Riffe zu ermöglichen. Der DED half indem er den Kauf von Pflüge- und Erntetechnik subventionierte. Währenddessen überwacht die Gemeinde das zerstörte Riff, damit weitere Schäden durch Dynamitfischer ausgeschlossen werden.

 Bhujung - ein Dorf handelt

 In der Annapurna-Region in Nepal leben 120.000 Menschen, die als Brennstoff größtenteils Holz nutzen. Seit ehedem ist es Tradition die Bäume nicht zu fällen sondern sie bis auf Stummel abzuschneiden. Diese nachhaltige Erntemethode bewirkt, dass sich die Bäume immer wieder regenerieren können. Durch die stetige Zunahme der Bevölkerung wird diese Art der ökologischen Waldnutzung zunehmend unmöglich. Von der Deutschen Stiftung Weltbevölkerung und dem Verein 'Geo schützt den Regenwald' wurde diese Situation zum Anlass genommen ein Projekt zu initiieren. Dieses thematisierte nicht nur die Ressourcensicherung sondern auch Fragen der Familienplanung und der Hygiene. Denn im Durchschnitt werden in Nepal 100.000 Einwohner von fünf Ärzten versorgt. Ein kleines von Japan finanziertes Wasserkraftwerk soll nun in Bhujung Strom liefern und damit auch den Holzverbrauch herunterschrauben. Denn inzwischen drohen an vielen Stellen die Hänge abzurutschen - so marode sind die vom Kahlschlag übriggebliebenen Bäume. In einem Modellprojekt sollen nun 100.000 neue Bäume gepflanzt werden von denen 60.000 bereits Wurzeln geschlagen haben. Meist werden die von den Frauen in den Gewächshäusern großgezogenen Setzlinge Erlen. Denn diese Baumart ist besonders schnellwüchsig und liefert Feuer- und Bauholz. In einem weiteren Projekt wird Tee angebaut. Insgesamt 26.000 Teepflanzen sind inzwischen gesetzt. Doch die wahre Herausforderung beginnt erst dann wenn die deutschen Geldgeber sich aus dem Projekt zurückziehen. Die Nichtregierungsorganisation Annapurna Conservation Area Project (ACAP), die seit 1986 Naturschutzprojekte in der Region durchführt, ist guter Hoffnung, dass die Projekte auch dann weiterlaufen.

Nachhaltige Tropenwaldbewirtschaftung - Traum oder Wirklichkeit

Im Nordwesten Ecuadors sind die tropischen Regenwälder arg gefährdet. Denn die Abholzung verläuft in solch rasantem Tempo, dass es in dieser Region in etwa 20 Jahren keinen Naturwald mehr geben wird. Seit 1991 läuft das Projekt SUBIR (Sustainable Use of Biological Ressources), dass sich die Einführung schonender Tropenwaldbewirtschaftung zur Aufgabe gestellt hat aus. Dabei soll zum einen der Erhalt der naturnahen Wälder gewährleistet und zum anderen die Selbstversorgungswirtschaft der einheimischen Bevölkerung intensiviert werden. Integrierte Anbausysteme mit Wertholzbaumarten, Kleintierhaltung, Fischzucht, Tischlerei sowie die Vermarktung von Kunsthandwerk sind darüber hinaus Teil des Projektes. Sie sollen den Einschlagsdruck auf die Wälder minimieren und der Bevölkerung Einkommen garantieren. Leider musste das von der nordamerikanischen Entwicklungsagentur USAID finanzierte Projekt auch schon Rückschläge hinnehmen. Denn trotz genauster Planungen mussten in zwei Gemeinden die Projekte eingestellt werden. Der Grund: Das in Selbstverwaltung gesteuerte Ökotourismus-Projekt brachte zu wenig Besucher. Langfristig soll der Wald selbst Einkommen schaffen. Damit die Struktur des Waldes erhalten bleibt soll Holzeinschlag möglichst schonend durchgeführt werden. Es ist allerdings fraglich ob dieses Anliegen wirklich realistisch ist - zu groß ist der von Holzfirmen, indigenen Einwohnern und Neusiedlern angerichtete Raubbau. Aufgrund der politischen Veränderungen scheint eine Neuorientierung dennoch machbar. Allein für den planvollen Aufbau und die notwendige Waldinventur sind zusätzliche Subventionen nötig.

 Exklusiv explosiv

 Seit 1820 transportiert die Firma Hasenkamp Gefahrgut in ihren typischen grünen Wagen. Zunächst waren es die vielen kleinen Gruben in Deutschland, die das explosive Material benötigten. Heute geht die Fahrt auch schon mal ins Ausland - beispielsweise zum Lawinensprengen in die Alpen. Oft sind dann sogar zwei Fahrer notwendig. Auch die Fahrt ist oft nicht unproblematisch. Denn es sind Tunneldurchfahrten anzumelden oder auch mal Begleitfahrzeuge anzufordern. Ein Aufwand, der auf die Kosten drückt. Das wissen auch die Spezialisten für Explosivstoff- und Munitionstransport Heinz Handke und Sohn Frank. Der Firma Handke stehen 32 Fahrzeuge nach Ex/III-Anforderungen zur Verfügung. Die 20 Fahrer des Unternehmens müssen sich regelmäßig schulen lassen. Das gilt auch für die Verladearbeiten. Denn gerade bei Sprengstofftransporten muss die Sicherheit an oberster Stelle stehen. Kopfschmerzen bereiten den beiden Geschäftsführern daher Anbieter, die an den notwendigen Sicherheitsmaßnahmen sparen und mit Dumpingpreisen auf den Markt gehen. Denn Sicherheit kostet Geld und das muss sich auf die Frachtrate auswirken.

Wärmedämmung: wohngesund und wohnbehaglich

Seit gut 40 Jahren haben sich Wärmedämm-Verbundsysteme in der Praxis bewährt. Allein durch den Einsatz des WDV-Systems war es möglich über 18 Millionen Liter Heizöl seit 1973 einzusparen. Dennoch sind immer noch Vorurteile gegenüber diesem praktikablen Baustoff verbreitet. Denn viele meinen, dass in einem zu gut gedämmten Haus ein Baracken-Klima herrscht. Doch diese Auffassung ist falsch, denn Häuser mit einer Wärmedämmung nutzen das Wärmespeichervermögen der Außenwände effizient. Damit so wenig Wärme wie möglich verloren geht, ist eine Stoßbelüftung anzuraten. Fachleute raten: Zwei- bis  dreimal am Tage die Fenster öffnen verschwendet deutlich weniger Energie als ständig ein Fenster in Kippstellung zu halten. Nicht ausreichend gedämmte Altbauten weisen oft typische Bauschäden auf, zum Beispiel Feuchteschäden in Dächern oder Schimmelbefall. Oft sorgen Undichtigkeiten in Außenbauteilen sogar für Zugluft und Fußkälte. Höhere Heiztemperaturen sind die Folge. Diese können in den Außenhautbereichen zu Spannungen und zu Rissen führen. Auch andere Bauteile können durch das verstärkte Heizen beansprucht werden. So kommt es zum Teil zu Längenänderungen an Ringankern, Betondecken oder Stahlbetondächern. In schlecht isolierten Altbauwänden verursacht durch die Wand wandernder Wasserdampf teilweise sogar Tauwasser. Auch Schimmelpilzbefall lässt sich durch eine nachträgliche Wärmedämmung wirkungsvoll und wirtschaftlich günstig vermeiden.

Überlebenshilfe für die Natur

Sie schaffen Refugien für bedrohte Arten. Hier lernen wir die Faszination von Flora und Fauna und die Schönheit der Natur zu entdecken und zu respektieren. Die Rede ist von Nationalparks. In Österreich nehmen sie fast drei Prozent der Gesamtfläche ein. Das ist gemessen an Ländern wie Puerto Rico oder Thailand mit jeweils zehn Prozent nicht gerade viel. Andere europäische Länder wie Deutschland oder Frankreich haben jedoch nur einen Anteil von gerade mal ein bis zwei Prozent. Die Nationalparks in Österreich haben viele Aufgaben. Im Mittelpunkt steht natürlich die Natur und der Schutz der genetischen Vielfalt. Der Besucher wird allerdings auch immer wichtiger, und das nicht nur als Einkommensquelle. Denn hier werden dem Erholungssuchenden Abläufe in der Natur verständlich gemacht. Dieser 'sanfte Tourismus' bringt darüber hinaus neue Arbeitsplätze. Wirtschaftszweige wie Bauwesen, Einzelhandel, Beherbergungs- und Gaststättenwesen profitieren von den Nationalparks zunehmend. In der neuen österreichischen Regierungserklärung sind nun zwei neue Nationalparkprojekte vorgesehen: 'Lechtal' und 'Gesäuse'. Weitere in Planung befindliche Nationalparks müssten allerdings von internationaler Bedeutung sein, um durchsetzbar zu sein. Wichtig ist eine internationale Zusammenarbeit auch im Naturschutz. Von besonderer Bedeutung ist allerdings auch die von Österreich entwickelte Dachmarke 'Nationalparks Austria'. Denn dadurch können in Zukunft alle Nationalparks gemeinsam präsentiert und vermarktet werden. Leider werden Nationalparkprojekte von den ortsansässigen Menschen oft skeptisch betrachtet. Dabei stellen sie meist eine Chance dar - entwickeln sie sich oft auch zu Leitbilder der Region.

Rekultivierungshilfe ROFA 

Rofa Pflanzplatten beugen Erosion vor und bringen schnelle Begrünungsergebnisse. Hauptsächliche Einsatzorte sind daher Bergbaufolgelandschaften in Braunkohlerevieren und aufgelassene Tagebaubereiche im Lockergestein. Die von der IGV Institut für Getreideverarbeitung GmbH Bergholz -Rehbrücke und der Agrargenossenschaft Rheinsberg weiterentwickelte Pflanzmatte verringert den Arbeitsaufwand gegenüber herkömmlichen Einzelplatten um 80 Prozent. In einer Stunde können somit etwa 70 m2 verlegt werden. Selbst noch an stark geneigten Böschungen ermöglichen die Rofa-Produkte Bewuchs und damit Befestigung des Untergrundes. Dank eines speziellen Herstellungsverfahrens sind die Rofa-Produkte in der Lage 9 bis 12 Liter Wasser je Quadratmeter zu speichern. Die Rofapflanzplatten bestehen aus gemahlenen Roggen, Kurzschnittfaser, pflanzlichen Materialien, Holz und mineralischen Zuschlägen wie Kalk, Ton oder Lehm und sind somit leicht verfügbar und günstig. Ein zusätzliches Plus auf dem Weg zur Marktfähigkeit ist die enge Zusammenarbeit zwischen Entwicklern und Anwendern.

Klimakonferenz in Den Haag 

Mehr als 180 Staaten waren auf der 6. Weltklimakonferenz in Den Haag vertreten. Auf dem Klimagipfel sollten die ungeklärten Fragen des Kyoto-Protokolls erörtert werden. Die Konferenz scheiterte. Zwei fundamentale Fragen konnten nicht gelöst werden. Zum einen die Anrechnung von Kohlenstoffsenken (z.B. Aufforstung) und zum anderen die Regeln für die so genannten flexiblen Mechanismen. So weigerten sich die USA bis zuletzt die Vorrangigkeit von nationalen Klimaschutzmaßnahmen festzuschreiben. Auch auf dem Gebiet der Senkenaktivitäten zeigten sich die US-Amerikaner unnachgiebig. So stand die EU den Forderungen der sogenannten Umbrella Grupppe (USA und Verbündete) skeptisch gegenüber. Denn eine Anrechnung zusätzlicher Senkenaktivitäten würde das eigentliche Kyoto Ziel verwässern. Auch die Frage ob Aufforstungsaktivitäten in Entwicklungsländern (Clean Development Mechanismen) in Zukunft auf Industrielandziel anrechenbar sein könnten wurde kontrovers diskutiert, führte aber zu keinem Kompromiss. Auch in diesem Punkte konnte die EU die Forderungen der Umbrella Fraktion nicht mit tragen. Mit Spannung wird nun die nächste Konferenz in Bonn erwartet. Bislang ist allerdings unklar, was für eine Stellung die amerikanische Regierung in Zukunft bezüglich der Klimaschutzverhandlungen einnehmen wird. Die Haltung der neuen amerikanischen Regierung hinsichtlich der Kyoto-Ziele war bislang alles andere als positiv.

Natural attenuation

'Natural attenuation', übersetzt 'natürlicher Rückhalt', bedeutet soviel wie 'Natürliche Selbstreinigungsvorgänge' oder 'Kontrollierte Selbstreinigung'. 'Natural attenuation' ist keine Sanierungsmaßnahme im klassischen Sinn, wie sie durch Stichworte wie 'in-situ', 'on-site' oder 'off-site' umschrieben werden. Es ist vielmehr ein Verfahren zur Einschätzung des Selbstreinigungspotentials der Böden. Die Beantwortung der Frage, ob die Abbau- und Fixierungsprozesse im Boden zur Gefahrenabwehr oder Schadensbeseitigung ausreichen ist daher vordringlichstes Ziel. Diese Frage muss im Rahmen von Erkundungsarbeiten geklärt werden. Besteht eine Gefährdung, können dann möglicherweise schon einfachere Verfahren, wie eine Bodenbelüftung zum Erfolg führen. Werden erhebliche Schäden festgestellt, sind umfangreiche Dekontaminationsverfahren unvermeidlich. Ob die für die Gefährdungsabschätzung eingesetzten Untersuchungs- und Bewertungsverfahren ausreichend sind, soll nun in einem Modellprojekt zur Implementierung von 'Natural attenuation' untersucht werden. Dabei spielen langfristige Modelle zur Prognose der Schadstoffentwicklung eine besondere Rolle. Allerdings bleibt abzuwarten, ob die Simulationen durch herkömmliche Feldmethoden bestätigt werden können. Mit Hilfe des 'Natural attenuation'-Ansatzes wird es in Zukunft möglich technische Sanierungen in Relation zu natürlichen Vorgängen zu stellen. Auch werden die Kosten zu dem erreichten Sanierungserfolg ins Verhältnis gesetzt. Dadurch können im Einzelfall unnötige Aufwendungen vermieden werden. Grundlage für ein funktionierendes 'Natural attenuation' sind allerdings verlässliche Prognoseinstrumente. Nur so kann es in die Praxis der Altlastenbehandlung Einzug halten.

Analyse und Bewertung trinkwasserbedingter Erkrankungen durch Parasiten

Schon Robert Koch empfahl Oberflächenwasser, dass für die Trinkwasserversorgung verwendet werden soll, zu filtrieren. 1891 begann der Bau einer solchen Wasserreinigungsanlage in Hamburg. Zu spät. Denn noch vor Inbetriebnahme stellte sich eine verheerende Cholera-Epidemie ein. 16.956 Personen erkrankten, fast 9.000 starben. Danach wurde in hohem Tempo an der Fertigstellung der Anlage gebaut. Inzwischen ist in den Industrieländern ein hoher Standard der Trinkwasserversorgung eingekehrt. Dennoch kam es in den letzten Jahren immer wieder zu trinkwasserbedingten Ausbrüchen durch Parasiten: Giardia lamblia, Cryptosporidium parvum und Toxoplasma gondii spielten dabei die Hauptrolle. Und spätestens nach den Ausbrüchen in Milwaukee erscheint eine Überprüfung der trinkwasserhygienischen Anforderungen mehr als notwendig. Denn im 20. Jahrhundert kam es in der am Lake Michigan gelegenen nordamerikanischen Stadt insgesamt vier Mal zu trinkwasserbedingten Erkrankungen, 1916, 1936, 1938 und 1993. Zwar konnte die Typhussterblichkeit mit Einführung der Desinfektion deutlich gesenkt werden, doch die Zahl der Erkrankten lag bei der letzten Epidemie immerhin noch bei über 400.000 Personen. Besonders problematisch für Milwaukee ist, dass das Wassergewinnungsgebiet, der Lake Michigan, gleichzeitig heute noch mit städtischem Abwasser belastet wird. Dadurch gelangt immer wieder mikrobiell verunreinigtes Wasser in das Wasserwerk. Die Parasiten, die äußerst widerstandsfähig gegenüber Desinfektionsmittel sind, gelangten dadurch immer wieder in das städtische Trinkwassernetz. Besondere Anforderungen sind grundsätzlich schon an die Rohwasserbeschaffenheit, -aufbereitung und -überwachung anzusetzen. So sollten Oberflächenwässer stets aufbereitet und desinfiziert werden, auch wenn eine fäkale Kontamination nicht permanent nachweisbar ist. Die Trübung des Wassers allein gibt keinen entscheidenden Hinweis auf den Grad der Kontamination. Auch für Grund- und Quellwässer sowie angereichertes Grundwasser ist ein Prüfprogramm vorzusehen, um den einwandfreien Zustand des Wassers zu garantieren. Auf keinen Fall darf das Rohwasser eine bestimmte Belastung überschreiten, so dass die Leistungsfähigkeit der Aufbereitung eingeschränkt wird. Es gilt also die Belastung der Gewässer schon im Vorfeld einzuschränken, um schon am Start des Multi-Barrieren-Systems einer möglichen Seuchengefahr entgegenzuwirken.

Die Membranfiltration bei der Trinkwasseraufbereitung in Deutschland 

Druckbetriebene Membranfilteranlagen setzen sich in der Wasseraufbereitung immer mehr durch - und das nicht nur weil es eine attraktive Alternative zu herkömmlichen Verfahren darstellt, mit denen Partikel zurückgehalten werden können. Denn die Ultra- und Mikrofiltration versperrt auch pathogenen Mikroorganismen den Weg in das Trinkwassernetz. So hat die Membran allein als Polizeifilter langsam ausgedient. Steigende Anforderungen an das aufbereitete Trinkwasser sowie sinkende Kosten für Erwerb und Betrieb einer Membrananlage machen den Einsatz dieser Anlagen, die Makromoleküle bis in eine Größenordnung von fünf  Nanometern zurückhalten können, attraktiv. So werden durch Desinfektionsmittel nur wenig angreifbare Parasiten wie z.B. Giardia und Cryptosponridien sicher zurückgehalten. Produktionskapazitäten und installierte Anlagen steigen inzwischen exponentiell. Die größten Anlagen, die bis zu 6.500 m3/h durchsetzen, befinden sich in den USA, Frankreich und England. Grundsätzlich kommen zwei Verfahren zum Einsatz: Die Kapillarmembran hat den Vorteil einer relativ hohen Packungsdichte. Außerdem ist in den schlauchförmigen Membranen insbesondere die Rückspülbarkeit gut praktikabel. Eine Standardisierung des Ultrafiltrations-Anlagenkonzeptes, das mit Drücken von bis zu 5 fünf Bar arbeitet und sogar Makromoleküle zurückhält, wird noch auf sich warten lassen. Dieses Verfahrenskonzept ist allerdings zukunftweisend. Mit Hilfe des sogenannten 'cross-flow' könnte die Verstopfung von Kapillaren deutlich verringert werden. Neue Trinkwassergrenzwerte würden den Einsatz der Ultrafiltration darüber hinaus forcieren. Es werden Anwendungsbeispiele vorgestellt: Verbandsgemeinde Hermeskeil, Wasserwerk Kreis Aachen (WdKA). Vom DVGW mitfinanzierte Projekte boten die Möglichkeit die Aufbereitung von Karstwässern sowie von eisen- und manganhaltigen Rückspülwässern zu untersuchen.

Zur Phosphorverfügbarkeit von Klärschlamm

Phosphor ist ein enorm wichtiger Pflanzennährstoff. Leider reichen die abbaubaren Phosphorvorkommen nur noch wenige Jahre. In Hinblick auf das schnelle Wachstum der Weltbevölkerung, 10 Mrd. Menschen im Jahre 2100, sind die Weltphosphorbestände verantwortungsvoll einzusetzen. Es gilt daher besonders Stoffkreisläufe zu schließen. Klärschlamm beinhaltet eine hohes Maß an Phosphor und sollte daher auf den Acker aufgebracht werden. Die Phosphorverfügbarkeit und damit die Düngewirkung des Klärschlamms hängt allerdings von einer Vielzahl von Parametern ab. In Laboruntersuchungen und unter Zuhilfenahme der kontinuierlichen Wasserextraktion wurde die Phosphorfreisetzungsgeschwindigkeit einer Vielzahl möglicher Düngemittel untersucht. Es zeigte sich, dass die beiden geprüften Klärschlämme eine nur geringfügig höhere Freisetzungsrate zeigten als Apatit oder Rohphosphat. Auch in Vegetationsversuchen waren ähnliche Verfügbarkeitsraten auszumachen. Die P-Bereitstellung des Bodens sollte möglichst über eine durch die Wurzeln gut erreichbare schnell verfügbare Phosphorquelle abgedeckt werden. Wirtschaftsdünger, Mineraldüngemittel und Klärschlamm sind in dieser Hinsicht gleichwertig. Allerdings sind Al/Fe-Bindungen in der Dritten Reinigungsstufe, die den Phosphor nur noch wenig verfügbar machen, zu vermeiden. Daher ist beim Bau neuer Kläranlagen auf ein Verfahren der biologischen Phosphoreliminierung zu orientieren. Klärschlämme können dann im Verlaufe der Mineralisierung auf gut mit Phosphor versorgten Böden den Phosphorbedarf der Pflanze problemlos abdecken. 

Den Glutlawinen auf der Spur

Merapi bedeutet übersetzt Feuerberg. Und diesen Namen hat sich der zurzeit 2961 Meter hohe Berg wahrlich verdient. Denn in den vergangenen 450 Jahren brach der auf der südostasiatischen Insel Java gelegene Vulkan alle sieben Jahre aus. Oft mit verheerenden Folgen für Mensch und Umwelt. 1994 kam der Ausbruch derart unvermittelt, dass nur wenige der am Fuße des Berges Ansässigen die Zeit hatten vor dem Schuttstrom und der heißen Aschewolke zu fliehen. 66 Menschen starben, viele erlitten Verbrennungen. Die Rufe nach einem Warnsystem werden daher immer lauter. Zurzeit bleibt der steigenden Bevölkerung gerade mal acht Minuten Zeit, um sich in Sicherheit zu bringen. Und das obwohl ein dichtes Messnetz das vulkanische Geschehen Tag und Nacht aufzeichnet. Aber bis jetzt können die vielfältigen Messsignale noch nicht klar gedeutet werden. Dazu gehört zum Beispiel auch das sogenannte 'Tremor'. Die Ursache für die gleichmäßigen und lang anhaltenden Vibrationen sehen die Wissenschaftler in Schwingungen der Magmasäule in den Gängen und Schloten des Vulkans. Um diese vulkanologischen Prozesse besser zu verstehen, haben Wissenschaftler des GeoForschungsZentrum Potsdam ein Geländeobservatorium eingerichtet. Der Merapi liegt an der Schnittstelle zwischen eurasischer und indoaustralischer Platte. In diesem Bereich, in dem sich eine Subduktionszone ausgebildet hat, kommt es immer wieder zu den besonders gefährlichen explosiven Ausbrüchen. Die Ausbrüche am Tambora (1815), Krakatau (1883) und des Pinatubo (1991) lagen alle in dieser Zone und waren in Südostasien die fünf schwersten der letzten zwei Jahrhunderte.

Die 29 Gebote Djambheshwars

Das Volk der Bischnoi lebt in einem der trockensten Regionen der Welt, der Wüste Thar, im Grenzgebiet zwischen Indien und Pakistan. In dem unwirtlichen Gebiet sind Temperaturdifferenzen von über 50 Grad Celsius pro Tag keine Seltenheit. An dieses risikoreiche Umfeld, in dem Dürren eher die Regel als die Ausnahme sind, hat sich die Bischnoi-Gemeinschaft perfekt angepasst. Schon im 15. Jahrhundert hat das heute 98.000 Menschen zählende Volk eine religiös geprägte Ökoethik entwickelt. Ihr religiöser Führer: Djambeshwar. Von den 29 Geboten, die er aufstellte, zeugen viele von dem großen Respekt gegenüber dem Pflanzen- und Tierleben. So sollen die Bischnoi kein ungefiltertes Wasser trinken, um ja keine Tiere zu verschlucken. Auch die Abholzung von Bäumen ist tabu. Allein abgefallene oder tote Äste dürfen verwendet werden. Für ihre Öko-Überzeugung führten die Bischnoi sogar Kriege. Einer Legende zu Folge starben im Jahre 1616 336 Bischnoi bei der Verteidigung ihrer Bäume. Noch heute sind nicht nur die Bischnoi-Dörfer dicht mit Bäumen bestellt. Auch auf den Feldern spenden Bäume Schatten und verhindern die Austrocknung der Anbauflächen. Seit alters her wurde auch der Übernutzung der Felder ein Riegel vorgeschoben. Ein System von mehrjährigen Brachen verhindert noch heute eine Übernutzung der Felder. Noch berichtet die Gemeindezeitschrift der Bischnoi in ihrer Gemeindezeitschrift vorwiegend von umweltbezogenen Themen. Aber auch in die Bischnoi-Gehöfte kehrt langsam ein Wertewandel ein. Für die Jüngeren treten immer mehr innovative und ökonomisch orientierte Entscheidungen in den Vordergrund.

'Smart Structures': Weniger Schwingungen - weniger Lärm 

Schwingungen treten in einer Vielzahl technischer Anwendungen auf. Meist sind sie unerwünscht. Konstruktiv werden diese Vibrationen heutzutage durch passive Systeme wie Dämmmaterialien oder Tilgergewichte vermieden. Der Nachteil: Ein höheres Gewicht. In Zukunft sollen störende Schwingungen durch 'intelligente Werkstoffe' vermieden werden. Diese aktiven Systeme erkennen lärm- und verschleißfördernde Vibrationen direkt und reagieren mit gezielten Gegenschwingungen. Besonders für den Bereich des Fahrzeugbaus sind solche Systeme gefragt. Sogenannte smart structures sollen die Schwingungen messen und in Echtzeit Gegenmaßnahmen einleiten. Dabei machen sich die Ingenieure verschiedene physikalische Effekte zunutze. Piezokeramische Aktoren zeichnen sich zum Beispiel durch hohe Stellkräfte aus. Auch elektrorheologische Flüssigkeiten arbeiten mit einem elektrischem Feld. Die geänderten Strömungseigenschaften der Flüssigkeit haben dann Einfluss auf die Dämpfungskraft. Die mathematische Beschreibung der Schwingung zum Beispiel von Platten ist inzwischen relativ unproblematisch. Mit dem System der finiten Elemente erhält man Ausschnitte für die gewöhnliche Differentialgleichungen gelten. Diese sind einer Computerauswertung leicht zugänglich. Wichtig für die Erkennung der charakteristischen Schwingungsform einer Platte eines Autodaches o.ä.  sind allerdings nicht nur Sensoren sondern auch die sogenannten Beobachter. Sie rekonstruieren elektronisch die Wirklichkeit und erkennen den exakten Schwingungszustand der Platte. Regler berechnen ein Steuersignal, dass an die Aktoren weiter gegeben wird. Die Schwingungen klingen deutlich schneller ab als im ungeregelten Zustand. Besonders kompliziert ist allerdings die Dämpfung von zufälligen Ereignissen wie Straßenunebenheiten, da hier noch die theoretischen Grundlagen fehlen.

Dioxine: Entwarnung unter Vorbehalt

Dioxine beeinflussen schon in kleinsten Dosen das menschliche Hormon- und Immunsystem negativ. In hohen Dosen führen sie zum Krankheitsbild der Chlorakne. Bei Meerschweinchen liegt die tödliche Dosis für Dioxine bei 0,6 Mikrogramm pro kg Körpergewicht. Der bekannteste Vertreter dieser Stoffgruppe ist das sogenannte Seveso-Gift: 2,3,7,8-Tetrachlordibenzo-p-dioxin reichert sich wie alle anderen Dioxinvertreter im Fettgewebe an. Denn das aus zwei Phenylringen mit Sauerstoffbrücken bestehende Umweltgift ist fettlöslich. Die Halbwertzeit bis zum Abbau liegt bei sieben bis zehn Jahren. Dank hochempfindlicher Labortechnik kann Dioxin nun auch im menschlichen Blutfett nachgewiesen werden. Die Empfindlichkeit der Geräte reicht bis in den Femtogrammbereich (10 hoch -15). Vom Bundesumweltamt wurde eine Aufnahme von durchschnittlich ein bis zehn Pikogramm (10 hoch -12) pro kg Körpergewicht täglich als tolerierbar angesehen. Anfang der 90er Jahre begann an der Uni Bochum eine Studie, die das Vorkommen von Dioxinen im Blut unbelasteter Personen untersuchte. Es zeigte sich, dass die Dioxinblutwerte mit dem Lebensalter deutlich zunehmen. Geschlechterspezifische Unterschiede konnten allerdings nicht nachgewiesen werden. In einer weiteren Studie wurde der Einfluss der Ernährungsgewohnheiten auf die Dioxinbelastung untersucht. Es wurde gezeigt, dass selbst Personen, die sich vegetarisch ernähren nur geringfügig weniger Dioxingehalt im Blut aufweisen als Personen mit normaler Mischkost. Besonderen Einfluss auf die Dioxinkonzentration im Blut haben Gewichtsveränderungen sowie das Stillen. Dabei kommt es bei der Mutter zu einer Dioxinabnahme während beim Kind durch die Muttermilch eine Dioxinzunahme zu verzeichnen ist. Andere Untersuchungen zeigen, dass sich die Hintergrundkonzentration von Dioxin in den letzten Jahren deutlich gesenkt hat.

Vom Umgang mit dem Risiko 

Das Neuwieder Becken liegt innerhalb einer Zone aktiven Vulkanismus. Erst vor gut 11.000 Jahren fand der letzte Ausbruch statt, der zur Bildung des Sees von Maria Laach führte. Aus dem kesselförmigen Krater steigen noch heute Gase auf, die seine Herkunft belegen. In diesem Gebiet sind aber nicht allein Vulkanismus und Erdbeben als Risikoherde zu nennen. Auch Hochwasser, Gefahrguttransporte und havarierte Chemiefabriken gehören zu den potentiellen Gefahrenquellen. Allein der extrem unwahrscheinliche Eintritt eines Vulkanausbruchs könnte in der stark besiedelten Region etwa 350.000 Menschen betreffen. Auch bei einer gelungenen Evakuierung wäre ein großer Teil der Infrastruktur der Zerstörung preis gegeben. Zwei Drittel der Bevölkerung in der Region glaubt an ein Wiederaufleben des Vulkanismus. In dem vom DFG geförderten Projekt sollte nun mit Hilfe der Wahrnehmungsforschung eine Art Rangliste der Risiken erstellt werden, um die Akzeptanz neuer Technologien zu erhellen. Dazu wurde ein Vergleich verschiedener Risikoträger vorgenommen. Nach Meinung der Befragten ist ein Vulkanausbruch relativ unwahrscheinlich. Zehnmal eher tritt dagegen wohl ein Chemie- oder Atomunfall ein Erdbeben oder eine Überschwemmung ein. Noch wahrscheinlicher sind in den Augen der Probanden Verkehrsunfälle oder Hausbrände. Schließlich wurden die Personen nach ihrem persönlichen Handeln im Erstfall befragt. Es zeigte sich, dass das individuelle Handeln nur einen geringen Stellenwert hat. In einem Gebiet, dass technisch weit fortgeschritten ist, zeigte sich die Risikokommunikation im Resumee der eines Drittweltlandes vergleichbar.

Visualisierung als Basis für Kommunikation 

Bei der Rekultivierung von ehemaligen Abbaustätten haben Planer und Bauträger immer wieder ein Problem: Die Kommunikation funktioniert nicht. Denn meist sind die bislang genutzten Pläne, Modelle oder Fotomontagen nicht dazu geeignet ein anschauliches Bild der Veränderungen zu vermitteln. Ein neues Visualisierungsverfahren gibt nun Nachhilfe in Sachen Vorstellungsvermögen und hilft damit die Finanzierungsbereitschaft möglicher Investoren sowie die Kooperation von Bürgern und Behörden zu wecken. Denn es ermöglicht landschaftliche Veränderungen realitätsnah und naturgetreu darzustellen. Grundvoraussetzung für den Einsatz der umfangreichen Software, die aber inzwischen auch auf dem leistungsfähigen Home Computer läuft, sind punkt- und linienförmige Höhendaten, die das Ist-Gelände exakt abbilden. Die Modellierung erfolgt dann über Vermaschungen, GRID oder TIN. Nach der lagegenauen Projektion der Nutzung auf das Geländemodell beginnt die Bildberechnung. Gerade bei der Abwägung zwischen verschiedenen Varianten leistet diese Art der Visualisierung gute Hilfestellungen. Auch beim Rückbau von Gewässerläufen hilft die Visualisierung der Phantasie auf die Sprünge. In Zukunft wird die Visualisierung von Landschaft im Planungs-, Entscheidungs- und Vermarktungsprozess einen ähnlich hohen Stellenwert einnehmen wie im CAD-Bereich. Allerdings sind die Anforderungen an Vorwissen und Handling der Programme extrem hoch. So wird es wahrscheinlich bis auf weiteres extern als Dienstleistung vergeben werden.

Ein Fisch - wie lässt er sich als Indikator für die Qualität seiner Umwelt einsetzen?

Seit Jahrhunderten sind die Klagen über eine Abnahme der Fischpopulation die gleichen. Auch heute machen sich Angler und Verantwortliche Sorgen um den Fischbestand. Denn die Einflüsse der Umwelt auf das Ökosystem Wasser sind teilweise recht massiv. Doch wie stellt man die Veränderungen der Umwelt am besten fest? Untersuchungen an der Universität Bern haben nun gezeigt, dass der Fisch selbst ein hervorragender Indikator für die Veränderungen der Umwelteinflüsse ist. So reagieren Fische schon auf geringe Temperaturerhöhungen mit der Produktion eines Stressproteins. Dieser Biomarker findet sich dann sowohl in der Haut als auch in den Kiemen. Auch Schwermetallbelastungen sind durch Fische indizierbar. Metallothioneine fanden sich in den Kiemen von Forellen, die vor einem Abwasserrohr eingekäfigt waren. Auch Hormone wirken sich im Wasser auf Fische aus. Unterhalb einer englischen Kläranlage war bei 100 Prozent der gefangenen männlichen Rotaugen eine Verweiblichung der Hoden zu finden. Im weiteren Verlauf der Untersuchungen wurden verschiedene Biomarker kombiniert, um so die Aussagekraft der Reaktion von Indikatoren zu steigern. Parallel dieser Untersuchungen läuft das Projekt Fischnetz. Es hat sich zum Ziel gesetzt Fischrückgang sowie deren gesundheitliche Beeinträchtigungen zu dokumentieren und die Ursachen zu analysieren. Zusammenfassend zeigte sich, dass sowohl das passive als auch das aktive Biomonitoring spezielle Anwendungsvorteile inne haben.

Grundwasser - der Bürger nutzt es, der Landwirt verschmutzt es

Noch in den fünfziger und sechziger Jahren wurden immer wieder Säuglinge, deren Durst aus Hausbrunnen gestillt wurde Opfer der Blausucht. Der Grund: Das im Wasser gelöste Nitrit reagiert mit dem Hämoglobin. Es entsteht Methämoglobin. Die Folge: Inneres Ersticken, denn der Transport von Sauerstoff wird unterbunden. Zugegeben. Nitrit entsteht oft nur unter der Einwirkung von Bakterien aus Nitrat. Aber das Nitrat selbst hat als eines der am häufigsten Verbindungen des Stickstoffs noch eine ganz andere unangenehme Nebenwirkung. Denn unter Umständen können sich im Körper Nitrosoverbindungen und Amine bilden. Und diese Mischung ist ganz besonders heikel, denn sie verursacht Krebs. Untersuchungen an 1.284 Messstellen haben zwar gezeigt, dass die Nitratkonzentrationen im Grundwasser in den letzten Jahren leicht zurückgegangen sind, doch seit 1994 sind die Nitratkonzentrationen unverändert. Der Grund liegt in der großen Mobilität der Bodenschichten für Nitrat. Es gelangt dadurch sehr schnell von der Wurzelzone in tiefere Bodenschichten und schließlich ins Grundwasser. Dieses Phänomen kommt besonders außerhalb der Wachstumsphasen der Pflanzen zum Tragen. Diese Problematik wurde schon in der 1996 eingeführten Düngemittelverordnung berücksichtigt. Eine Verschärfung dieses Gesetzes ist die Schutzgebiets- und Ausgleichsverordnung (SchALVo). Die Höhe des eingesetzten Düngemittels wird nun von der schon vorhandenen Nitratbelastung im Grundwasser abhängig gemacht. Das größte Problem aber ist, dass Nitrat im Boden eine Art Zeitbombenwirkung hat. Mitunter dauert es Jahre bis sich Nitratminderungsmaßnahmen im Oberboden in geringere Nitratkonzentrationen im Grundwasser umsetzen. Aber auch Pestizide werden immer wieder im Grundwasser nachgewiesen, die größtenteils aus der Landwirtschaft stammen. Es werden die Charakteristika von Atrazin, Terbuthylazin, Dichlobenil, Bentazon, Bromacil, und Hexazinon besprochen.

Rumänien und Bulgarien: Ist die Talsohle überwunden?

Die Wirtschaft in Bulgarien und Rumänien erholt sich nur langsam. Das gilt auch für die Siedlungswasserwirtschaft. Früher wurden Anschaffungen, Investitionen und Reparaturen des Leitungsnetzes noch von zentraler Stelle aus organisiert und bezahlt. Meist wurde aber an wichtigen Stellen in der Infrastruktur gespart, so im Wasserleitungsrohrnetz. Die Folge: Leckagen. Die Wasserverluste betragen oft mehr als fünfzig Prozent. Heute stehen die ehemaligen Ostblockstaaten vor dem Problem die früheren Versäumnisse auszugleichen. Dazu ist ein gewaltiger Finanzbedarf notwendig, der aber noch nicht vorhanden ist. Einer Wasserpreiserhöhung steht das geringe Einkommen der Haushalte gegenüber. Auch die Kosten über die Betriebsausgaben zu dämpfen ist nicht machbar. Denn Pumpen und Anlagen sind so veraltet, dass die Energie- und Unterhaltskosten immens sind. Ferner ist die Beschäftigungszahl in den Wasserbetrieben stets zu hoch. Es sind daher spezielle Strategien zu ermitteln, um die notwendigen Sanierungsmaßnahmen einzuläuten. Privatisierung und Kapitalstrom aus dem Ausland sind in diesem Zusammenhang mögliche Ansatzpunkte. Die Internationale Vereinigung der Wasserwerke (IAWD) versucht Unternehmen zu Finanzmitteln zu verhelfen. Gleichzeitig widmet sie sich der Behebung von Mängeln und der Analyse der Wasserqualität.

Ökologische Wasserwirtschaft

Die modernen Städte sind nur überlebensfähig solange Energie so günstig bleibt wie jetzt. Die Stadt hört auf zu existieren, sobald der Ölhahn zugedreht und Transport sowie Straßenbau eingeschränkt wird. Um uns aus dieser Abhängigkeit zu befreien, muss in Zukunft in großem Stile in Forschung investiert werden. Das gilt auch für die Wasserwege, die innerhalb der möglichen Szenarien besonders zukunftsträchtig sind. Aber Wasserwege nehmen das auf, was wir in sie hineinpumpen. Letztendlich müssen wir das End-of-Pipe Handeln überwinden. Nur so lassen sich kostenintensive Sanierungen wie am Rummelsburger See vermeiden. Hier waren die prognostizierten Kosten für die Entnahme des Schlamms so hoch, dass man beschloss eine günstigere Lösung zu finden. An der Technischen Universität Berlin wurden daher die Entschlammungsmaßnahmen optimiert. Grundsätzlich sollte besonders die Funktion des Naturhaushaltes im Vordergrund solcher Sanierungsmaßnahmen stehen. Denn Gewässer haben sich während der Evolution nicht nur zu einem Transportsystem sondern auch zu einem Teil eines Stoffkreislaufes entwickelt, dass schon längst nicht mehr Gleichgewicht und Einklang mit der Natur steht. So beeinflussen zum Beispiel Phosphate den Naturhaushalt immens. Auch innerhalb der Städte ist diese Balance schon längst nicht mehr vorhanden. Der Boden der Städte ist überhitzt. Die Temperaturen auf den Dächer erreichen zum Teil über 70 Grad Celsius. Diese Heißluftemissionen könnten durch den Einsatz und die Evaporation von Grauwasser auf den Dächern gemindert werden.

Gewässerbezogene Anforderungen an die Stadtentwässerung in Berlin

Entscheidend für die Berliner Trinkwasserqualität ist die Qualität der Oberflächengewässer. Denn große Teile des Rohwassers werden indirekt über die Uferfiltration gewonnen. Seit 1990 ist das Spreewasser aufgrund der geringeren Einleitungen aus Braunkohletagebau stetig abgesunken. Die Qualität des abfließenden Wasser hat sich dadurch verschlechtert. Auch die hohe Nutzungsintensität der Flussseen als Badegewässer und zur Naherholung im Einflussbereich von Regen- und Abwasserkanälen birgt Konfliktpotentiale. Derzeit droht Berlin ein Zwangsgeldbescheid, da es die mikrobiologisch-hygienischen Anforderungen in den Gewässern nicht erfüllen kann. Trotz großer Investitionen und bemerkenswerter Verbesserungen sind zum Beispiel Probleme wie die Algenmassenentwicklung noch nicht gelöst. So liegen die Fließgewässer in Berlin/Brandenburg insgesamt zwei Gewässergüteklassen unter der Zielklasse. Berlins besondere Wassersituation, es gewinnt seine Trinkwasser ausschließlich aus den eigenen Ressourcen, machen eine langfristigen Aktionsplan notwendig. Aus technischen, finanziellen und Umweltgesichtspunkten stehen besonders dezentrale Methoden der Regenwasserbehandlung im Vordergrund. Wasserwirtschafter und Stadtplaner sind in diesem Zusammenhang gefordert enger zusammen zu arbeiten und neue Formen der Partnerschaft zu bilden. Eine nachhaltige Wasserwirtschaft kann zur Attraktivität Berlins beitragen.

Gestaltungspotentiale der Stadthydrologie

Das urbane Gewässer am Potsdamer Platz in Berlin ist ein Novum. Denn es integriert Regenwasserbewirtschaftung und öffentliche Freiraumgestaltung. Das beginnt schon wenn der Regen auf den Dachflächen auftrifft. Denn ein großer Teil der Dächer ist begrünt und gibt dem Wasser Rückhalt. Das überschüssige Wasser wird dann in Zisternen gespeichert und dient als Wasser für Toilettenspülungen und für die Bewässerung von Grünzonen. Auch das gesamte Gewässer basiert auf Regenwasserbasis. Das Wasser wird unterschiedlichen Reinigungsstufen zugeführt, um eine gute Qualität und hohe Transparenz zu erreichen. Bereits in den Zisternen findet eine Sedimentation von Schwebstoffen statt. Siebe und Filter tun dann ein Übriges. Mit Hilfe von Strömungssimulationen wurden darüber hinaus die Abflüsse optimiert, so dass der Wasseraustausch verbessert werden konnte. Die Kaskaden haben neben dem ästhetischen Wert den Zweck Wasser mit Sauerstoff anzureichern. Auch in der Nachbarschaft vom Expogelände soll in Zukunft mit Regenwasser vorbildlich umgegangen werden. So soll zum Beispiel Straßenwasser nicht einfach über die Abwasserkanäle verschwinden. Es soll vielmehr über öffentliche Grünflächen und -streifen geführt und dort in Mulden versickert und damit gereinigt werden. Überschüssiges Regenwasser soll darüber hinaus entlang von Retentionsflächen der Stadtbahn aufgefangen und nur schrittweise wieder abgegeben werden. Es ist zu hoffen, dass durch diese Art der offenen Regenwasserbewirtschaftung auch in Kronsberg das Thema Wasser tiefer ins Bewusstsein der Menschen eindringt.

Regenwasserbewirtschaftung in der Rummelsburger Bucht

Der Rummelsburger See ist stark durch Regenwasserzuflüsse belastet. Da ein Wasseraustausch mit der Spree kaum statt findet, steht der See oft am Rande seiner ökologischen Belastbarkeit. An der Uferregion des Sees waren weitere Neubauten geplant. Das Wasser des Sees sollte aber nicht zusätzlich belastet werden. Daher wurde nach Versickerungsmöglichkeiten gesucht. Die Lösung des Problems war das Mulden-Rigolen-System, das aus oberirdisch begrünten Mulden besteht. Ein Ableitungssystem sorgt dafür, dass überschüssiges Wasser verzögert in den Vorfluter gelangt. Als Abwandlung dieses Mulden-Rigolen-Prinzips wird das System Innodrain eingesetzt. Es ist besonders in schmaleren Straßen vorteilhaft. Bei beengten Platzverhältnisse ersetzt es die geböschten Mulden durch so genannte Tiefbeete, die dann als Kurzzeitspeicher fungieren. Grundsätzlich ist auch für dieses System eine wasserrechtliche Erlaubnis erforderlich. Da in Berlin zurzeit ein Mindestabstand zwischen Muldensohle und mittlerem Grundwasserstand diskutiert wird und das Einleiten in die Grundwasserschutzzone III nicht mehr zugelassen werden soll, ist der Einsatz dieses Konzeptes möglicherweise recht eingeschränkt. Untersuchungen haben allerdings ergeben, dass das Gefährdungspotential zumindest für den See im Vergleich zur direkten Kanalisationseinleitung oder im Falle einer vollflächigen Pflasterung äußerst gering ist.

Zur hydrologischen Situation des Landes Berlin

Im Land Berlin leben über 3,4 Millionen Menschen, die mit Trinkwasser versorgt werden wollen. Grundwasser wird überwiegend im eigenen Stadtgebiet gefördert. Seit der Wende ist die Menge des Rohwassers deutlich zurück gegangen. Die Beanspruchung der Grundwasserleiter ist dennoch groß, so zum Beispiel durch große Baumaßnahmen mit tiefen Kellern. In geomorphologischer Hinsicht liegt Berlin innerhalb der Norddeutschen Tiefebene. Bis in eine Teufe von 200 m liegen Ablagerungen der Eiszeiten vor. Von Südost nach Südwest wird die Stadt durch das Warschau-Berliner Urstromtal gequert. Nördlich und südlich erstrecken sich die Grundmoränenplatten - der Barnim im Norden, die Teltowplatte im Süden. Ab 200 m sind überwiegend stark mineralisierte Wässer vorhanden, die nicht als Trinkwasser brauchbar sind. In letzter Zeit hat sich dieses Vorkommen als günstig für die Wärme- und Kältespeicherung erwiesen. Zurzeit befindet sich eine Anlage für die Wärmeversorgung des Deutschen Reichstags in der Erprobung. Von größter Bedeutung für die Trinkwasserversorgung ist das darüber liegende Süßwasserstockwerk. Dieser Bereich ist durch eine differenzierte Abfolge von bindigen und nichtbindigen Materialien geprägt. Insgesamt sind im Berliner Raum vier Hauptgrundwasserleiter ausgeprägt. Besondere Bedeutung für die Trinkwasserversorgung hat dabei der zweite Grundwasserleiter, der im Urstromtal oberflächennah ansteht. Diese Grundwasserhorizonte, die zur Trinkwasserförderung dienen, werden durch den so genannten Rupelton vom darunter folgenden Salzwasserhorizont getrennt.

Sedimentqualität des Finowkanals 

 Der Finowkanal folgt dem Thorn-Eberswalder Urstromtal. Er ist der erste Kanal, der die Havel mit der Oder verband. Er wurde bereits 1620 fertig gestellt. Heute dient er nur noch dem Erholungs- und Sportbootverkehr. Denn mit der Eröffnung des Oder-Havel-Kanals 1914 verlor der Finowkanal viel von seiner Bedeutung. In den nächsten Jahren soll unterstützt durch die Europäische Union eine Sanierung des Kanalbettes vorgenommen werden. Dazu sollen über 80.000 m3 Kanalschlamm entnommen werden. Orientierende Untersuchungen sollten klären inwiefern sich im Schlamm Schwermetalle und organische Schadstoffe bzw. Nährstoffe abgelagert haben. Es zeigte sich, dass sich über der eigentlichen Gewässersohle eine 0,2 bis 0,6 m mächtige Kanalschlammschicht aus Sandmudden abgelagert hat. Die höchsten Verunreinigungen treten innerhalb der Ortsteile Finow und Kupferhammer auf. Besonders die Gehalte an Quecksilber, Zink, Cadmium und Blei waren auffällig. Ehemalige chemische und Metall verarbeitende Betriebe sind die mutmaßlichen Quellen der Kontaminationen. Auffällig ist, dass besonders Kupfer im gesamten Gebiet den natürlichen Hintergrundwert übertrifft. An der Heegermühler Schleuse war dieser im Durchschnitt um das 44fache erhöht. Auch die Testpalette mit standardisierten Biotests zeigte in den industriell genutzten Kanalteilen besonders hohe Hemmwerte.

Neues Nanofiltrationsverfahren für mehr Reinheit 

Biologisch schwer abbaubare Stoffe sollen in Zukunft mit Hilfe der Nanofiltration aus dem Abwasser entfernt werden. Das 1921 gegründete Unternehmen Vogelbusch arbeitet an einer Membran, die zum Beispiel Farbstoffe zurück halten sollen während Salze passieren können. Das im Institut für Verfahrenstechnik in Linz hat verschiedene Verfahrensschritte untersucht, um Abwässer der Biotechnologie zu entfärben. Die neue Membran soll hohe Durchsatzleistungen bei niedrigen Kosten ermöglichen. Die Kapazitäten bei Hefe liegen bei zu 100 m3/h. Das Prinzip der Nanofiltration ist erst seit Mitte der 80er Jahre bekannt. Der Rückhalt bei der Nanofiltration liegt zwischen Ultrafiltration und Umkehrosmose. Die Filter liegen im Größenbereich von wenigen Nanometern (ein Milliardstel Meter).

Schwermetallbelastung  von Sedimenten und Schwebstoffen in Berlin

Die Seeböden der Berliner Gewässer sind teilweise stark mit Umweltchemikalien und Schwermetallen belastet. Besonders an der Kleinen-Wannsee-Kette, der Unterhavel und der Spree zeige7n sich hohe Messwerte. Ein Austausch des belasteten Sedimentkörpers ist aufgrund der großen Flächen finanziell nicht machbar. Vielmehr werden diese Böden vom Senat ständig beobachtet. Bohrkerne drehen das Rad der Industriegeschichte zurück. Die Kontamination begann mit der einsetzenden Industrialisierung und reicht bis etwa 3,4 m Sedimenttiefe. Waffen und Munitionsproduktionen um die Jahrhundertwende spiegeln sich in Pb- und Zn-Ablagerungen wider. In den oberen Sedimentschichten finden sich dann Cu und Cd-Ablagerungen, die aus der Zeit nach dem Zweiten Weltkrieg stammen. Eine besonders hohe Belastung rührt aus den Einleitungen in den Teltow-Kanal. Diese belasten nicht nur die Kleine-Wannsee-Kette sondern auch den Potsdamer Raum. Die Zuflüsse in den Berliner Raum sind dagegen relativ unbelastet. Extreme Belastungen finden sich in der Rummelsburger Bucht. Schwebstoffuntersuchungen an der Messstation Sophienwerder ergaben, dass die Schwermetallfrachten noch heute stark überhöht sind. Sie übertreffen die Zielvorgaben der LAWA ausnahmslos. Besonders während der Frühjahrs und bei Starkregenereignissen waren besonders hohe Messwerte zu verzeichnen.

Vorkommen von Organozinnverbindungen in der Elbe

Organozinnverbindungen sind mitunter die giftigsten Umweltsubstanzen. Besonders kritisch ist Tributylzinn (TBT), dass in Antifouling-Anstrichen verwendet wird, da es auch für andere Organismen hochtoxisch ist. So können schon geringste Konzentrationen zu Sterilität bei einigen Schneckenweibchen führen. 80 Prozent der Welthandelsflotte nutzen derzeit noch TBT, so dass das Gift auch weit in die Elbe eingetragen wird. Im Bereich des Hamburger Hafens sind die oberflächennahen Sedimente stark mit TBT belastet. Organozinnverbindungen werden aber auch über Abwässer der Butylzinn verarbeitenden Industrie eingeleitet. Haupteinleiter in die Elbe ist eine Fabrik in Bitterfeld. In jüngster Zeit werden verstärkt Monitoring-Organismen für Organozinnverbindungen verwendet. Besonders bewährt haben sich Brassen und Dreiecksmuscheln.

Schwermetallbelastung der Sedimente in Baden-Würtemberg

An 850 Untersuchungsstellen in Baden-Württemberg wurden die Schwermetallgehalte von Sedimenten untersucht. Die Bewertung gemäß LAWA ergab folgendes Bild: Die Belastung mit Schwermetallen wie Quecksilber, Chrom und Nickel ist gering. Allein Quecksilber ist stellenweise höher angereichert. Cadmium, Kupfer, Blei und Zink sind dagegen weit konzentrierter angereichert. Besonders hohe Gehalte wurde in Gewässern festgestellt, die an ehemaligen Bergbaugebieten liegen, z.B. Wiese, Dreisam, Leimbach. Erhöhte Werte haben sich auch im Bereich ehemaliger Galvanikbetriebe ergeben, z.B. Enzgebiet oder Murr. Es hat sich gezeigt, dass der LAWA-Vorschlag zur Qualifikation der Schwermetallgehalte in Sedimenten in der Regel geeignet ist, die Belastungssituation der einzelnen Elemente differenziert darzustellen. Problematisch ist allein die Anwendung einheitlicher Hintergrundwerte für bestimmte Gebiete.

Hochwasserschutz und Ökologie am Wienfluss

Die Hochwasserschutzanlage am Wien Fluss ist ein Architekturdenkmal von europäischer Bedeutung. Das etwa 13 Kilometer lange Bauwerk wurde um die Jahrhundertwende realisiert. Es gliedert sich in vier markante Abschnitte, darunter die sogenannte 'Wienflusseinwölbung', der Naschmarkt und Schönbrunn. Hauptproblem der jetzigen Situation ist die aus der erhöhten Versiegelungsrate resultierende Abflusszunahme. Während die Wien im Normalfall auffallend wenig Wasser führt, steigt der Wasserspiegel bei Regenfällen um das 2.000-fache an. Der Grund liegt im Wienerwald. Der anstehende 'Wiener Sandstein' ist bei Regen rasch gesättigt, so dass das Wasser ungehindert abfließt. Die Wässer, die auf den bebauten Flächen auftreffen, vermischen sich mit den Abwässern. Sobald die Sammelkanäle voll sind, entlasten sie sich über Regenüberläufe. Zurzeit soll die Rückhaltekapazität erhöht werden, um extreme Flutwässer auch in Zukunft gefahrlos durch das Stadtgebiet leiten zu können. Sobald die abfließende Wassermenge einen bestimmten Wert übersteigt, werden am Oberlauf in Auhof die Schützenverschlüsse geschlossen. Das Hochwasser wird dann auf Umleitungsgerinne geleitet. Zur Verbesserung der Hochwassersituation im Wiental ist darüber hinaus die Sanierung und der Umbau des Flussbettes im Stadtgebiet geplant. Dazu soll zum einen ein neuer Mischwasserkanal im Flussbett integriert und zum anderen der Kanal naturnah ausgebaut werden. Dabei sollen strukturbildende Elemente wie Sohlgurte, Inseln, Buhnen und Störsteine zum Einsatz kommen. Daneben sind auch Sitz- und Ruhebereiche vorgesehen.

Der 'Cyanidunfall' aus Sicht der Trinkwasserversorger

Die Internationale Arbeitsgemeinschaft der Wasserwerke im Donaueinzugsgebiet (IAWD) gibt in Zusammenarbeit mit Vertretern des DVGW-Technologiezentrums Wasser in Karlsruhe den Wasserwerken in Ungarn und Rumänien Hilfestellung, die vom Cyanidunfall betroffen sind. Denn besonders an der Theiß und an der Donau befinden sich Wasserwerke, die direkt Flusswasser aufbereiten wie das Wasserwerk im ungarischen Szolonok. Hier wurde die Wasserversorgung trotz erhöhter Cyanid-Werte nicht eingestellt. Eine vorgeschaltete Chlorungsstufe sorgte dafür Cyanid in Cyanat umzuwandeln. Durch diese Maßnahme konnten die Grenzwerte eingehalten werden. Als die Konzentration allerdings über 2 mg/l anstieg, musste auch hier die Rohwasserentnahme unterbrochen werden. In Rumänien führten die erhöhten Cyanidkonzentrationen dagegen zu einer schnellen Unterbrechung der Trinkwasserversorgung. Der Grund lag zum einen in den niedrigeren rumänischen Grenzwerten. Zum anderen befürchteten die Bewohner Regressansprüche. Bei dem Treffen der Trinkwasserexperten der IAWD wurde ein Forderungskatalog für den Alarmfall ausgearbeitet.

Grünes Geld aus Bioenergie 

Etwa 1,4 Mrd. Euro ließen sich Anleger im Jahr 2000 Umweltfonds kosten. Mit 0,5 Prozent Marktanteil in Deutschland ist der Anteil noch relativ gering - Tendenz steigend. Und offensichtlich sind es Umweltaktien wirklich Wert gekauft zu werden. Nicht umsonst haben sie im letzten Jahr einen Kurssprung von 24 Prozent hinter sich. Auf der Fachmesse 'Grünes Geld', die parallel zur Grünen Woche in Berlin lief, waren 41 Aussteller beteiligt, die die Investitionsmöglichkeiten aufzeigen wollten. Verschiedene Banken und Firmen bot die Messe Gelegenheit über ihr Leistungsspektrum zu informieren. So zum Beispiel die UmweltBank, die für diesen Sommer ihren Börsengang geplant hat. Sie investiert in Zukunft verstärkt in Biogasanlagen wie in das Unternehmen Umweltkontor oder die Regenerative Energien AG. Letztere baut in Sachsen-Anhalt eine der modernsten Biomasse Kraftwerke Deutschlands. Auch die Neue Energien AG setzt auf Biomasse. Die Nevest AG sieht die Zukunft dagegen eher im Bereich Biodiesel. Sie plant den Bau von fünf Biodieselanlagen mit einem Investitionsvolumen von etwa 200 Mill. DM. Der Chef der UmweltBank empfiehlt eine Mischung aus Umweltaktien, ökologischen Aktien- und Rentenfonds sowie ökologischen Direktbeteiligungen für das persönliche Umweltportefeuille.

Windkraft im Energieverbund

100 Hektar ökologisch bewirtschaftetes Acker- und Grünland werden von den Herrmannsdorfer Landwerkstätten betrieben. Eine Metzgerei, eine Bäckerei, eine Käserei, eine Brauerei sowie ein Wirtshaus arbeiten hier nach streng ökologischen Gesichtspunkten. Ebenfalls im zentralen Werkstattgebäude untergebracht: Ein ökologischer Supermarkt. Das Credo der Herrmannsdorfer Landwerkstätten lautet: auch bei der Energieversorgung natürliche Kreisläufe zu respektieren. Und dieses Bekenntnis sollte sich endgültig auf dem Kronsberg im Südosten von Hannover erfüllen. Denn auf dem nur 15 Minuten vom Expo-Gelände entfernten Grundstück sollte eine integrierte Energieversorgung entstehen. Die Bausteine des Energie-Contracting: Windenergieanlage, Photovoltaik-Anlage, Biogas-Anlage mit Blockheizkraftwerk und Pflanzenkläranlage. Alle Häuser werden im Niedrig-Energie-Konzept gebaut und mit einer Energiemanagement Haustechnik ausgestattet. Die gewerblichen Teile werden darüber hinaus an eine Pflanzenkläranlage angeschlossen. Aufgrund der Komplexität des Bauvorhabens haben viele Firmen von der Auftragsannahme abgesehen. Schließlich hat die Firma Enercon die Bauaufgabe übernommen. Inzwischen hat die Auricher Firma schon die meisten Versorgungsanlagen ausgeplant und installiert. Es hat sich gezeigt, dass sich der Standort mühelos durch regenerative Energien decken lässt. Für Notfälle ist die fast autarke Siedlung aber immer noch an das Erdgas- und Elektrizitätsnetz der Stadt angebunden.  

Ausgetüftelte Hydraulik steigert solarer Energie

Der 100.000 Liter Pufferspeicher ist den Bewohnern der Solarsiedlung Gneis Moos täglich präsent. Er ist Teil des Vorzeigeprojekts der Gemeinnützigen Salzburger Wohnbaugesellschaft (GSWB), dass nach acht Jahren Planung und Bau entstand. Noch Anfang der 70er Jahre hat die GSWB eher schlechte Erfahrungen mit Solaranlagen gemacht. Doch dank einer ausgefeilten Haustechnik und einem gut durchdachten Anlagekonzept sind die Kritikerstimmen verstummt. Und das nicht ohne Grund. Denn der solare Deckungsgrad lag schon im ersten Jahr bei 12,4 Prozent. Grund für diese guten Werte sind zum einen die niedrigen Rücklaufwerte und zum anderen der geringe Wärmebedarf. Die hydraulisch gut abgeglichene Anlage sorgt für eine präzise Einstellung der tatsächlich erforderlichen Wassermenge für die Heizkörper. Drehzahlgeregelte Umwälzpumpen regeln die Volumenströme im Nahwärmenetz exakt. Dadurch erhält jedes der 61 Wohneinheiten stets die zulässige Wassermenge. Über ein Kontrollsystem werden die Rücklauftemperaturen kontinuierlich überprüft. Die gute Wärmedämmung der Häuser trägt ebenfalls zum niedrigen Wärmebedarf bei. Die Energienutzung wird aber besonders auch durch die passive Solarenergienutzung der Wintergärten effizient. Ausgesprochen vorteilhaft ist auch, dass die Abstrahlung in der Luft des Wintergartens absorbiert wird und über eine Zuluftvorerwärmung wieder ins Haus geführt wird. Das System wird über ein Fernüberwachungs und -wartungssystem gesteuert.

Bauplan für den Wald

Das FSC - (Forrest Stewardship Council) Siegel kennzeichnet waldfreundliches Holz. Doch nicht alle Hölzer erhalten dieses immer beliebter werdende Zertifikat. Zuerst nehmen Zertifizierungsbüros wie das SGS-Forestry aus England die Waldbetriebe genauestens unter die Lupe und prüfen die Bücher der jeweiligen Betriebe. Kahlschläge sind nicht gern gesehen und führen zum Entzug des Zertifikats. Allein bei schwerem Schädlingsbefall wäre diese Maßnahme gerechtfertigt. Besondere Aufmerksamkeit widmet der Zertifizierer dem Totholz und den Spechtbäume. Denn die sollen im Wald verbleiben. Ferner kontrollieren sie ob die eingesetzten Maschinen einen schonenden Umgang mit dem Waldboden garantieren und ob negative Auswirkungen auf die Umwelt von dem Betrieb ausgehen. Werden alle Kriterien erfüllt, erhält der Betrieb ein Zertifikat - allerdings nur auf Zeit. Das FSC Gütesiegel konkurriert mit verschiedenen anderen Zertifikaten, zum Beispiel Canadian Standard (CSA), Pan-European Forrest Certification (PEFC) oder der Umweltmanagementnorm (ISO 14001). Ob sich die Zertifizierungsnormen durchsetzen werden, wird vom Markt entschieden.

Das Fließgewässersystem in der Region Leipzig

Drei Flüsse prägen die Tieflandsbucht um Leipzig wesentlich: Elster, Pleiße und Parthe. In diesem Gebiet wurden schon vor circa 1.000 Jahren wasserbauliche Maßnahmen durchgeführt und es entstanden Mühlen, Dämme und Deiche. Ende des 19. Jahrhunderts wurde der Karl-Heine-Kanal und im Zwanzigsten Jahrhundert der allerdings unvollendet gebliebene Elster-Saale-Kanal gebaut. Besonders einschneidend für die Landschaft war allerdings der Braunkohleabbau - Flüsse wurden verlegt, Siedlungen überbaggert. Nach der politischen Wende wurde das Gewässergesamtkonzept überdacht. Inzwischen hat sich die Wasserqualität im Raum Leipzig deutlich verbessert. Der Grund liegt im Wegfallen industrieller Einleitungen und der Sanierung vorhandener Kläranlagen. Die Etablierung eines Gewässerverbundsystems Stadt Leipzig - Südraum Leipzig soll die Attraktivität Leipzigs und seines Umfeldes erhöhen. Die Baumaßnahmen sehen u.a. vor Restböschungen landschaftsgerecht umzubauen, den Rückbau bergbaulicher Anlagen, die Renaturierung des Grenzgrabens, die Flutung und Renaturierung des ehemaligen Waldbades Lauer sowie den Bau eines Verbindungsgrabens. Mit der vollständigen Flutung des Tagebaurestloches Cospuden wird spätestens im Juni 2000 eine circa 10.000 Hektar große Erholungslandschaft entstehen. Auch die Pleiße soll als Naherholungsgebiet wieder erstehen. Kerngedanke, ist die Gewässer weniger als Vorfluter und Fäkalkanäle anzusehen. Ein verantwortlicher Umgang mit den innerstädtischen Gewässern soll zukünftig im Vordergrund stehen.

Emissionsminderung bei Kraftstoffen durch Additivierung 

Der Octanzahl-Booster Ferrocen wirkt emissionsmindernd. Der Grund liegt in seinen katalytischen Eigenschaften. Ferrocen ist sowohl im Schwerölbereich, für Heizöl aber auch für Otto- und für Dieselkraftstoffe verwendbar. Mit einem Partikelfilter kombiniert sinken die gesundheitsgefährdenden Rußpartikel ganz erheblich. Statt eines Schalldämpfers ist dann allein der Dieselpartikelfilter eingebaut. Der Filter ist leicht nachrüstbar und relativ günstig im Anschaffungspreis. Seit den 60er Jahren werden Kraftstoffadditive verwendet. Das Bekannteste: Bleitetraethyl. Wegen seiner umweltbelastenden Nebenwirkungen ist der bleihaltige Octanzahlsteigerer mit Ausnahme der Dritten Welt Mitte der 90er Jahre vom Markt verschwunden. Im Unterschied zu Bleitetraethyl ist Ferrocen nicht toxisch. Die metallorganische Verbindung hat einen hohen Anteil an Eisen und wird wegen seiner Struktur auch als 'Sandwich' bezeichnet. Gerade mal 30 g pro Tonne Ferrocen reichen aus, um den Kraftstoff um 1,0 MOZ anzuheben. Dadurch ist Ferrocen extrem wirtschaftlich. Ein Kraftstoffmehrverbrauch findet im Gegensatz zu vielen anderen organischen Zusatzstoffen nicht statt. Ferner wird die Katalysatorwirkung reduziert und die Motorsauberkeit erhöht. Auch werden die PAH deutlich herabgesetzt. Felderfahren haben die positiven Eigenschaften dieser Kombination bestätigt.

Innovative Lösungen für Industrieabwässer

Abwasserreinigung französischer Bauart hat sich weltweit durchgesetzt. So hat der französische Familienbetrieb 'Sogestran' ein System entwickelt, dass der statischen Entölung dient. Das Tochterunternehmen 'SEREP' baut und vermarktet die industrielle Anwendung dieses Verfahrens. Besonders im Bereich des Maschinenbausektors finden sich Kunden. Denn in diesem Sektor müssen besonders häufig Öle regeneriert werden. Der Aufbau: Ein zylindrischer Behälter, in dem die Kohlenwasserstoffe abgeschieden werden und an die Oberfläche treten. Dort werden sie dann abgepumpt. Das Spezialgebiet des Unternehmens PROPESOL ist die biologische Behandlung von organischen Abwässern. Neben aeroben Behandlungsverfahren wurde auch ein anaerobes entwickelt und patentiert. Letzteres liefert sogar Energie aus den Abwässern. Mit dem Verfahren, das vor allem in Rohrzucker-Destillerien eingesetzt wird, kann der CSB Gehalt um 94 Prozent gesenkt werden. 

Künstlicher Strand für Forschungszwecke

An der U.S. Army Waterways Experiment Station (WES) forschen die Techniker seit jüngstem am Strand. Der 50 m lange experimentelle Küstenstreifen dient nunmehr der Untersuchung von Küstensedimenten und ihrem Transport. Sowohl für die Ablagerung in Schifffahrtsrouten als auch für die Bewertung von Küstenstrukturen ist die genaue Kenntnis der Sedimentmenge und deren Ablagerungswege wichtig.  In der Anlage werden bis zu einen halben Meter hohe Wellen erzeugt. In Zukunft soll Quarzsand auf die Platte aufgetragen werden. Sensoren sammeln die Wellen-, Strömungs- und Tiefenmessdaten für die Auswertung. Ein Strömungsumlaufsystem simuliert eine unbegrenzt lange Küstenlinie. Insgesamt 20 Pumpen setzen das Wasser in Bewegung. Sie haben eine Einleitungskapazität von 1.250 Litern pro Sekunde. Unter kontrollierten Laborbedingungen können so Wellen, Strömungen, Sedimenttransporte und die Wechselwirkung dieser Prozesse beobachtet werden. Für die Bewirtschaftung der Küsten ist dieses Wissen unerlässlich.

Teich- und Moorlandschaft mit Weltruhm

Genau im Kerngebiet des österreichischen Fischottervorkommens wurde das zehnte Schutzgebiet des Alpenlandes eingerichtet. Im Zuge des internationalen Abkommens über Schutz und Erhalt von Feuchtflächen, der sogenannten Ramsar Konvention, wurden 13.000 Hektar Teich-, Moor- und Flusslandschaft unter Schutz gestellt. Zahlreiche seltene und bedrohte Vogelarten haben in dem weltweit 1.013ten Ramsar-Gebiet eine Heimat gefunden. Das neu ausgewiesene Schutzgebiet reicht nun bis an die tschechische Grenze, wo sich ebenfalls ein Ramsar-Gebiet befindet. Ursprünglich sollte das 1971 im Iran unterzeichnete Feuchtgebietesabkommen allein die Rastplätze von Zugvögeln schützen. Mittlerweile hat sich die von 117 Ländern unterzeichnete Übereinkunft zu einem Vertragswerk entwickelt, das einen guten Schutz für Feuchtgebiete gewährleistet. 1983 ist auch Österreich der Konvention beigetreten. Nun soll auch noch ein Ramsar-Besucherinformationszentrum entstehen. Der endgültige Standort ist noch nicht sicher. Des weiteren bemüht sich Österreich verstärkt um die projektbezogene Umsetzung der Ramsar Konvention. Die Projekte werden über das LIFE-Naturschutzprogramm mehrjährig gefördert.

Grenzenloser Naturschutz

Bamberg war dieses Jahr Magnet für Naturschutzinteressierte. Unter der Prominenz auf dem 25. Deutschen Naturschutztag befand sich auch Prof. Engelhardt. In seiner Eröffnungsrede prangerte er besonders die millionenfachen Vogelmorde im Süden Europas, die mangelhafte Umsetzung der FFH-Richtlinien sowie die Privatisierung von Naturschutzflächen an. Bundesminister Trittin stellte die wesentlichen Eckpunkte der Novellierung des BNatschG vor. Bruno Julien kritisierte die Naturschutzpolitik der Bundesregierung vehement. Auch ihm ist die bislang mangelnde Umsetzung der FFH-Richtlinie ein Dorn im Auge. Alles in allem wurde auf der Tagung bestrebt neue Wege zu gehen. Es wurde versucht Öffentlichkeitsarbeit, Kommunikation, Moderation und Umweltbildung mit in den Naturschutz einzubeziehen. Zu diesen Themen äußerte sich zum Beispiel Angela Gilhaus, die ehemalige Pressereferentin der NABU. Ihrer Meinung nach müssen Naturschutzthemen in Zukunft eher visualisiert werden. Auch die Medien müssen ständig neu bedient werden. Denn sie erwarten laufend interessante Neuigkeiten aus dem Bereich Naturschutz. Auch sollten Tierarten in der Öffentlichkeitsarbeit verstärkt als Sympathieträger eingesetzt werden. Interessante Ideen kamen von einem Gastwirt. Artenschutz geht bei dem Mann aus der Rhön durch den Magen. So empfiehl er zum Beispiel den verstärkten Verzehr des Rhönschafs. Im übrigen behauptet er, dass Naturschutz möglichst auch 'fun' sein solle.

Zentrale Maßnahmen für die weitergehende Regenwasserbehandlung 

Üblicherweise wird Regenwasser zusammen mit Schmutzwasser in Kläranlagen behandelt. Diese Art der Abwasserentsorgung im Sinne einer End-of-Pipe Lösung  ist aber nicht mehr erwünscht. Heutzutage geht man immer mehr zur dezentralen Behandlung oder überhaupt zur Reduktion des Regenwassers über. Allerdings ist eine gezielte Regenwasserbehandlung noch weitgehend selten. Meist gelangen die Wässer ohne Elimination von gelösten oder ungelösten Wasserinhaltsstoffen in den Vorfluter. Für die Regenwasserbehandlung sind zahlreiche Filtertechniken machbar. Zunächst wird aber das Floatationsverfahren angewandt. Unter Druck stehendes luftgesättigtes Wasser wird eingeleitet. Es entstehen sehr feine Blasen, die sich an die Partikel anlagern und an die Oberfläche transportieren. Dort wird das Feststoff/Gas-Gemisch als Schlamm abgeschöpft. Das Verfahren ist leistungsfähiger als die Sedimentation, da der Prozess durch technische Einrichtungen gesteuert werden kann. Bei der Filtration wirken zum einen Sieb- und zum anderen Anlagerungsprozesse. Obwohl der Flockungsfilter durch Absorption auch Teilchen zurückhalten kann, die äußerst klein sind hat der Bodenfilter eine größere Reinigungsleistung.

energytech.at 

Die website energytech.at ist Informationsmedium für den Bereich Eneuerbare Energien und Energieeffizienz. Kernpunkte sind die Photovoltaik, die thermische Solarenergie und die Feste Biomasse. Die Initiative des Bundesministeriums für Verkehr, Innovation und Technologie wird vom Bereich Energieverwertung betreut. Auf energytech.at finden sich vor allem technologiespezifische Informationen. Die website stellt sich als Schnittstelle zwischen Wirtschaft, Wissenschaft und Ausbildung dar. Sie enthält außer den zahllosen Tipps, Adressen, Musterverträgen und Checklisten eine Börse für Diplomarbeiten, Dissertationen und Jobs. Wesentlicher Bestandteil ist darüber hinaus ein E-mail-Newsletter, der regelmäßig über Neuigkeiten informiert. Insgesamt zwei Millionen Quadratmeter Sonnekollektoren befinden sich inzwischen schon auf Österreichs Dächern. Die Firma arsenal research widmet sich der Prüfung von Komponenten der solartechnischen Anlage. Neue Qualitätstests sowie eine 'quasidynamische' Prüfmethode lassen deutlich mehr Aussagen über den Kollektor zu. Im Sommer 2000 wurde darüber hinaus ein Freifeldprüfzentrum eröffnet.

Die Situation des Grundwassers in Europa

Grundwasser ist die wichtigste Trinkwasserquelle Europas. Auch in vielen Ökosystemen kommt Grundwasser eine entscheidende Rolle zu. Um Grundwasser zu schützen, wurde in der Vergangenheit von den europäischen Regierungen zahlreiche Maßnahmen ergriffen. Im Umweltbericht der European Environment Agency (EEA) werden diese Aktivitäten zusammengefasst. Auch die Wassergüte in den 37 europäischen Staate wird zusammenfassend dargestellt. Grundlage dieser Daten bildeten Fragebögen, die vom European Environmental Information and Observation Network (EIONET) der EEA ausgegeben wurden. Für die Bewertung der Grundwasserqualität wurden zunächst die Standards der Trinkwasserverordnung des Rates angesetzt. Hauptsächliche Verunreinigungsquelle ist die Landwirtschaft. Düngemittel verursachen erhöhte Nitratwerte im Grundwasser, was zum einen ein Krebsrisiko darstellt und zum anderen zu einer Verminderung der Fähigkeit führt, Sauerstoff zu transportieren. In vielen europäischen Ländern ist Nitrat schon heute ein Problem - genauso wie die Pestizide. Art und Menge der in Europa eingesetzten Pestizide ist zwar sehr unterschiedlich. Die Daten zeigen jedoch, dass der Grenzwert oft überschritten wird. Chloridprobleme treten meist an den Küsten auf. Die Hauptursache: das Eindringen von Meerwasser. Überhöhte  Grundwasserentnahmen wurden in 11 der 21 untersuchten Länder beobachtet. Zur Verbesserung und zum Schutz der Trinkwasserressource wurden erste Empfehlungen des EU-Groundwater Action Planes (GAP) als Vorschlag für eine Wasserrahmenrichtlinie übernommen.

Die Wassersituation in Deutschland

Wasser ist in Deutschland in Hülle und Fülle vorhanden. Gleichzeitig ist der Wasserverbrauch in den letzten Jahren deutlich zurück gegangen. Er liegt derzeit bei 127 Litern pro Tag und Einwohner. Zum Vergleich: 1990 waren es noch 145 Liter. Dennoch gibt es noch erhebliche Probleme beim Schutz des Grundwassers: Altlasten, Altablagerungen, Unfälle mit wassergefährdenden Stoffen oder undichte Abwasserkanäle sind die Hauptprobleme. In großem Umfang beeinträchtigen aber auch diffuse Belastungen aus der Industrie, Verkehr und der Landwirtschaft die Grundwasserqualität. Hinsichtlich der Abwasserentsorgung belegt die Bundesrepublik einen Spitzenplatz. Wenn in Kürze die Dritte Verordnung zur Änderung der Abwasserordnung auf Bundesebene fest geschrieben wird, ist die Entsorgung für insgesamt 40 Industriebereiche fest gelegt. Bis Ende 2000 sollen dann für alle relevanten Abwassereinleiter die Anforderungen vorliegen. Des weiteren ist ein Arbeitsplan zur nachhaltigen Entwicklung des Rheins geplant. Erste Erfolge zeigen sich schon durch das Verbot von zinnorganischen Verbindungen wie Tributylzinn. Die Belastung dieser giftigen und hormonell wirkenden Chemikalien ist um 97 Prozent zurück gegangen. Auch beim Phosphor haben sich Erfolge eingestellt. Die Einträge haben sich um 69 Prozent verringert. Darüber hinaus ist das neue Programm 'Rhein 2020 - Programm zur nachhaltigen Entwicklung des Rheins und Arbeitsplan bis 2005'  in Vorbereitung. Kernpunkte sind der Hochwasser- als auch der Grundwasserschutz.

Biologische Grundwasserreinigung 

Verunreinigungen der Böden sind in der Vergangenheit immer wieder durch den sorglosen Umgang mit Chemikalien verursacht worden. Auch versickernde Regenwässer beewirken  immer wieder schwerwiegende Grundwasserverunreinigungen. Meist werden die Folgen erst Jahre später bei Tiefbauarbeiten erkannt. Um die Trinkwasserversorgung nicht zu gefährden musste das kontaminierte Grundwasser bisher großflächig abgepumpt und gereinigt werden. Dabei werden die Schadstoffe adsorbiert und angereichert aber nicht eliminiert. Bakterien sind dagegen in der Lage Kohlenwasserstoffverbindungen in ungefährliche Bestandteile zu zerlegen. In den Neunziger Jahren stellte sich nun die Frage ob diese in der Abwassertechnik erfolgreiche Praxis auch für Grundwasser praktikabel ist, denn die Kontaminationen liegen dort 10.000-mal niedriger als bei Abwässern im Industriebetrieb. Umfangreiche Versuche zeigten aber, dass die spezialisierten Mikroorganismen in weniger als 20 Minuten Kohlenwasserstoffe sogar noch in bei geringsten Konzentrationen abbauen kann. Auch einen Praxistest hat das neue Verfahren bestanden. Das Verfahren ist  inzwischen patentiert worden und hat den Umweltpreis der Europäischen Messe für Umwelttechnik gewonnen.

Gesundheitsgefahren im Umgang mit Elektronikschrott 

Elektrogeräte bestehen aus bis zu 80 verschiedenen Kunststoffarten. Nach Gebrauch müssen die Geräte manuell mit Druckluftwerkzeugen oder Akkugeräten zerlegt werden. Oft sind die einzelnen Zerlegeschritte äußerst beschwerlich. Die Geräte, die meist über Sammlungen in Wertstoffhöfen zunächst einer groben Vorsortierung zugeführt werden, beinhalten wichtige Gefahrstoffe: Blei, Cadmium, Nickel, Quecksilber und PCB sind dabei zu nennen. Bei der Rückgewinnung sollen alle Komponenten möglichst sortenrein zurück gewonnen werden. Vor dem Öffnen des Gehäuses werden die Geräte abgesaugt. Kondensatoren können u.a. PCB-haltig sein. Zum Teil werden auch polybromierte Biphenyle eingesetzt. Für das Mahlen und Shreddern der Kondensatoren sind geschlossene Anlagen notwendig, um entstehende Dämpfe und Stäube zu beherrschen. Auch Bildröhren sind voller Schwermetalle. So haben die Konus- und Halsgläser der Farbbildröhren einen Bleioxidzusatz von mehr als 20 Prozent. Äußerst problematisch sind die in den Bildröhren enthaltenen Leuchtstoffe, deren Einsatz je nach Anforderung an Farbton und Nachtbeleuchtung variiert. Leuchtstoffe in Entladungslampen haben einen erhöhten Quecksilberwert, der beim Bruch der Lampe in die Atmosphäre verdampft. An Turbinen, Elektromotoren und Nachtspeicherheizgeräten sowie in Schaltschränken finden sich noch vereinzelt Asbestplatten. Bei der Demontage von Kühl- und Gefriergeräten muss zuerst das FCKW-haltige Kühlmittel abgesaugt werden. Quecksilber fällt bei Messgeräten an. Für Altbatterien ist ein aufwändiges Verfahren anzuwenden, um das Blei zurück zu gewinnen. Radioaktive Stoffe sind in Brandmeldern und Ziffernblättern und Überspannungsleitern vorhanden. Auch Druckerkassetten, Magnetbänder, Kassetten und Trockenbatterien sind vor der Verwertung sortenrein zu trennen. Ferner sind die Konsequenzen für den Arbeitsschutz vielfältig.

Zwei Schritte nach vorn - einer zurück

Im Schweizer Jura hat sich eine mehr oder weniger stabile Luchspopulation entwickelt. Der Luchs war Anfang des 20ten Jahrhunderts in der Schweiz vollkommen ausgerottet. Das letzte Mal wurde er im Jahre 1909 in der Nähe vom Simplonpass gesichtet. Erst 1967 wurde der Luchs unter Schutz gestellt. In den 70er Jahren wurden mehrere Luchse aus den Karpaten und der Slowakei im Jura, in der Innerschweiz und in den Westalpen ausgesetzt. Allein im Jura und in den Alpen konnte sich der Bestand gut entwickeln. Allerdings kam es immer wieder zu Konflikten während der Ausbreitung. Das typische Muster: Der Luchs breitet sich stark aus, da seine Hauptbeute, das Reh, seine natürliche Scheu abgelegt hat. Sobald das Feindvermeidungsverhalten wieder stärker ausgeprägt ist kommt es zu verstärkten Schäden an Kleinvieh. In den 80er Jahren sinkt der Bestand wieder auf ein kritisches Niveau, um in den 90er Jahren wieder soweit anzusteigen, dass man erste Abschüsse plant. Und obwohl die Reviere in den Westalpen ausgebucht sind, verlässt kein einziges Tier seinen Lebensraum, um in die angrenzenden freien Lebensräume abzuwandern. Ein Grund sind möglicherweise die zivilisatorischen Barrieren. Bei den Menschen in der Schweiz stößt der Luchs sowohl auf Akzeptanz als auch auf Ablehnung. Letzteres spiegelt sich in illegalen Tötungen wider. Aus den harten Debatten um das Katzentier entwickelte sich im Laufe der Zeit der Luchskompromiss. Er verlangt allen Kontrahenten etwas ab - gerade den Naturschutzorganisationen. Denn die Abkehr vom Vollschutz ist für die Naturschutzorganisationen nur widerwillig zu akzeptieren. Aber auch künftig sollen keine Luchse abgeschossen, vielmehr sollen die Tiere umgesiedelt werden. Die Koordinierung der alpenweiten Wiederansiedlung übernimmt die Expertengruppe SCALP (Status and Conservation of the Alpine Lynx Population). Wichtige Forschungsprojekte rund um das Thema Luchs sind vom KORA 'Koordinierte Forschungsprojekte zur Erhaltung und zum Management der Raubtiere in der Schweiz' initiiert worden. Die Untersuchungen behandeln u.a. Konflikte, die aus dem Zusammenleben zwischen Mensch und Raubtier entstehen.

Fröhliche Häuser

Ökohäuser werden immer ästhetischer und brauchen sich inzwischen nicht mehr hinter einem normalen Einfamilienhaus zu verstecken. Immer fröhlicher, vielfältiger und freundlicher ist ihr Antlitz. Gleichzeitig steigt die Nachfrage nach diesen energiesparenden Häusern u.a. auch deshalb weil man den Häusern die Ökoeffizienz nicht unbedingt mehr ansieht. Für den Architekten Herbert Schaudt ist diese neue Art des Bauens minimalistisch, kostenbewusst und ökologisch sinnvoll zugleich. Dabei kosten die architektonisch äußerst anspruchsvollen Häuser nicht mehr als ein herkömmlich erstelltes Haus. Das sparsame Bauen wird durch den Verzicht auf ein gegossenes Fundament, die kurze Bauzeit und den hohen Vorfertigungsgrad erreicht. Auch die staatliche Förderung für ökologisches Bauen trägt zur Kostendämpfung bei. Das von der Firma Solaraktiv errichteten Eigenheim Soltherm ist standardmäßig mit einer transparenten Wärmedämmung ausgestattet. Überschüssiges warmes Wasser wird in einem Langzeitspeicher auf Vorrat eingelagert. Optional gibt es eine Brennstoffzelle. Strom liefern aber auch Photovoltaikelemente. Im Vergleich zu einem normalen Reihenhaus, das nach geltender Wärmeschutzverordnung gebaut wurde, betrug die Einsparung 58 Prozent.

Zwanzig Jahre Langzeit-Düngungsversuch

Als der Düngelangzeitversuch 1980 in Darmstadt begann, war er auf vier Jahre ausgelegt. Inzwischen läuft der Versuch am Institut für biologisch-dynamische Forschung schon 20 Jahre. Am Anfang stand die Untersuchung von Stallmist und mineralische Düngung in unterschiedlichen Dosierungen. Im Laufe der Jahre wurde der Versuch immer wieder modifiziert. So wurde die Fruchtfolge öfters leicht abgewandelt. Die Dünger sollten jeweils ein vergleichbares Ertragsniveau ergeben, damit  die Produktqualität verglichen werden konnte. Es zeigte sich, dass Gemüse mit organischem Dünger weit weniger Nitrat enthält als bei Mineraldünger. Auch das Verhalten des Gemüses nach der Ernte wurde untersucht. So wurde das Gemüse Zersetzungstests unterzogen. Die Haltbarkeit zeigte keine düngungsbedingten Unterschiede. Neben den pflanzenphysiologischen Eigenschaften wurde auch der Boden untersucht. Die Effekte der Düngung auf die C- und N-Dynamik waren dabei von ganz besonderem Interesse. Bei den biologisch-dynamischen Präparaten war der Humusgehalt (Corg) zum Ende des Versuchs deutlich höher als bei der Mineraldüngung. Auch war die biologische Aktivität in den langjährig mit Rottemist gedüngten Parzellen deutlich höher. In den Jahren 1992 bis 1999 wurde daher die Fragestellung untersucht, ob die düngungsspezifische Bodensituation Auswirkungen auf  Wachstum und Ertragsbildung von Kulturpflanzen hat. Außerdem wurden die Langzeiteffekte der organischen Düngung und der biologisch-dynamischen Präparate untersucht. Mit Mineraldüngern waren die Kartoffel- und Roggenerträge in der Regel deutlich höher als bei den organischen Düngern. In ungünstigen Jahren brach das Wachstum bei den mineralgedüngten Pflanzen sehr viel stärker ein als bei den organisch gedüngten. Organisch gedüngte Böden können ungünstige äußere Bedingungen offensichtlich besser kompensieren als mineralisch gedüngte.

Der Ozean - Kohlenstoff- und Wärmespeicher

Pomme bedeutet Programm zur multidisziplinären Erforschung bestimmter lokal begrenzter Gebiete des Ozeans. Das französische Projekt wird von verschiedenen Institutionen, Universitäten und Hochschulen unterstützt. Ziel des Programms ist es die Rolle der Ozeane als Kohlenstoff- und Wärmespeicher zu untersuchen. Dazu sind vier Messexpeditionen geplant, u.a. im nördlichen Atlantik, auf den Azoren und der heutigen iberischen Halbinsel. Der Ozean nimmt enorme Mengen Wärme auf. Die verschiedenen Meeresströmungen fördern die Wassermassen von einem Ende des Planeten zum anderen. In diesen zwischen den drei großen Ozeanen zirkulierenden Wassermassen sind Gase gelöst - insbesondere das Treibhausgas CO2.  Das Programm Pomme hat sich zur Aufgabe gestellt den Einfluss der ozeanischen Zirkulation auf die Umwälzung einer bezüglich Temperatur und Salzgehalt der bis 500 m relativ homogenen Wassermasse zu klären. Im Winter ist diese Schicht häufig in Kontakt mit der Oberfläche, im Frühjahr ist sie dagegen oft von ihr isoliert. Die Wissenschaftler wollen nun mit meteorologischen Bojen, Schwimmkörpern, Messkampagnen, numerischen Simulationen und Satellitendaten die Rolle von Wirbeln und Meeresströmungen verstehen. Ende 2000 startete die erste Expedition. Die ausgesetzten Instrumente sollen nun kontinuierliche Beobachtungen in situ gewährleisten.

Zeigen, wo Geld zu holen ist

Noch führt die betriebliche Ökobilanz ein Schattendasein. Nur einige wenige wie das Personalrestaurant Novartis im Baseler Werk St. Johann haben erkannt, dass die Bilanz bares Geld bringt. Günstiger Nebeneffekt: Auch der Umwelt wird geholfen. In dem Restaurant kam man außerdem zu überraschenden Einsichten. Denn entgegen der gängigen Sichtweise fällt Abfall in einem Restaurant ökologisch nicht besonders ins Gewicht und macht gerade mal zehn Prozent der Gesamtbelastung aus. Viel dominanter sind Abwasser, Strom sowie Heißwasser und Dampf. Auch die Autopendler werden innerhalb der Gesamtökobilanz unterschätzt. Ihr Anteil liegt immerhin bei 21 Prozent der betrieblichen Gesamtbelastung. Die Aktion machte den Verantwortlichen klar, dass sich die Einschätzung oft nicht mit den Realitäten deckt. Eine weitere Gegenüberstellung zeigt welche Posten wie viel zur Umweltbelastung beitragen. Die betriebliche Übersichts-Ökobilanz wurde vom St. Galler Büro Sinum AG erstellt. Das Öko-Effizienz Profil will allerdings auch keine umfassende Ökobilanz darstellen. Vielmehr werden ausgewählte Energieflüsse betrachtet, die aufgrund von Erfahrungswerten als ökologisch besonders relevant einzustufen sind. Am Anfang der 9.200 Franken teuren Untersuchung stehen drei fundamentale Fragen: Wo entstehen große Mengen? Was ist sehr teuer? Wo vermuten wir gefährliche Substanzen?

Ökologisch begrünen 

Mit der Auswahl standortgerechter Sträucher und Pflanzen ist nicht nur der botanischen Artenvielfalt gedient - man erspart sich auch einiges an aufwändiger Pflege. Denn meist sind die einheimischen Pflanzen resistenter gegen Krankheiten und sparen Anpflanzkosten. Da die Idee des Naturgartens in den letzten Jahren immer populärer geworden ist, wurde inzwischen eine Infostelle eingerichtet, die seit Ende Februar Interessierte über die idealen Pflanzstrategien informiert. Sie wählt die richtigen Pflanzen zum Beispiel für öffentliche Grünanlagen aus. Die passenden Informationen erhält man telefonisch, per Fax aber auch übers Internet. Dort werden alle Parameter wie Höhe und Sonnenintensität direkt verarbeitet. Als Antwort auf die Anfrage gibt es dann Adressen von Produzenten und eine Liste mit den passenden regionalen Pflanzen. Die Stadtgärtnerei Basel versucht schon seit langem standortgerechte Gehölze und Gräser zu berücksichtigen. Auch wird darauf geachtet, dass sich Wildpflanzen besser versamen können. Der Trick: An Randstellen, die wenig genutzt werden, wird nicht gemäht. Nicht immer ist es allerdings ganz einfach die regionalen Pflanzen wieder einzuführen. Oft regt sich Widerstand aus der Bevölkerung, wenn exotische Pflanzen fallen sollen. Allerdings ist ein guter Teil der Bevölkerung aktiv in die Bemühungen um die einheimischen Pflanzen eingebunden. So bestehen mit einigen Bauern Bewirtschaftungsverträge.

Maßnahmen der EU für die CO2-Reduktion 

Im Jahre 1991 wurde das mehrjährige Aktionsprogramm SAVE zur Förderung der Energie-Effizienz aufgelegt. Der Energieverbrauch sank in den kommenden Jahren in der EU aber trotzdem gerade mal um 12 Prozent. Erst das Technologieprogramm Joule-Therme ergab deutlich bessere Ergebnisse. Das Hauptaugenmerk der EU richtet sich allerdings immer noch auf die Programme Save I und II. Mit mehr als 350 Pilotprojekten und Studien begünstigt es die Schaffung von Energieagenturen auf regionaler Ebene. Erste Auswertungen zeigen, dass die Programme spürbare CO2-Reduktionen erbringen. Einziger Schwachpunkt: Die aktuellen Programme werden weder begleitet noch ausgewertet. Von ihrem in Kyoto unterzeichneten Ziel einer Reduktion von acht Prozent bis zum Jahre 2012 ist die EU trotzdem noch weit entfernt. Denn seit 1994 nehmen die Emissionen wieder zu. Daher müssen die Anstrengungen intensiviert werden, um die Emissionen zu reduzieren. Diese werden sektoral recht uneinheitlich sein. Während für die Industrie eine Reduktion von 15 Prozent zu erwarten ist, gehen Schätzungen davon aus, dass die Emissionen im Bereich des Verkehrs steigen werden - und zwar um 39 Prozent bis ins Jahr 2010. Dagegen soll die Energieeffizienz in Neubauten und renovierten Häusern weitgehend konstant bleiben. Gebäude sind in der EU mit 40 bis 45 Prozent Anteil am Energieverbrauch ein gewaltiger Posten innerhalb der Gesamtenergiebilanz. Allein die Heizungen konsumieren 70 Prozent des Energieverbrauchs. Die Kommission hat dazu Vorschläge gemacht. Sie betreffen Kontrollinstrumente und Benchmarking, Anreizmechanismen, steuerliche Maßnahmen und reglementarische Maßnahmen. Zukünftig sollen öffentliche Gebäude beispielhaft für effiziente Energienutzung sein.

Fachbeiträge verschiedener Autoren 

Die Wasserversorgung im Kanton Zug geschieht hauptsächlich über 16 öffentliche Wasserversorger. Das Wasserwerk Zug AG (WWZ) ist das größte unter Ihnen. Es wurde bereits 1878 als private Gesellschaft gegründet und ist es bis heute geblieben. Die einzelnen Wasserversorger treffen sich jährlich zu Fachgesprächen. Im zugerischen Gemeindegesetz sind die Grundzüge dieses Wasserversorgungssystems fest geschrieben. Konzessionsverträge regeln die Aufgaben, Rechte und Pflichten der Wasserversorger. Den technischen Ausbau regeln die Vorschriften der kantonalen Gebäudeversicherung. Die einzelnen Netze unterscheiden sich aufgrund der Vielfalt der Anbieter hinsichtlich Größe und Struktur erheblich. Auch Lieferpreise, Anschlusskosten und öffentliche Leistungen differieren stark. Dennoch kam es in der Vergangenheit zu keinen nennenswerten Schwierigkeiten. Es zeigt sich, dass auch Private problemlos Versorgungsaufgaben erfüllen können, wenn geeignete Konzessionsverträge vorhanden sind. Sie erfüllen problemlos die Ansprüche an den qualitativen und technischen Bereich. Eine Marktöffnung macht allerdings wenig Sinn, denn die Wassergewinnung erfolgt zu großen Teilen weitgehend lokal. Den niedrigen Produktpreisen stehen darüber hinaus recht hohen Verteilkosten gegenüber.

Städtepartnerschaft im Donauraum 

Das Projekt 'Bridge - Lifeline Danube' will Perspektiven und Konzepte für den Donauraum schaffen. Die von der EU geförderte Gemeinschaftsinitiative soll neue Formen der Kooperation etablieren und für die Partnerstädte Passau, Linz, Krems, Wien, Bratislava, Györ und Budapest auch ein Lernprozess darstellen. Im Zentrum der Anstrengungen steht die nachhaltige Entwicklung in den Landschaftsräumen entlang der Donau. Hier soll ein ökologischer Korridor mit Fahrradbrücken entstehen. Von besonderer Bedeutung ist allerdings die Bewusstseinsbildung in den Schulen. Dazu gibt es in Österreich schon interessante Ansätze. Bezüglich der Weiterarbeit und der konkreten Umsetzung der bisher entstandenen Ideen gibt es Ende November eine Konferenz in Ungarn. Auf jeden Fall soll im Rahmen des Bridge-Projekts ein Antrag für das INTERREG-3-Programm gestellt werden. Oberstes Ziel ist immer noch, Synergien aufzubauen, um dadurch weitere Kooperationen zu ermöglichen.

Umweltschutz der sich bezahlt macht 

Der Einbau von Schallschutzmaßnahmen ist kostenintensiv. Beispielrechnungen zeigen allerdings, dass sie sich innerhalb weniger Jahre in bare Münze auszahlen. Rechnet man zusätzlich Energie, Wartung und Zinsen für die teuren Anschaffungen, die Ruhe stiften sollen gegen die Vorteile wie Leistungssteigerungen, weniger Ausschuss, weniger Fehlzeiten, zeigt sich, dass sich die Investitionen schon innerhalb kürzester Zeit amortisieren. Denn schon lange ist klar, dass sich durch ruhige Arbeitsplätze die Mitarbeitermotivation deutlich steigern lässt. Für die Bewertung des Lärms sind Beurteilungspegel maßgebend. Bei Beurteilungspegeln unter 85 dB(A) sind keine Gehörschäden mehr zu erwarten. In der Praxis werden Lärmminderungen meist über kostengünstige sekundäre Lärmschutzmaßnahmen erreicht. Das sind zum Beispiel Kapseln oder schallisolierte Fenster. Auch das Einbeziehen von Hallenwänden in den Schallschutz ist durchaus möglich. Beispielhaft wird die Lärmminderung bei einer Drehkranzbohrmaschine besprochen. Auch hier wurde Lärmminderung durch Einkapselung erreicht. Über großflächige, schallisolierte Verglasungen können die Bearbeitungsvorgänge beobachtet werden. Der Innenraum ist durch zusätzliche Türen zugänglich. Durch diese Maßnahmen wurden die Grenzwerte an den einzelnen Arbeitsplätzen weit unterschritten und allen Beschäftigten optimale Bedingungen geboten.

Das Alster Entlastungskonzept, Hamburg

Insgesamt 60 Quadratkilometer umfasst die Wasserfläche Hamburgs. Große Teile davon werden von der Alster eingenommen. Ihre Gesamtlänge beträgt 56 Kilometer. Während sie früher als Transportweg genutzt wurde, ist sie heute besonders für die Freizeitnutzung relevant. Allerdings wird die Wasserqualität immer wieder durch Mischwasser (ein Gemisch aus Regenwasser, häuslichem und gewerblichem Abwasser), das bei starken Regenfällen über Überläufe in die Alster gelangt. Oft stinkt das Gewässer dann und es kommt zum Fischsterben. Um diesem Zustand abzuhelfen, wurde 1982 das Alster-Entlastungskonzept aufgestellt. Eine der wichtigsten Maßnahmen war der Bau von Sammlern und Transportsielen. Dadurch soll der zügige Transport des Abwassers gewährleistet werden. Die Transportsiele haben einen Durchmesser von 2,5 bis 3 Metern. Das Alsterkonzept bedurfte eine Gesamtfinanzierung von 1,1 Milliarden DM. Die Entsorgung des Abwassers beträgt heute 5,04 DM pro Kubikmeter. Die Mischwassermengen werden über Sielpegelmessungen erfasst. Das Ziel, Gewässergüteklasse II für die Fließalster, ist weitgehend erreicht. Über den Bau weiterer Rückhaltebecken soll die Gewässerqualität auch im östlichen Alsterbereich verbessert werden. Allein der Isebeckkanal bereitet Schwierigkeiten. Seit 1988 gibt es dort allerdings eine Sauerstoffanreicherungsanlage. Sie soll die Gewässergüte im Kanal stabilisieren. Außerdem soll über Sielerneuerungen weiterer Speicherraum geschaffen werden.

Sanierung und Restaurierung städtischer Gewässer 

Seit langen Jahren haben die Wiener versucht die Donau zu regulieren und zu bändigen. Denn zu oft ist sie im Laufe der Jahre über die Ufer getreten. Berüchtigt waren auch die sogenannten Eisstöße. Vor rund 120 Jahren entwickelte sich aus der alten Donau ein etwa 1,6 Quadratkilometer großer Seichtwassersee, der an seiner tiefsten Stelle gerade mal sieben Meter tief ist. Inzwischen sind die zuführenden Seitenarme mit städtischen Müll zugeschüttet. Dieses belastet nunmehr die Alte Donau und den See mit ausgeschwemmten Nährstoffen. Die Folge: Der beliebte Badesee wurde ab 1992 von starken Eutrophierungserscheinungen erfasst. Maßnahmen waren zu ergreifen. Die zunächst aufgestellte Belüftungsanlage brachte nur einen Teilerfolg. Nach einem Jahr vorbereitender Untersuchungen wurden gezielt Eisen (III)-Chloride eingebracht. Es hatte die Aufgabe Phosphor zu binden, um so den Blaualgen die Nahrung zu entziehen. Denn die Blaualgen verringerten die Sichtweite extrem, was auch den Medien auffiel. Die Öffentlichkeit war sehr interessiert an dem weiteren Fortgang der Sanierung. Die Maßnahmen: Errichtung von Sperrbrunnen, künstliche Belüftung, Wasseraustausch, ökotechnische Maßnahmen sowie die vorgenannte Bindung von Phosphor. In Zukunft soll dem Ort darüber hinaus mehr Intensität gegeben werden. Dazu gehören Großereignisse im Sommer und das beliebte Schlittschuhlaufen im Winter.

Der Fluss macht unsere Kinder krank

In der Provinz Riau leiden viele Flussbewohner an Haut- und Atemwegserkrankungen. Denn seitdem der asiatisch-finnische Konzern Rapp seine Produktion aufgenommen hat, fließt Chloroxid in die Lebensader Fluss. In Deutschland ist Chloroxid für die Papierbleiche schon lange verboten, in Sumatra wird es trotzdem angewendet - und das in Maschinen deutscher Produktion. Und nicht nur das. Sollten die Kredite für die Papierverarbeitungsmaschinen platzen, wird der deutsche Steuerzahler in die Pflicht genommen. Denn die Maschinen sind durch eine Hermes-Bürgschaft gedeckt. Eine Prüfung seitens der Bundesregierung, ob eine nachhaltige Waldnutzung vorliegt, fand nicht statt. Derweil schwelen die Konflikte in Sumatra, denn die Abholzung schreitet rasend voran. Die Eingreiftruppen des Holzunternehmens PT Arara Abadi jagen Familien aus ihren Häusern. Verletzungen und Übergriffe sind an der Tagesordnung. Auch die Gegner des Regenwaldes formieren sich. So veranstaltet der Stamm der Sakai immer wieder friedliche Besetzungen und protestieren damit gegen die Zerstörung des Regenwaldes. Kein Wunder, denn die stinkenden Industrieanlagen breiten sich immer mehr aus. Die Abwässer sind für die menschliche Gesundheit besorgniserregend belastet. Dadurch wird die Existenzgrundlage der Anrainer, wie Fischen oder Trinkwasser, zerstört. Auch für das Klima ist die Papierproduktion nicht ohne Folgen. Denn inzwischen sind über eine Million Hektar Fläche mit Plantagenbäumen bestanden: Das schnellwachsende Holz dörrt die Böden aus.

Das Zero-Emissions-Konzept

'Umweltprobleme sind das Resultat von Marktfehlern durch die ineffektive Nutzung von Ressourcen'. Das war schon in den 50er Jahren die Meinung des Umweltökonomen William Kapp. Heute haben diese Worte neue Bedeutung gewonnen und drücken aus, was seit 1994 die 'Zero Emissions Research Initiative' (ZERI) anstrebt: Alles verwenden, denn dann gibt es keinen Abfall. Zusammen mit den 'zero defects' und 'zero inventory' Konzepten, die für Qualität und just-in-time Lieferung stehen, soll 'zero emissions' in Zukunft eine neue industrielle Triade bilden. Dabei werden wachsende Effektivität und die Verminderung schädlicher Emissionen zu einer  nachhaltigen Steigerung der industriellen Leistungsfähigkeit führen. Ziel von 'zero emissions' ist die Einrichtung von Netzwerken verschiedener Industrietypen, den sogenannten 'cluster'. Der Abfall eines Unternehmens wird dann als Ausgangsrohstoff für ein anderes Produkt dienen. Pilotprojekte laufen auf der Insel Fidschi und in Namibia. Ein Integratives-Biomasse-Massesysteme (IBS) als Vorbild für die Nahrungsmittelindustrie wird in diesen beiden Ländern getestet. Grundlage sind Reststoffe aus der Verarbeitung von Biermaische, die in mehreren Zyklen weiterverarbeitet werden. Es scheint keine unrealistische Vision zu sein zumindest das Biomasse-System in den nächsten Jahren auf Bereiche der Lebensmittelindustrie anzuwenden. Für bestehende Industrien wird dieses System schwerer durchzusetzen sein. Hier werden Analyseverfahren und Instrumente wie der Input-Output-Ansatz, die Öko-Bilanzierung und die Produktlinienanalyse notwendig. Mittelfristig sind aber Planung und Bau von Industriegebieten zu erwarten, deren Leitbild im Vergleich zum 'cleaner-production' Konzept sehr viel ganzheitlicher angelegt sind.  Durch das Entstehen neuer Industriezweige werden neue Einkommen und Beschäftigungsmöglichkeiten geschaffen. Für die industrielle Welt existiert zurzeit noch kein Zero-Emissions-Vorzeigeprojekt. Die genannten Projekte in den Entwicklungsländern lassen aber hoffen.

Energiesparen an Schulen 

Handlungsorientierter Unterricht gehört in der Schule zu den grundlegenden Lehr- und Lernmethoden der Umwelterziehung. Denn theoretisch Gelerntes wird von den Schüler besser behalten, wenn sie es in der Praxis ausprobiert haben. Die ersten Projekte zum Energiesparen fanden vor gut zehn Jahren statt. Die Veränderung des Nutzerverhaltens waren Kernpunkt der Aktivitäten. Die Bundesländer organisieren inzwischen groß angelegte Modellversuche, um die Wirksamkeit des Energiessparunterrichtes zu überprüfen. Besonders das Dreiländermodell Hamburg, Schleswig-Holstein und Mecklenburg-Vorpommern hatte über die Landesgrenzen hinaus Vorbildfunktion. Zehn Schulen aller Schulformen waren in den drei Bundesländern beteiligt, unterstützt von einem Koordinator der Deutschen Gesellschaft für Umwelterziehung e.V. . Die Erfolge  ließen nicht lange auf sich warten. Dreizehn Hamburger Schulen wiesen schon nach dem ersten Projektjahr eine Einsparung von 230.000 DM vor, die paritätisch unter Schule und Staatskasse Hamburg aufgeteilt wurden. In Schleswig-Holstein und Mecklenburg-Vorpommern wurden die eingesparten Gelder so aufgeteilt, dass die Schulen teilweise 100 Prozent der Gelder erhielten. Die finanziellen Erfolge spornten auch andere Bundesländer an ähnliche Bildungsmaßnahmen durchzuführen. Es hat sich gezeigt, dass sich unabhängig von der Schulform, dem Gebäudetyp und der Art der Energieversorung durchschnittlich acht bis zehn Prozent der Energiekosten einsparen lassen. Auf die gesamte Bundesrepublik hochgerechnet wäre dies gleichbedeutend mit einer dreistelligen Millionensumme. Auch die Schulen bessern ihren zum Teil erheblich angespannten Haushalt dadurch auf. Für die Schüler bedeutet Energiesparunterricht außerdem fächerübergreifendes Lernen - eine alte bildungspolitische Forderung und Basis für den Erfolg. Das Thema Energiesparen ist daher besonders geeignet, um die Vielschichtigkeit dieser Welt kennen zu lernen. Leider werden solche Projekte oft nur von wenigen sehr engagierten Lehrkräften geleitet. Häufig endet das Engagement mit dem Weggang des betreffenden Lehrers.

Lärmminderung: Forderungen an die Lärmschutzpolitik aus der Sicht der Betroffenen 

Trotz der Fortschritte in der Lärmbekämpfung wie  leisere Flugzeuge, Autos und Bahnen fühlen sich viele Mitbürger durch Lärm gestört. Sie behaupten, dass es lauter geworden sei in den letzten Jahren. Ganz so unrecht haben sie nicht; denn nach Berechnungen der Bundesanstalt für Straßenwesen ist der Tages-Mittelungspegel zum Beispiel an Autobahnen von 1975 bis heute um 2 dB(A) gestiegen. In Bezug auf Fluglärm ist keine einheitliche Tendenz fest zu stellen: An manchen Flughäfen steigt die Belastung, an anderen sinkt sie. Die Zeiten ohne Flugzeug sind aber in den letzten 25 Jahren zweifellos seltener geworden. Öfter werden dagegen die Stimmen, die sich rein subjektiv von Lärm gestört fühlen. Besonders beim Straßen- und Schienenlärm geht diese Tendenz steil nach oben. Auch beim Fluglärm zeigt sich eine ähnliche Entwicklung. Eine Studie am Flughafen Düsseldorf zeigte, dass trotz der durchschnittlich um 2,1 dB(A) gesunkenen Lärmbelästigung der Anteil der belästigten Personen um 20 Prozent zunahm. Grund für die zunehmende Belästigung sind eine unzureichende Lärmschutzpolitik der Bundesrepublik. Anstatt die Häufigkeit der Geräusche mit in ihre politischen Betrachtungen einzubinden, bekämpft sie nur die verursachten Geräuschspitzen. Bestes Beispiel ist die enorme Zunahme von zugelassenen Fahrzeugen, die häufiger und meist schneller über unsere Straßen fahren. Die Steigerung im Flugverkehr übertrifft die Entwicklung bei den anderen Verkehrsmitteln um ein Vielfaches. Die Forderung an die Lärmschutzpolitik muss daher nicht nur lauten die Bevölkerung vor den Auswirkungen lauter Geräusche zu schützen sondern ihn auch zu vermeiden und zu vermindern. Für den Kraftverkehr würde dies bedeuten aktiv Maßnahmen zu ergreifen gegen unnötigen motorisierten Straßenverkehr. Gleichzeitig muss lärmarmes Fahren gefördert und ein verstärkter Schutz gegen starken Straßenverkehrslärm aufgebaut werden. Der Wegfall steuerlicher Ungleichbehandlung von Flugbenzin und Autobenzin sowie die Einschränkung von Kurzstreckenflügen und unterbesetzten Parallelflügen könnten den Fluglärm einschränken. Auch unnötige gewerbliche und 'sportliche' Flüge sollten vom Flugplan verschwinden. Steilere Anflugwinkel und der Einsatz tatsächlich lärmarmer Flugzeuge wäre wünschenswert. Beim  Schienenverkehr ist vor allem der Einsatz schalltechnischer Verbesserungen am Fahrzeugpark und eine gesetzliche Regelung zur Lärmsanierung des bestehenden Fahrzeugparks zu nennen.

Die Lärmsituation der Stadt Eisenach und Ansätze zur Lärmminderung 

Thüringer Wald und Wartburg verleihen der Stadt Eisenach einen hohen touristischen Stellenwert. Dieser wird außer durch Schadstoff- besonders durch Lärmprobleme gemindert. Wie in fast allen deutschen Städten ist städtischer Verkehrslärm die Hauptursache. Je mehr der Lärm die Lebensqualität mindert, desto mehr Menschen ziehen sich aus der Stadt zurück. Auch Eisenach läuft Gefahr, dass es durch Stadtflucht und der damit einhergehenden räumlichen Trennung von Arbeit und Wohnen zu noch mehr Lärm kommt. Lärm in Eisenach geht vor allem zu Lasten der Bundesautobahn A4. Sie durchquert den nördlichen Teil der Stadt. 40.000 - 45.000 pro Tag Fahrzeuge führen zu sehr hohen Lärmbelastungen. Auch die drei Bundesfernstraßen, die das Stadtzentrum tangieren erhöhen den Lärmpegel. Die B 7 aus Kassel, die B 19 aus Meiningen und die B 84 aus Bad Salzungen tragen mit zu den 8.000 bis 12.000 Fahrzeugbewegungen im Innenstadtbereich bei. Die Lärmrichtwerte werden durch dieses hohe Verkehrsaufkommen an fast allen Durchgangsstraßen übertroffen. Besonders lärmintensiv: eine Eisenbahntrasse teilt die Stadt auf einem vier Meter hohem Damm. Dagegen ist  Fluglärm von untergeordneter Bedeutung. Auch der Industrielärm ist in den letzten Jahren zurück gegangen - eine Folge der Umnutzung von Industriestandorten im Innenstadtbereich. Ein anderer Lärmfaktor hat dagegen in den letzten Jahren zugenommen: Diskothekenlärm und Lärm aus Gaststätten. Um Eisenach 'leiser' zu machen sind verschiedene Vorhaben geplant. Einige sind schon durchgeführt worden. So wurde in Eisenach-Nord eine Lärmschutzwand errichtet, die nun 10.000 Bürger vor Lärmbelästigung schützt. Entlang der Autobahntrasse soll ebenfalls ein Lärmschutzwall entstehen. Hoffnung auf Lärmminderung im Stadtbereich gibt die Entscheidung einige Bundesstraßen aus dem Stadtgebiet umzulenken - so die BAB A4. Der geplante Ausbau der Eisenbahnstrecke Erfurt-Fulda/Bebra soll durch die Umsetzung einiger technischer Maßnahmen zumindest nicht lauter werden. Technische Verbesserungen könnten auch in der Kernstadt den Lärm verringern: Geschwindigkeitsreduzierungen, Fahrbahnbeläge, City-Logistik sowie stadtplanerische Rücksichtnahmen sind Teile des Maßnahmenkatalogs zur Verminderung der Schallemission.

Lärmminderung in Thüringer Städten und Gemeinden - Rückblick und Ausblick 

Die erste große Veranstaltung des Deutschen Arbeitsrings für Lärmbekämpfung nach der Einheit Deutschlands fand am 31. Mai 1991 in Weimar statt. Außer einer Unmenge an Lärmquellen sind seit der Wende auch eine Vielzahl neuer Lärmschutzgesetze hinzugekommen. Diese mussten wie zum Beispiel das Bundes-Immissionsschutzgesetz (BimSchG) innerhalb kürzester Zeit umgesetzt werden. Neue Lärmquellen waren dabei zum Beispiel auch Schießplätze, die früher in diesem Ausmaß nicht existierten. Trotz sachgerecht durchgeführter Genehmigungsverfahren führten die Freizeitschützen immer wieder zu Klagen der Anwohner. Die Thüringer Landesanstalt für Umwelt und der Thüringer Schützenbund erarbeiten daher im Moment gemeinsam eine Handlungsanweisung für die Genehmigung und Überwachung von Schießplätzen im Freien. Auch Windkraftanlagen mit ihrer hohen ökologischen Bedeutung sind immer wieder als Beschwerdeverursacher in Erscheinung getreten. Dabei waren es nicht immer die Anlagegeräusche die Hauptkritikpunkt. Lichtblitz- und Schattenwurfeffekte in Wohnbereichen riefen ebenfalls erhebliche Belästigungen hervor. Ein weiterer Lärmfaktor sind die Diskotheken bei deren Genehmigung eine ganze Anzahl Belange zu berücksichtigen sind: Zulässige Innenpegel, Schalldämmmaß der Bauteile sowie Einregeln und Festeinstellung der Verstärkerendstufe. Besonders dem Fluglärm ist der Bürger ausgeliefert. Ein Schutz, zum Beispiel des Schlafraumes ist kaum möglich. Im Fluglärm-Gesetz sind zwei Lärmschutzzonen festgelegt. An einigen Verkehrflughäfen Deutschlands wurde darüber hinaus eine dritte festgelegt. Dadurch soll dem Heranwachsen von Wohngebieten Rechnung getragen werden. Der Zusammenhang von Lärmbelastung und Risiko von Herz- und Kreislaufkrankheiten ist bekannt. Verkehrslärm verursacht aber nicht Krankheiten sondern kann auch zu erheblichen Mietmindereinnahmen führen. Das kann bis zu enteignungsgleicher Mietminderung führen. Als Instrument zur  Vermeidung von Lärm in Thüringen dienen die Schallimmissionspläne, die auch eine Förderung umfassen.

Die Erweiterung der Europäischen Union  und der Umweltsektor 

Sicherung von Frieden, Demokratie und Rechtsstaatlichkeit sollen durch die Erweiterung der Europäischen Union langfristig garantiert werden. Um den Erweiterungsprozess zu beschleunigen tagte der Europäische Rat auf seiner  in Helsinki im Dezember 1999. Außer der Tschechischen Republik, Ungarn, Polen, Estland, Slowenien und Zypern sollen nun auch mit Rumänien, der Slowakei, Lettland, Litauen, Bulgarien und Malta Verhandlungen über den baldigen Beitritt geführt werden. Die genannten Länder arbeiten fieberhaft an der Umsetzung des 80.000 Seiten umfassenden EU-Rechts in nationales Recht. Ein großer Teil dieses Gesetzpakets sind umweltrechtliche Vorschriften, deren Umsetzung in nationales Recht mehr oder weniger große Schwierigkeiten bereitet. So wurden in Bulgarien zwar Fortschritte in der Angleichung der Umweltgesetze erzielt, es fehlt aber an umfangreichen Investitionen im Umweltbereich; und die Umsetzung der Gesetze ist sehr schwach ausgebildet. In der Tschechischen Republik ist besonders der Wasser- und Abfallsektor noch auszubauen. Kontinuierliche Fortschritte hat dagegen Estland gemacht. Schwachstellen sind hier die Verwaltungsstrukturen und deren Kontrollorgane. In Ungarn sind besonders auf den Bereichen Abfall, Abfallentsorgung sowie Wasser und Luftreinhaltung Anstrengungen erforderlich. Der Kernpunkt lettischer Umweltanstrengungen muss in den nächsten Jahren die Reform der Verwaltungsstrukturen und die Steigerung der Laborkapazitäten sein. In Litauen sind Behörden und Stellen mit unklaren Zuständigkeiten das Hauptproblem. In Polen und der Slowakei sind noch zu wenige der EU-Umweltgesetze in nationales Gesetz umgesetzt worden. Dieser Prozess muss beschleunigt werden.  Rumänien weist Defizite bei der Umsetzung der EU-Rechte im Bereich Wasserqualität und in der Abfallentsorgung auf. In Slowenien besteht Handlungsbedarf in den Bereichen Risikomanagement in der Industrie, Chemikalien und genetisch veränderte Organismen. Fazit ist, dass die Umsetzung der EU-Umweltgesetzgebung in den Bewerberländern bislang noch nicht besonders hoch ist. Bei ihren Anstrengungen werden sie zwar von zahlreichen Initiativen der Kommission unterstützt. Voraussetzung für das Gelingen ist aber die Umsetzbereitschaft der einzelnen Länder.

Strukturelle Bedingungen nachhaltigen Energiekonsums 

Ein Weg in Richtung ökologische Nachhaltigkeit ist die Minderung des Energieverbrauchs. Nachhaltiger Energiekonsum geht aber noch einen Schritt weiter: Für die gleiche Menge Energiedienstleistung sind weniger und vor allem 'nachhaltige' Energieträger gefordert. Verbesserte Energieanwendungstechnologien wie die sogenannten Spartechnologien aber auch spezielle Dienstleistungen können zu diesen Nachhaltigkeitseffekten führen. Schon allein die Bereitstellung von Energie kann von unterschiedlicher Nachhaltigkeit sein. Bestes Beispiel ist Strom, der sowohl aus dem Kernkraftwerk als auch aus dem Wasserkraftwerk kommen kann. Seit neuestem kann der Verbraucher das 'Woher' der Energie mit bestimmen. Für die strukturellen Bedingungen nachhaltigen Energiekonsum ist diese Möglichkeit notwendig. Sie wird durch folgende Forderungen ergänzt: Energieträger, Technologien und Dienstleistungen für nachhaltigen Konsum müssen verfügbar, erkennbar und bezahlbar sein. Dabei ist nachhaltiger Konsum nicht prinzipiell von den Konsumentscheidungen abhängig. So sind zum Beispiel im Bereich der Massengüter die Entscheidungen der herstellenden Industrie entscheidend für nachhaltigen Energiekonsum. Über das Instrument Produktentwicklung bestimmt es über die Preise und Verfügbarkeit bestimmter Produkte. Hier sind dynamische Anreizstrukturen gefragt, die schon im Management ansetzen und Forschungs- und Entwicklungsstadien beeinflussen. Bei den strukturellen Bedingungen nachhaltigen Energiekonsums ist auch die Nichtproduktion entsprechend energiefressender Güter einzubeziehen. Ein sehr wichtiger Ansatzpunkt ist aber die Fortbildung von Handwerk und Handel. Nur wenn diese Weiterverarbeiter über das richtige Wissen verfügen, können sie die Kaufentscheidungen des Kunden in Richtung nachhaltigen Energiekonsum  lenken. An den Produkten selbst ist die schnelle Identifizierbarkeit der ökologischen Eigenschaften sowie die Glaubwürdigkeit dieser Information zu etablieren. Auch dadurch werden die Konsumentenentscheidungen strukturell flankiert.

Leisten neue Dämmmethoden was sie versprechen? - Kalziumsilikatplatten, hochdämmende Beschichtungen 

Dämmstoffe werden schon seit Urzeiten als Wärmeschutz verwendet. Organische bzw. natürliche Dämmstoffe standen dabei am Anfang der Entwicklung. Die industrielle Entwicklung von Dämmplatten brach nach dem Ersten Weltkrieg an. Erst dann begann die Verarbeitung von Mineralfasern aus Sedimentgesteinen und Glasschmelzen. Nach dem Zweiten Weltkrieg kamen dann die ersten Kunststoffentwicklungen wie Schaumpolystyrol oder die Polyethan- und Phenolharzschaume auf dem Markt. Heute wie damals ist die Mineralwolle nach wie vor Marktführer, gefolgt von Schaumstoffkunststoffen. In den letzten Jahren drängen immer mehr Materialien auf den Markt, die den herkömmlichen teilweise überlegen sind. Oft können sie ihre Werbeversprechen jedoch nicht einlösen. Denn gemeinsam ist den Baustoffen immer die Art der Wärmeübertragung, die ihnen als Maßstab dient: Wärmekonvektion, Wärmestrahlung und Wärmeleitung. Während die Wärmekonvektion in den meisten Dämmstoffen nicht auftritt ist die Wärmeleitfähigkeit ein sehr wichtiger Qualitätsfaktor, der zum Beispiel durch die Anzahl der Poren und die Ausrichtung der Fasern aber auch durch die Rohdichte des Dämmstoffs und deren Feuchtegehalt maßgeblich beeinflusst wird. Die Kalziumsilikatplatte ist eine in letzter Zeit bekannt gewordene Neuentwicklung. Die Verbesserung des Wärmeschutzes von Gebäuden mit erhaltenswerten Fassaden ist Hauptanwendungsbereich dieses neuen Dämmstoffes, das für den Innenbereich ausgelegt ist. In einer Praxisstudie wurde die Funktionsfähigkeit der 30 mm dicken Platten überprüft. Der Test ergab gute Leitfähigkeitswerte und im Vergleich zu herkömmlichen Material erweiterten Wärmeschutz. Besonders hervorzuheben war die kappilare Saugfähigkeit, die mögliches Tauwasser hinter der Dämmschicht verteilt und die Schimmelresistenz des Materials. Auch der neu entwickelte Dämmstoff Neopor erhielt gute Noten. So ist es mit diesem industriell angefertigtem Dämmstoff erstmals gelungen mit niedrigeren Rohdichten auch geringere Wärmeleitfähigkeitswerte zu erzielen. Das Beschichtungssystem Thermo Shield und die Dämmsysteme aus geschichteten Folien erwiesen sich dagegen als Mogelpackungen.

Haustechnik und Energieeinsparung - Beurteilungsprobleme für den Sachverständigen

Die Formulierung der begleitenden Normung zur Energieeinsparordnung (DIN-V-4108, Teil 6 und DIN 4701, Teil 10) wird zurzeit noch heftig diskutiert. Bei einigen wichtigen Kennwerten besteht aber inzwischen Übereinstimmung. Bis heute fehlt aber die ganzheitliche Betrachtung von  Gebäude- und Anlagetechnik. Nur so kann der Jahresheizenergiebedarf korrekt ermittelt werden. Dazu gehört auch die Einberechnung des Nutzerverhaltens, der einen nicht zu unterschätzenden Einfluss auf den Heizenergiebedarf hat. Noch stehen dieser Entwicklung die mangelnde Koordinierung zwischen der baulichen und der haustechnischen Branche entgegen. Für Neubauten gilt zukünftig, dass die Begrenzung des Primärenergiebedarfs für Raumheizung und Warmwasser im Vordergrund zu stehen hat. Berechnungsverfahren müssen dann gute Übereinstimmungen zwischen realistisch abgeschätzten Heizenergiebedarfs- und tatsächlich gemessenen Verbrauchswert liefern. Notwendig wird dies auch, da mit dem Übergang vom nicht messbaren Wärmebedarf zum messbaren Heizenergieverbrauch zuzüglich der Anlageverluste und der Nutzerverhaltens die Verlustverursacher stärker in den Vordergrund rücken. Wechselwirkungen zwischen Gebäude, Bauphysik und Anlagen- und Regelungstechnik sowie dem Nutzer sind dann als vollständiges System rechenbar. Messungen an Niedrigenergiehäusern haben gezeigt, dass  gerade durch unangepasste Anlagentechnik in Verknüpfung mit dem Nutzer erhöhte Wärmeverluste entstehen können. Daher wird auch für die Anlagentechnik eine Qualitätssicherung immer wichtiger.

Schifffahrtstraße Rhein im Zusammenspiel mit dem Hochwasserschutz 

Der Rhein blickt auf eine lange Geschichte zurück: 2.000 Jahre Handwerk und Fischerei, 700 Jahre Flussbau und 200 Jahre Stromerzeugung. Im Laufe der Jahrhunderte ist der Rhein unzählige Male über die Ufer getreten. Hochwassermarken an Gebäuden so mancher historischer Ortskerne belegen dies.  Mit 45 Mrd. Tonnenkilometer in Deutschland ist der Rhein heute der verkehrsreichste Binnenwasserstraße Europas. Der Ausbau des Rheines hat etwa vor 100 Jahren begonnen. Die letzten Ausbaustufen sind 1977 am Oberrhein vollendet worden. Der Rhein ist für seine besonders ausgeglichene Wasserführung bekannt. Die Hochwasserabflüssse machen nur etwa das 13-23fache der niedrigst bekannten Abflüsse aus; und selbst bei Niedrigwasser findet auf dem auf 885 km schiffbaren Rhein Güterschifffahrt statt. Trotz dieses vergleichsweise gleichförmigen Abflusses sind im Kampf gegen Erosion immer wieder Geschiebezugabe notwendig. Da in Zukunft mit einem starken Güterverkehrswachstum gerechnet wird, ist ein weiterer Ausbau auch des Schifffahrtswegs Rhein unvermeidlich. Im Vordergrund müssen dabei aber die ökologischen Belange des Flusses stehen. So liegt zum Beispiel die Entwicklung von Auwaldstrukturen im gemeinsamen Interesse des Habitat- und Hochwasserschutzes. Die Aufweitung des Abflussquerschnitts könnte zur Erosionsminderung beitragen. Frühere Ausbaumaßnahmen haben vor allem die Wellenablaufgeschwindigkeit der Hochwasserwelle verändert. Diese sind besonders dann problematisch wenn sie sich an den Mündungen der Nebenflüsse überlagern. Regulierungsbauwerke müssen daher so gebaut werden, dass sie sich günstig auf den Ablauf einer Hochwasserwelle ausüben. Ferner dürfen sie keinen lokalen Hochwasseraufstau erzeugen.  Ziel der verkehrsbaulichen Maßnahmen am Rhein ist es die Erosionsrate von vier Zentimeter auf ein Zentimeter pro Jahr abzumindern. Buhnen, Leit- oder Parallelwerke werden daher zur Vergleichmäßigung von Strömung und Geschiebetrieb notwendig.

KonsumentInnenanforderungen an Bekleidung: (Un)vereinbar mit nachhaltigem Bekleidungskonsum? 

Erwartungen und Ansprüche steuern in erheblichem Maße den Kauf von Textilien. In der Diskussion um einen nachhaltigen Kleidungskonsum stehen sie immer wieder im Rampenlicht der Kritik. Kurzlebige Modetrends und die damit verbundene geringen Tragezeiten sind direkte Folgen dieser Einstellung des Verbrauchers. Die Nachfrage nach ökologisch verbesserten Textilien begann in den 90er Jahren. Nur in bestimmten Nischen war ihnen ein bescheidener Erfolg beschieden. Die Frage nach den Hemmnissen für den Misserfolg von nachhaltig genutzter Kleidung stellt sich aber nicht nur für die privaten Käufer. Öffentliche Hand und gewerbliche Verbraucher haben ebenfalls großen Anteil am Marktgeschehen. Die Forderungen an einen nachhaltigen Bekleidungskonsum sind vielfältig. An oberster Stelle steht die Kaufentscheidung für Öko- und Naturtextilien sowie die absolute Reduzierung des Textilkonsums. Auch die Nutzung von Second Hand Läden und die Verminderung des Stoff- und Energieeinsatzes für die Textilpflege sind zu nennen. Wichtig ist vor allem die Verlängerung der Nutzung von Bekleidung. Die Marktforschung weiß allerdings, dass die Konsumenten beim Einkauf besonders viel Wert auf Qualität, Auswahl und Preis legen. Ökologie belegt nur die hinteren Ränge.  Ein weiteres Problem: das schlechte Image der Öko- und Naturtextilien. Ihnen wird nachgesagt teuer, wenig modisch und wenig haltbar zu sein. Laut einer Studie verlangen die Verbraucher von umweltorientierter Bekleidung vor allem modische Aktualität. Andere ökologische und soziale Gesichtspunkte treten dagegen zurück: Produktionsbedingungen, Abfallproblematik und Transportaufwand interessieren nur die wenigsten. Hemmnisse für einen nachhaltigen Konsum von Textilien ergeben sich auch aus dem Mehraufwand für Öko- und Naturtextilien und den strukturellen Angebotsdefiziten. Nur wenn der Käufer lernt  ganzheitlich ökologische, ökonomische, soziale und kulturelle Aspekte zu verstehen, können diese Hindernisse abgebaut werden. Derzeit ist solch ein integratives Denken des Verbraucher noch nicht zu erwarten, da der nachhaltige Konsum von Textilien in der öffentlichen Debatte nur wenig präsent ist. Anknüpfungspunkte und Potenzial für einen nachhaltigen Bekleidungskonsum sind aber durchaus vorhanden. So ist etwa vorstellbar, dass die Produzenten stärker  auf kaufstarke Kundschaft orientieren. Auch die Hersteller selbst sollten in größerem Maße Verantwortung übernehmen.

Rot-grüne Umweltpolitik: eine Zwischenbilanz

Die Probleme der deutschen Umweltpolitik sind vielfältig: Atomare Abfälle, ungebremster Flächenverbrauch und über 300.000 erfasste Altlastenflächen sind nur die Spitze des Eisbergs. Lösungen sind auch auf globaler Ebene gefragt. Fortschreitender Artenverlust, die unbefriedigende Situation der Meere und nicht zuletzt der Treibhauseffekt verlangen  politisches Handeln. Bei einer Kritik der derzeitigen Umweltpolitik sind zwei Ansätze denkbar, die das Ergebnis der Diskussion bestimmen. Entweder man geht vom ökologisch Notwendigen oder vom tatsächlich Machbaren aus. Allerdings ist es fragwürdig diese Maßstäbe für die Politik anzusetzen, da die Wirkungen von politischen Entscheidungen erst nach rund zehn Jahren abschätzbar sind. Beispielhaft dafür sind die Leistungen der rot-grünen Regierung in Berlin. Trotz schlechter Presse wurden die umweltorientierten Neuerungen von der Nachfolgeregierung mit Erfolg weiter geführt. Auch die Wirkungen der heutigen rot-grünen Entscheidungen auf Bundesebene sind noch nicht abzusehen. Die Umweltpolitik der Vorgängerregierung hatte zwar während viele Jahre innerhalb der EU eine Vorreiterrolle inne; als Beispiele sind die Luftreinhaltepolitik oder die Abfallgesetze zu nennen. Nach der Regierungsumbildung 1994 stagnierte die Umweltpolitik aber. So gehörte die Bundesrepublik zu einer der letzten Länder, die eine formelle Strategie nachhaltiger Entwicklung im Sinne der Agenda 21 vorlegte. Auch die politischen Handlungsbedingungen hatten sich inzwischen verändert - verschoben sich doch die gesellschaftlichen und politischen Prioritäten nach der deutschen Einheit. Standen früher Themen des Umweltschutzes hoch im Kurs, waren sie nach der Wende nicht mehr gefragt. Kernstücke des von der rot-grünen Regierung unterzeichneten Koalitionsvertrag waren der Einstieg in eine ökologische Steuerreform, die Einführung einer Nachhaltigkeitsstrategie und eines Umweltgesetzbuches. Auch die Förderung effizienterer Energiepfade und der längerfristige Ausstieg aus der Kernenergie wurden damals fest geschrieben. Die Durchsetzung dieser Ziele traf auf erheblichen  Widerstand von Seiten der energieintensiven Altindustrien. Aber gerade wichtige Ziele wie der Ausstieg aus der Atomenergie wurden erfolgreich durchgesetzt. Auch die ökologische Steuerreform und das Neue-Energien-Gesetz wurden schnell verwirklicht. Beide Gesetze sind Schritte auf dem Wege zum ehrgeizigen deutschen Ziel einer 25prozentigen CO2 Reduktion bis 2005. 

Welche Botschaft erreicht den Verbraucher?

Handelsübliche Produkte weisen meist nur sehr wenig Informationen über ihr Umweltverhalten auf. Man möchte meinen, dass eine Erweiterung dieser Informationen die Umwelt entlasten würde. Eine Marktstudie, die solcherart Produktinformationen auf Heimwerkerprodukten untersuchte kam allerdings zu einem ganz erstaunlichen Ergebnis: Je mehr Informationen zum Gesundheits- und Umweltschutz sich auf den Produkten befinden, desto größer werden die Umweltprobleme. Als Beispiel sei der Begriff 'lösemittelfrei' genannt, der auf den Verbraucher extrem verwirrend wirkt. Denn 'lösemittelfrei' suggeriert dem Käufer, dass das Produkt tatsächlich keine Lösemittel enthält, was aber nicht der Wahrheit entspricht. So führt dieses informatorische Defizit in manchen Fällen auch beim Verkäufer zu irreführenden Ratschlägen, die teilweise die Entsorgung der Restfarbe in der Kanalisation zur Folge haben. Auch bei Wasch- und Reinigungsmitteln ist die Produktinformation mehr als ungenügend. Hier führen zum Beispiel Überdosierungen zu einem Mehrverbrauch von 35.000 bis 70.000 Tonnen pro Jahr. Grundvoraussetzung einer besseren Qualität der auf den Produkten vermittelten Botschaften sind  Verständlichkeit, Anschaulichkeit und die leichte Lesbarkeit. Nur dadurch können die Informationen schnell und richtig wahr genommen werden. Dazu sind handlungsorientierte Bilder oder Piktogramme besonders geeignet, da von einem Vorwissen  des Nutzers nicht ausgegangen werden kann. Besonders wünschenswert wäre jedoch eine Normierung der Informationen, um über das Informationsdesign der Produkte das Umweltverhalten des Käufers besser zu steuern. Die Frage welche Botschaften den Verbraucher wirklich interessieren ist nicht einfach zu beantworten - zu vielgestaltig sind inzwischen die Lebensstile in bundesdeutschen Haushalten. Dazu kommt, dass für viele Konsumenten Sortieren von Abfällen Anfang und Ende umweltbewussten Verhaltens ist. Ferner ist umweltbewusstes Verhalten immer weniger 'en vogue'. Das zeigt sich besonders auf dem Markt mit umweltverträglichen Waschmitteln, auf dem sich nur wenige Produkte haben durchsetzen können. In der Endkonsequenz müssten also über Strategien des Umweltmarketings neue Anreize geschaffen werden. Weitere Rahmenbedingungen für eine nachhaltige stoffstromrelevante Verbraucherinformation könnte auch der Gesetzgeber liefern. So wäre ein Risikoaufschlag für  Produkte mit allergenen, kanzerogenen oder teratogene Substanzen denkbar.

Akteursbezogene Stoffstromanalyse: Auf dem Weg zur Stoffstromökonomie 

 Anhand von Stoffstrommodellen werden globale Stoffkreisläufe dargestellt. Dadurch kann eine Abschätzung der Umweltinanspruchnahme statt finden. Grundsätzlich gehen Stoffströme von einem Bedürfnismuster wie zum Beispiel einer Familie aus. Deren Nachfrage löst einen Stoffstrom aus, der auf vielfältigste Weise mit anderen Stoffströmen verknüpft ist. Die Stoffstrombeziehungen sind teilweise recht komplex und infolgedessen schwierig zu analysieren. Das Öko-Institut  entwickelte daher das sogenannte GEMIS-Computermodell, um die Umwelt- und Kosteneffekte von Energie- und Stoffströmen besser zu verstehen. Als Ergänzung zu GEMIS begann in den letzten Jahren die Entwicklung eines weiteren Computermodells. Jetzt liegt der erste Prototyp von BASiS vor, der zur Analyse des zeitlichen Zusammenspiels von Nachfrage und Angebot eingesetzt wird. Mit Hilfe dieses dynamischen Werkzeugs lassen sich nunmehr Stoff- und Energieflüsse bilanzieren sowie Marktvolumina und deren zukünftige Entwicklung modellieren. Inzwischen wird BASiS wie in Dresden oder Schleswig-Holstein auch in der Praxis verwendet. In den beiden Städten werden Stoffströme zum Thema Nachhaltigkeit beim Bauen und Wohnen durchgerechnet. Aber nicht nur der ökologische Gesichtspunkt ist mit diesen Programmen bestimmbar, sondern auch  ökonomisch relevante Kenndaten. So starten in Neuruppin und Freiburg Projekte, die sich der Entwicklung der sogenannten Stoffstromökonomie verschrieben haben. Kernpunkt des Experiments ist die Frage wie sich ein nachhaltiger Stadtteil auf die Wirtschaftsstruktur auswirkt. Dabei gehen die Forscher zunächst einmal zwei verschiedene Wege. Im Falle von Neuruppin stehen bei der Stoffstromanalyse die statistischen Daten im Vordergrund. In Freiburg erfolgt eine Vor-Ort-Aufnahme der Daten. In beiden Orten soll die starke Verbindung der Forschungsarbeit mit realen Akteuren in den betroffenen Regionen den Werkstattcharakter unterstreichen. Das Projekt wird vom Bundesministerium für Forschung und Technik (BMBF) unterstützt.

Der Rhein im Bild der interessierten Öffentlichkeit

Überlegungen zum Schutz des Rheines begannen bereits 1963. 1976 wurde ein entsprechendes Abkommen unterzeichnet, dass schließlich 1979 in Kraft trat. Aber erst 1987 waren die ersten vier von 50-60 Stoffen verbindlich in die Schwarze Liste aufgenommen worden. Diese langen Zeiträume offenbaren welch geringen Stellenwert der Rhein noch vor wenigen Jahren in der europäischen Umweltpolitik belegte. Auch die Öffentlichkeit wurde nur langsam auf dieses Thema aufmerksam. Der Waschmittelboom und die durch sie verursachten Schaumberge Anfang der 60er Jahre gaben den Rheinbewohnern einen ersten Vorgeschmack von dem was noch kommen sollte. Fischsterben und die Rolle des Rheines als Abwasserkanal und Wasserstraße manifestierten sich in den folgenden Jahren in den Köpfen der Bevölkerung - führten aber auch dazu das am gesamten Flußlauf der Bau von Kläranlagen begann. Anlass zur Berichterstattung gaben in den folgenden Jahren immer wiederkehrende Hochwasserfluten und Störfälle. So löste der Brand einer Lagerhalle der Firma Sandoz in Schweizerhalle bei Basel ein Fischsterben bislang unbekannten Ausmaßes aus. Dieses 'Tschernobyl der Wasserwirtschaft' gefolgt von weiteren kleinen Katastrophen rüttelte die Öffentlichkeit auf und brachte sie zu der Einsicht, dass etwas geschehen müsse. Heute ist der Rhein keineswegs so sauber wie er sein könnte, denn das Thema  Hochwasserschutz hat andere Debatten überschattet. So wurden vor den Überflutungen vor allem die Einleitungen der Landwirtschaft diskutiert - ein Problem, bei dem weiterhin Lösungsansätze notwendig sind. Kernpunkt der journalistischen Bemühungen für die Zukunft wird aber sein, die Verkehrsplanung über die Grenzen des Rheineinzugsgebietes  zu beobachten und zu hinterfragen. Auch die Dominanz der Verkehrspolitik im Bereich der europäischen Gewässer darf auf Dauer nicht unwidersprochen bleiben.

Lärmminderungsplanung-Ausgewählte Beispiele

Die lokale Agenda 21 soll verstärkt integrierte Umweltentlastungskonzepte umsetzen. Ein Handlungsfeld der lokalen Agenda 21 ist die Lärmminderungsplanung. Dabei steht die Lärmquelle Verkehr im Vordergrund der Planung. Das kommunale Lärmschutzprogramm umfasst daher die Verringerung und Verlangsamung des Kfz-Verkehrs, die Verkehrsentwicklung unter Lärmschutzgesichtspunkten und die Aufstellung von Lärmminderungsplänen. Sowohl in den neuen als auch in den alten Bundesländern können diese Lärmminderungspläne kostengünstig in die bestehenden kommunalen Planungen eingearbeitet werden. Voraussetzung für eine erfolgreiche Lärmminderung ist eine sinnvolle Einordnung des Planungsinstrumentariums in die Planungshierarchie. Der Ablauf einer Lärmminderungsplanung wird nach einem Vier-Stufenplan durchgeführt. Bei der Vorprüfung sind die schädlichen Umwelteinwirkungen abzuschätzen. Die Lärmanalyse dient der Feststellung der Belastungen durch Lärm. In Stufe drei wird schließlich ein Lärmminderungsplan erarbeitet, der mit anderen Planungen abgestimmt wird. Die vierte und letzte Stufe umfasst die Umsetzung der lärmmindernden Maßnahmen. Umfassende Information aller beteiligten Ämter  und die regelmäßige Abstimmung der Arbeitsschritte bereichern den Stufenplan mit aktiven Planungselementen. Dazu gehört aber auch der Mut zu neuen und komplexen Lösungen und eine intensive Öffentlichkeitsarbeit. Oberstes Ziel der Bemühungen sollte aber sein, Lärmminderungsplanung als festes Element in das Instrumentarium der Stadtentwicklung zu verankern.  Dadurch würde u.a. die Planungssicherheit und die technische Realisierbarkeit von Lärmminderungsprojekten erhöht. Der Lärmminderungsplan muss sich aus verschiedenen Ebenen zusammen setzen: Vermeidung, Verringerung und Verlagerung von Lärmemission und nicht zuletzt die Verringerung von Lärmimmissionen sind zu nennen. Dieses Maßnahmenbündel muss individuell auf die finanzielle und die weitere Belastungssituation zugeschnitten werden. Vor allem im Zusammenhang mit Verkehrs- und Infrastrukturplanungen können die Lärmminderungspotenziale kostengünstig ausgeschöpft werden. Zur glaubhaften Umsetzung gehört aber auch ein konstruktives, kommunales Klima. Beispielhaft für diese Art der Lärmminderungsplanung ist Hennigsdorf. Hier wurde in den letzten fünf Jahren fast der gesamte Maßnahmenkatalog erfolgreich umgesetzt.

Hamburgs Wasserversorgung 

 Wasserversorgung und -entsorgung sind sowohl technische als auch gesellschaftliche Systeme. Sie sind nur dann auf Dauer erfolgreich wenn sie nachhaltig geplant werden. Für die Wasserversorgung ist dieses Vorgehen seit langem Grundsatz. Dennoch lässt sich die Frage nach einer Mindestqualität des Wassers nur schwer beantworten - zu sehr sind die Belange einzelner Wirtschaftszweige und politischer Zielsetzungen miteinander verquickt. Ähnlich problematisch sind Fragen zur Verantwortungsdauer und welche Bilanzen in Zukunft im Vordergrund stehen werden; die wirtschaftlichen oder die gesellschaftlichen. Schon früh waren große technische System von gesellschaftlichen Strukturen abhängig. Bestes Beispiel sind die frühen Hochkulturen, die vor rund 10.000 Jahre den Vorderen Orient bevölkerten. An Euphrat, Tigris u.a. Flüssen war Wasser aufs engste mit der Zivilisation verbunden. Belegt wird das nicht nur durch Inschriften am Grab von Ramses III., sondern auch durch die Überlieferung sumerischer Schriftzeichen. Bewirtschaftung unter extrem schwierigen Bedingungen wie bei den Völkern in der Negev-Wüste verlangte aber schon damals ein hohes Maß an nachhaltig wirtschaftlichem Handeln. Dies gilt auch für die deutsche Wasserwirtschaft von heute. In Hamburg wurde die Wasserversorgung Mitte des 19. Jahrhunderts nach englischem Muster und nach den Plänen von William Lindley aufgebaut. Lindley war von Plänen der englischen Sozialreformer beeinflusst. Er errichtete die Wasserversorgung mit dem Anspruch auch der armen Bevölkerung billiges und gesundes Wasser zu liefern. Da jedoch die Hygiene noch vernachlässigt wurde, kam es in der Folge zu mehreren schweren Choleraepidemien. 1937 wurden die einzelnen Wasserwerke der Stadt unter dem Dach der Hamburger Wasserwerke GmbH zusammen gefasst. Die HWW versorgt heute 26 Städte und Gemeinden. Leitbilder des Unternehmens sind Sicherheit der Versorgung, Nachhaltigkeit der Ressourcennutzung sowie Effizienz und sozialverträgliche Preise. Auch in Zukunft will die HWW Grundwasserkörper so nutzen, dass die Gesamtbelastung minimiert wird. Um dem Ziel nachhaltige Entwicklung näher zu kommen bedarf es aber auch der konstruktiven Diskussion mit Bürgern, Umweltgruppen und anderen Wettbewerbern.

Zukunftsfähiges Deutschland 

Vor nunmehr drei Jahren wurde die Studie 'zukunftsfähiges Deutschland' veröffentlicht und insgesamt 100.000 mal verkauft. Sie wurde von BUND und Misereor beim Wuppertal Institut beauftragt. Ziel war es die Diskussion über ein nachhaltiges Deutschland anzuregen, die sich bislang nur in akademischen Zirkeln bewegte. Kernpunkt der Studie war die Frage nach dem Rohstoff- und Energieverbrauch und seinem Minderungspotenzial. Gleichzeitig sollten Leitbilder geschaffen werden, die soziale und ökologische Dimensionen betreffen. Besonderes Augenmerk richtete sich bei all diesen wissenschaftlichen  Studien auf die ungleiche Verteilung von Ressourcen - und der damit einhergehenden ungleichen Umweltnutzung von Dritte Welt und Industrieländern. Aus diesem Postulat der Gleichverteilung resultieren verschiedene Maßnahmen. So die schrittweise Reduktion des Energie- und Materialverbrauchs um 80 bis 90 Prozent bis zum Jahre 2050. Zusammen mit dem Einsparungsziel von 35 Prozent für CO2 bis 2010 bildet dies den Rahmen für ein 'zukunftsfähiges Deutschland'. Gleichzeitig sind Leitbilder für einen ökologisch orientierten Staat gefragt. An erster Stelle steht dabei der Abbau von ökologisch, schädlichen Subventionen. Im Vordergrund einer solchen Politik müssten Haftungsregelungen für risikoträchtige Aktivitäten und eine ökologische Steuerreform sein. Darüber hinaus sollte effizienter Ressourcenverbrauch die angestrebte ökologisch-soziale Marktwirtschaft dominieren.  Doch nicht nur der Unternehmer ist bei den umweltpolischen Umsetzungen gefragt. Auch der Konsument hat über sein Kaufverhalten einen großen Einfluss auf die ökologische Verträglichkeit der Produkte, da 56 Prozent der Umweltbelastungen zu seinen Lasten  gehen. Leider wurde der Konsument lange aus der Umweltdiskussion herausgelassen, da man annahm, dass er nicht wirklich für seine Konsum-Entscheidungen verantwortlich zeichnet - vielmehr sah man ihn von der Werbung fern gesteuert. Damit der Konsument frei und ökologisch entscheidet sind Informationen notwendig, die von Umweltverbänden, Verbraucherverbänden oder der UBA herausgebracht werden. Auch die Frage ob ein Mehr an Gegenständen wirklich ein Mehr an Lebensqualität mit sich bringt sollte hinterfragt werden. Auf dem Weg in ein 'zukunftsfähiges Deutschland' müsste schließlich auch das 'gut leben statt viel zu arbeiten' früher oder später umgesetzt werden.

NPK-Dauerdüngungsversuch 

Auf zwei Kilometer auseinander liegenden Versuchsstandorten sollte 'Volldüngung' mit Stickstoff, Phosphat und Kali der 'Nichtdüngung' gegenüber gestellt werden. Ziel war es, die Auswirkungen auf Bodenfruchtbarkeit und andere wichtige Bodenfaktoren zu erhellen. Die Versuche liefen auf der landwirtschaftlichen Versuchsstation Limburger Hof der BASF, der zwischen Speyer und Ludwigshafen gelegen ist. Der Dauerfeldversuch Limburgerhof begann schon 1938. Hier handelt es sich um abgelagerten Schwemmsand - der sogenannte Schneckensand. Er verfügt über einen relativ hohen pH-Wert und einen günstigen Phospatnachlieferungsvermögen. Der nach der klassischen 'Mitscherling Methode' angelegte N-P-K-Nährstoffmangel-Dauerfeldversuch bestand ursprünglich aus sechs Einzelparzellen a 42 Quadratmetern. Aufgrund der in den 60er Jahren zunehmenden Anzahl viehloser Betriebe wurde der Dauerfeldversuch unter Beibehaltung der N-P-K-Mangelvarianten gesplittet. In der Folge wurde auf viehlosen Betrieb umgestellt. Nach Ablauf der Rotationen konnte es zu Modifikationen im Anbau der Kulturen kommen, da es im Laufe der Zeit zu Veränderungen in der wirtschaftlichen Bedeutung der Kulturen kam. So wurden 1971 nach 20-jähriger Pause wieder Hybriden angebaut. Auch kam es immer wieder zu Abwandlungen der Fruchtfolge.  Der Dauerfeldversuch auf dem zwei Kilometer entfernten Feld Bruch begann 1957. Ausgangsmaterial ist ein Humusgley. Seit 40 Jahren wird der Versuch mit jährlich zwei Kulturen durchgeführt, wobei Ernterückstände abgefahren werden. Von 1957 - 1973 war die Fruchtfolge wie folgt: Zuckerrübe - Weizen - Kartoffel - Weizen. Beide Dauerfeldversuchsstandorte unterscheiden sich bezüglich des Bodens deutlich. Auch die Varianten 'ohne NPK' und mit 'NPK-Mineraldüngung' sind offensichtlich.

Das Product Sustainability Assessment (PROSA) 

Wie andere große Chemie- und Pharmaunternehmen hat auch Hoechst seit den 60er Jahren in Technologien investiert, die die Umwelt entlasten. Heute sind die industriellen Emissionen weitaus geringer als die von Haushalten und Verkehr. Möglich wurde dies durch moderne end-of-pipe Technologien. Derzeit steht immer mehr die Produktverantwortung im Blickpunkt der Öffentlichkeit. Angestoßen wurde diese Forderung u.a. von der UNCD in Rio de Janeiro 1992. Auch Hoechst versucht nun dieses Leitbild in die strategische Unternehmensplanung zu integrieren. In Zusammenarbeit mit dem Öko-Institut sollte ein Instrumentarium entwickelt werden, dass die Bewertung der Nachhaltigkeit der Produkte zulässt. Erprobt wurde dieses sogenannte Product Sustainable Assessment (PROSA) Instrumentarium anhand eines Konservierungsmittels und eines Polymers für Dachabdichtungen in China und Deutschland. Bei der Entwicklung von PROSA waren zwei wesentliche Elemente zu beachten: Unternehmerische Entscheidungen und die Deckung der Grundbedürfnisse. Da sich Nachhaltigkeit als abstraktes gesellschaftliches Leitbild nicht in Zahlen umsetzen lässt, wurden Handlungsanweisungen auf vier verschiedenen Ebenen geschaffen. Sie dienen der Produktbewertung. Auf der Produktbewertung aufbauend entstanden schließlich operative und strategische Handlungsoptionen für Unternehmen. Die Anwendung von PROSA beginnt mit der Systemanalyse. Wechselwirkungen zwischen dem Produkt und seinem sozial-gesellschaftlichen, ökonomischen und ökologischen Umfeld sind Kernpunkte dieser Voruntersuchung. Die Ergebnisse werden in einem nächsten Schritt mit den Anforderungen Nachhaltiger Entwicklung abgeglichen. Dazu dient ein produktspezifischer Indikatorset, der auch der Positionierung des Produktes im Vergleich zu Alternativen dient. Ferner sind Analysen notwendig, um die Wirksamkeit, Bedeutung und Nachhaltigkeit des Produktes zu bewerten. PROSA ist ein Mosaikstein auf dem Weg zum nachhaltigen Wirtschaften. PROSA weist auf Möglichkeiten kurzfristiger Verbesserungen hin, erzwingt aber nicht automatisch ein nachhaltigeres Verhalten des Unternehmen. Dadurch werden neue Spielräume eröffnet.

Ökologischer Humanismus

In ethisch-ökologischer Hinsicht bilden Mensch und Natur eine Einheit. Daher sind Ehrfurcht und Respekt vor den Bausteinen des Lebens, für den ökologischen Humanismus Grundbedingungen. Damit hat die Ethik des  ökologischen Humanismus auch weit über den Menschen hinaus Gültigkeit. Der Mensch soll sowohl Gegenüber als auch Bestandteil der Natur sein. Natur zu zerstören bedeutet also auch eine Verletzung der menschlichen Wesenseinheit. Es gilt das Prinzip: 'Was Du nicht willst, dass man Dir tu, das füg auch keinem anderen zu'. Kernpunkt einer Ökologischen Ethik ist das Streben nach Harmonie zwischen Natur und Mitwelt. Da diese Erkenntnis zunehmend auch von politischen und wirtschaftlichen Vertretern geteilt wird, stellt sich die Frage auf welchem Wege sie durchzusetzen ist. An dieser Stelle kann die Pädagogik weiterhelfen. Sie lehrt Respekt vor der Natur, Toleranz, verknüpfendes Denken und die Bereitschaft für andere Verantwortung zu übernehmen. Auf dem Wege zur global zusammenwachsenden Menschengemeinschaft ist die Pädagogik Gegenpol zum Shareholder-Value Denken und fördert die Kräfte des Einzelnen ganzheitlich. In vielerlei Hinsicht stimmt die ethisch ausgerichtete Pädagogik mit dem überein was auch für die Wirtschaft erforderlich ist. Auch in der Wirtschaft sind Weltoffenheit und Toleranz Grundfesten, die  gepaart mit vernetzendem Denken, Selbstständigkeit und Verantwortungsbereitschaft die Zukunft bestimmen werden. Aber gerade wirtschaftliche und politische Entscheidungen müssen immer wieder auf ihre ethische Integrität hin hinterfragt werden - eine Diskussion, die möglichst von der breiten Öffentlichkeit getragen werden sollte. Behilflich sind dabei die neuen Medien, die für solcher Art ausgetragene Diskurse eine immer wichtigere Plattform darstellen.

Unwissenheit und Risiko 

Die Mangrovensümpfe sind eines der bestuntersuchten tropischen Ökosysteme, was die Einzelarten betrifft. Um das Gesamtsystem besser zu verstehen, ist es sinnvoll die vielen bekannten Ergebnisse ganzheitlich zu betrachten. Dazu sind interdisziplinäre Forschungsansätze zu entwickeln, die sich auf die Untersuchung der natürlichen und anthropogenen Prozesse in ihren Wechselwirkungen konzentrieren. Dies wird anhand eines Fallbeispiels aufgezeigt. In dem Kooperationsprojekt zwischen Deutschland und Brasilien MADAM sind Biologen, Chemiker, Sozioökonomen, Geographen und Meteorologen beteiligt. Das Untersuchungsgebiet ist eine ausgedehnte Brachfläche an der Nord-Ost Küste von Brasilien. Etwa 70.000 Personen leben in diesem sozioökonomischen Einzugsgebiet und nutzen die Mangroven-Sümpfe. Fischerei, Holzabbau und besonders der Fang von Landkrabben sind die wichtigsten Wirtschaftszweige in den Mangroven. Krabbenfang ist bei 42 Prozent der Landbevölkerung Haupteinnahmequelle. Grundziele des sozioökonomischen Forschungsansatzes war zunächst die Analyse des Nutzungspotenzials des Mangrovensystems. Dazu wurde zum Beispiel die Gesamtnutzerzahl, aber auch andere Parameter ermittelt. Für die Analyse unabdinglich war ferner die Erfassung des gegenwärtigen Nutzungsgrades und die ökonomische Evaluierung des Ökosystems Mangrove. Aus diesen Grundzielen ergaben sich ein Vielzahl Fragestellungen, die sich aus den einzelnen Teildisziplinen ableiteten. Am Ende steht eine Risiko-Kosten-Analyse, die es gestattet die ökologischen Zwänge bezüglich der zu erwartenden ökonomischer Kosten zu bewerten.

Wasserwirtschaft in den neuen 

Es waren zehn spannende und erlebnisreiche Jahre seit der ersten Wasserfachlichen Aussprachetagung im März 1990 in Essen. Die gemeinsame Tagung im März 2000 ist Anlass für einen Rückblick über die letzten Jahre deutsch-deutscher Wasserwirtschaft. Welche Chancen sind genutzt, welche vertan worden? Noch 1991/92 war die Qualität der Wasserversorgung in den Neuen Bundesländern teilweise erschreckend schlecht. Wenige Jahre später hat sich Wasser aus den Neuen Bundesländern einen Spitzenplatz innerhalb Europas gesichert. Grund dafür ist die konsequente Anwendung des DVGW-Regelwerks und die Nutzung der wasserwirtschaftlichen Forschungsergebnisse. Aber auch die umfangreichen Investitionen trugen zu dieser Entwicklung bei. Zwischen 1991 und 1998 wurden in den fünf neuen Bundesländern (ohne Berlin) etwa zehn Milliarden DM für das Wasserversorgungssystem verwendet. Der Trend zu immer höherwertigem Wasser wurde darüber hinaus durch den Bedarfsrückgang auf etwa die Hälfte seit 1990 beschleunigt. Veraltete und stark belastete Wasserfassungen konnten dadurch vom Netz genommen werden. Eine ähnliche Entwicklung hat es bei den Kläranlagen gegeben. Die Investitionen lagen zwischen 1991 und 1998 bei 18 Milliarden DM. Dafür sind viele Flüsse heute wieder sauberer. Gleichzeitig mit diesen Investitionen wurde ein Großteil der Wasserver- und Abwasserentsorger neu strukturiert, um ihre wasserwirtschaftlichen Aufgaben wirtschaftlicher und effizienter zu erfüllen. Leider kam es in vielen Regionen zu einer Zersplitterung, die eine Wirtschaftlichkeit nicht mehr gestattete. So entstanden aus 16 Wasser/Abwasserunternehmen über 800. Dadurch wurden Chancen vergeben. Viele kleinere Verbände und Eigenbetriebe sind heute überschuldet und belasten die Gemeindekassen. Auf der anderen Seite haben sich auch leistungsfähige Unternehmen herausgebildet, die sich auch in Zukunft durchsetzen werden. Eine kommunale Mitwirkung ist bei diesen Unternehmen aber nicht gegeben. Beide Entwicklungen sind nicht zukunftsweisend. Daher muss die Position der wasserwirtschaftlichen Struktur dringend überprüft werden und die Zergliederung aufgehoben werden. Auch die Zusammenführung von Ver- und Entsorgungsaufgaben ist wünschenswert. Die Kriterien künftiger Entwicklung müssen aber nicht nur in der Chancengleichheit kommunaler Unternehmer liegen. Auch die Rationalisierung der Wasserwirtschaft und vor allem die Verantwortung für künftige Generationen müssen Arbeitsschwerpunkte sein. Denn Wirtschaftlichkeit und Nachhaltigkeit brauchen kein Widerspruch zu sein.

Zielgruppen und Konsum 

Um nachhaltige Verhaltensweisen in der Bevölkerung zu verbreiten sind bestimmte Strategien notwendig. In dieser Untersuchung ist der erste Schritt die Unterteilung der Verbraucher in Zielgruppen. Grund sind die unterschiedlichen Ökologisierungspotentiale einzelner Bevölkerungsgruppen. Im Rahmen eines Forschungsprojekt des BMBF wurde versucht die hemmenden Faktoren und Barrieren für umweltfreundliches Verhalten zu entkräften. Dies sollte über gezielte gruppenspezifische Angebote und im Kontext mit einem bestehenden Agenda-21 Netzwerk in München erfolgen. Kernpunkt des Forschungsvorhaben ist die Entwicklung von Diffusionsstrategien, um nachhaltige Konsummuster zu verbreiten. Drei verschiedene Systeme werden dabei in den Münchner Haushalten getestet. So sollen 'nachhaltige Haushalte' Patenschaften übernehmen und damit die Strategien nach dem Schneeballprinzip verbreiten. Auch werden stadtteilbezogene soziale Netzwerke in das Projekt eingebunden und das Internet verstärkt genutzt. Eine der größten Schwierigkeiten in der Praxis ist die Frage, wie man die Konsumenten und Haushalte überhaupt erreicht. Dabei ist das 'foot-in-the-door'-Prinzip hilfreich: Auf kleinere Gefälligkeiten folgen größere Bitten. Schließlich ist mit Hilfe der Konsum-Stiltypologie zu klären, welchen Kriterien die Zielgruppen unterliegen und wie sie angesprochen werden sollen. Die Konsum-Stiltypologie ermöglicht ein besseres 'Zielgruppen-Marketing', da die tatsächlichen Ökologisierungspotenziale eindeutiger werden. Die zehn Konsum-Stiltypen werden in vier Gruppen mit ähnlichem Motivhintergrund gebündelt. Für sie sind unterschiedliche Diffusionsstrategien und Mobilisierungskampagnen notwendig. So sind zum Beispiel beim Konsum-Stiltyp 'schwer erreichbar Überfordert' die Begriffe 'Öko' und 'Bio' unbedingt zu vermeiden. Sie wirken als Reizwörter. Zur Mobilisierung dieser Zielgruppe bietet sich beispielsweise ein zielgruppenspezifischer Einkaufsbummel oder der Aufbau von Tauschringen an. Auch für die Zielgruppen 'ambivalent traditionell' und 'über Beruf und Besitz ansprechbaren Privilegierten' zeigt die Untersuchung Strategien auf.

Multitemporale Luftbildinventuren 

Multitemporale Luftbildinventuren werden für die unterschiedlichsten raumbezogenen Zwecke erfolgreich verwand. Bestandsaufnahmen von Flächennutzungen und die Dokumentation der sich schnell wandelnden Verdichtungsräume sind Hauptanwendungsgebiete. In Zukunft könnte die Multitemporale Luftbildinventur als Grundlage für Inwertsetzungsstrategien von ehemaligen Industrieanlagen. Denn meist bleiben bei solch einem Umbau räumliche Entwicklung und die früheren raumfunktionalen Verflechtungen der Anlagen außer Acht. Auch andere Charakteristika wie Lage von Werkssiedlungen, Freiflächen und Halden werden nicht berücksichtigt. Zeitlich versetzt aufgenommene Luftbilder können ein differenziertes Abbild dieser Landschaftselemente liefern. Sie eignen sich besonders zur Erstellung thematischer Kartenwerke. Sie ermöglichen nicht nur Entwicklungsphasen von Kulturlandschaftsausschnitten nachzuzeichnen sondern auch den Nutzungswandel einzelner Flächen. Die Forscher haben das Verfahren im Bereich Meidericher Hütte, die im Duisburger Norden gelegen ist, erprobt. Der Standort ist wichtiger Bestandteil der Internationalen Bauausstellung Emscher Park. Im Rahmen der 'Route der Industriekultur' fällt ihm zentrale Bedeutung zu. Die Auswertung der Luftbilder geschah stereoskopisch. Grundlage waren Luftbilder aus den Jahren 1957, 1972 und 1992. Geländebegehungen ergänzten die Luftbildinterpretation. Thematische Kartenreihen zur Entwicklung der Flächen und Zeitschnittkarten waren Ergebnisse der Analyse. Ferner konnten Detailräume ausgegrenzt werden, die für die Inwertnahme der Industrielandschaft besonders einflussreich sind. Deutlich wurde darüber hinaus, dass nur wenige Konstanten den Industrielandschaftswechsel der letzten Jahrzehnte überdauert haben. Der Verwendungszweck der multitemporalen Luftbildinventur ist vielfältig. Sie kann zur Grundlagendokumentation und als Planungsgrundlage genutzt werden. Auch die Verwendung als Darstellung- und Interpretationsgrundlage ist denkbar. Schließlich ist noch der Einsatz zur Inventarisierung charakteristischer Elemente eines Industrieraumes zu nennen. Mit Hilfe der multitemporalen Luftbildkartierung lassen sich diese Elemente deutlich schneller aufspüren als allein durch Geländebegehungen.

Die Ökosteuer: eine Nachbetrachtung

Die Verdreifachung des Ölpreises, der gestiegene Dollarkurs und nicht zuletzt die verstärkte Gewinnmitnahme der Tankstellenbetreiber zum Jahreswechsel 1999/2000 hatten Folgen: Zusammen mit der Ökosteuer wurde die Schwelle von zwei Mark für einen Liter Benzin durchbrochen. In der Bevölkerung wurde größtenteils nur die Ökosteuer als Hauptverursacher wahrgenommen - ein Beleg für die geringe Akzeptanz vor allem der Mineralölsteuer. Außer der umstrittenen Mineralölsteuer, die stufenweise um sechs Pfennige erhöht werden soll, ist in dem rot-grünem Gesetzpaket eine Stromsteuer verankert. Die Einnahmen sollen rund 34 Milliarden betragen und für die Rentenversicherungsbeiträge von Arbeitnehmern und Arbeitgebern verwendet werden. Jährlich sollen 200 Millionen Mark für die Förderung erneuerbarer Energie verwendet werden. Im Gegensatz zur schwarz-gelben Vorgängerregierung hat rot-grün den Mut gehabt, die in Europa nicht mehrheitsfähige ÖSR national durchzusetzen. Inzwischen hat sich die ÖSR im Bewusstsein der Bevölkerung festgesetzt. Und obwohl viele unserer europäischen Nachbarn diesen Schritt zu eigenen umweltpolitischen Aktivitäten genutzt haben, bleibt das negative 'image'. Und das nicht ohne Grund. Denn das Gesetz ist unzureichend, so dass Nachbesserungen erforderlich sind. So wurde Kohle und gefahrbehaftete Erzeuger von Strom, wie etwa Kernkraftwerke nicht direkt besteuert. Auch bei Heizöl und Erdgas beschränkte sich die Besteuerung auf die erste Stufe. Dass sich nach zwei Jahren Ökologischer Steuerreform in Deutschland Fahrverhalten und Stromverbrauch kaum geändert haben belegt das Scheitern. Immer noch besteht im Preisvergleich zu den europäischen Nachbarn bei Kraftstoffen und Strom ein erheblichen Anpassungsbedarf nach oben. Auch die großzügigen Ausnahmeregeln für die Industrie geben nur wenig Anreiz zu energiesparenden Umgang mit Energie.

Energiepolitik: Über den Ausstieg und den Einstieg 

Seit Jahrzehnten wird in der deutschen Gesellschaft kontrovers über das Thema Atomenergie debattiert. Es gibt kaum eine gesellschaftliche Gruppe, die zu diesem Thema nicht Stellung genommen hätte. Bei der Übernahme der Amtsgeschäfte im Herbst 1998 waren die Erwartungen an die neue rot-grüne Regierung entsprechend hoch. Uneinigkeit und offenes Misstrauen zwischen den einzelnen Ministerien prägte aber zunächst das Bild der Bundesregierung. Für einen Ausstieg aus der Atomenergie sprechen vor allem die Möglichkeit von Unfällen, die ungeklärte Frage der Endlagerung und die beschränkten Uranvorkommen. Ferner ist durch die Ausnutzung der vorhandenen Energiequellen und regenerativen Potenziale die Energieversorgung auch in Zukunft gesichert. Da die grüne Forderung nach Ausstieg bis zum Jahre 2005 nicht durchsetzbar war, hat bis zum endgültigen Abschalten die Sicherheit der Atomkraftwerke und die Erarbeitung einer Endlagerkonzeption höchste Priorität. Ferner müssen Schritte vollzogen werden, die in Richtung nachhaltige Energiewirtschaft steuern. Das nationale Ausstiegskonzept wird allerdings durch die Aufhebung des Strommonopols und die Liberalisierung der Strommärkte zusehends ad absurdum geführt. Zum einen führte die Liberalisierung und die Energiepreissenkungen zu einer Verschlechterung der Rahmenbedingungen für regenerative Energien. Andererseits wird vermehrt Atomstrom aus den Nachbarländern importiert. Es sind daher 'ökologische Leitplanken' zum Schutz und Ausbau weiterer Anlagen erforderlich. Schon jetzt muss der Kraftwerksparks unter Gesichtspunkten der Klimapolitik neu strukturiert werden. Denn die Stilllegung von Kraftwerken zwischen 2005 und 2020 ist schon heute abzusehen. In diesem Zusammenhang wird zurzeit ein Quotenmodell mit Zertifikatshandel für KWK-Stromerzeugung diskutiert. Dadurch soll der Anteil von KWK-Strom bis 2010 verdoppelt werden. Dann soll er 20 Prozent betragen.

Das Solar-Zementwerk

Weltweit ist die Zementindustrie für fünf Prozent der Kohlendioxidemissionen verantwortlich. Die Emissionsrate moderner Zementwerke liegt bei etwa 0,9 kg Kohlendioxid pro Kilo Klinker. Der Kohlendioxidausstoß könnte durch die Ausnutzung von Solarenergie für die sogenannte Calcinationsstufe deutlich gesenkt werden. Das scheint technisch möglich zu sein. Allerdings wird man auch in Zukunft nicht völlig auf fossile Brennstoffe verzichten können, da die Klinkerproduktion im 24-Stunden-Betrieb erfolgt. Das Reaktorkonzept der Zukunft könnte ein Fallschacht-Reaktor sein, bei dem die Strahlungsflussdichte in der Öffnung des Calcinators bei etwa 2,8 MW pro m2 liegt. Ausgehend von einer Reaktoreffizienz von 86 Prozent, einer jährlichen Solarstrahlung von mehr als 2000 kWh pro m2 und den Kosten für den Heliostaten von 143 Dollar pro m2, kann davon ausgegangen werden, dass die heutigen Zementherstellungskosten nicht überschritten werden. Bei einem solarenergie-unterstützten Zementwerk wird der Zementpreis, wegen der Mehrinvestition um zehn Prozent höher liegen als mit konventionellen Techniken. Über eine Kohlendioxidabgabe könnten sich die Preise aber angleichen. Die Errichtung solarenergie-unterstützter Zementwerke ist in zahlreichen Standorten im Sonnengürtel machbar. Bei einer jährlichen Klinkerproduktion von 850.000 t könnten so 20.000 t Kohle eingespart werden. Das entspräche einer Brennstoffreduktion von 28 Prozent und einer Senkung des Kohlendioxidausstoßes um neun Prozent. Diese Werte sind das Ergebnis ,mehrerer Workshops, die in Zusammenarbeit mit Vertretern der Zementindustrie realisiert wurden. Ziel war es Möglichkeiten der Anwendung von Solarenergie in der industriellen Zementherstellung zu erhellen. Das Marktpotential für die Errichtung solarenergie-unterstützter Zementwerke ist durchaus positiv zu beurteilen - gerade in Ländern mit großem Bevölkerungswachstum. Hauptproblem sind die hohen Kosten für den Heliostaten, die 84 Prozent der Investitionssumme ausmacht. Voraussetzung für den Durchbruch dieser Technologie ist daher die wirtschaftliche Produktion von Leichtbau-Membranheliostaten.

Sanierungsplanung 

Der Sanierungsfall zeigt modellhaft, dass die in der BBodSchV (1999) geforderten Sickerwasserprognosen ein sinnvolles Instrument für die Gefährdungsabschätzung und für die Sanierungsplanung sind. Frachtenberechungen und Emissions-/Immissionsbetrachtungen ermöglichten die Ableitung von Eingreifwerten für Altlasten. Zwischen 1829 und 1927 wurden auf dem 83.000 m2 großen Altlastenstandort vorwiegend anorganische Produkte produziert. Die ehemaligen Le Blanc Sodafabrik in Hessen wird heute als Wohngebiet genutzt. Untersuchungen auf dem Gelände ergaben flächendeckende Kontaminationen mit sowohl organischen als auch anorganischen Schadstoffen. Verunreinigungen, mit Arsen wurden bis in die Trinkwasserschutzzone III A eines nahen Trinkwasserwerkes nachgewiesen. Tiefenorientierte Beprobungen lieferten eine Stofffracht zwischen 15 und 60 g Arsen in die Wasserschutzzone. Kernpunkt der Untersuchungen war die Frage, ob zum Schutz des Grundwassers außer hydraulischen Maßnahmen auch eine Bodensanierung notwendig wird. Im Grundwasser überschritt das Arsen die zulässigen Richtwerte deutlich und breitete sich in Richtung des Grundwasserabstroms aus. Mit Hilfe von etwa 600 Rammkernbohrungen wurde Arsen auch in den bis zu fünf Meter mächtigen Auffüllungen des Altstandortes nachgewiesen. Die Belastung war in den obersten zwei Bohrmetern am Größten. Belastungszentren waren ehemalige Produktionszentren und eine ehemalige Säuregrube. Nur wenige Flächen waren unbelastet. Das Gesamtvolumen des kontaminierten Bodens liegt bei etwa 150.000 - 200.000 m3. Die Gesamtarsenmenge wird mit 12 - 78 Tonnen abgeschätzt. Ein großer Teil davon hat sich schon bis in den Übergangsbereich zur gesättigten Bodenzone verlagert. Täglich werden 3,1 Gramm Arsen über die Grundwasserneubildung ins Grundwasser eingetragen. Eine flächenhafte Sanierung würde hohe Kosten verursachen (Bodenaushub, Abriss von Wohnhäusern). Über eine Sanierung der Schadenszentren könnten die Kosten gesenkt und die Richtwerte eingehalten werden.

Integrierte Abwärmenutzung

Für die Stromerzeuger ist Industrieabwärme ein bislang unerkanntes Potential. Dabei könnte sie im Kraftwerksprozess zu deutlicher Wirkungssteigerung führen. Praktische Beispiele zeigen die Möglichkeiten der Abwärmeeinkoppelung bei industriellen und thermischen Entsorgungsprozessen. Die höchsten Wirkungsgrade verspricht dabei der sogenannte KOMBINA-Prozess. Das Prinzip der KOMBi-Anlage mit integrierter niedertemperaturiger Abwärmenutzung arbeitet mit fast allen niedertemperaturigen abwärmeerzeugenden Prozessen zusammen. Für Zement- und Kalkindustrie sind nur geringe technische Modifikationen notwendig. Bei der Zementproduktion sind hohe Laufzeiten erforderlich, um die Wirtschaftlichkeit der Stromerzeugung zu erreichen. Produktion und Abwärmeanfall sind meist schon von Hause aus sehr eng miteinander verknüpft. Die Wirtschaftlichkeit ist damit fast immer gewährleistet. Dennoch ist mit zusätzlichen Personalkosten zu rechnen. Der Dampfdruck hat dagegen auf die Stromgestehungskosten nur geringen Einfluss. Auch bei der Kalkherstellung mit Drehrohrofen sind verschiedene Fahrweisen mit dem KOMBINA-Prozess denkbar. Ungünstig ist jedoch der Einsatz einer Gasturbine, die der optimalen Anpassung an produktionsbedingte Stromspitzen dient. Anbieten würde sich in diesem Zusammenhang der bei den thermischen Prozessen genutzte kostengünstige Festbrennstoff. Nachteilig bei dieser Variante wäre der große apparative Aufwand zur Reinigung des Rauchgases. Generell gilt, dass die Prozessauswahl über eine Wirtschaftlichkeitsberechnung zu erfolgen hat. Die Beachtung der Wärmenutzungsverordnungen ist ebenfalls notwendige Grundvoraussetzung.

Anforderungen an ein nationales Emissionsrechtshandelssystem 

Erstmals wurden in der UN-Klimarahmenkonvention in Kyoto Emissionsziele für die Jahre 2008-2012 festgelegt. Diese betreffen Industrie- und Transformationsländer des Annex I. Im Protokoll sind 'Flexibilisierungsmaßnahmen' geregelt. Durch sie sollen Emissionsverringerungen im Ausland auf das nationale Ziel angerechnet werden. Eine dieser Maßnahmen ist der Artikel vier. Er reguliert den Emissionsrechthandel, der allerdings kaum Regeln enthält. Kerngedanke ist, dass 'Emissionsverringerungseinheiten' von dem Zielbudget des Käufers abgezogen und dem Budget des Verkäufers zugeschlagen werden. Dadurch wäre im Unterschied zu einem Steuermodell zumindest die Emissionsmenge fixiert. Ein Anreiz zur Ausnutzung aller Verringerungsmöglichkeiten könnte darüber hinaus der Marktwert des Emissionsrechts sein. Voraussetzungen für einen erfolgreichen Handel sind möglichst niedrige Transaktionskosten, Markttransparenz, ein großer Teilnehmerkreis und eine unabhängige Kontrolle. Für die Verteilung der Emissionsrechte stehen zwei Möglichkeiten offen: Die Zuteilung an bisherige Emittenten oder die Versteigerung. Eine Gratiszuteilung könnte allerdings von der Welthandelsorganisation als unzulässige Subvention eingestuft werden. Auch belohnt sie stagnierende und schrumpfende gegenüber wachsenden Industrien. Bei einer Auktion kombiniert mit einer Steuerreduktion wären dagegen große gesamtwirtschaftliche Wohlfahrtsgewinne zu erwarten. Seit 1994 läuft der SO2 Emissionsrechthandel in den USA. Nur ein geringer Teil der Emissionsrechte wurde versteigert; der überwiegende Teil wurde gratis vergeben. Es zeigte sich, dass die Emissionspreise recht unbeständig sind und vor allem auf politische Eingriffe reagieren. In einem weltweiten Markt mit Emissionsrechten wäre die Standardisierung der Emissionsrechte Grundvoraussetzung. Um Missbrauch vorzubeugen, würden auch eine Anzahl Kontrollmechanismen und Aufsichtsbehörden notwendig werden.

Der Einsatz von Geoinformationssystemen (GIS)

Karten zur Analyse von räumlichen Morbiditäts- und Mortalitätsmuster sind für Geographen und Epidemiologen schon seit langem wichtige Werkzeuge. In jüngster Zeit nutzen Mediziner zur Visualisierung von gesundheitsrelevanten und epidemiologischen Fragestellungen verstärkt Geoinformationssysteme (GIS). Im Rahmen des weltweiten Projektes 'International Study of Asthma and Allergies in Childhood' (ISAAC) wird in München ein GIS zur räumlichen Analyse epidemiologischer Daten eingesetzt. In Kombination mit weiteren Umweltdaten soll überprüft werden, ob eine räumliche Häufung von Asthmasymptomen im Münchner Stadtgebiet vorliegt. Datengrundlage waren Elternfragebögen zur Erkrankungshäufigkeit bei Schulanfängern und Viertklässlern aus den Jahren 1995-1996. Waren pfeifende und keuchende Geräusche im Brustkorb, die Eltern bei ihren Kindern in den letzten zwölf Monaten wahrnahmen, wirklich Zufall? Permutationstests sollten darüber Aufschluss geben, ob die Asthmasymptome den Probanden räumlich zugeordnet werden können und sogenannte 'cluster' bilden. Bei den ausgewählten Tests handelte es sich sowohl um globale als auch lokale Verfahren. Jedoch konnte weder mit dem Nearest-Neighbour- noch mit dem Räumlichen-Filter-Verfahren die Nullhypothese (Asthma bei Kindern Zufall) widerlegt werden. Auch das Kernabschätzungsverfahren identifizierte keine räumliche Häufung von Asthmasymptomen bei den Kindern. Grund dafür sind möglicherweise fehlende Informationen über den Aufenthaltsort der Probanden außerhalb des Wohnorts. Dennoch sind mit Hilfe von GIS in Zukunft eine Vielzahl von Einsätzen im Bereich Gesundheit und Epidemiologie denkbar. Die Interdisziplinarität steht dabei im Vordergrund - ist doch das GIS bislang noch ein komplexes Expertensystem. Das ist ein Grund dafür, dass GIS im Gesundheitswesen noch keine besondere Rolle spielt.

Schutzgutbezogene Analyse

Unternehmer verschaffen sich durch Informationen größere Markttransparenz. Dadurch minimieren sie ihr unternehmerisches Risiko, denn sie werden in die Lage versetzt zukünftige Markt- und Finanzsituationen einzuschätzen. Im Zusammenspiel von Landwirtschaft und Umwelt ist diese Art der Risikominimierung noch unbekannt. Vielmehr lastet das ökologische Risiko auf den Schultern der Allgemeinheit, während sich der Produzent allein den erwirtschafteten Ertrag anrechnet. Auch ist eine Risikominierung von Seiten des Produzenten nicht abzusehen, da er vom Risiko nicht direkt betroffen ist. Ordnungspolitische und marktwirtschaftliche Anreize und Zwänge müssen daher in Zukunft den Landnutzer dazu bringen Wirtschaftsweisen zu verwenden, die im Einklang mit den jeweiligen ökologischen Gegebenheiten sind. Im Bereich der Landwirtschaft gestaltet sich die Definition von Risiko allerdings äußerst schwierig - zu lückenhaft sind Erfahrungen und Informationen. Ferner sind die Definitionen des Begriffs Risiko je nach Standpunkt unterschiedlich. Allgemein definiert sich Risiko als Produkt aus Ereigniswahrscheinlichkeit und Ereignisschwere. Ausgehend von der ökologischen Risikoanalyse wird von dem Forscher die mögliche Belastung von Schutzgütern oder Beeinträchtigung ihrer Funktion bzw. das Nichterreichen normativer Ziele als Risiko angenommen. Der Ablauf der Risikoanalyse für die landwirtschaftliche Flächennutzung beginnt mit der Systembeschreibung. Was wirkt ein und worauf, sind die grundsätzlichen Fragen. Durch das Zerlegen der Produktionsverfahren in Nutzungsbausteine werden die Konsequenzen für die Schutzgüter erhellt. Das Befahren des Bodens wirkt sich zum Beispiel ausschließlich auf den Boden aus, während die Düngung sowohl Boden als auch Gewässer belastet. Im nächsten Schritt der sogenannten Sensitivitätsanalyse werden die Empfindlichkeiten des Akzeptors (Empfängerseite) bestimmt. Die Systemprognose dient der Beschreibung der zu erwartenden Lasten. Am Ende steht die Bewertung des Nutzungssystems anhand von gesetzlichen Vorgaben oder Umweltqualitätszielen. Kernpunkte dieser differenzierten Analyse der landwirtschaftlichen Flächennutzung sind das Aufzeigen von alternativen Bewirtschaftungsmöglichkeiten und die Minimierung von Konflikten zwischen Mensch und Umwelt (z.B. Schutz des Grundwassers).

Durch die relative Bedeutung

Die Form der Wachstumskurve einer Pflanze ist nicht allein von einem Standortfaktor (z.B. Substrat) abhängig. Große Bedeutung haben auch andere Faktoren wie zum Beispiel Konzentration und Art der vorkommenden Ionen. Das Beispiel zeigt, dass der Zeigerwert einer Pflanze nur eingeschränkt Gültigkeit hat und kritisch zu überprüfen ist. Zeigerwerte dienen zwar dem Erkennen von Standortbedingungen, decken aber nicht den gesamten Vorkommensbereich der Pflanze im Ökosystem ab. Das Risiko Ökosystem analysiert der Forscher mit Hilfe des Relativitätsprinzip der Ökologie. Kerngedanke ist, dass die ökologische Bedeutung eines Standortfaktors für Lebewesen, Biocoenosen, oder Ökosysteme nur durch Kenntnis der ökologischen Gesamtsituation zu erfassen ist. Die absolute Größe eines Ökosystems ist weniger relevant. Diese multivariate Betrachtungsweise ermöglicht zum Beispiel das Liebig-System. Durch die Kombination von Groß- und Mittelgitter im 'Ökodiagramm' gelingt die vier-dimensionale Darstellung der Werte. Aber auch dieses System hat Nachteile. Mit dem Liebig-System erhält man Teilräume, die nicht zum ökologischen Bereich der Pflanze gehören und so zu Fehlinterpretationen führen können. Ausschließen lassen sich diese Risiken nicht völlig. Die Bildung von Schnittmengen aus ökologisch gemeinsam wachsender Pflanzen erlaubt aber eine Risikoreduzierung. Als Grundlage bietet sich dazu das Wilddatenbank und Informationssystem Terra-Botanica an. Risiken in einem Ökosystem entstehen zum Beispiel durch die relative Bedeutung bestimmter Funktionsträger im Ökosystem. So kann schon die Entfernung einer einzigen Saatwucherblume am Rande eines Gemüsefeldes ernsthafte Folgen haben: Blattläuse vermehren sich ungebremst, denn natürlichen Feinden wie Schwebfliegen oder Marienkäfern ist die Nahrungsquelle entzogen. Der Feldertrag sinkt. Sind dagegen 20 Saatwucherpflanzen auf dem Feld vorhanden, nimmt das Risiko ab. Daher ist ein Bewertungsverfahren notwendig, dass auch relative Bedeutungen berücksichtigt. Es ist in verschiedene Bearbeitungsebenen aufgeteilt bei der die multifaktorielle Beschreibung und Beurteilung des Ökosystems im Vordergrund steht.

Transnationale Zusammenarbeit 

Auch in Zukunft lassen sich Hochwasserperioden und deren Konsequenzen nicht völlig ausschließen. Dennoch fordern Überschwemmungen wie zum Beispiel 1995 an Maas und Rhein transnationales Eingreifen. Nur so kann verhindert werden, dass sich eine solche Katastrophe mit hundert Tausenden Direktbetroffenen nicht wiederholt. Im Augenblick arbeiten Deutschland, Belgien, Luxemburg, Frankreich und die Schweiz im Rahmen der 1995 beschlossenen regional-wirtschaftsbezogenen Interreg-Regelung an einer entsprechenden Raumordnungsstrategie. Die notwendigen Raumordnungsmaßnahmen umfassen im wesentlichen zwei Bereiche: Das Bett des Hauptstroms und das Hinterland. Kernpunkt der Raumnutzung im Bett des Hauptstromes ist die Gewährleistung der Abflussfähigkeit des Flusses. Hier zielen die Maßnahmen darauf ab, aufstauende Hindernisse wie Häuser oder Freizeitanlagen im Strom zu vermeiden. Ferner soll der durch Hindernisse im Fluss verursachte Aufstau dauerhaft ausgeglichen werden. Dazu sind wasserbauliche Maßnahme notwendig. Um die Abflusskapazität des Flusses zu erhöhen, ist auch die Anlage von Nebenrinnen, die Absenkung der Ufer und die Vertiefung des Deichvorlandes angedacht. Im Hinterland gilt das Prinzip Wasserrückhalt. Nur so wird ein langsamerer Wasserabfluss zum Hauptstrom gesichert. Alle Aktionen, die eine hohe Wasseraufnahmekapazität oder Schwammwirkung haben, sind dabei besonders wirksam und sollen durchgeführt werden. Maßnahmen, die diese Entwicklung unterstützen würden, sind zum Beispiel Aufforstung und Naturentwicklung in flussaufwärts gelegenen ländlichen Gebieten. Auch die Anlage von Überschwemmungs- und Rückhaltebecken ist denkbar. Die gewünschte Schwammwirkung ist auch im städtischen Bereich zu erreichen. Versickerungsanlagen und die Aufnahme von Oberflächenwasser in Klärteichen sind Teil des transnationalen raumordnerischen Instrumentariums.

Vermittlung Nachhaltiger Entwicklung

Weder marktliche noch freiwillige Lösungen sind bei der Vermittlung des Nachhaltigkeitsgedankens besonders effektiv. Kein Wunder. Selbst die Definition des Nachhaltigkeitbegriffs als 'Einklang ökonomischer, ökologischer und sozialer Entwicklung' wird nicht uneingeschränkt geteilt. So definiert der Sachverständigenrat für Umweltfragen Nachhaltigkeit ganz anders. Intragenerative und intergenerative Gerechtigkeit stehen dabei im Vordergrund. Die geringe Popularität von Umweltschutz und die Schwierigkeiten bei deren Vermittlung hat viele Gründe. An erster Stelle steht die radikale grüne Vorbelastung und die damit einhergehende Verabsolutierung von Umweltzielen und deren Austauschbarkeit. Ferner ist die Vermengung von Umwelt- und Ressourcenschutzzielen in der umweltpolitischen Diskussion zu nennen. Denn niemand weiß genau ob die Rohstoffe wirklich einmal knapp werden. Ganz im Gegenteil. Verdreifachen wir den Energiepreis künstlich, resultiert daraus die Verdoppelung der Erdölvorräte. Der Grund: Die Erdölvorräte sind preisabhängig. Erhöht sich der Rohölpreis macht es plötzlich auch wieder Sinn Öl aus weniger zugänglichen Quellen zu fördern. Auch die Nichtbeachtung von Zeitskalen trägt zum Popularitätsschwund und trägt oft genug zur allgemeinen Verwirrung bei. Wird zum Beispiel der Beginn der Industriellen Revolution im Jahre 1780 als Ausgangspunkt genommen, so stellt sich die Industriegeschichte als eine Geschichte der Dematerialisierung der Produktion dar. Unpopulär machen den Umweltschutz auch die steigenden Grenzvermeidungskosten. Abgaben- oder Lizenzlösung könnten hier Abhilfe schaffen und die Emissionsmengen gesamtwirtschaftlich reduzieren, ohne dass die Kosten drastisch steigen. Von Vorteil wäre auch eine Abkopplung von verteilungspolitischen Problemen. So sollte zum Beispiel eine Ökosteuer in Zukunft wirklich so angelegt sein, dass sie denjenigen stärker belastet der mehr Öko (Umwelt) verbraucht. Schließlich ist der Mangel an Komplexität im umweltpolitischen Denken zu nennen. Die umweltpolitische Szenerie polarisiert sich in die 'Guten' (Verbraucher) und die 'Bösen' (Industrie). Letztere fungieren als klare Feindbilder. Und das obwohl der Verbraucher einen beachtlichen Umweltverbrauch hat. Die Vermittlung von mehr Komplexität in unserem Bildungssystem ist zugleich Kernpunkt einer neuen Umwelterziehung. Gleichzeitig müssen Kontrollvorstellungen geschaffen werden. Dem Einzelnen muss das Gefühl gegeben werden tatsächlich etwas kontrollieren zu können und nicht ausgeliefert zu sein.

Umweltorientierte Großprojekte

Für Städte und Regionen haben Einzelprojekte an Bedeutung gewonnen. Über die Planung und Durchführung dieser kleineren Planungseinheiten versuchen die Stadt- und Regionalentwickler immer öfter ihre entwicklungspolitischen Zielvorstellungen zu verwirklichen. Gründe sind das Fehlen von Finanzmitteln und von stabilen Mehrheiten. Sie erschweren eine langfristige Entwicklungsplanung. Vor diesem Hintergrund bietet die Strategie der Einzelprojektplanung eine Menge Vorteile: Klare Zielvorstellungen, Überschaubarkeit, zeitliche Begrenztheit und die schnelle Möglichkeit der Reaktion auf sozioökonomische Veränderungen. Innerhalb der projektorientierten Formen gestaltet sich besonders die Durchführung von Großprojekten effektiv. Diese nicht alltäglichen Aufgaben können einer Stadt einen besonderen Entwicklungsimpuls geben. Manchmal bringen diese meist temporären Ereignisse aber auch Nachteile und Probleme mit sich. So laufen sie teilweise den längerfristigen stadtregionalen Entwicklungen entgegen. Aber nicht nur in den Ballungsgebieten bieten sich Möglichkeiten für Großprojekte. Gerade in den klein- und mittelstädtischen Regionen können Großprojekte Innovationen einleiten und das besonders auf umweltorientierten Gebieten. Beispielgebend ist das Planspiel 'Modell-Stadt-Ökologie' bei dem sechs Erzgebirgskommunen teil nahmen. Den hochmotivierten Projektmitarbeitern gelang es innerhalb eines Jahres einen Vorentwurf für einen gemeinsamen Flächennutzungsplan zu entwickeln. Ferner wurde ein Kooperationsvertrag zwischen den Gemeinden angebahnt. Auch im Rahmen der Expo entwickelte sich solch ein Umweltprojekt: Die 'Expo-2000-Korrespondenzregion' in Sachsen-Anhalt. Die Wirkung dieser Projekte und deren Nachhaltigkeit ist tendenziell positiv einzuschätzen, obwohl sie teilweise noch nicht abgelaufen sind. In beiden Großprojekten kam es zu einer engen Zusammenarbeit der Akteure während Planung und Durchführung. Die dadurch erzielten Lerneffekte sind für die langfristige Entwicklung der Regionen entscheidend. Alles in allem scheinen Großprojekte gerade für eine nachhaltige Entwicklung altindustrialisierter, klein- und mittelstädtischer Regionen in Ostdeutschland geeignet zu sein. Allerdings benötigen diese umweltorientierten Großprojekte die Unterstützung durch übergeordnete Gebietskörperschaften. Um die Längerfristigkeit und den günstigen Verlauf zu sichern, sollten sie auch dauerhaft mit dem regionalen Management verknüpft werden.

Lachs 2000: Stand der Projektarbeiten

Seit den 60er Jahren hat sich am ehemals kanalisierten und zu einer Kloake verkommenen Rhein viel verändert. Die vom IKSR koordinierten Sanierungsarbeiten zeigten erstmals 1976 Wirkung und brachten bessere Wasserqualität für Vater Rhein. Unter den vier großen Zielsetzungen, die die ISKR-Mitgliedstaaten schließlich im Oktober 1987 festlegten, befand sich auch das Programm 'Lachs 2000'. Danach soll das Ökosystem Rheins in solch einen Zustand versetzt werden, dass heute verschwundene Arten in die Lage versetzt werden, in Rhein und Maas zurückzukehren. Bevor jedoch von einer Wiedereinbürgerung gesprochen werden konnte, mussten die Arbeitsgruppen 'Morphologie' und 'Ökologie' erhebliche Grundlagenarbeit leisten. Die Gründe für das Verschwinden der Langdistanz-Fische, zu denen auch die Meerforelle gehört, waren rasch geklärt: Wasserverschmutzung, Zerstörung der Habitate, Überfischung und Unterbrechung der Wanderung durch unüberbrückbare Hindernisse. Daher standen vor allem die Nutzung und Wiedergewinnung der Laichgebiete und Jungfischhabitate sowie die Überwindung der Wanderhindernisse im Mittelpunkt der Anstrengungen. Ferner war das Vorhaben durch Besatzmaßnahmen voranzutreiben. Auch die gesetzlichen Vorgaben hieß es auf nationaler und internationaler Ebene zu koordinieren. Bislang sind für Lachse Laichplätze in der Größenordnung von 32 ha vorhanden. Die Größe der Jungfischhabitate liegt bei 255 ha. 2.500 bis 10.000 werden in den nächsten Jahrzehnten in diesen Revieren erwartet. Sowohl bei den als 'homing' bezeichneten Wanderungen vom Meer zum Herkunftsfluss als auch bei der Wanderung ins Meer sind also in Zukunft Auf- und Abstiegshilfen vorzusehen. Das betrifft Schleusen im Mündungsbereich aber auch an verschiedenen Staustufen. Das erste unüberwindliche Hindernis liegt bei Iffezheim circa 700 km flussaufwärts. Dieses erreichten schon 1995 mehrere Lachse. Im Rahmen von 'Lachs 2000' sind hier wie auch bei den weiter nördlich gelegenen Staustufen Maßnahmen vorgesehen. Diese beinhalten auch Kontrollstationen, die der biologischen Überwachung dienen sollen. Ziel ist es bessere Kenntnisse über das Wanderverhalten zu erlangen. Einige Kontrollstationen sollen der Öffentlichkeit zugänglich sein, um mehr Öffentlichkeit zu erreichen. Die bisherigen Maßnahmen und ihre Ergebnisse in den einzelnen Ländern, die hier detailliert dargelegt werden, stimmen zuversichtlich.

Nachhaltige Entwicklung - Ein Megathema für die Automobilindustrie 

Mobilität ist ein menschliches Grundbedürfnis und ein wichtiger Motor unserer Industrie. Umwelt- und Energieprobleme sind eng mit dem Mobilsein verbunden. Denn immer noch steigen die PKW Zulassungszahlen in der Welt. In Deutschland wird die Zahl PKWs bis 2020 um sieben Millionen auf etwa 51 Millionen ansteigen. Vor diesem Hintergrund erscheint es nicht nur notwendig Ressourcenschonung zu betreiben, um die Energieverfügbarkeit für die Zukunft abzusichern, auch die Minimierung von CO2- und Schadstoffausstoß muss voran getrieben werden. Gerade für ein großes Unternehmen wie Daimler-Chrysler ist Umweltschutz eine der elementaren Aufgaben. Grund dafür ist zum einen die Verantwortung für die Allgemeinheit, andererseits aber auch die Zukunftssicherung des Unternehmens. Daher hat das Unternehmen Umweltschutz zu eines seiner Leitlinien gemacht, für den es jährlich mehr als zwei Milliarden Mark ausgibt. Und Umweltschutz beginnt schon in der Produktion. Beispiele im Bereich der Autoindustrie sind das 'Pulverslurry-Verfahren' und der Motor-Kalttest, in der Airbusfertigung ist es die verbesserte Kühlschmiermittelausnutzung, die zeigt wie effektiv Energie und Wasser hier eingespart werden können. Daimler-Chrysler hat zwischen 1992 und 1998 durch technische Verbesserungen den CO2-Ausstoß pro hergestellten Fahrzeug um 30 Prozent verringert. Auch das Produkt selbst trägt zu einer Umweltentlastung bei: Intelligente Leichtbauweise, Zylinderabschaltung und verbesserter Cw-Werte reduzierten den Benzinverbrauch der neuen Modelle erheblich. Und immer mehr Bestandteile des Autos werden durch hochwertige Sekundärrohstoffe ersetzt. Ferner wird die Demontage- und Recyclingplanung immer wichtiger, so dass für die zukünftig zu planenden Autos vor allem die Trennungsfreundlichkeit im Vordergrund der Entwicklung steht. Bei den neuen Trends in der Forschung ist an erster Stelle das 'Drive-by-wire-Fahrzeug' zu nennen: Mechanische Komponenten werden durch Elektronik und Sensorik ersetzt. Ferner sind es die Informations- und Kommunikationstechnologien, die neue Möglichkeiten eröffnen; wie zum Beispiel die problemlose Umfahrung eines Staus. Ein besonders wichtiger Trend auf der Suche nach technischen Innovationen ist die Entwicklung alternativer Antriebe und die Nutzung von Biokraftstoffen. Auch die Forschung in Richtung neuer Materialien und Produktionstechnologien ist zukunftsweisend.

 Was ist, zu welchem Zweck, zu welchem Ende 

 Es besteht kein Zweifel darüber, dass die menschlichen Bedürfnisse nach Nahrung, Wasser und Energie in Zukunft weltweit eine steigende Rolle spielen werden. Über die Frage wie sich durch diese Entwicklung die wirtschaftspolitische Situation ändern wird, gehen die Meinungen weit auseinander. Einigkeit besteht aber darüber, dass besonders energiepolitische Fragen großen Einfluss auf die Wirtschaftspolitik und damit auf den Wohlstand der Gesellschaft haben. Daher bedeutet Energiepolitik im 21. Jahrhundert Verantwortung zu tragen für die Leitlinien einer umfassenden energiepolitischen Entwicklung. Dazu müssen Entwicklungstendenzen der Energiewirtschaft, die mit vielen Unsicherheiten verbunden sind, klar und emotionslos analysiert werden, denn die systemtragenden Anlagen und Prozesse der Energiebereitstellung sind sehr kapitalintensiv und auf viele Jahre ausgerichtet. Im Prinzip sind zwei Szenarien für die Zukunft denkbar: Zum einen der Niedergang eines Teils der heutigen Wirtschaftsmächte, oder aber die Kooperation und Bündelung der Kräfte zur Beherrschung der globalen Energieprobleme. Reale Ziele unter Berücksichtigung der sich langfristigen wirtschaftlichen Situation müssen daher im Sinne einer globalen Verantwortung umgesetzt werden. Ferner muss die Bereitschaft bestehen, Konventionen zu erarbeiten, die u.a. Fragen wie die Nutzung nationaler Ressourcen klären. Auch die Schaffung globaler Preispools ist denkbar. Dieser könnte den Entwicklungsländern solidarisch Preisvorteile gewähren. Ferner wäre eine Preispolitik vorstellbar, die auch die Wertschöpfung berücksichtigt. Vorteilhaft an dieser Strategie wäre die bessere Vorhersehbarkeit energiewirtschaftlicher Entwicklungen. Voraussetzung für eine zukunftsweisende Energiepolitik ist darüber hinaus eine gewisse Kontinuität. Sie muss nachhaltig, ökonomisch und ökologisch realisierbar sein, gleichzeitig aber auch global verantwortungsbewusst. Zurzeit ist der Wille und die Fähigkeit zu solch einer Politik allerdings noch sehr begrenzt. Das zeigt sich zum Beispiel bei Entscheidungen in der Kernenergiepolitik oder bei der Liberalisierung des Strommarktes.

Agrarumweltmaßnahmen der Agenda 2000 

Die Ausweitung umweltfreundlicher Landwirtschaftspraktiken ist Ziel künftiger EG-Umweltpolitik. Im Vordergrund steht vor allem die Förderung umweltfreundlicher Extensivierungen sowie die Förderung der Weidewirtschaft geringer Intensität. Die bisher angebotenen Grünlandprogramme hatten im wesentlichen diese Orientierungen: Programme zur Verminderung der Bewirtschaftungsintensität und Programme mit speziellen Zielen des Naturschutzes. Die Maßnahmen, die zum einen den Nähr- und Schadstoffeintrag, und andererseits Artenschutzaspekte betreffen, stehen in der Diskussion um die Fortführung der Grünlandförderung im Mittelpunkt der Debatte. Beide Förderungen sind aber durchaus sinnvoll, was eine Ergebniskalkulation zeigt. Die Fördergrundsätze sollten auch in Zukunft in Extensivierungsmaßnahmen, Pflegemaßnahmen und Alternative Landbewirtschaftung zum Beispiel zum Anbau nachwachsender Rohstoffe differenzieren. Auch die wegorientierten Maßnahmen sollten beibehalten werden. Darüber hinaus sollte eine zielorientierte Förderung geschaffen werden. Um den angestrebten Biotopverbund zu erreichen, ist außerdem eine einzelflächenbezogene Förderung von Maßnahmen vorzusehen. Dabei werden landschaftspflegerische und naturschutzfachliche Ziele im Vordergrund zu stehen haben. Ferner sollten Extensivierungsmaßnahmen mit speziellen Lenkungsabsichten weiter bevorzugt gefördert werden. Weiter Punkte betreffen die : Zuwendungsvoraussetzung für die Teilnahme am Grünlandprogramm, die Möglichkeit der Umwandlung von wertlosen Pflanzenbeständen in Ackerland, höhere Flexibilität der Mahdtermine, gezielte Vergütung der landwirtschaftlichen Pflegeleistung, Differenzierung der Zuwendungen und Kohärenz der Programme untereinander.

Chancen und Perspektiven konventioneller und regenerativer Energien

Knappheit der Biomasse und geringe Ausnutzung des Energiezustroms war für die niedrige Produktivität der einstigen Sonnenenergiewirtschaft verantwortlich. In den nördlichen Ländern verursachten die Winter darüber hinaus einen hohen Arbeitszeitüberschuss und damit ökonomischen Druck. Erst die fossilen Energien eröffneten eine Produktivitätssteigerung und auf diese Weise neue Möglichkeiten der Entwicklung. Diese Fortschritte führten schließlich zu den Umwelt- und Energieprobleme, wie wir sie heute kennen. Neben der Verringerung des Treibhausgasausstoßes durch Reduktion fossiler Energieträger, ist daher auch eine bessere Ausnutzung erneuerbarer Energien gefragt. Gegenwärtig werden ein Drittel der Primärenergie in Nutzenergie umgewandelt. Der Rest geht verloren. Eine Bewertung der Energieträger erfordert folgende Kriterien: das Potenzial, die Erreichbarkeit, die Wirtschaftlichkeit, die Umwandlungsmöglichkeiten und die Umweltfreundlichkeit. Konventionelle Energieträger sind erschöpfbar aber nicht knapp, da noch viele Reserven zu erwarten sind. Besonders die Förderkosten können in Zukunft diesen Markt beeinflussen und dazu führen, dass ein fossiler Energieträger einen anderen auf dem Markt ablöst. Ein baldiges Ende dieses Energieträgers ist aber nicht zu erwarten. Praktisch bedeutet das, dass eine Umstellung des Energiesystems ressourcenseitig nicht unmittelbar möglich ist. Um eine Umstrukturierung zu fördern, müssen daher verschiedene Maßnahmen vorgesehen werden. Denn unter dem Gesichtspunkt der Nachhaltigkeit sind die heute lebenden Generationen den kommenden Generationen zum Ersatz verpflichtet. Ein Weg ist die 1999 durchgeführte Energiebesteuerung, die auch zu Veränderungen im Preisgefüge zwischen Energieträgern führte. Für die Nutzung erneuerbarer Energien sind trotz ihres hohen Potentials spezifische Umwandlungssysteme notwendig. Aufgrund der unterschiedlichen Wirtschaftlichkeit der einzelnen Systeme sind Markteinführungsprogramme vorzusehen. Ferner ist in Zukunft ein sich ergänzender Technik-Mix erneuerbarer Energiesysteme anzustreben. Außer Frage steht, dass die Rolle der Energieträger entscheidend von der zukünftigen Nachfrage abhängt. In Deutschland kann man bei einer zu erwartenden Stagnation des Gesamtniveaus mit starken Verschiebungen, die mit technischen Entwicklungen zusammenhängen, gerechnet werden. Der Kernkraftenergie wird nicht nur wegen der schlechten Akzeptanz in der Bevölkerung nur noch eine untergeordnete Rolle spielen. In Hinblick auf das Klimaproblem wäre der Einsatz von Gas wünschenswert. Oberstes Gebot all dieser Umstrukturierungen auf dem Energiemarkt ist aber immer auch die Umwelt- und Wirtschaftsverträglichkeit.

Energetische Nutzung

Abfall könnte in Zukunft in verstärktem Maße wirksamen Anteil zur regenerativen Energie liefern. Obwohl nach dem Kreislaufwirtschaft- und Abfallgesetz Abfälle primär zu vermeiden sind, werden schon heute große Mengen, die nicht den öffentlichen Verbrennungsanlagen zugeführt werden, als Ersatzbrennstoffe verwendet. 40 Prozent des Gesamtmülls wird aber immer noch deponiert. Neuere Zahlen gehen allerdings von einem starken Rückgang des hausmüllähnlichen Gewerbemülls aus. Ursache sind kostengünstigere Entsorgungswege, insbesondere auf Billigdeponien. Von 1990 bis 2020 soll sich der Primärenergieverbrauch um circa 50 Prozent erhöhen. Schon heute hat die Stromerzeugung aus Müll ein Anteil von einem Prozent am Gesamtpotential, ist also in der Größenordnung etwa dem Windstrom vergleichbar. 60 Prozent des Mülls sind als Brennstoffe regenerierbar. Auch unter der Prämisse eines Einsatzes von Brennstoffen mit niedrigen C-H-Verhältnissen empfiehlt sich die Abfallverbrennung. Der Prozess der thermischen Abfallbehandlung teilt sich in Pyrolyse, Vergasung, Verbrennung sowie der nachgeschalteten Rauchgasreinigung. Für Hausmüll wird vorwiegend die Rostverbrennung, für Sonderabfall werden Drehrohröfen und für Klärschlamm Wirbelschichtfeuerungen verwendet. All diese thermischen Abfallbehandlungsanlagen haben inzwischen einen so hohen ökologischen Standart erreicht, dass sie den Vergleich mit Kraftwerken nicht scheuen brauchen. Art und Umfang der energetischen Nutzung erweisen sich jedoch als sehr unterschiedlich. Grundsätzlich unterscheidet man zwischen direkten und indirekten Verfahren. Der häufigste Fall direkter energetischer Nutzung ist die Kraft-Wärme-Kopplung. Bezüglich der Kostenreduktion einer Müllverbrennungsanlage hat sich die Kombination mit einem modernen Kraftwerk bewährt. Die dampfseitige Koppelung bringt gleichzeitig Vorteile bei der Verstromung. Auch für die rauchgasseitige Verknüpfung sind verschiedene Varianten denkbar. Haupthinderungsgrund für den Einsatz der thermischen Abfallbehandlung liegt trotz ökologischer Überlegenheit über andere Verfahren bei den Kosten. Eine Beispielrechnung zeigt aber, dass bei Verwendung von Müll, sowohl für Strom als auch für Wärme, die heutigen Müllverbrennungsanlagen durchaus konkurrenzfähig sein könnten.

Internationale Produktnormung 

Der Einfluss von Normen auf die Umwelt ist vielfältig. Sie können die Umweltverträglichkeit der Altstoffaufbereitung und Entsorgung beeinflussen. Auch die Konkurrenzsituation zwischen Produkten mit unterschiedlicher Umweltbelastung wird durch Normung gesteuert. Normen wirken sich über die Qualitätsanforderungen an das Produkt, über die Möglichkeiten der Wiederverwendbarkeit oder allein schon durch den Produktgebrauch auf die Umwelt aus. Aufgrund der mannigfaltigen Eingriffnahme der Produktnormen, ist im Rahmen der ISO ein internationaler 'Leitfaden für die Berücksichtigung von Umweltaspekten in Produktnormen, ISO Guide 64' verabschiedet worden. Ziel ist es, die bei der Normung Beteiligten für Umweltaspekte zu sensibilisieren. U.a. interessieren dabei die Beziehungen zwischen Produktnorm und Umwelt, aber auch das lebenswegorientierte Denken und anerkannte wissenschaftliche Methoden werden durch ISO Guide 64 vermittelt. Der Leitfaden zeigt, was zur Minimierung der Umweltfolgen bei der Erarbeitung von Produktnormen zu beachten ist und wie Normen Lebenswegphasen des Produktes steuern. Gleichzeitig werden Methoden aufgezeigt, durch die Umweltauswirkungen abgeschätzt und verringert werden können. Auch der 'IEC Guide 109' der elektrotechnischen Kommission orientiert sich eng an den ISO Guide 64. Da die weltweit erfolgreichen Normen für Umweltmanagementsysteme, Ökobilanzen und Ökoleistungsbewertungen für kleine Unternehmen nur selten greifen und die ISO Guide 64 nur die Normenentwickler betreffen, wurde ein weiterer Prozess in Gang gesetzt: Die Einbeziehung von Umweltaspekten in das Produktdesign, das sich an die Produktentwickler wendet. Auch die 1999 von den EU-Ministern eingerichtete Umweltberatungsstelle 'Environmental Help Desk' (EHD) soll dazu führen, dass Umweltaspekte stärker in die europäische Produktnormung einbezogen werden.

Verkehrswirtschaftliche Energiestrategie

Vorstände der Unternehmen Aral, BMW, DaimlerChrysler, MAN, RWE, Shell und VW haben im Mai 1998 das Projekt 'Verkehrswirtschaftliche Energiestrategie' (VES) ins Leben gerufen. Kernpunkt der Initiative ist die Erarbeitung einer Strategie, die es ermöglicht auf dem Gebiet der Erzeugung und Anwendung alternativer Energien international den ersten Platz zu belegen. Hintergrund ist der Wunsch nach einer krisensicheren, nachhaltig umwelt- und ressourcenschonenden Energieversorgung. Auch die USA und Japan planen in einer gemeinsamen Aktion die Entwicklung von innovativen Energie- und Antriebssystemen, so dass für die Europäer Handlungsbedarf besteht, wenn sie wirtschaftlich bestehen wollen. Ein weiterer Punkt, der den Anstoß zu dieser Initiative gab, ist die deutsche Verpflichtung zur Reduktion der CO2-Emissionen. Schließlich macht auch die ungeklärte Frage der globalen Ölreserven eine Strategie notwendig, die die langfristige Energieversorgung sichert. Gerade heute ist die Entwicklung einer solchen gemeinsamen Initiative sinnvoll - besteht doch keinerlei Zeitdruck. Ferner bieten aktuelle Innovationen in der Fahrzeugtechnik neue Möglichkeiten für alternative Energien. Da für die Bewertung von alternativen Kraftstoffen kein allgemein anerkanntes Verfahren existiert, wurden von der VES eigene Auswahlkriterien erarbeitet. Dabei wurden fünf Kraftstoffe mit acht Varianten (CNG, LNG, DME, Methanol, synth. Benzin und Diesel, CGH2, LH2) stufenweise ausgewählt. Zunächst wurden die Produktionsmöglichkeiten der einzelnen Kraftstoffe erhellt und die 20 aussichtsreichsten Pfade ausgewählt. Bei der Betrachtung der Energiepfade fielen synthetische Kraftstoffe und DMA aus der Betrachtung heraus. Grund war das geringe CO2 Minderungspotential. Die Stufenbewertung, die auch den Anreiz für die Wirtschaft und den Kundennutzen berücksichtigte, kam zum Ergebnis, dass vor allem Erdgas, Methanol und Wasserstoff den Kriterien einer zukünftigen Energiestrategie entsprechen. Argumente für Erdgas sind die Wirtschaftlichkeit und die niedrigen CO2 Vermeidungskosten. Für Methanol sprechen die relativ niedrigen Kosten für Fahrzeuge mit Verbrennungsmotor und die relativ einfache Infrastruktur. Bei Wasserstoff ist das große Potential an Primärenergie, das hohe CO2-Minderungspotential und die lokale Nullemission nennen. Erdgas und Methanol zeichnen sich durch ihre doppelte Eignung für Verbrennungsmotor und Brennstoffzelle aus. Im weiteren Verlauf der Studie ergaben sich für die drei genannten Kraftstoffe keine signifikanten Unterschiede. Unter Berücksichtigung strategischer Leitziele wurden dann für Wasserstoff Einführungsstrategien erarbeitet.

Eine neue Weltumweltorganisation: Institutionelle Innovation zur Sicherung 

Die steigenden menschlichen Bedürfnisse nach Nahrung, Wasser und Energie spielen in Zukunft weltweit eine entscheidende Rolle. Technische Innovationen werden nicht nur dazu beitragen diese Probleme zu bewältigen und die Umwelt zu entlasten. Ganz im Gegenteil. Es ist auch damit zu rechnen, dass das Gefährdungspotential zum Beispiel durch die Gentechnik drastisch steigt. Um die globale ökologische Entwicklung besser steuern zu können, ist daher eine optimiertere Koordination der weltweiten Umweltpolitik erforderlich, da die bisherigen Institutionen zu schwerfällig agieren und nur in den wenigsten Fällen vernetzt handeln. Die Gründung einer Weltorganisation für Umwelt und Entwicklung (World Environment and Development Organization, WEDO) als Sonderorganisation der Vereinten Nation könnte durch eine schlankere Organisation und effizientere Verfahren hier Abhilfe schaffen. Die Aufgabe einer solchen Organisation wäre es, nicht nur den Stellenwert der Umwelt- und Entwicklungspolitik weltweit zu erhöhen. Auch die Schaffung eines geeigneten institutionellen Umfeldes und die Stärkung der Handlungskapazität der ärmeren Staaten wären Hauptziele der WEDO. Zur Zeit mangelt es noch an einer Institution, die Dreh und Angelpunkt solch einer entscheidungsorientierter Programmatik sein kann. Nur eine institutionell abgesicherte und mit zusätzlichen Mitteln ausgestattete eigenständige Organisation könnte dies leisten. Auch in Hinblick auf eine notwendige Verknüpfung zwischen verschiedenen ökologischen Politikbereichen wäre die WEDO hilfreich. Außerdem würde die WEDO die Möglichkeit bieten verschiedene Finanzierungsmechanismen zur Erzielung von Synergieeffekten zusammenzuführen. Einige Vorschläge gehen sogar noch weiter und betreffen eine Änderung des Institutionensystems. Ziel ist die Einschränkung nationaler Souverinitätsrechte zum Beispiel durch einen Weltumweltrat oder einen Internationalen Umweltgerichtshof. Bei der Organisation der WEDO sollte vor allem Entscheidungsverfahren im Vordergrund stehen, die die Nord-Süd Parität fördern. Ferner sollte die Beteiligung von Nicht-Regierungs-Organisationen in Betracht gezogen werden. Bei der Finanzierung stehen zwei Möglichkeiten in der Diskussion. Zum einen ist dies eine internationale Luftverkehrssteuer oder eine Devisenumsatzsteuer.

Geotypische Unterschiede in der N-Effizienz bei Körnerleguminosen

In getreidereichen Fruchtfolgen kann die mineralische Stickstoffdüngung durch den Anbau von Körnerleguminosen verringert werden. Grund dafür ist der von den Ernterückständen hinterlassene leicht umsetzbare Bodenstickstoff. Diese Tatsache führte allerdings auch schon zu der Erwägung, den Anbau von Körnerleguminosen zum Beispiel in Wasserschutzgebieten zu unterbinden. Diverse ackerbauliche Maßnahmen zielen daher auf die Fixierung des Stickstoffs im Boden. Die Beschreibung der Bodenstickstoffmenge erfolgt in der Untersuchung über den Nmin-Wert. Es sollte untersucht werden, ob es innerhalb der beiden Arten Ackerbohne und Körnererbse genotypische Unterschiede für im Herbst hinterlassenen mineralischen Bodenstickstoff gibt. Ein weiterer Schwerpunkt war die Frage nach Möglichkeiten einer züchterischen Einflussnahme. Des weiteren sollten Sorten identifiziert werden, die bei hohem Ertragsniveau möglichst geringe Nmin-Werte hinterlassen. Die Feldversuche wurden in den Standorten Göttingen, Hohenlieth und Wohlde in den Jahren 1996 und 1997 durchgeführt. Bei der Versuchsanlage handelte es sich um eine zweifaktorielle Spaltanlage mit Doppelparzellen. Die erfassten Pflanzenmerkmale waren u.a. Wuchshöhe, Lagerneigung, Blattkrankheiten und Reife. Nach der Ernte wurde parzellenweise und tiefenorientiert der Gehalt an mineralischem Stickstoff bestimmt. Die Ergebnisse zeigen, dass sowohl Ackerbohne als auch Körnererbse heritable Unterschiede für das nach der Ernte gemessene Merkmal Nmin haben. Dennoch lagen die Heritabilitäten für die Nmin Werte nur im mittleren Bereich, was gegen eine züchterische Bearbeitung spricht. Allgemein hinterließen Normaltyp-Ackerbohnen und halbblattlose Erbsen die geringsten Nitratwerte im Boden.

Erfassung von Tropenböden

Im Bereich der Tropen sind Bodenmächtigkeiten von mehreren Zehner Metern keine Seltenheit. Grund dafür sind die langen Bildungszeiträume, die zum Teil das gesamte Känozoikum umfassten. Diese langen Ablagerungszeiträume begünstigt zusammen mit der für die Tropen typisch starken Verwitterung die vielfältige Mineralneubildung. Obwohl umfassende Verwitterungsreihen vorliegen gilt: Je weiter die Verwitterung fortschreitet, desto schwieriger ist es auf das Ausgangsmaterial zu schließen. Im Gebiet der Sierra de los Organos im Westen Kubas wurden unterschiedliche Böden hinsichtlich ihrer mineralogischen und bodenchemische Eigenschaften untersucht. Für die Standorte in Kuba stehen als Ausgangsmaterialien zur Bodenbildung vorwiegend Kalksteine, Schiefer, Quarzite und Sandsteine zur Verfügung. Die Bewertung der Genese, die aktuellen Eigenschaften und der Nährstoffvorrat standen bei den Untersuchungen im Vordergrund. Dazu wurden sechs Oberböden mit unterschiedlicher Reliefposition, Verwitterungsintensität und bodengenetischen Eigenschaften entnommen. Die relativ jungen Bodensedimente am Fuße der Mogoten sollten mit älteren intensiv verwitterten verglichen werden. Kernpunkt ist die Frage nach der Eignung mineralogischer und bodenmechanischer Parameter zur Erklärung der Bodengenese, der Verwitterungsintensität und der aktuellen Eigenschaften. Ferner werden die mobilisierbaren Stoffanteile diskutiert. Im Ergebnis zeigt sich, dass die kombinierte Anwendung mineralogischer, bodenphysikalischer und bodenchemischer Untersuchungsverfahren die Unterscheidung unterschiedlicher Verwitterungs-, Abtragungs-, Sedimentations- und Bodenbildungsprozesse ermöglicht.

Umwelt und Energie

Wie ernst die Europäische Union und die beitrittswilligen Länder den Umweltschutz und umweltrelevante Themen wie die Energieerzeugung nehmen, ist zweifelhaft. Während einige Länder wie zum Beispiel die Bundesrepublik Deutschland im Begriff sind aus der Atomenergie auszusteigen, werden in anderen EU-Ländern neue AKWs errichtet. Grund für diese Misere ist die europäische Energiepolitik, die keine Kompetenz der Gemeinschaft ist, sondern ausschließlich von den Mitgliedsstaaten gesteuert wird. Konkret heißt das, dass eine Verpflichtung zu einer bestimmten Energiepolitik für die Mitgliedstaaten nicht besteht. Vor dem Hintergrund des selbst gesteckten Zieles, zwölf Prozent Energie aus erneuerbarer Energie, hat die EU-Kommission 1997 zwei grundlegende Dokumente zur Energiepolitik veröffentlicht: 'Eine Gemeinschaftsstrategie und ein Aktionsplan: Energie für die Zukunft' und das 'Weißbuch zu erneuerbaren Energiequellen'. Diese beinhalten zwei Förderinstrumente, die Programme ALTENER und SAVE. ALTENER steht für alternative energy. Das Programm, das zwischen 1998 und 2002 mit 75 Millionen Euro gefördert wird, setzt sich zum Ziel das Potential der Erneuerbaren Energie zu entwickeln, Produkte und Ausrüstung auf dem Markt zu harmonisieren, den Aufbau einer Infrastruktur zu ermöglichen sowie den Informationszugang über die Thematik und die operationalen Kapazitäten der Energieproduktion zu verbessern. Besonders Projekte aus dem Bereich Biomasse, Solarenergie, Windenergie und Geothermische Energie werden mit Hilfe von ALTENER unterstützt. Auch das zweite Programm ist weit angelegt. SAVE steht für Specific Actions for Vigourous Energy Efficiency und bedeutet schlicht Sparen. SAVE läuft ebenfalls bis 2002 und soll dazu beitragen die Ziele des Energierahmenprogramms aus dem Jahre 1997 umzusetzen.

Anforderungen an eine nachhaltige Nutzung von Niedermoorböden

Knapp zehn Prozent der Landesfläche Schleswig-Holsteins waren einst von Niedermooren bedeckt. Durch Entwässerung sind diese in den 20er und 30er Jahren großflächig verändert worden, so dass heute nur noch 20 Prozent der Fläche einen Niedermoorcharakter aufweist. Die Entwässerung führt beim Moorkörpers zu Schrumpfungen und einem Höhenverlust von bis zu 1,5 m. Verdichtungen, Verringerungen der hydraulischen Leitfähigkeit und erhebliche Stoffverluste an Atmosphäre sowie Grund- und Oberflächenwasser sind die Folge. Die hohen CO2 und N2O Emissionen und agrarstrukturelle Rahmenbedingungen der EU gaben den Anstoß zu einer 'nachhaltigen Nutzung' der Niedermoorböden, deren Grundzüge schon in der RAMSAR-Konvention von 1987 festgelegt wurden. Das Projektgebiet 'Weidelandschaft Eidertal' liegt im Naturraum 'Ostholsteinische Seen- und Hügelland' und gehört zum Moränengebiet der oberen Eider. Es umfasst die Moorstandorte der Eiderniederung mit ihren typischen Moortypen. Projektziele sind: Reduzierung der Umweltbelastungen durch die Niedermoorböden und Wiederherstellung geeigneter Habitatstrukturen für Pflanzen und Tiere. Vernässungsmaßnahmen und extensive Beweidung sollen so kombiniert werden, dass eine halboffene Weidelandschaft entsteht. Charakteristisch für diese Landschaftsform sind neben der Artenvielfalt das Nebeneinander unterschiedlicher Sukzessionsstadien. Die Schaffung von großen Weideverbundflächen ist Voraussetzung für diese Entwicklung. Bei den Vertragsvarianten für die Grundbesitzer stehen vor allem die Reduzierung der Gewässerunterhaltung und die Aufrechterhaltung der Grabenentwässerung im Vordergrund. Mit Hilfe von Nutzungsaufgabe- und Extensivierungskaufverträgen sollen sich die Flächen in geschützte Biotope verwandeln. Dass der Eigentümer die damit verbundenen Nutzungseinschränkung zukünftig akzeptiert, ist wichtiger Vertragsbestandteil. Simulationen mit dem Modell WASMOD haben gezeigt, dass sich durch die angestrebte Vorflutanhebung der Eider die ganzjährig überstaute Fläche verdoppelt, was die Verbesserung der Wasserqualität der Eider zur Folge hätte. Ferner würden sich die Stickstoffausträge aus dem Sickerwasser verringern. Nachteilig wären geringere Ernteerträge. Diese würden aus der abnehmenden Stickstoffmineralisation resultieren.

Die Energie-Zukunft hat schon begonnen

'Kosten runter, Kosten runter, Kosten'. Mit diesen Worten formuliert der Leiter der Brennstoffzellenentwicklung bei Siemens Westinghouse Dr. Klaus Hassmann das Entwicklungsziel zukünftiger Brennstoffzellenentwicklung. In Birsfelden hat die Zukunft Brennstoffzelle seit dem März 2000 begonnen. Die Investition in die aus den USA stammende Erdgas-Phosphorsäure-Brennstoffzelle (PAFC) war zwar noch recht stattlich, aber schon das Vorläufer- und gleichzeitig Pilotmodell dieser PAFC-Anlage hat sich in der Praxis gut bewährt. Während 40.000 Betriebsstunden brachte sie einen elektrischen Wirkungsgrad von 40 Prozent und erstaunliche 90 Prozent bei der Verfügbarkeit. Einige Randbedingungen könnten die Wirtschaftlichkeit der Anlage sogar noch verbessern. So ist dank der extrem schnellen Hochlaufzeiten ein Einsatz in EDV-Zentren denkbar. Hier könnte sie die teuren USV-Batterieplantagen ersetzen. Andere Brennstoffzellen, wie die PEM Zelle der Elektra Birseck Münchenstein finden sich noch im Feldtest. PEM steht für Proton Exchange Membran. Seine Markteinführung ist bis spätestens im Jahre 2003 geplant. Etwa im Jahre 2005 soll dann die Schmelzkarbonat-Brennstoffzelle auf den Markt kommen. Sie wird von der MTU, Friedrichshagen engagiert weiter entwickelt. Eine Feldtestanlage in Bielefeld erzeugt bereits heute Energie für die Uni Bielefeld. Schon bald soll dagegen die Feststoff-Brennstoffzelle auf den Markt kommen, an der Siemens Westinghouse arbeitet. 60 Prozent elektrischer Wirkungsgrad sind schon in der jüngst in Pittsburg vorgestellten Modell-Anlage. Das Prinzip der Brennstoffzelle leitet sich aus Versuchen im 19. Jahrhundert her. Aber erst nach dem zweiten Weltkrieg wurde sie für militärische Zwecke und die Raumfahrt weiter entwickelt. Der heutige Stand der Technik war erst durch den Einsatz von Material- und Nanotechnologie möglich. Brennstoffzellen verwandeln Erdgas im Sinne einer Kraft-Wärme-Koppelung auf elektrochemischen Wege in Strom und Wärme. Durch die Bündelung mehrerer Zellen zu einem Stapel erhöht sich die Leistung. Das Einsatzgebiet ist sowohl für kleine (z.B. PEM), mittelgroße (z.B. PAFC) und große (SOFC) Verbraucher denkbar.

Quantifizierung der potentiellen P-Verlagerung und des Eintrages in 

Gerade für die regionale Planungsebene und die angewandte Forschung ist die Modellierung in mittleren Maßstabsebenen (1:25.000/50.000 bis maximal 1:200.000) sinnvoll. Sie dienen zum Beispiel für die Lösung aktueller stoffhaushaltlicher Probleme in intensiv genutzten Landschaften. Meist werden dreidimensionale Simulationen bevorzugt. Diese werden durch die zu erarbeitenden komplexen raum-zeit-dynamischen Quantifizierungen und die regionalspezifischer Ausprägungen notwendig. Im Bereich des Stoffhaushaltes nehmen Phosphorverbindungen eine Sonderstellung ein. Durch Düngungen und Abfallausbringungen hat sich der P-Gehalt in Böden deutlich erhöht. Aus Sicht der Nachhaltigkeit ergibt sich daher die Notwendigkeit der Reduzierung. An der TU Dresden werden für den Raum Sachsen Stoffeinträge in Gewässer quantifiziert und Bodenfunktionskarten erstellt. Obwohl die Methoden und Werkzeuge zunehmend besser werden, ergeben sich immer wieder Probleme bei der Erstellung der Grunddaten. Optimale Bearbeitungsergebnisse sind auf Bearbeitungsfeldern zwischen 100 und 400 km2 zu erreichen. Beim Quantifizierungsansatz ist die Betrachtung der Erosion von Bedeutung. In unseren Breiten steht dabei die diffuse partikelgebundene Phosphorverlagerung und der Phophoreintrag in Oberflächenwässer im Vordergrund der Betrachtung. Kernpunkte dieser Quantifizierungen sind u.a. die Art der P-Verbindungen, der gewählte Raumansatz, der Zeitmaßstab, die Naturraumtypen und die Nutzungsart. Im folgenden stellt der Wissenschaftler ein Ergebnisbeispiel aus den Teileinzugsgebieten des Speichers Radeberg vor. Für das Gesamtgebiet ergeben sich P-Einträge in die Oberflächengewässer von 476 kg/a. In Abhängigkeit von der Nutzungssituation sind die Eintragspfade in den Teileinzugsgebieten dabei sehr verschieden.

Heizen für die Gasse

Neubauten können schon heute weitgehend so konstruiert werden, dass sie über die Sonnenenergie hinaus kaum noch beheizt werden müssen. Der weitaus größte Teil des Heizenergieverbrauchs, und damit der CO2 -Emission bei Wohnhäusern, entsteht im Altbaubestand. Wenn man bedenkt, dass die sogenannten Kleinverbraucher wie Büros oder Kaufhäuser beim Energieverbrauch noch vor der Industrie liegen, ist hier verstärkt Handlungsbedarf gefordert. Bei der thermischen Sanierung ist besonders die Wärmedämmung ein effizientes Instrument zum Energiesparen. Die Sanierung des Heizsystems hat dagegen erst in zweiter Linie Bedeutung, denn Dämmmaterial ist primärenergetisch weniger aufwändig herzustellen. Bei einer Nutzungsdauer von wenigstens 25 Jahren senkt sie die erforderlich Leistung und die Betriebstemperatur des Wärmeerzeugers entscheidend. In der Folge reduzieren sich die Heizungsverluste und bei der Sanierung der Heizanlage kann auf kleinere Kessel und Thermen zurückgegriffen werden. Seit 1992 unterstützt das Förderprogramm des Bundeswirtschaftsministeriums 'Energiesparberatung vor Ort' diese Wirtschaftlichkeitsberechnungen. Teil der Gutachten sind die zu erzielenden Emissionssenkungen für Abgase wie Kohlendioxid und Stickoxide. Das Beispiel eines unsanierten unterkellerten zweigeschossigen Wohnhauses mit ausgebautem Dachgeschoss zeigt, was bei einer thermischen Gebäudesanierung erreichbar ist. Durch Dämmmaßnahmen an den Außenwänden, dem Dach, dem Keller, der Anbringung von Wärmeschutzverglasung sowie dem Einbau eines neuen Brennwertkessels lassen sich zwei Drittel der bisher benötigten Heizenergie einsparen.

Neues Verfahren zur Gewinnung von Prozesswasser

Ultrafiltration zur direkten Aufbereitung von Flusswasser war bislang unwirtschaftlich. Die Systeme waren zu groß, nicht stabil zu betreiben oder zu energieintensiv. Auch die konventionellen Vorbehandlungsverfahren sind nicht zufriedenstellend, denn verschiedenste Chemikalien erfordern spezielle Sicherheitsmaßnahmen. Auch die übrigen Prozesse sind relativ komplex und fehlerbehaftet. Jetzt stellt die Firma Siemens Axiva ein neues Verfahren zur direkten Aufbereitung vor. Es basiert auf der Membrantechnologie und arbeitet effizienter, kostengünstiger und umweltfreundlicher als herkömmliche Verfahren. Die Vorteile resultieren aus der sehr hohen Reinwasserqualität, der vollständige Automatisierbarkeit, dem Verzicht auf Chemikalien und den mechanischen Rückhalt von Viren und Mikroorganismen. Der mehrjährige Pilotbetrieb der Anlage lief im Industriepark Höchst, wobei ein Niedrigenergiesystem mit leistungsfähigen hydrophilen Membranen zum Einsatz kam. Der Anlagebetrieb verlief zuverlässig. Für die Stahlwerke Bremen wurde dann eine größere Anlage erstellt, die Wasser aus der Weser aufarbeiten sollte. Das zugeführte Rohwasser wird zunächst grobfiltriert und dann den Ultrafiltrationseinheiten zugeführt. Diese sind aus zwei parallel angeordneten UF-Straßen aufgebaut und arbeiten nach dem 'closed loop' System. Kernpunkt der Anlage sind die Membranmodule, die parallel geschaltet sind und deren Reinigung und Spülung automatisiert ist. Der UF-Anlage nachgeschaltet sind Anlagen zur Konditionierung und für die Umkehrosmose.

Trinkwasseraufbereitung mit 10 Mikron Filter

Die Wasserwerke Straubing bereiten Wässer aus zwei Tiefenhorizonten auf. Zum einen sind dies bis etwa 18 m tiefe Quartärbrunnen, andererseits wird aus drei Tiefpumpen gefördert, die zwischen 140 m und 160 m im Tertiär verfiltert sind. Bislang war bei der Aufbereitung des Wassers eine Ozon-Anlage notwendig. Der Grund lag in der Sekundärfauna, die sich innerhalb der Anlage entwickelt und von den bisher verwendeten 25-Mikron-Sieben nicht zufriedenstellend aufgehalten wurden. Des weiteren war sie für die chemische Oxidation einzelner Nitritspitzen notwendig. Umfangreiche Testläufe mit von der israelischen Firma Amiad gebauten 10-Mikron-Filtern bewiesen nun, dass die Ozonanlage nicht weiter notwendig ist. Sie entfernt über 90 Prozent der tierischen Biomasse. Auch für die Nitritoxidation ist die Ozonanlage nicht mehr erforderlich, da in Straubing inzwischen eine Nitrifikationsanlage nachgeschaltet ist, die stabil läuft. So wird seit Anfang dieses Jahres das Trinkwasser in Straubing nach der Sandfiltration nur noch mechanisch gefiltert und so direkt in das Stadtwassernetz geleitet. Die Abreinigung, der aus vier 6.000 Quadratzentimeter großen Filtereinheiten bestehenden Anlage geschieht über die Amiad Saugdüsen. Sie haben einen Durchmesser von 12 mm und arbeiten unter extrem hohen Saugkräften berührungsfrei. Dadurch wird eine effiziente Abreinigung des Siebes gewährleistet. Rückspülungen finden dreimal täglich statt. Mit dem neuen System hat das Wasserwerk Straubing erhebliche Betriebskosteneinsparungen erreichen können. Die seit 35 Jahren auf dem Markt bestehende Firma Amiad liefert eine Vielzahl weiterer Filtermodelle. Darunter explosionsgeschützte Einheiten für die Seewasserfiltration.

Desinfektion bei der Rohrnetzinbetriebnahme

Innerhalb des DVGW-Regelwerks im Arbeitsblatt W291 ist die Reinigung und Desinfektion von Wasserverteilungsanlagen geregelt. Desinfektionsmittel und Desinfektionstechniken werden aufgeführt. Diese Regelungen sind notwendig, da nicht nur das Trinkwasser sondern auch die Verteilungsanlagen frei von Krankheitserregern sein müssen. Im Gegensatz zum Trinkwasser ist bei der Desinfektion der Verteilanlagen eine stärkere Dosierung notwendig. Dabei haben sich verschiedene Verfahren bewährt. Beim Standverfahren muss das Desinfektionsmittel mindestens zwölf Stunden in der Leitung verbleiben, um seine Wirkung zu entfalten. Über einen Stutzen, einen Hydranten oder ein Entlüftungsgerät wird die Lösung in konstantem Verhältnis dem Trinkwasser beigemischt und so der neu verlegten Leitung zugeführt. Das Eindringen der Desinfektionslösung in das übrige Netz ist dabei zu verhindern. Bewährt hat sich auch die Desinfektion während der Druckprobe. Denn durch den höheren Druck wird die Lösung auch in die Poren des Rohrmaterials gepresst. Damit kein Schmutz in die Rohre eindringt ist es bei Rohrbrüchen vorteilhaft die Leitung unter verminderten Druck zu belassen. Die in diesem Beispiel betrachteten Desinfektionsmittel Herlisil und SIL-LIGHT können problemlos im Kanalnetz, im Vorfluter oder im Erdreich entsorgt werden.

Hygiene des Trinkwassers im 21. Jahrhundert - Was ist zu tun?

Durch unzureichende Hygiene des Trinkwassers verlieren jährlich über zwei Millionen Kinder unter fünf Jahren ihr Leben. Die mit Abstand meisten Opfer fordert die mangelhafte Trinkwasserqualität in den Entwicklungsländern. Ein Grund liegt in der Unkenntnis über Zusammenhänge zwischen belastetem Wasser und Krankheiten. Daher wird auch kaum politischer Druck ausgeübt, um für hygienisch einwandfreies Wasser Geld auszugeben. Dabei ist laut einer Einschätzung der UN, Trinkwasser eines der dringendsten Ressourcen-Probleme. Und nicht nur der industrielle Wasserbedarf steigt, auch der landwirtschaftliche geht steil in die Höhe. Auf der anderen Seite verschärft das Abwasserproblem die Situation, indem es immer mehr Wasser unbrauchbar macht. Auch die Aufbereitung von Trinkwasser, die Rohrnetzpflege und die hygienische Überwachung wird in den Entwicklungsländern vernachlässigt. Die UN sieht daher verstärkt Handlungsbedarf, um die Wassernutzung ökonomisch und sozial befriedigend zu lösen. In den entwickelten Ländern steht es mit der Wasserver- und -entsorgung ebenfalls nicht immer zum Besten. So sind in südlichen EU-Ländern etwa 50 Prozent der Bevölkerung nicht an ein Kläranlagensystem angeschlossen. In Amerika kam es aufgrund pathogener Organismen schon mehrmals zu Krankheitsfällen mit Todesfolge. Der jüngste Fall ereignete sich im Mai 2000 in Milwaukee in den USA. 2.000 Menschen erkrankten. Mehrere starben. Die Geschichte der Wasserhygiene hat eine lange Geschichte, die eng mit dem Bevölkerungswachstum verbunden ist. Anfang des 19. Jahrhundert verwies Johann Peter Franck auf die Bedeutung der Pflege des Trinkwassers. Robert Koch legte dann die Grundlagen einer modernen Wasserhygiene indem er einen quantitativen mikrobiologischen Richtwert und das Störfallmanagement einführte. Bereits zum Jahrhundertwechsel wurde als Basis einer umfassenden Wasserhygiene das Multi-Barrieren-System erkannt. Dieses besteht aus Ressourcenschutz, Rohwasserüberwachung, Filtration, Desinfektion, Pflege des Rohrnetzes und der Trinkwasserüberwachung. Damit dieses Prinzip der Vorsorge oder auch nur Teile davon auch in den Entwicklungsländern Fuß fasst, sind geeignete Finanzierungssysteme zu entwickeln. Politische Leitlinie sollte das Polluter-Pay-Prinzip sein.

Minimierung des Trinkwasserverbrauches bei zentraler und dezentraler Abwasserentsorgung 

Der Trinkwasserverbrauch unterscheidet sich von Land zu Land. Er liegt in den USA bei 200 l pro Einwohner und Tag. In Deutschland und den meisten Europäischen Nachbarländern sind es etwa 125 l. Wassersparmaßnahmen können diesen Wert noch deutlich nach unten korrigieren. Dadurch erhöht sich jedoch die Konzentration an Schmutzstoffen, so dass aufgrund der veränderten Fließgeschwindigkeiten Konsequenzen für die Auslegung der Abwasserleitungen nötig werden können. Kläranlagen wurden in den letzten Jahren überwiegend zentral konzipiert. Vorteile sind Prozesskontrolle und einfache behördliche Überwachungskontrolle. Allerdings scheidet eine ökologische Nutzung der Klärschlamme weitgehend aus, da industrielle, landwirtschaftliche und kommunale Wässer vermischt sind. Dieses Problem könnte durch eine verstärkt dezentrale Abwasserreinigung vermieden werden. Wasser könnte zum Beispiel bei biologischer Vollreinigung ausschließlich zum Trinken und für die Bereitung des Essens genutzt werden. Fürs Baden und Duschen käme Regenwasser in Betracht. Das Wasser für die Toilettenspülung würde zusammen mit dem Wasser aus der Waschmaschine in einer Kleinstkläranlage aufbereitet und dem Kreislauf als sogenanntes Grauwasser wieder zugeführt werden. Diese Kleinstkläranlagen bestehen aus einem Filterkorb zum Absieben der Feststoffe, einer Aktivkohleschüttung zu anaeroben Flüssigkeitsbehandlung und einem Biofilmträger zur aeroben Flüssigkeitsbehandlung. Andere Verfahren zur dezentralen biologischen Reinigung sind Pflanzenkläranlage und Teichkläranlagen, die aber große Flächen benötigen und im Winter nur beschränkt funktionsfähig sind. Eine technisch aufwändigere Lösung zur Abwasserreinigung wären Scheibentauchkörper. Sie lassen dafür höhere Belastungen zu. Allgemein ist die Grundwasserbelastung durch die Kleinstkläranlagen vernachlässigbar gering, wenn sie richtig bedient werden. Eine Ausnahme bildet die Absetzgrube. Versuche zeigen, dass der CSB-Gehalt sowohl in sandigem als auch in tonigem Substrat hoch bleibt.

Selektive Extraktion und Rückgewinnung von Schwermetallen

Monodisperse Chelatharze der letzten Generation binden Quecksilber auch in Gegenwart von hohen Chloridkonzentration. Sie werden in der Rauchgaswäsche von Müllverbrennungsanlagen sowie in der Chloralkalielektrolyse verwendet. Bei der Rückgewinnung und Entfernung von Katalysatormetallen spielen sie ebenfalls eine wichtige Rolle. Der Grund liegt im Aufbau der Harze: Die einheitliche Korngröße der makroporösen Harze, eine Entwicklung der 80er Jahre in den USA und Leverkusen, bietet gegenüber früheren Harzen eine verbesserte Massentransferkinetik, höhere Kapazitäten, bessere mechanische und chemische Stabilität und bessere Diffusion durch die 'ideale' hexagonale Kugelpackung. Sie haben eine deutlich optimierte Aufnahmekapazität für Schwer- und Edelmetalle, sowie für zweiwertige Ionen aus wässrigen Salzlösungen und insbesondere für Edelmetalle. Bei der vorhergehenden Harzgeneration wurden die Harze über die sogenannte Suspensionspolymerisation erzeugt. Rührwerke produzierten Monomertröpfchen, die sich in Suspensionen abkühlten. Das führte zu heterogenen Korngrößenverteilungen und zu den sogenannten heterodispersen Harzen. Diese sind schon seit mehr als 60 Jahren bekannt und werden seitdem für industrielle Wasserbehandlung, Abwasser- und Grundwasserbehandlung sowie zur Herstellung von ultrareinem Wasser genutzt. Sie sind aber bei mechanischer oder osmotischer Belastung bei weitem nicht so stabil wie die Neuentwicklung. Auch Diffusionsverhalten und Aufnahmekapazität sind nicht so stark ausgeprägt.

Retrospektiven und Perspektiven

Anders als in Ägypten kam im Zweistromland der Sumerer zwischen Euphrat und Tigris das Hochwasser zur falschen Zeit. Es trat zwischen Saat und Ernte über die Ufer. Dieser Problematik angepasste Schutz- und Kanalbauarbeiten wurden notwendig. Durch die fehlende Drainage auf den Äckern kam es im Laufe der Zeit zu einer schleichenden Versalzung der Äcker. Ein Anbauwechsel zu mehr salzresistenten Pflanzenarten war daher erforderlich. Damals wurde Wasser und die damit zusammenhängenden Bauten sehr geachtet. Zeugnis davon gibt die Säule des babylonischen Königs Hammurabi, der damit den Grundstein heutiger Wasserhaushaltsgesetze legte. Das Wasserbauliche System im Zweistromland hat immerhin mehrere tausend Jahre funktioniert. Heute überlegt das Bundesumweltamt, ob es Nachhaltigkeit mit 50 Jahren oder 200 Jahren definieren soll. Angesichts der historischen Vorbilder ein ziemlich kurzer Zeitraum. Andererseits sollte auch nicht in jedem Punkt unseren Vorvätern nachgeeifert werden. Bestes Beispiel ist das sogenannte Durchflussprinzip. Über Jahrtausende wurde Wasser durch die Städte geleitet, nahm Unrat auf und floss weiter bergab. Dieses Prinzip hatte solange Geltung wie die Bevölkerungsdichte dies erlaubte. Schon im Mittelalter kündigten sich die ersten Vorboten der hausgemachten Probleme an. Parasiten und Seuchen waren die Folge. Zumindest in einem Teil der Welt gehören Krankheiten und Hygieneprobleme der Vergangenheit an. Geblieben ist die Suche nach Leitlinien einer nachhaltigen Wasserversorgung. In diesem Zusammenhang würde sich eine mehrstufige Nutzung anbieten. So könnte zum Beispiel Wasser aus Siedlungen aufbereitet und in der Landwirtschaft weiter verwendet werden. Geschlossene Kreisläufe sind gerade in ariden Gebieten zukünftig stärker gefragt. Gleichzeitig bedeutet nachhaltige Wasserwirtschaft aktive Friedenspolitik. Aufgrund der weltweiten Missstände ist sie dringend geboten.

Carbion - ein neuer hochleistungsfähiger Ionenaustauscher

Die Entfernung kleiner Konzentrationen von Schwermetallen aus Wässern ist eine schwierige technische Herausforderung. Die bislang verwendeten Chemikalien zur Fällung und Entfernung der Belastung sind zwar billig aber nicht unproblematisch. So entstehen beim Anheben des pH Wertes sehr feine Niederschlagspartikel, die oft nur durch Zugabe von inerten Partikeln (zum Beispiel Tone) abzutrennen sind. Verlaufen diese Maßnahmen nicht optimal, verbleiben im Wasser schwermetallhaltige Partikel. Ferner ist die Unterschreitung einer gewissen Restkonzentration mit dieser Technik nicht machbar. Und sollen verschiedene Metalle gefällt werden, kann das sehr aufwendig werden. Die Anwendung von Selektivtauschern bietet dagegen einige Vorteile. Sie binden nicht schlechthin Ionen wie das ein Ionenaustauscher allgemein tut, sondern bevorzugen bestimmte Ionenarten. Die Bindungen des Selektivtauscher sind besonders fest, da sich auf dem Polymergerüst die geeigneten Gegenionen befinden und zusätzlich Komplexbindungen aufgebaut werden. Selektivaustauscher binden immer bestimmte Schwermetallgruppen mit ähnlichen Komplexbindungsverhalten. Carbion ist ein Selektivaustauscher neuster Generation, der auf Naturstoffbasis gefertigt ist und zur selektiven Entfernung von Schwermetallen aus Wasser eingesetzt wird. Seine Trägermatrix besteht im Gegensatz zu herkömmlichen Materialien aus Cellulose. Vorteile der ungewöhnlichen Matrix und Struktur sind: Verbesserte Geschwindigkeit des Ionenaustauschs, Unempfindlichkeit gegen Öle und Unabhängigkeit der Kapazität von der Ionengröße. Ferner sind die metallfixierenden Gruppen gegen Oxidation beständig. Carbion ist preisgünstig und wird vor allem für Wässer, die mit Zinn, Blei oder Chrom III bzw. Eisen III belastet sind, verwendet. Anwender kommen aus der Elektronik, der Metallverarbeitung und der Getränkeherstellung.

Entfernung von Antimon aus Industrieabwässern 

Bei der Aufbereitung von Altblei aus Fahrzeugbatterien verbleibt als Begleitelement fünfwertiges Antimon. Es gibt verschiedene Verfahren zur Entfernung von Antimon aus einer wässrigen Lösung: als Hydroxid, als Sulfid, die Flockung mit Metallsalzen sowie Ionenaustausch und Absorptionsverfahren. Die gebräuchlichste Methode ist die Eisen-III-Flockung. Beim Recycling der Batterien fällt das mit Antimon belastete Abwasser während verschiedener Arbeitsprozessen an. Die höchst belasteten Abwässer erhält man aber bei Regenfällen. Diese spülen das auf der Hoffläche verbliebende Antimon in die seit 1998 existierende Abwasserbehandlungsanlage. Dadurch variiert der Antimongehalt im unbehandelten Abwasser deutlich. In dem zwei geteilten Betonbecken werden die Abwässer ständig vermischt und Feststoffe in Schwebe gehalten. Diesem Tank wird kontinuierlich Abwasser entnommen und einer Durchlauf-Behandlungsanlage zugeführt, die in 12 Verfahrenschritten geteilt ist. Aufgrund größerer steigender Abwassermengen konnte der Grenzwert von 0,3 mg/L für Antimon allein durch den Einsatz der Eisen-III-Salzen nicht mehr eingehalten werden. Daher wurde ein granuliertes Eisenhydroxid an das Ende der Aufbereitung gesetzt. Dieses Absorptionsmittel sollte als sogenannter Polizeifilter überschüssiges Antimon am Ende der Kette entfernen. Die Erfahrungen zeigen, dass mit GEH ein leistungsfähiges Absorptionsmittel zur Beseitigung von Antimon zur Verfügung steht.

Abwassersammlung und -behandlung im ländlichen Raum Polens

Der ländliche Raum Polens ist durch zerstreute Bebauung der Dörfer geprägt. Sammelkanalisation ist das teuerste Element der Infrastruktur bei dieser Art der Bebauung und dementsprechend selten. Aufgrund der hohen Kosten einer Sammelkanalisation werden daher sehr oft Hauskläranlagen eingesetzt. In vielen Bauernhöfen stellt sich die Frage nach der geeigneten Abwasserreinigung. Einfluss auf die Verfahrenswahl haben verschiedene Faktoren: Das ökologische Bewusstsein, Erfahrungswerte von Bekannten und Nachbarn sowie die Kosten. Schließlich sind noch die jeweiligen Standortbedingungen zu beachten. Nicht immer wird die beste Entscheidung getroffen. So zeigen Erfahrungswerte, dass der Betrieb von abflusslosen Behältern problematisch und kostspielig ist - sie doch benötigen spezielle Fahrzeuge, um die Grube zu leeren. Diese Kosten können vielfach von den Dorfbewohnern nicht getragen werden. Um die Grube zu entsorgen, werden dann zum Beispiel die Behälterwände perforiert, so dass eine Sickergrube entsteht - zum Schaden der Umwelt. Am meisten verbreitet ist das System der Faulgrube. 60 - 70 Prozent der absetzbaren Stoffe werden dadurch aufgefangen. Aus hygienischen und wirtschaftlichen Gesichtspunkten heraus ist es jedoch erforderlich die aufgefangenen Fäkalschlämme aus der Grube ordnungsgemäß zu behandeln. Auch das sehr effektive Emscherbecken ist weit verbreitet. Nachteile moderner Methoden wie die einer Sickerdrainage sind der große Flächenbedarf und eine potentielle Gefährdung des Grundwassers - besonders wenn viele derartige Anlagen auf kleinem Gebiet erstellt werden. Relativ niedrigen Flächenbedarf haben dagegen die Sandfilter. Nachteilig bei dieser Methode sind der teure sortierte und gewaschene Sand sowie die mögliche Geruchsbelästigung. Biologische Verfahren wie die Pflanzenkläranlagen erzielen zwar hohe Reinigungsleistungen und sind im Betrieb billig. Die jeweilige Reinigungsleistung hängt jedoch stark von den äußeren Bedingungen ab. Für Abwasserteiche sind große Volumina notwendig und die Anfangsinvestitionen sind erheblich. Der Bau von vielen neuen Kläranlagen ist also nicht unbedingt empfehlenswert. Alternativ kann das Problem Abwasser auch durch die Sanierung und Modernisierung bestehender Kläranlagen gelöst werden.

Vogelschutz an Hochspannungsleitungen

In ganz Deutschland verunglücken jährlich rund 30 Millionen Vögel an Freileitungen, durch Kollision, Stromschlag oder indirekt durch Entwertung des Lebensraums für Brüter. Diese erschreckende Zahl resultiert vor allen Dingen aus Prognosen, die in vogelreichen Gebieten durchgeführt wurden. Binnenlanduntersuchungen in Gebieten geringerer Vogelkonzentration relativieren diesen Wert. Hier hängt das Vogelschlagrisiko größtenteils von zwei Faktoren ab: der Topographie und der Witterung und ist damit kaum gegeben. Die RWE hat daher ein Forschungsprojekt in Auftrag gegeben, dass durch die Staatlichen Vogelschutzwarten in Hessen, Rheinland-Pfalz, Saarland, Nordrhein-Westfalen und Baden-Württemberg durchgeführt wird. Dabei sind nach der Vorrecherche 16 Prozent des Leitungsnetzes zunächst in Hessen, Rheinland-Pfalz und Saarland begangen worden, insgesamt 541 km. Von den 2004 begutachteten Spannfeldern waren 56 Prozent (1.127 Spannfelder) für die Vogelwelt potentiell gefährlich und sollen in den nächsten Jahren Maßnahmen nach sich ziehen, die den weiteren Vogelschlag verhindern. Die Vorgehensweise bei der Untersuchung war wie folgt: Zunächst wurde die Avifaunistische Bedeutung für jedes Gebiet ermittelt. Dabei wurde eine relative Skala verwendet, mit der die relative Häufigkeit der relevanten Vögel errechnet wurde. Das Produkt aus avifaunistischer Bedeutung und Gefährdungspotential ergab dann das Vogelschlagrisiko für die 1.127 relevanten Spannfelder. Handlungsbedarf und damit Markierungsnotwendigkeit ergab sich durch die Definition einer kritischen Grenze. Gemäß diesem erstmals angewendeten und hier ausführlich diskutierten Erfassungs- und Bewertungsschema müssen 253 Spannfelder markiert werden. Das entspricht 22,4 Prozent der Gesamtlänge.

Abwasserreinigung in der tschechischen Republik

Auf dem Gebiet der tschechischen Republik entspringen drei Hauptflüsse, die ihr Gebiet entwässern - u.a. die Elbe. 34 Prozent ihrer Länge von 1.154 km liegen auf dem Gebiet der Tschechischen Republik. Dadurch gewinnt die Wassergütewirtschaft der Tschechischen Republik für Deutschland und andere europäische Staaten eine zentrale Bedeutung - ein Grund dafür, dass die Tschechische Republik in die wichtigsten europäischen Gewässerschutzprogramme eingebunden ist. Denn die Probleme sind vielfältig. Sie resultieren nicht nur aus den stark industrialisierten Zentren entlang der Flüsse, auch die Landwirtschaft belastet die Oberflächenwässer, das zu etwa 60 Prozent für die eigene Trinkwasserversorgung verwendet wird. Im Jahre 1905 erhielt Prag seine erste mechanische Kläranlage. Modernere Techniken wie die Tropfkörper wurden zunächst nur in einigen tschechischen Kurorten verwendet. Um 1930 wurde das Belebungsverfahren eingeführt. Nach dem Zweiten Weltkrieg stand der eingeschränkte Zugang zu westlicher Technologie der weiteren Entwicklung des Wasserschutzes entgegen. Die heutige Gesetzgebung sieht den Einsatz von Technik vor, die dem aktuellen Stand der Technik entspricht und verquickt europäischen und tschechischen Standart. Die gegenwärtige Abwassersituation in der Tschechischen Republik ist der in anderen EU-Ländern (Frankreich, Spanien, Portugal) vergleichbar. 74,4 Prozent der Bevölkerung sind an die Kanalisation angeschlossen. Von den 900 Millionen m3 Gesamtaufkommen werden rund 85 Prozent gemäß den gesetzlichen Bestimmungen aufbereitet. Die meisten Tschechen, die nicht an eine angemessene Kanalisation angeschlossen sind, stammen aus Orten mit weniger als 5.000 Einwohnern. Hier wurden in der Vergangenheit vor allem Tropfkörper oder Oxidationsgräben eingesetzt. Heute sind modifizierte Belebtschlammverfahren und natürliche Klärsysteme im Kommen. Kläranlagen für weniger als 100.000 EGW arbeiten dagegen meist nach einer tschechischen Eigenentwicklung: dem sogenannte RDN-Verfahren. Auch eine Modifikation des Belebtschlammverfahrens ist zu finden: das Karussel-Belebtschlammverfahren. Die Belebtschlammtrennung wird heute überwiegend in runden, radial durchströmten Nachklärbecken mit 3,5 - 4 m Tiefe mit nur einer Abflussrinne durchgeführt. Das Einlaufbauwerk besteht nicht nur aus einem Zentralbehälter sondern auch aus einer Flockungszone. Das dringendste Problem beim tschechischen Belebtschlammverfahren ist die Schaumbildung. Zwei Organisationen befassen sich in der Tschechischen Republik mit der Abwasserproblematik: SOVAK und ACE.

P-Aufnahme von Zwischenfrüchten und ihr Einfluss

45 Prozent des Phosphateintrages in Oberflächengewässer stammen aus der Landwirtschaft. Diese Zahl gilt für Deutschland und in ähnlicher Größenordnung auch für andere europäische Staaten. Die Anreicherung an Phosphaten in den Böden ist die Hauptursache für dieses Phänomen. Regionen mit einem hohen Viehbesatz sind Hauptverursacher für einen Überschuss von jährlich etwa neun kg pro Hektar. Die Prozesse der Phosphatverlagerung sind nur wenig untersucht. Haupteintragsquelle ist die Erosion. Die abtragende Wirkung könnte durch den Anbau von Zwischenfrüchten vermindert werden, die den P-Gehalt abbauen. Auf der Versuchsstation Groß Lüsewitz wurde eine Brache und neun Zwischenfruchtvarianten untersucht. Ausgangspunkt war ein schwach lehmiger Boden vom Typ Gley-Braunerde, der sich zu Versuchsbeginn in der P-Gehaltsklasse E befand (17,3 mg P pro 100 g Boden). P-Gehalt im Pflanzenmaterial sowie P (DL)-Gehalt, Fe, Al und P des Bodens wurden bestimmt. Phosphatbindungsvermögen und P-Sättigungsgrad des Bodens wurden berechnet. Ferner wurde der Orthophosphatgehalt der Bodenlösung bestimmt. Im Anschluss standen Varianz-, Regressions- und Korrelationsanalysen im Mittelpunkt der Auswertung. Es zeigt sich, das der Zwischenfruchtanbau eine gut Möglichkeit zum Abbau hoher P-Werte im Boden ist. Fruchtarten wie Ölrettich, Senf und Raphanobrassica entzogen dem Boden am meisten Phosphor. Die geringste Aufnahme zeigte die Erbse. Der Grund lag in den geringen Erträgen. Den P(DL) Gehalt senkten über die gesamte Tiefe betrachtet am meisten Ölrettich, Buchweizen und Senf, dabei besteht ein linearer Zusammenhang mit der Bodenlösung. Die Aufnahme der Pflanze hatte keinen Einfluss auf diese Konzentrationen. Weitere pflanzenphysiologische Mechanismen sind daher zu vermuten. Das Projekt befindet sich im ersten Versuchsjahr. Zwei weitere werden folgen.

Ziele und Handlungsfelder einer nachhaltigen Stadtentwicklung

Welchem Städtemodell die Zukunft gehören wird ist ungewiss. Ob amerikanische, asiatische oder europäische Städtevision; sicher ist, dass die Zukunft der Stadt Innovationen und intelligente Organisation braucht, wenn sie die steigenden Probleme, die der ökonomische und ökologische Wandels hervorbringt, lösen will. Die heutige Politik der Bundesregierung zielt auf einen möglichst stetigen Wohnungsbau. 600 Millionen DM jährlich werden für die Städtebauförderung eingesetzt. Dadurch sollen Voraussetzungen für die notwendigen Investitionen geschaffen werden, Infrastrukturmaßnahmen angeschoben und Großsiedlungen zu urbanen Stadtteilen weiter entwickelt werden. Ferner sollen Stadterneuerungsmaßnahmen den Erhalt gewachsener Strukturen unterstützen, die weitere Zersiedlung und zusätzlichen Verkehr verhindern sowie Energieeinsparungen fördern und Stadtbrachen wiedererwecken. Besondere Beachtung erhalten dabei räumliche Konzentrationen sozial Benachteiligter. Vor diesem Hintergrund hat die Bundesregierung 1999 das Programm 'Soziale Stadt' ins Leben gerufen. Bei diesem Programm stehen weniger bauliche Themen im Vordergrund als vielmehr soziale, da ein funktionierendes Gemeinwesen als elementar für eine lebenswerte Stadt erachtet wird. Bei all diesen Planungen ist ein ausgeklügeltes Flächenmanagement von besonderer Bedeutung. Vor allem aber die Stadtzentren sollen erhalten bleiben. Dabei stehen eine stärkere Mischung von Arbeit und Wohnen und innenstadtverträgliche Verkehrskonzepte im Vordergrund einer Innenstadtpolitik, die auch den Handel in der City lebendiger und attraktiver machen möchte. Um diese Ziele zu erreichen sind ein positives Erscheinungsbild und mehr Sicherheit in diesem Bereich ebenfalls Grundvoraussetzung. Konzepte auf dem Gebiet des Stadtverkehrs sollen unsere Städte vor dem Verkehrsinfarkt bewahren. Der ÖPNV soll attraktiver gemacht und gleichzeitig soll der Güternahverkehr in die Stadtverkehrskonzepte integriert werden. Die Konzeptionen müssen für den jeweiligen Ballungsraum individuell zugeschnitten werden. Sowohl beim Güternahverkehr als auch beim ÖPNV haben Fragen der Vernetzung und die Stärkung der Verkehrsunternehmen einen hohen Stellenwert. Mehr Transparenz und Wettbewerb, kundenorientierte Produkte und stabile finanzielle Rahmenbedingungen sollen die ÖPNV weiter entwickeln. Schlüssel zum Erfolg ist eine kundenfreundliche Unternehmenspolitik. Dabei sind die Haltestellen die Visitenkarten und gute Verkehrsangebote und umfassende Serviceleistungen die marktwirtschaftlichen Lokomotive.

Statement

Bei der konventionellen 'end of pipe' Behandlung entstehen ausschließlich Abwasser, Abwärme und Abfälle. Von den Abfallstoffen wird nur ein geringer Teil verwertet. Das RESOB-Kreislaufkonzept ermöglicht dagegen einen geschlossenen Stoffkreislauf im Siedlungsbau. Durch Koppelung von bauphysikalischer Sanierung (Wärmedämmung usw.) mit hocheffizienten Anlagen und Steuerungstechniken wird das Konzept wirtschaftlich. Die Finanzierung erfolgt über die Eigenenergieerzeugung und den Kosteneinsparungen im Bereich Strom- und Wärmeversorgung sowie bei der Müll- und Abwasserentsorgung. Kernpunkt dieses Kreislaufkonzeptes ist die Trennung der Abflussstränge. So wird das Grauwasser aus Dusche oder Waschmaschine nach Rückgewinnung der Wärme in einer Pflanzenkläranlage versickert. Das Schwarzwasser wird dagegen über wassersparende Vakuumtoiletten einer Biogasanlage zugeführt. Urin und Fäkalien werden in der Biogasanlage mit Gülle und anderen organischen Abfällen vergoren. Auf diese Weise können 14 - 16 Prozent des Primärenergiebedarfs von Siedlungen gedeckt werden. Das durchgegorene Restmaterial kann als Düngemittel eingesetzt werden. Dabei hat es gegenüber Gülle entscheidende Vorteile: die Nährstoffkonzentration ist konstanter, es hat eine sehr gute Fließfähigkeit und es ist weitgehend geruchlos. Das entstehende Gas dient der Strom- und Wärmeerzeugung im Sinne einer Kraft-Wärme-Kopplung. Die produzierte Wärme wird einem Nahwärmenetz zugeführt und darüber hinaus als Prozesswärme für den Fermenter verwendet.

Statement: Dezentrale Abwasserbehandlung

Bei der Wahl eines Abwasserentsorgungssystems müssen sämtliche das Wohl der Allgemeinheit beeinflussenden Faktoren abgewogen werden. Da es bei Abwassereinleitungen keine Nullemission gibt, sind die Auswirkungen der einzelnen Inhaltsstoffe von besonderem Interesse. So sind Parameter wie Phosphat im Grundwasser anders zu bewerten als im Oberflächengewässer. Entsprechendes gilt für das biologisch bedeutsame Kohlenstoff. Daher ist es irrig ausschließlich auf eine zentrale Abwasserentsorgung zu orientieren. Diese Kritik gilt besonders für Planungen in dünn besiedelten Gebieten. Hier könnten verstärkt Kleinkläranlagen eingesetzt werden. Denn laut DIN ist die Kleinkläranlage bei 'günstigen Boden- und Grundwasserverhältnissen die beste Art der Abwasserbehandlung', wie auch das Beispiel des Ortsteils Holm-Seppensen zeigt. Der Stadtrat von Buchholz i. d. N. beschloss vor gut zehn Jahren Holm-Seppensen zentral zu entsorgen. Darauf gründete sich die Initiative Dezentrale Abwasserentsorgung (IDA e.V.), die eine Aussetzung des Ratsbeschlusses erreichte. IDA setzt sich seither dafür ein, Abwasser in Holm-Seppensen auf Dauer über Kleinkläranlagen zu entsorgen. Die ersten entstanden schon 1989 und wurden zur Wiederverwendung des behandelten Abwassers für die Toilettenspülung und für die Gartenbewässerung eingesetzt. Diese Art der Wiederverwendung wurde 1993 von der Unteren Wasserbehörde Harburg genehmigt - unter dem Hinweis das die Verwendung auf eigene Gefahr geschieht. Dabei unterschreiten die in den Mehrkammerausfaulgruben (MKA) behandelten Wässer die für Klärwerke vorgesehenen Grenzwerte deutlich. Tests wie 1992 in der Allgäuer Stadt Kißlegg haben das bewiesen. Seit 1997 ist an diesen verbesserten Kleinkläranlagen mit Abwasserverrieselung in Filterbeeten auch eine Gemeinschaftskläranlage für 12 Wohneinheiten in Betrieb. Die verbesserte MKA besteht aus drei Kammern. Herzstück ist der Puffer-, Belebungsschacht. In beiden Kammern befinden sich Geovliese, die von sessilen Mikroorganismen besiedelt werden. Über einen Verteilerschacht gelangt das Abwasser dann auf ein Filterbeet und wird dort versickert. Durch das intermittierende Einleiten bleibt das Beet ungesättigt - eine gute Voraussetzung für hohe Abbauraten. Der Stromverbrauch pro Wohneinheit und Tag beträgt 0,75 kWh. 125 DM fallen im Jahr als Wartungskosten an. Die weitgehende Nitrifikation des Stickstoffs ist in diesen Anlagen schon nach maximal 70 cm Verrieselungsstrecke erreicht. Auf eine Fäkalschlammentnahme im zweijährigen Turnus, wie sie in einigen Gemeinden vorgeschrieben ist, kann verzichtet werden, da sie die Funktionsfähigkeit nicht einschränkt.

Savanne Südbayern - ein Modell natürlicher Waldflächen

Wie sah die mitteleuropäische Urlandschaft aus? Vegetationskundlern und Forstwissenschaftlern malen sich immer wieder eine üppig bewaldete Landschaft in der Vergangenheit aus. Schriftliche Zeugen der Antike wie Julius Caesar oder Cornelius Tacitus werden dann zitiert. Und tatsächlich beschreiben sie den Herzynischen Wald, d.h. die deutschen Mittelgebirge und den Schwarzwald bis zum Riesengebirge als groß und ausgedehnt, so wie er heute noch ist. Vergessen wird bei dieser Argumentation, dass der Mensch sich schon in der Alt- und Mittelsteinzeit nördlich der Alpen etablierte - nur unterbrochen von einigen extrem kalten Eiszeiten. Der Einfluss von Homo erectus, der ein hervorragender Großwildjäger war, war wegen seiner geringen Zahl vernachlässigbar. Die Siedlungsdichte vergrößerte sich erst mit dem Aufkommen des Neandertalers und später des Homo sapiens. Der moderne Mensch lebte vor gut 35.000 Jahren als Jäger und Sammler und beeinflusste die Umwelt zum Beispiel durch das Legen von Feuer und durch die Reduktion der Weidegänger. In der Eisenzeit wurde für die Verhüttung von Erzen im großen Stile Holz- bzw. Holzkohle benötigt. Vor gut 8.000 Jahren wanderten die Bandkeramiker nach Mitteleuropa ein und veränderten die Umwelt tief gehend. Hunderte Generationen lebten von da an als Bauern, bauten Häuser, pflügten, säten und züchteten ihr Vieh. Nebenbei holzten sie ganze Wälder ab, um ihren Bedarf an Holz für den Bau ihrer Langhäuser und Palisadenhäuser zu sättigen. Ferner waren sie verantwortlich für einige Änderung der Artenzusammenstellung des Waldes. So hatten Rotbuchen vor der Einwanderung der Bauern vor 8.000 Jahren noch nie eine Rolle gespielt. Es ist daher wahrscheinlich, dass es in den letzten 1.000.000 Jahren keine Phase gab, in denen Mitteleuropa nahezu vollständig bewaldet war. Auch das Studium geologischer Karten scheint diesen Umstand zu belegen.

CEN-Felduntersuchungen zur Standardisierung

Um Schwebstoffmessungen europaweit zu harmonisieren, beauftragte die EG-Kommission schon in den 80er Jahren Vergleichsstudien unterschiedlicher Schwebstoffmesstechniken. In der Folge sollte ein europäisches PM10-Referenzverfahren entwickelt werden, das den in die thorakalen Atemwege eindringenden Staub erfasst, Grobstaubpartikel aber ausschließt. 1986 wurde die 'WRAC-Studie' ins Leben gerufen. Der 'Wide-Range-Aerosol-Classifier' gab aufgrund seiner speziellen Auslegung den Gesamtstaub korrekt wieder, war aber wegen seiner Größe nicht für praxisgerechte Vergleichsmessungen geeignet. Nur wenige Geräte zeigten in der Studie Übereinstimmungen mit der WRAC-Gesamtstaub- bzw. der WRAC-PM10-Stufe. Die Messungen brachten dennoch wertvolle Hinweise über die Partikelmassenverteilung gerade in städtischen Gebieten. Im nächsten Schritt wurde 1992 eine CEN-Gruppe gegründet, die die Suche nach einer PM10-Referenzmethode vorantreiben sollte. Darüber hinaus waren die Bewertung und Auswahl weiterer PM10-Probenahmeverfahren Kernpunkte der Arbeiten. Heute bereitet die Konstruktion von zuverlässigen Probenahmeköpfen keine Schwierigkeiten mehr. 1998 wurde eine neue CEN-Arbeitsgruppe gegründet. Der Grund lag in der für 1999 geplanten Richtlinie, die die Verpflichtung enthielt den PM2,5-Feinstaub zu messen. Neben manuellen stehen jetzt auch automatische Messgeräte zur Erfassung für diese Staubbestandteile zur Verfügung. Letztere werden allerdings noch hinsichtlich ihrer Eignung als Äquivalenzverfahren überprüft.

Anschluss von Einzelanwesen

Pumpendrucksysteme sind ein preiswertes Verfahren, um das Schmutzwasser kleinerer Siedlungsplätze zu entsorgen. Sie sparen gegenüber Freispiegelleitungen mit kleinem Abflussquerschnitt Kosten. Der Grund liegt in dem geringen Verlegeaufwand. Je nach geologischer Situation werden Kleinbagger mit Grabenlöffel, Grabenfräsen oder Dränpflüge für die Aufgrabungen eingesetzt. Die von diesen Geräten geschaffenen Baugruben sind nicht mehr begehbar, so dass die Druckleitung sowie die Verbindungen vom Gelände aus eingesetzt werden müssen. Dazu muss die Leitung, die entweder von Hand in den Graben gehoben oder von der Rolle in den Graben abgerollt wird, flexibel sein. Die notwendigen Pumpen für den Betrieb der Anlage sind mit Tauchmotorpumpen ausgerüstet, die über ein Schneid- oder Mahlwerk verfügen, um Verstopfungen zu vermeiden. Wenn es die hydraulische Situation verlangt, können mehrere Pumpwerke angeschlossen werden. In der Regel fördert ein Pumpwerk in den Pumpensumpf des nächsten. Schnellkupplungen an den Pumpwerken ermöglichen dabei den zügigen Austausch bei Störfällen. Der Einsatz und die Kombination von Drucksystemen für kleine Siedlungsplätze sind vielfältig. Grundsätzlich gilt, dass mit steigender Anzahl der erforderlichen Pumpwerke der Investitionskostenvorteil schwindet. Meist sind es aber nicht nur die Kosten, die den Ausschlag bei der Entscheidung über das Für oder Wider einer Druckleitung geben. Auch wasserrechtliche Aspekte oder organisatorische können eine Rolle spielen. Die Investitionskosten für ein Pumpwerk beginnen bei 7.000 DM. Die Spannweite der Kosten für die Rohrleitung liegt zwischen 16 DM (Boden) und 85 DM (Fels) pro Meter. Das Beispiel Ravensbrück zeigt wie mit einfachen Pumpendrucksystemen Abwasserentsorgung geplant wird. Das Vorgehen des Landratsamtes, die erforderlichen Maßnahmen sowie die Kostensituation werden dargelegt. Auch für das Gemeindegebiet Amtzell werden Entsorgungsvarianten besprochen und Investitionssummen errechnet.

Niedersächsische Erfahrungen mit dezentralen Abwasserbehandlungsanlagen

In Niedersachsen sind 90 Prozent der Haushalte an kommunale Kläranlagen angeschlossen. In dünn besiedelten Gebieten sind es dagegen nur 50 Prozent. 275.000 private Kleinkläranlagen behandeln ihr Abwasser dezentral. Ermöglicht wird das durch eine Änderung im Niedersächsischen Wassergesetz. Seit 1995 können die Gemeinden Kleinkläranlagen mit einem Schmutzwasserdurchfluss von maximal 8 m3 pro Tag dauerhaft zuzulassen. Die geforderte Reinigungsleistung der Kleinkläranlagen orientiert sich dabei an den Grenzwerten der Kläranlagen der Größenklasse 1 und wird durch Stichproben kontrolliert. Es können aber auch besondere Anforderungen an eine Kleinkläranlage gestellt werden - so zum Beispiel bei ungünstigen hydrologischen Verhältnissen. Die Leistungsfähigkeit der Kleinkläranlagen ist sehr unterschiedlich. Bezüglich des Abbaus organischer Verbindungen erzielen die vertikal durchflossenen Pflanzenbeete die besten Ergebnisse. Allerdings ist relativ viel Nitrat im Ablauf zu finden, da die Denitrifikation nur mangelhaft vor sich geht. Auch rotierende Tauchkörper zeigen gute Reinigungsergebnisse. Die Reinigungswirkung von Tropfkörpern und Horizontalkörpern ist zufriedenstellend. Festbetten und Belebungsanlagen sind dagegen problematisch. Das betrifft sowohl die Reinigungsleistung als auch die -stabilität. Filtergräben und Untergrundverrieselung sind nicht empfehlenswert. Allerdings sind alle Anlagen in der Lage die geforderten Überwachungswerte zu erreichen. Voraussetzung ist allerdings eine ausreichende Wartung und ein störungsfreier Betrieb. Die Betriebssicherheit von Pflanzenkläranlagen ist primär von der Durchlässigkeit bzw. der hydraulischen Leitfähigkeit des Bodensubstrats abhängig. Diese wird durch Kolmation herabgesetzt, die die Reinigungswirkung beeinflusst (z.B. durch Fällung gelöster Substanzen, Begehen, Verbleiben disperser Stoffe im Boden). Eine regelmäßige Wartung der Kleinkläranlagen ist dringend angeraten. Die Wartungskosten liegen bei 40 bis 60 Prozent der Betriebskosten. Tabellarisch werden die Kleinkläranlagen zusammenfassend dargestellt. Ablaufwerte, Reinigungsleistung, Betriebsstabilität, Wartungs- und Kontrollaufwand, die Kosten und sonstige Faktoren wie der Platzbedarf werden besprochen. Wesentliche die Betriebsstabilität und -sicherheit beeinflussende Größen werden zusammengefasst.

Sichere Trinkwasserversorgung in ländlichen Gebieten

Bei der Versorgung von ländlichen Gebieten mit einwandfreiem Trinkwasser bestehen zwischen entwickelten und weniger entwickelten Ländern deutliche Übereinstimmungen. Allein der Grad der Problemlösungen und der technischen Umsetzungen differiert. Oftmals liegen die Schwierigkeiten in einem mangelhaften Zugang zu ausreichenden Wassermengen. Dies betrifft alle Bereiche der häuslichen Nutzung. Aufbereitungsanlagen, ausgebildete Mitarbeiter und Finanzmittel sind meist knapp, so dass bei einer weniger guten Wasserqualität die hygienischen Aspekte zu kurz kommen. Bei der Planung von Wasserversorgungsanlagen sind die kulturellen, politischen und ökonomischen Aspekte der Region zu beachten, damit die Wasserversorgung nicht dauerhaft von Importen abhängig ist, ihre Ziele selbst bestimmen kann und zukunftssicher ist. Zentrale Wasserversorgungssysteme mit Aufbereitung und Leitungsnetz ist in Entwicklungsländern eine traditionelle Lösung, die aber nicht immer ideal ist. Die Gründe liegen in den hohen Anfangsinvestitionen, den Instandhaltungskosten sowie den Anforderungen an Personal und Management. Meist versagen solche mäßig komplexen Systeme dann, wenn ein konstanter Versorgungs- und Wartungsdruck der Leitungen nicht abgefedert werden kann. Lösungen könnten kleine kompakte Anlagen ohne Leitungsnetz, aber auch dezentrale Aufbereitungen mittels einfacher Filtration für den Gebrauch in Häusern sein. Auch aufwändigere Techniken, um chemische Schadstoffe zu eliminieren, könnten eingesetzt werden. Diese Möglichkeiten dienen einer schnellen Versorgung mit Wasser und der Bekämpfung wasserbürtiger Krankheiten und ist gewiss keine Dauerlösung, aber in vielen schnell wachsenden Regionen, in denen der Wasserverbrauch immer größer wird, mit wenig Aufwand machbar.

Landschaftsplanung und ländliche Regionalentwicklung

Das in diesem Forschungsprojekt erarbeitete Beispiel hat gezeigt, dass bei der Erarbeitung und Anwendung neuer Landnutzungskonzepte ein ganzheitlicher und systemvernetzter Denkansatz Grundvoraussetzung ist. Solche Projekte sind nur dann erfolgreich, wenn der Sinn und der ökonomische Nutzen des Projektes allen Beteiligten klar wird. Einigkeit und Engagement werden besonders dann gestärkt, wenn die Beteiligten im gleichen Maße aus dem Projekt Nutzen ziehen. Außerordentliches Augenmerk kommt dabei der Aktivierung des endogenen Potentials aber auch der Vermarktung zu, der besonders viel Zeit und Sorgfalt gewidmet werden sollte. Erst dann kann sich aus dem Projekt heraus die notwendige Eigendynamik entwickeln, sodass es schließlich auf wirtschaftlicher Basis eigenständig fortgeführt werden kann. Die Beteiligten in diesem Projektbeispiel nutzten verstärkt Instrumente der Direktvermarktung und erhöhten so neben ihrem Image als Landwirt auch das der Landschaft. Die Umsetzung von Landschaftsplanungen ist schwierig, da ein Großteil der Flächenbesitzer die Maßnahmen aus ökonomischen und ökologischen Gründen ablehnen. Die vorgestellte Methode, bei der ein Vermarktungsprojekt mit einem Verfahren der Ländlichen Entwicklung gekoppelt wurde, hat sich bewährt und beschleunigt sowie vereinfacht Verfahren der ländlichen Entwicklung. Zu diesem Schluss kommt die Bayerische Verwaltung für zentrale Entwicklung. Nebeneffekt ist die Aufnahme von Strukturelementen in die Landschaft, die früher als betriebswirtschaftlich störend empfunden wurden.

Niedersächsische Erfahrungen mit dezentralen Abwasserbehandlungsanlagen

Über die Art der Abwasserbehandlung wird seit Anfang der 90er Jahre heftig gestritten. Im Zentrum der Debatte stehen die hohen Kosten im Zusammenhang mit Bau und Unterhaltung von Kanalisationen im ländlichen Raum. In der Folge entstanden und entstehen immer mehr dezentrale Abwasserbehandlungsanlagen, die sogenannten Kleinkläranlagen, die inzwischen neben den zentralen Abwasserbehandlungsverfahren in Niedersachsen, quasi gleichberechtigt existieren. Grundsätzliche Forderungen an Kleinkläranlagen sind gute Reinigungsleistungen, eine einfache Bauweise, wenig technischer Betriebsaufwand und geringer Flächenverbrauch sowie einfache Wartungs- und Kontrollmöglichkeiten. Darüber hinaus müssen sie sich gut in den ländlichen Raum einpassen und generell dem 'Stand der Technik' entsprechen. Letzteres resultiert aus dem technischen Regelwerk der DIN 4261 und den Regeln der Abwassertechnischen Vereinigung (ATV). Die erste Stufe der Kleinkläranlagen ist mechanisch bzw. teilbiologisch und bedient sich in der überwiegenden Zahl der Fälle einer Drei-Kammer-Ausfaulgrube. Zunächst werden absetzbare Stoffe und Schwimmstoffe entfernt. Diese Reinigung ist aber noch nicht ausreichend, um das Abwasser dem Vorfluter zuzuführen. Es muss biologisch nachbehandelt werden. Dazu stehen verschiedene Systeme zur Verfügung, die sich in naturnahe und technische Verfahren gliedern. Ein naturnahes Nachbehandlungssystem ist zum Beispiel die Untergrundverrieselung. Das Abwasser wird dabei über ein Rieselrohrnetz im Boden versickert, wobei ein Mindestabstand von 1,2 m zum Grundwasser einzuhalten ist. Filtergräben arbeiten nach dem gleichen Prinzip, nur werden die nachbehandelten Abwässer am Ende der Filtrationsstrecke wieder aufgenommen und einem Vorfluter zugeführt. Eine altbekannte und gut wirksame Möglichkeit der Abwasserbehandlung sind die unbelüfteten Teichanlagen. Nachteilig ist der große Flächenbedarf und die Geruchsentwicklung. Auch die Pflanzenbeetfilterbecken zeigen eine gute Reinigungsleistung. Dabei sind die vertikal beschickten Beettypen den horizontal beschickten überlegen. Der Vorteil eines technischen Nachbehandlungssystems wie das einer Tropfkörperanlage liegt im geringen Flächenverbrauch der Anlage. Um diese kleinvolumigeren Anlagen aber mit Erfolg zu betreiben ist ein höherer steuertechnischer Aufwand notwendig. Da die Abwassersatzungen der Gemeinden meist nur eine Laufzeit von 15 Jahren haben, ist die schnelle Umsetzung der Anlage sinnvoll, um den vollen Zeitraum zur Refinanzierung zu nutzen. Letzte Phase der Genehmigung ist der Einleitantrag bei der Wasserbehörde. Die Umsetzung eines dezentralen Abwasserbehandlungskonzeptes wird am Beispiel der Ortschaften Offensen, Schwachensen und Nordburg besprochen.

Ökologische und ökonomische Betriebsoptimierung

Für die Firma KM Europa Metal AG werden mit Hilfe der ökologischen und ökonomischen Betriebsoptimierung verschiedene Stoffkreisläufe analysiert. Ziel ist es, die Oberflächenbehandlung von Kupferhalbzeugen in ökonomischer und ökologischer Hinsicht zu optimieren und möglichst zu einer innerbetrieblichen Stoffkreisschließung zu gelangen. Im Ist-Zustand existieren in Abhängigkeit vom Werkstoff zwei verschiedene Prozessketten, in denen Beizverfahren auf Basis von Schwefel- und Salpetersäure eingesetzt werden. Bei der Ermittlung von Optimierungsansätzen stand zunächst ein Beiz- und Recycling-Verfahren der Firma Eilenburger Elektrolyse- und Umwelttechnik GmbH (EUT) auf dem Prüfstand, das auf Basis von Natriumperoxodisulfat arbeitet. Im Vergleich zum Ist-Zustand ergeben sich aus der Modellierung keine ökonomischen und ökologischen Verbesserungen. Der Grund liegt in der Notwendigkeit eines zusätzlichen Beizverfahrens, das ebenfalls auf Schwefelsäure basiert. Denn tellurhaltige Kupferwerkstoffe allein mit NaPS gebeizt weisen schwarze Flecken und Verfärbungen auf. Weitere Schwachstellen werden ausgemacht, wie zum Beispiel Zersetzungsverluste von NaPS. Die Verwendung von Eisen (III)-Sulfat als Beizmittel entwickelt den NaPS Optimierungsansatz fort. Die ökologische und ökonomische Analyse ergibt, dass sich durch diesen Optimierungsansatz Verbesserungspotentiale ergeben. Diese betreffen vor allem Entlastungen in den Wirkungskategorien Treibhauseffekt, Versauerung, Eutrophierung, Humantoxizität Photooxidantien und Ressourcenverbrauch. In einer Feinuntersuchung kann nun das ökologisch und ökonomisch günstigste Szenario ermittelt werden. Bislang nicht untersuchte Parameter werden dann bei der Modellierung berücksichtigt.

Feuerverzinken von Stahlbauteilen - Ökologische und Ökonomische Betriebsoptimierung 

Für die Firma Genthin GmbH werden mit Hilfe der ökologischen und ökonomischen Betriebsoptimierung verschiedene Stoffkreisläufe analysiert. Ziel ist es, den Korrosionsschutz von Stahlbauteilen in ökonomischer und ökologischer Hinsicht zu optimieren und möglichst zu einer innerbetrieblichen Stoffkreisschließung zu gelangen. Im Ist-Zustand existieren die Prozesse der Energiebereitstellung für die Beheizung der einzelnen Behandlungsbäder sowie die Prozesskette des Feuerverzinkens, in der verschiedene Beizverfahren eingesetzt werden. Bei der Ermittlung von Optimierungsansätzen stand die Umstellung des Betriebs auf eine Mischsäurewirtschaft im Vordergrund der Analyse, d.h. Zink- und Eisenbeize sollen in einem Prozess zusammengefasst werden. Für die Prozesse Entfetten, Beizen und Spülen werden die Aufbereitungsanlagen separat untersucht. Sie sollen idealerweise nach dem Prinzip der Stoffkreisschließung arbeiten. Bauliche Veränderungen sollen darüber hinaus Tropfverluste vermeiden. Die Modellierung des Soll-Zustandes umfasst vier Optimierungsszenarien. Im Vergleich zum Ist-Zustand ergeben sich aus der Modellierung ökonomische und ökologische Verbesserungen. In ökonomischer Hinsicht ist das Modell MFV I hervorzuheben. Es zeigt unter Einsatz aufwendigster Aufbereitungstechniken die besten Ergebnisse. Die ökologische und ökonomische Analyse ergibt, dass sich durch die Optimierungen der Prozesse Entfetten, Eisenbeize und Spülen durch stoffkreisschließende Aufbereitungstechniken Verbesserungspotentiale ergeben. Diese betreffen vor allem Entlastungen in den Wirkungskategorien Treibhauseffekt, Versauerung, Eutrophierung, Humantoxizität und Ressourcenverbrauch. Bei der Bildung von Photooxidantien ergibt sich dagegen eine Steigerung der Belastung. Das an der FV Genthin erarbeitete Modell steht nun als verallgemeinertes Modell anderen Feuerverzinkereien, die nach demselben Verfahren arbeiten, zur Verfügung.

Ziele und Rahmenbedingung von bzw. für Ökobilanzen

Stoff- und Energiebilanzen werden in der betrieblichen Praxis immer wichtiger. Aus der gebotenen Kundenorientierung resultiert, dass sie auch bei der Formulierung von Marketingstrategien immer richtungsweisender werden. Denn erst aus der ganzheitlichen Betrachtung der Stoffflüsse ergibt sich der reale ökologische Preis eines Produktes. Der Leitgedanke 'Umweltorientierte Stoffstromwirtschaft' sollte daher Teil der Unternehmenskultur werden und im Rahmen des betrieblichen Umweltmanagements praktisch umgesetzt werden. In diesem Prozess kann das Instrumentarium der Ökobilanzierung als Werkzeug dienen, um das Unternehmen zu unterstützen. Dabei sind die Zielsetzungen und die zu betrachtenden Aspekte meist sehr unterschiedlich, sodass der Ablauf einer Ökobilanzierung einer Einzelfalluntersuchung entspricht. Es sind keine Routineinstrumente, die zu mathematisch exakt vergleichbaren Lösungen führen. Beim qualitativen Vergleich von Ökobilanzstudien ist daher Vorsicht geboten. Eine Übertragung von Daten aus einer Ökobilanz-Studie in eine andere ist ohne sorgfältige Prüfung nicht sinnvoll, da jeder Erfassungsbereich eine Momentaufnahme in einem dynamischen Prozess darstellt. Besonderes Augenmerk ist der Darstellung von Ökobilanzen zu widmen. Zielsetzungen, Vergleichbarkeit der Daten, Datenqualität Bezugsgrößen und Methodik müssen deutlich werden. Auch andere Bezugsgrößen, wie zeitbezogene Erfassungsbereiche und geographische Eigenheiten sind entscheidende Parameter einer Ökobilanz. Da die Experimentalphasen nunmehr abgeschlossen sind, kann das Werkzeug Ökobilanz jetzt zielgerichtet eingesetzt werden, um den Unternehmen bei der Gestaltung von nachhaltigen Entwicklungskonzepten unter die Arme zu greifen. Wichtig bei einer Ökobilanzierung ist immer auch die Glaubwürdigkeit der Ergebnisse, die in die Öffentlichkeit kommuniziert werden. Ein sachkundiges Gremium soll daher die einzelnen Studien begleiten.

Zentrale und dezentrale Elektrizitätserzeugung

Am Anfang der Elektrizitätsversorgung Ende des 19. Jahrhunderts standen kleine dezentrale Kleinkraftwerke. Die sogenannten Lichtwerke versorgten die Haushalte zunächst mit Gleichstrom geringer Spannung. Bald wurde klar, dass die niedrigen Erzeugungs-, Übertragungs- und Versorgungsspannungen noch nicht das richtige Zukunftskonzept waren. Der Grund lag u.a. in der unzureichenden Spannungsqualität und der mangelnden Versorgungszuverlässigkeit. Auch belästigten diese kleinen Zentralen schon bald die Anwohner - standen sie doch aufgrund der niedrigen Spannung, die nur geringe Transitdistanzen zuließen, meist mitten in den Ballungszentren und belästigten diese durch Kohlefeuerung und Rauchentwicklung. Obwohl zunächst auf Misstrauen stoßend, setzte sich schon bald die Wechsel- oder Drehstromtechnik und die Transformationstechnik durch. Hohe Spannungen ermöglichten fortan einen großräumigen Netzverbund, in dem große Kraftwerksblöcke stabiler betrieben werden konnten und so eine hohe und synchronisierende Leistung erbrachten. Mit anderen Worten: Die Stromversorgung wurde billig und zuverlässig. Bis man sich Gedanken über Fragen der Umwelt- und Ressourcenschonung machte, mussten allerdings noch gut 100 Jahre vergehen. Mitte der 70er Jahre zeichnete sich ein Richtungswechsel in der Energieversorgung ab und energiesparende Techniken gerieten in den Vordergrund des Verbraucherinteresses. Die Anzahl der Blockheizkraftwerke, die im Sinne einer Kraft-Wärme-Koppelung arbeiten, steigt kontinuierlich, auch weil sie inzwischen wirtschaftlich arbeiten. Die europaweite Liberalisierung brachte in den letzten Jahren eine Konkurrenzsituation zwischen Großversorgern und dezentralen Stromlieferanten mit sich. Gleichzeitig stellt sich die Frage nach der Zuverlässigkeit der Energieversorgung und der Vermeidung von Netzredundanzen. Letzteres ist durch den Einsatz von Blockheizkraftwerken nicht zu erreichen. Standortprobleme könnten darüber hinaus in Zukunft zu Kraftwerksverlagerungen nach Osteuropa führen, was zu höheren Stromtransiten führen könnte. Die Wahrscheinlichkeit der Nichterfüllung einer Transitvereinbarung in Spitzenzeiten liegt dabei etwa in der Größenordnung der Nichtverfügbarkeit eines thermischen Kraftwerksblockes. Ferner ist ein Weltverbund für die Zukunft vorstellbar. Dieser 'global link' wird erst durch Gleichstromtechnik machbar. Beim Überbrücken von Landdistanzen von über 1.000 km ist die durch Leistungselektronik aufgerüstete Gleichstromtechnik technisch die einzige Möglichkeit.

Forschungen für eine zukunftsfähige Kerntechnik

Kernenergie wird auch in Zukunft in steigendem Maße genutzt. Daher sind Reaktorkonzepte notwendig, die auch bei extremen Störereignissen wie Flugzeugabstürzen, Erdbeben oder Gaswolkenexplosionen den Schaden auf die Anlage selbst beschränken. Ferner müssen neben den Emissionen im Betrieb sämtliche Abfallvolumina sowie der Anteil langlebiger radioaktiver Stoffe minimiert werden. Auch die Verhinderung des Spaltstoffmissbrauchs ist ein wichtiges Ziel zukünftiger Kerntechnik. Sicherheitstechnisches Herzstück des Hochtemperaturreaktors (HTR), der an der RWTH in theoretischen und experimentellen Arbeiten untersucht wurde, sind mehrfach beschichtete Uranoxid-Brennstoffkerne mit einem Durchmesser von 0,5 mm. Sie sind in eine Graphitmatrix eingebettet, die den Großteil der Spaltprodukte noch bei einer Temperatur von 1.600 Grad etwa 100 Stunden in den Brennelementen zurückhalten. Die Kühlung des Reaktorkerns, der aus sehr vielen solcher Brennelemente besteht, wird mit Hilfe von unter Druck stehendem Helium bewerkstelligt. Die Ableitung der bei Störfällen kritischen Nachwärme geschieht automatisch. Auch bei gleichzeitigem Auftreten eines vollständigen Kühlmittelverlustes, dem Ausfall aller aktiven Kühlsysteme und dem Austreiben aller Abschaltstäbe beschränken sich bei diesem radiologischem Konzept die Schäden auf die Reaktoranlage. Ein weiterer Vorteil ist der geringe Spaltstoffüberschuss, der durch die kontinuierliche Be- und Entladung mit Brennelementen erreicht wird. Mehr Sicherheit bringt auch die Kombination des Hochtemperaturreaktors mit Gasturbinenprozessen und die Verwendung von vorgespannten Reaktordruckbehältern. Kernpunkt zukunftsfähiger Kerntechnik ist aber die sichere Entsorgung und die Minimierung verbrauchter Reststoffe. Die Transmutation von Plutoniumisotopen mit einer Halbwertzeit von 24.000 Jahre in Isotope mit einer geringeren Halbwertzeit könnte hier hilfreich sein. Durch Spallationsprozesse und anschließende Wiederaufbereitung könnten die langlebigen Transurane oder Actiniden weitgehend abgetrennt und dann vernichtet werden. Die weltweit großen Mengen waffenfähigen Plutoniums könnten durch die sogenannte MOX-Technik nach und nach abgereichert und damit für die Kernwaffenproduktion entwertet werden.

Der Mischling aus Verbrennungsmotor und Elektroantrieb

In der umweltpolitischen Diskussion gerät der Individualverkehr mit Autos zunehmend unter Druck. Schadstoffemissionen und Fahrzeuglärm werden von einem Großteil der Gesellschaft nicht mehr akzeptiert. Und während in Amerika erst kürzlich Pläne für eine Zukunft mit Zero-Emission-Fahrzeugen gesetzlich verankert wurden, bestehen in Europa in dieser Hinsicht noch keine Pläne. Diesem technischen Konzept sind allerdings auch noch Grenzen gesetzt - zu unausgereift sind die Techniken wie zum Beispiel die der Brennstoffzelle. Der Hybridantrieb könnte vor diesem Hintergrund und der Suche nach einem zumindest schadstoffarmen Fahrzeug (LEV) eine wichtige Alternative darstellen. Das Konzept des Hybridantriebs ist solch ein 'Low Emmission Vehicle' und verbindet zwei unterschiedliche Antriebe. Erste Fahrzeuge existierten schon 1917. Leistungsdaten und Struktur entsprachen dabei weitgehend den heutigen Modellen, die noch heute überwiegend Elektromotor und Verbrennungsmaschine kombinieren. Vorteile von Hybridfahrzeugen sind die hohen Reichweiten und die Möglichkeit des schnellen Nachtankens. Ein weiterer Pluspunkt ist die Rückgewinnung von Bremsenergie. Darüber hinaus werden verschiedene weitere Nachteile mit reinen Elektrofahrzeugen ausgeglichen. Kernpunkt bei dieser Technikkombination ist die Nutzung spezifischer Vorteile beider Antriebskonzepte. Durch die Zusammenschaltung und Dimensionierung werden Schwachstellen, die sich aus der Konstruktion und dem Betrieb der Motoren ergeben, vermieden. Dabei sind verschiedene Varianten denkbar. Grundsätzlich unterscheidet man zwischen parallelen und seriellen Konzepten. Charakteristisch für den parallelen Hybrid ist, dass er die mechanische Kraft beider Motoren auf die Straße bringt. Der elektrische Antrieb ist für den Stadtverkehr, der Verbrennungsmotor dagegen für längere Überlandfahrten vorgesehen. Parallele Hybride gliedern sich entsprechend ihres technischen Aufbaus in Fahrzeuge mit Zugkraftaddition, Drehzahladdition oder Momentenaddition. Bei letzterem ist die Anordnung des Energiewandlers entscheidend. Der serielle Hybridantrieb arbeitet ohne mechanische Anbindung des Verbrennungsmotors an die Antriebsräder. Er dient allein der Versorgung der Batterie im Sinne eines Generators. Nachteilig wirkt sich bei dieser Art des Antriebs die ungünstige Wirkungsgradkette aus. Eine Mischform zwischen diesen beiden Grundformen stellen die kombinierten oder leistungsverzweigenden Hybride dar. Charakteristika bei den Hybriden ergeben sich darüber hinaus aus der Größe der installierten elektrischen Leistung (zum Beispiel Low Storage Hybrid) oder der gespeicherten elektrischen Energie (z.B. ISAD-System von Continental). Zusätzlichen Spielraum bei den Betriebsstrategien eröffnen in jüngster Zeit stufenlose Getriebe, da sich das Lastkollektiv bislang ausschließlich über die Schaltpunkte variieren ließ.

Verbrennungsmotor oder Brennstoffzelle an Bord?

Der Walliser William Groves trat 1839 zum ersten Mal mit der von ihm entwickelten Brennstoffzelle an die Öffentlichkeit. Dieser chemisch-elektrische Energiewandler liefert, ähnlich einer Batterie, Strom im kontinuierlichen Betrieb. Strom, der in mechanische Energie umgewandelt werden kann. Im Gegensatz zum Verbrennungsmotor ist er leise, ohne bewegliche Teile, relativ kompakt und vielstofffähig. Er kann mit Wasserstoff, Erdgas, Benzin, Biogas oder Kohlegas betrieben werden. Gegenwärtig ist die Brennstoffzelle allerdings noch zu teuer, aber die Autokonzerne versprechen uns schon für die nächsten Jahre preiswertere Brennstoffzellenkonzepte. Dennoch bleibt die Antwort auf die Frage nach der zukünftigen Gewinnung der Kraftstoffe für die Brennstoffe bislang ungeklärt. Denn gewinnt man ihn wie heute meist üblich aus Kohlenwasserstoffen so entstehen Treibhausgase. Schon versucht man auf norwegischen Ölplattformen Wasserstoff direkt zu gewinnen und das Kohlendioxid in den Meeresboden zurückzupumpen. Könnte man Wasserstoff aber mit billigem Strom aus Wasser produzieren, wären auch diese Probleme gelöst und Mobilität könnte nachhaltig werden. Andererseits hat auch der klassische Verbrennungsmotor, der zunehmend in den Wettbewerb mit der Brennstoffzelle gerät, noch Potential, denn auch er kann mit unterschiedlichen Kraftstoffen betrieben werden und er wird zunehmend sparsamer. Dennoch bahnt sich mit der Brennstoffzelle zum ersten Mal in der Automobilgeschichte eine ernstzunehmende Antriebsalternative an. 

Zukünftige Antriebssysteme für Busse 

Beim Vergleich alternativer Antriebskonzepte muss neben den jeweiligen Emissionswerten auch das Betriebskonzept unter die Lupe genommen werden, um zu einer Umweltentlastung zu gelangen. Denn gewinnt man Wasserstoff zum Beispiel für die Brennstoffzelle über Elektrolyse aus deutschem Netzstrom, ist die CO2-Belastung möglicherweise dreimal so hoch wie beim heutigen Dieselantrieb. Dennoch setzt MAN bei seinen Entwicklungen in Zukunft auf Wasserstoff. Wenn bestimmte Randbedingungen erfüllt werden, kann dieser Brennstoff in Zukunft ein wichtiger Beitrag zur globalen Reduzierung der CO2 Emissionen sein. Im Mittelpunkt der Entwicklung werden Konzepte für den Verbrennungsmotor und besonders der Brennstoffzelle stehen. Schon 1839 wurde die Brennstoffzelle zum ersten Mal der Öffentlichkeit vorgestellt und entspricht im wesentlichen der umgekehrten Wasserelektrolyse. Der chemisch-elektrische Energiewandler liefert, ähnlich einer Batterie, Strom im kontinuierlichen Betrieb. Strom, der in mechanische Energie umgewandelt werden kann. Im Gegensatz zum Verbrennungsmotor ist er leise, ohne bewegliche Teile, relativ kompakt und vielstofffähig. Er kann mit Wasserstoff, Erdgas, Benzin, Biogas oder Methanol betrieben werden. Gegenwärtig ist die Brennstoffzelle allerdings noch recht teuer. Der realistische Zeitraum zur Umsetzung für die Serienproduktion könnte bei MAN innerhalb von fünf bis zehn Jahren liegen. Auch Hybridfahrzeuge, bei denen in letzter Zeit vor allem die Superkondensatoren als elektrische Energiespeicher in den Blickpunkt gerieten, werden weiter entwickelt. Genauso wie der Dieselmotor, der in nächster Zukunft durch zwei neu zu entwickelnde Systeme und der Erfüllung von Euro 5 noch schadstoffärmer und dem Erdgasbetrieb in dieser Hinsicht gleichgestellt sein wird. Techniken wie der Diesel-Elektro-Antrieb werden dagegen nicht weiter verfolgt.

 Der Affe als Apotheker

Bevor die Zerstörung der Regenwälder die letzten Orang-Utans ausrottet, beobachten Wissenschaftler diese Primaten, um ihnen ihre letzten Geheimnisse zu entlocken. Denn Orang-Utans wissen von Heilkräutern, die der Mensch gerne lukrativ vermarkten würde - so jedenfalls die Hoffnung. In Bukit-Lawang am Rande des Mount-Leuser-Nationalparkes befindet sich eine von drei Auswilderungsstationen im indonesischen Sumatra. Hier untersucht die Tschechin Ivona Foitova seit vier Jahren Essgewohnheiten und Heilpraktiken der Menschenaffen. Die Idee entsprang Forschungsberichten und Beobachtungen an Primatenstämmen, bei denen die Fähigkeit zur Selbstheilung durch bestimmte Pflanzen beobachtet wurde. So führte die sogenannte Zoopharmakognosie, die seit gut zehn Jahren als heißer Trend gehandelt wird, 1989 zum ersten Mal zu Erkenntnissen über neue Heilpflanzen. Um die Orang Utans, die 'über medizinische Kenntnisse verfügen über die wir keine Ahnung haben', zu beobachten, ist die Auswilderungsstation in Bukit Lawang besonders geeignet. Denn die Orang Utans sind an den Menschen gewöhnt und lassen sich so leicht verfolgen. Im Urwald wird dann minutiös Protokoll geführt, jedes verzehrte Blatt aufgenommen und jeder Stuhlgang zu Forschungszwecken in Plastiktüten verpackt. Der Kot wird dann auf Parasiten und Krankheiten untersucht, um Rückschlüsse auf das Essverhalten zu erhalten. Noch sind die Forschungen nicht abgeschlossen. Die Forscher hoffen aber den Tieren diese Geheimnisse zu entlocken bevor der Regenwald und damit die Tiere von der Bildfläche verschwinden. Eile ist dabei geboten. Die seit 30 Jahren in Borneo forschende Birute Galdikas geht davon aus, dass es in etwa zehn oder zwanzig Jahren keine Orang-Utan-Wildpopulation mehr geben wird.

Vom Winde verweht

Eines der schwerwiegendsten Probleme der heutigen Zeit ist die weltweite Ausbreitung der Wüsten. Das Umweltprogramm der Vereinten Nationen (UNEP) geht davon aus, dass rund 100 Millionen in den nächsten Jahren ihr Land werden verlassen müssen. Der Grund: Erosion und Desertifikation. Jährlich betrifft dies rund 24 Milliarden Tonnen fruchtbaren Bodens. In Bonn beraten im Dezember Experten aus aller Welt darüber, welche Maßnahmen den Vormarsch der Wüsten stoppen könnten. Es ist inzwischen die vierte Konferenz, bei der nunmehr 160 Unterzeichnerstaaten die Fortschritte bei der Umsetzung bewerten werden. Größtes Problem ist die unangepasste Landwirtschaft. So wurden zum Beispiel in Spanien viel Ackerland durch die Abholzung der Olivenhaine unbrauchbar gemacht. Die Erdbeeren und Strauchtomaten, die stattdessen angepflanzt wurden, führten zum Absinken des Grundwasserspiegels und zur Bodenversalzung. Das Verschwinden traditioneller Formen der Bodenbearbeitung war auch in großen Teilen Afrikas Grund für die zunehmende Degradierung. So sind die sesshaften Bauern im Sahel heute den Launen der Natur völlig ausgeliefert. Als Nomaden wanderten sie früher bei Trockenheit mit ihren Viehherden einfach in feuchtere Gebiete ab. Inzwischen drängen sich immer mehr Menschen in den fruchtbaren Gebieten und Landnutzungskonflikte erhöhen das Konfliktpotential. Aus diesem Grunde entwickeln Entwicklungshilfeprojekte immer mehr Landnutzungspläne. Oft lässt sich der Landschwund aber schon mit einfachsten Mitteln aufhalten: Flechtzäune, Steinwälle und Aufforstung stabilisieren den Boden. Angepasste Bodenbearbeitungsformen und der Einsatz brennstoffsparender Herde schonen die Ressourcen. Kernpunkt bei all diesen Vorhaben sind aber die Betroffenen, die von Anfang an in alle Vorhaben mit einbezogen werden sollten.

Das leise Sterben am Kishon-Fluss 

In Israel findet das Thema Umweltschutz noch keine große Resonanz. Ein Paradebeispiel dafür liefert das Maccabiade-Unglück 1997. Denn als bei der jüdischen Olympiade eine Brücke einbrach, starben drei Sportler der australischen Mannschaft nach dem unfreiwilligem Bad im Hayarkon-Fluss nicht etwa an den Folgen des Sturzes, sondern an den Vergiftungen, die sie sich durch das Flusswasser zuzogen. Die Bestürzung war zunächst groß, flaute aber schnell wieder ab. Konsequenzen wurden keine gezogen. Und erst kürzlich hat das israelische Umweltministerium vorgeschlagen ein 4,5 Kilometer langes Rohr zu bauen, um sich der giftigen, ungeklärten Produktionsrückstände im Mittelmeer zu entledigen. Das Prädikat 'am stärksten verschmutzte Fluss Israels' gebührt seit den 50er Jahren dem Fluss Kishon. Aktuelle Analysen zeigen hohe Konzentrationen an Schwermetallen und Krebs erregenden Stoffen wie Cadmium, Benzol und Toluol. Im Mündungsgebiet vor Haifa liegt ein beißender Gestank nach Industrieabgasen in der Luft und das Baden ist verboten. Inzwischen gilt das auch für die Militärtaucher, die hier früher immer ihre Übungen abhielten. Denn von den rund 700 ehemaligen Elitekämpfern sind 60 inzwischen an Krebs erkrankt. Zwölf sind schon verstorben. Das israelische Militär will von alledem nichts gewusst haben und verweigert, trotz Klagen, Zahlungen für die notwendigen Therapien der Betroffenen. Die Industrie an der Kishon Bucht ist inzwischen übereingekommen bis Ende 2001 Kläranlagen nachzurüsten. Wahrscheinlich zu spät für Yuval Tamir, der zehn Jahre im stinkenden Fluss tauchte. Seine Diagnose lautet Haut- und Darmkrebs.

Weniger Gewicht - weniger Treibstoff

Die konsequente Umsetzung des Leichtbaus könnte in Zukunft den Energie- und Ressourcenverbrauch senken. Auf dem Weg zum 3-Liter-Auto sind aber nicht nur leichtere Werkstoffe, wie Magnesium oder Aluminium sondern auch neue Konstruktionen gefragt. Forscher am Fraunhofer Institut für Werkstoffmechanik (IWM) untersuchen wie sich diese Veränderungen auf Zuverlässigkeit, Sicherheit, Lebensdauer und Herstellung auswirken. Sie testen neue Konstruktionen und geben sie zum Einsatz frei. Neben Aluminium steht hier auch der leichteste metallische Konstruktionsbaustoff, der derzeit verfügbar ist auf dem Prüfstand: das Magnesium. Die Metalle werden verschiedenen Bedingungen, wie etwa hohen Temperaturen oder einer simulierten Schlaglochpiste ausgesetzt. Simuliert werden auch Schweiß- und Fügetechniken. Der Grund liegt in den im Vergleich zum Stahl stark differierenden Materialeigenschaften. So verzieht sich zum Beispiel dünnwandiges Aluminium beim Schweißen übermäßig und erschwert dadurch Form- und maßgenaue Fertigung. Die Zuverlässigkeit ihrer Simulationsmethode haben die Forscher schon beim ersten Bau einer 'leichten' Fahrzeugschwinge für den neuen 5er BMW unter Beweis stellen können. Diese ist erfolgreich im Einsatz. Ein weiterer Schwerpunkt der Fraunhofer Forscher ist die Erforschung des Crashverhaltens der neuen Materialien. Leichtbauwerkstoffe sollen zukünftig darüber hinaus auch im Waggonbau eingesetzt werden, denn durch den Einsatz von Aluminium könnten zwei Drittel Gewicht gespart werden. Auch hier testen die Forscher schweißtechnische Fertigungsabläufe schon in einer frühen Entwicklungsphase am Computer. Dadurch werden Fertigungskosten und Entwicklungszeit minimiert. Auch auf dem Gebiet der Weltraumforschung besteht noch viel Forschungsbedarf. Mit ihren Techniken wollen die Fraunhofer Forscher bei der Ariane 5 Gewicht einsparen und dadurch die Nutzlast erhöhen.

PVC-Fensterprofile

Bei der Verarbeitung von PVC-Fensterprofilen werden lösungsmittelhaltige Primer und zum Teil auch lösungsmittelhaltige Klebstoffe verwendet. Bei etwa 200.000 jährlich verarbeiteten Fenstern fallen rund 700 t Methylchlorid an. Neue gesetzliche Regelungen könnten dazu führen, dass der Gebrauch von Methylchlorid in Zukunft deutlich eingeschränkt wird. Neue, unbedenkliche Verfahren waren daher Forschungsobjekt an der Universität Dresden, Arbeitsgruppe Klebetechnik. Bei der Entwicklung erwies sich die Grenzschicht zwischen Klebstoff und PVC-Profil als problematisch. Zunächst stand daher eine Randwinkeluntersuchung im Mittelpunkt des Forschungsinteresses, um das energetische Verhalten an den Oberflächen der von verschiedenen Herstellern stammenden Leisten zu vermessen. Es zeigte sich, dass unterschiedliche Substanzen auf den Oberflächen die Bindungskräfte beeinflussen. Untersuchungen mit dem Röntgenelektronen Mikroskop (REM), der Mikrobereichsanalyse (EDX) und der Elektronenspektroskopie (ESCA) wurden durchgeführt. Es wurde klar, dass Gleitmittel und Wachspartikel auf der Profiloberfläche Bindungskräfte erschwerten und so zum Versagen der Klebeverbindungen führten. Hochwertige Klebeverbindungen erreichten die Forscher als sie die Verunreinigungen auf den Oberflächen entfernten. Dazu bedienten sie sich eines neu entwickelten alkalischen Reinigers, der biologisch abbaubar ist und das PVC nicht angreift. Die Kombination des Reinigers mit einer Flammenvorbehandlung sowie einem lösemittelfreien Klebstoff wurde einem Testlauf unterzogen und brachte sehr gute Ergebnisse. Nach dem beschriebenen Verfahren wird inzwischen in einem Betrieb zuverlässig gearbeitet.

Hausklärsysteme im Überblick

In Niedersachsen sind 90 Prozent der Haushalte an kommunale Kläranlagen angeschlossen. In dünn besiedelten Gebieten sind es dagegen nur 50 Prozent. Viele Anlieger behandeln ihr Abwasser dezentral in privaten Haus - oder Kleinkläranlagen, die aus mindestens zwei Behandlungsstufen bestehen - der mechanischen und der biologischen. In der mechanischen Stufe werden ungelöste und feste Stoffe abgeschieden. In der biologischen Stufe werden die vorgeklärten Abwässer durch Mikroorganismen weiterverarbeitet und nach Abtrennen des Bakterienzuwachses im Untergrund versickert oder im Oberflächengewässer eingeleitet. Eine Hauskläranlage muss also prinzipiell aus mehreren Kammern bestehen. Man unterscheidet die Zwei- oder Dreikammergruben von den Mehrkammerausfaulgruben. Letztere Variante hat ein relativ größeres Volumen und damit höhere Schlammräumungsintervalle. Das in diesen Kammern vorbehandelte Abwasser kann auf verschiedene Art und Weise entsorgt werden. Bei der Untergrundverrieselung wird das vorgereinigte Abwasser über ein unterirdisches Rohrnetz im Untergrund versickert. Das System des Sickerschachtes gem. DIN 4261, Teil 1 sieht vor, dass das vorbehandelte Abwasser zunächst mehrere Schichten unterschiedlicher Korngröße durchsickert bis es endgültig den anstehenden Boden erreicht. Der Filtergraben ist ein Hausklärsystem mit Einleitung in Oberflächengewässer. Nach Durchsickerung einer Filterschicht aus Feinkies wird das vorbehandelte Abwasser dem Vorfluter zugeführt. Tropfkörperanlagen arbeiten mit Materialien mit großer spezifischer Oberfläche an denen sich Mikroorganismen anlagern. Sie bauen die organischen Schmutzstoffe in mehreren Durchgängen nach und nach ab. Auch die Abwasserreinigung mit Tauchkörpern und die Belebungsanlagen bedienen sich Bakterien zur Reinigung. Diese Anlagen sind kompakt aber wartungsintensiv. Bei den Pflanzenkläranlagen wird das Abwasser ausgewählten Sumpfpflanzen zugeführt, die für aeroben und anaeroben Abbau sorgen und sehr gute Ergebnisse bringen. Besonders wartungsarm sind Teichkläranlagen. Man unterscheidet belüftete und unbelüftete Anlagen. An diese Hauskläranlagen können weitergehende Anlagen angeschlossen werden. Zur Steigerung der Abbauleistungen dienen Rezirkulationsanlagen, Filterbeete und Schönungsteiche. Systeme, deren Reinigungsleistung leicht zu kontrollieren sind, sind bei der Entscheidung für die eine oder andere Konzeption zu bevorzugen, da sie einfacher zugelassen werden.

Biogasgülle zwischen Praxis und Wissenschaft

Unter der Federführung des landwirtschaftlichen Bildungszentrums Triesdorf wird seit sieben Jahren eine Biogasanlage betrieben. Die Anlage wurde im Speicherdurchflussverfahren konzipiert und läuft seither ohne nennenswerte Störungen. Um für Schule, Beratung und Praxis nähere Angaben über Sinkstoffen zu erhalten, wurde die Biogasanlage erstmals entleert und geöffnet. Es zeigte sich, dass sich am Boden des Fermenters etwa 15 m3 Sand abgesetzt haben - entsprechend etwa zehn Prozent des Gesamtfermenterraumes. Der Betrieb der Anlage wurde dadurch nicht beeinträchtigt. Auch im Nachgärraum hatte sich Sand abgesetzt. Er wurde von einem Kanalreinigungsunternehmen mit einer Spezialrührdüse entfernt. Darüber hinaus waren nur geringe Schäden an der Anlage zu erkennen, in der die Gülle aus einem Liegeboxenstall mit Stroheinstreu und einem Kaltstall mit 20 Liegebuchten vergoren wird. Zu Probezwecken wurde der Dung von maximal 80 GV immer wieder mit pflanzlichen Reststoffen bzw. gezielt angebauten Energiepflanzen ergänzt. Die Zusätze wurden in einer kleineren Versuchsbiogasanlage auf ihre Vergärbarkeit, Abbauzeit und Ertrag getestet. Die Verweildauer des Substrats im Durchflussfermenter besteht etwa 30 Tage. Die Rührzeit pro Tag liegt bei neun Minuten und wird in Zukunft auf zwölf Minuten erhöht. Der Abbaugrad beträgt 50 Prozent. Gemüse- und Obstabfälle führten bei der Gülleausbringung zu erheblichen Problemen. Sie verstopften bei den Verteilern immer wieder die Düsen. Auf eine ausreichende Vermusung ist daher in Zukunft zu achten. Biogasgülle ist für die Praxis ein wertvoller Dünger. Das in Triesdorf ausgefaulte Material ist dünnflüssig und fließt von den Pflanzen sofort ab und verbindet sich mit dem Boden. Geruchsbelästigung entsteht kaum.

Pflanzenstärkungsmittel

Pflanzenstärkungsmittel sind meist nicht chemisch-synthetischen sondern vielmehr natürlichen Ursprungs. Es wird zwischen anorganischen, organischen, mikrobiellen und homöopathischen Stoffgruppen unterschieden. Letztere Gruppe beinhaltet allein 'energetisch beeinflusste' Mittel. Anorganische Stärkungsmittel bestehen meist aus Silizium und werden aus Gesteinsmehl hergestellt. Organische Pflanzenstärkungsmittel sind Öle, Huminsäuren sowie Aufbereitungen tierischen Materials. Seit 1986 sind Pflanzenstärkungsmittel in Deutschland zugelassen. Die novellierte Fassung von 1998 sieht vor, dass Pflanzenstärkungsmittel nicht nur die Widerstandsfähigkeit von Pflanzen gegen Schädlinge erhöhen sollen. Sie sind von nun an auch dazu bestimmt Pflanzen vor nicht parasitären Beeinträchtigen zu schützen. Ferner sind sie für abgeschnittene Zierpflanzen anwendbar, ein Gebiet, dass derzeit noch eine untergeordnete Rolle spielt. Diese Definition erschwert die Abgrenzung zu Pflanzenschutzmitteln und Pflanzenhilfsmitteln. Pflanzenstärkungsmittel müssen zugelassen werden. Ein Wirkungsnachweis ist aber nicht erforderlich. Die Stärkung zielt bei den meisten Pflanzenstärkungsmitteln auf die Erhöhung der Widerstandsfähigkeit der Pflanzen und meist auf eine Kräftigung der Epidermis. Bislang sind nur wenige Wirkmechanismen wissenschaftlich untermauert. Da ein Wirkungsnachweis im Antragsverfahren nicht gefordert ist, sind die Pflanzenstärkungsmittel von sehr unterschiedlicher Qualität. Die meisten Ergebnisse zur Anwendung von Pflanzenstärkungsmitteln stammen aus dem Wein- und Obstbau. Während sich einige Mittel inzwischen auf dem Markt gut etabliert haben, konnten sich andere aufgrund von negativen Erfahrungen im Wirkungsbereich nicht durchsetzen. Anbauverbände des ökologischen Landbaus, öffentliche Forschungseinrichtung und der amtliche Pflanzenschutzdienst wollen nun die Wirkungen und Nebenwirkungen von Pflanzenstärkungsmitteln prüfen, um diese Mittelgruppe weiter auszubauen. Nur so können ungeeignete Produkte rechtzeitig erkannt und ausgeschlossen werden.

Minimierung der Emissionen des Elektro-Stahlwerkes

Die Badischen Stahlwerke ist das erste Stahlwerk in der Europäischen Union, das im Jahre 1997 nach der Öko-Audit-Verordnung validiert wurde. Auch sonst kann das BSW mit guten Erfolge auf dem Gebiet des Umweltschutzes aufwarten. In den Jahren 1986 bis 1999 wurden die Furan- und Dioxinemissionen von 18.800 mg auf 620 mg pro Jahr gesenkt. Ferner sind die Staubfrachten erheblich reduziert worden. So waren es 1995 noch 11.000 kg Staub, die in die Atmosphäre gepustet wurden. 1999 waren es weniger als 4.000 kg. Kernpunkt der Reduzierung ist die Anwendung eines Direktabsaugungssystems. Durch die brennbaren Substanzen, die am Schrott haften, entstehen beim Chargieren, beim Schmelzvorgang und beim Abstich größere Mengen Rauchgas. Der Rauch, der während des Chargierens entsteht, wird über eine Dachhaube abgesaugt und einem Schlauchfilterhaus zur Abreinigung zugeführt. Die Rauchgase, die während des Einschmelzvorgangs entstehen, der bei 10.000 Grad Celsius abläuft, werden ebenfalls abgesaugt. Sie gelangen zu einem Grobabscheider sowie zu einer Nachverbrennungsstufe. Nach einer Schockabkühlung auf 200 Grad Celsius werden die Abgase ebenfalls über die Dachhaube abgesaugt und der Entstaubungsanlage zugeführt, wo sie abgeschieden, pelletiert und recycelt werden. Ein Trübungsmesser in der Schmelzhalle regelt die Direktabsaugung am Ofen. Die BSW wurde 1968 errichtet und zählt heute 700 Mitarbeiter. Das einzige Stahlwerk in Baden-Württemberg erschmelzt in zwei Elektro-Lichtbogen-Öfen Stahl aus Schrott, das schließlich einer Stranggießanlage zugeführt wird. Dabei profitiert es von seiner guten Verkehrslage am Rhein, denn über den Wasserweg gelangt immerhin 70 Prozent des Schrotts nach Kehl.

Zur Anwendung von Pflanzenschutzmitteln im ökologischen Landbau

Der Pflanzenschutz im ökologischen Landbau sieht die Nutzung natürlicher Regelmechanismen, den Nützlingseinsatz und die Anwendung von Pflanzenstärkungsmitteln vor. Die Vermeidung von Krankheiten und Schädlingen durch vorbeugende Maßnahmen wie Fruchtfolge, pflanzengerechte Standortwahl, Sortenwahl, Bodenbearbeitung, organische Düngung und Habitatgestaltung stehen im Vordergrund der Anstrengungen. Unkrautbesatz wird ausschließlich thermisch oder mechanisch reguliert. Chemisch-synthetische Pflanzenschutzmittel sind tabu - abgesehen von wenigen Ausnahmen. So ist zum Beispiel die Verwendung von Metaldehyd erlaubt. Das Molluskizid darf allerdings nur in Fallen gebraucht werden. Traditionell im ökologischen Landbau verwendete Pflanzenschutzmittel dürfen dagegen eingesetzt werden, wenn der Schädlingsbefall anders nicht mehr zu kontrollieren ist. Diese Regelung wurde 1991 vom Rat der EU beschlossen und gilt, wie auch die in diesem Zusammenhang erstellte Positivliste, für alle EU-Länder gleichermaßen. Die in der Positivliste aufgeführten Stoffe dürfen nur angewendet werden bei: Selbstherstellung im eigenen Betrieb oder wenn sie als Pflanzenschutzmittel zugelassen sind. Das Interesse von Firmen an der Entwicklung und Vermarktung von verhältnismäßig wirkungslosen Pflanzenschutzmitteln für den zu erwartenden kleinen Kreis von Abnehmern ist relativ gering und das Angebot an Pflanzenschutzmittel für den ökologischen Landbau daher relativ knapp. Der Gesetzgeber hat sich deshalb im novellierten Pflanzenschutzgesetz von 1998 dazu entschlossen den Zukauf von Stoffen und die Zubereitungen zur Selbstherstellungen genauer zu regeln. Dazu wurde von der Biologischen Bundesanstalt für Land- und Forstwirtschaft (BBA) eine Liste mit Stoffen erstellt, die in selbst hergestellten Pflanzenschutzmitteln enthalten sein dürfen. Die Stoffe müssen dem ökologischen Landbau entsprechen und dürfen keine schädlichen Auswirkungen auf Gesundheit und Grundwasser haben. Ausgeschlossen sind für Deutschland nicht relevante Stoffe wie zum Beispiel hydrolisiertes Eiweiß. Nicht verwendet werden dürfen grundsätzlich Mikroorganismen. Stoffe, die im eigenen Betrieb hergestellt werden können und als Grundstoff dienen, wurden ebenfalls nicht aufgenommen, da sie nicht zugekauft werden müssen. Das betrifft zum Beispiel Brennnesselbrühe.

Pflanzenöl statt (Bio)-Diesel

Das dezentrale Nutzungsmodell von Regioöl sieht vor das Trocknen, Reinigen, Kaltpressen und die Lagerung der Ölsaat an einem zentralen Ort in der Region vorzunehmen. Dadurch werden, im Unterschied zu einer überregional zentralen Anlage, Transportkilometer gespart. Die Ölgewinnung in diesen dezentralen Anlagen sollte nach dem Kaltpressverfahren vorgenommen werden. Das bietet verschiedene Vorteile u.a. weil nur drei Verfahrensschritte notwendig sind: Die (a) Vorbehandlung umfasst die gründliche Reinigung des Saatgutes, meist Raps. Die Entölung (b) geschieht auf mechanischem Wege durch Schneckenpressung. Zur Reinigung (c) werden Sedimentations- oder Filtrationsverfahren angewendet. Im Gegensatz zur Warmpressung ist der apparative Aufwand gering, eine Entschleimung ist nicht notwendig, die Energieaufwendungen sind minimal und es entfallen chemische Verfahrensschritte. Außerdem fallen keine Abwässer an. Die Energie- und Umweltbilanz von Pflanzenöl, die nicht vollkommen klimaneutral ist, wird gegenwärtig von der INCO mit Hilfe des Bilanzierungsinstruments GEMIS untersucht. Ein Hektar Land mit Raps ermöglicht rund 14.000 km Autofahrt, wenn man einen Durchschnittsverbrauch von 8 Liter pro 100 km zugrunde legt. Pflanzenöl ist auch preislich gegenüber Diesel schon heute durchaus konkurrenzfähig. Es ist ungiftig, umweltfreundlich, hat einen Flammpunkt von mind. 220 Grad Celsius und unterliegt nicht den Bestimmungen für wassergefährdende Stoffe (Wassergefährdungsklasse 0). Im März 2000 wurde ein neuer Qualitätsstandart für Rapsöl als Kraftstoff von der Bayerischen Landesanstalt für Landtechnik der TU München erarbeitet. Kaltgepresstes Rapsöl kann außer für Fahrzeuge wie Autos, Diesellokomotiven und Traktoren auch als Kraftstoff für Kraft-Wärme-Koppelung und als Heizölersatz für Ölfeuerungsanlagen eingesetzt werden. Ferner sind Einsatzmöglichkeiten als Verlustschmieröle und Holzschutzmittel möglich. Ziel des Projektes war es, den klimarelevanten anthropogenen CO2-Ausstoß durch den Einsatz von Rapsöl in Fahrzeugen zu reduzieren. In Zusammenarbeit mit dem Solarinstitut Jülich der FH Aachen und INCO sollen nach der Projektentwicklung, eine Mühle und eine Tankstellen errichtet und Fahrzeuge umgerüstet werden.

Wirkungsmechanismen von toxischen Stoffen

Umweltschadstoffe gelangen in den letzten Jahren verstärkt in den Stoffkreislauf und beeinträchtigen Gesundheit und Wohl des Menschen. Die Aufnahme der Umweltgifte geschieht über die Nahrungsmittel, das Trinkwasser oder die Luft. Die Erforschung der molekularen Wirkungsmechanismen dieser Schadstoffe befindet sich noch in den Anfängen und ist zentrales Thema der Toxikologie. Bei deren Erforschung werden 'klassische' Endpunkte wie Mutagenität oder Toxizität immer zweitrangiger. 'Moderne' Endpunkten wie die Wirkungen auf das Immun-, das Hormon und das Nervensystem geraten immer mehr ins Zentrum des Forscherinteresses. In diesem Zusammenhang sind besonders die Aufnahmewege zu berücksichtigen - gibt es doch erhebliche Mengendifferenzen bei den aufgenommenen Volumina. So werden über die Nahrung 1,5 kg, über das Wasser 2,0 kg und über die Lunge täglich 15 kg aufgenommen. Der Schadstoff ist dabei für die Art der Zellschädigung entscheidend. Zellen reagieren auf ankommende Signale in ganz unterschiedlicher Art und Weise. So können ihr durch Stress und Radikale falsche äußere Bedingungen vorgegaukelt werden, auf die sie unangepasst reagiert. Besonders plausibel ist das Vorkommen reaktiver Sauerstoffspezies (ROS) in der Lunge. Die Forscher zeigten, dass Umwelteinflüsse solche ROS verursachen und zusätzlich die Produktion eines weiteren Mediators induzieren, das Stickstoffmonoxid, das dann zytotoxisch auf Nachbarzellen bzw. mikrobielle Eindringlinge wirkt. Eine in situ Untersuchung wies ebenfalls nach, dass Schadgase an Zellen zu deutlichen Effekten führen können - und das bei realitätsnahen Konzentrationen. Über die Hauptaufnahmewege sind die Organe aber zunehmend auch Substanzen ausgesetzt, die die zelluläre Signaltransduktion beeinflussen. Die zwei wichtigsten Mechanismen sind: Calcium als second messenger und die Kinase Kaskaden. Dabei ist die resultierende Integration der Signale entscheidend für das weitere Schicksal der Zellen. Die Aktivierung bestimmter Zellpopulationen führt beispielsweise zu Entzündungen des Gewebes. Dieser Mechanismus kann aber auch eine Funktionsreduktion des Gewebes zur Folge haben.

Probleme der Grenzwertfindung bei luftverunreinigenden Stoffen

Am Arbeitsplatz haben Grenzwerte für die Luft eine 100-jährige Tradition. Für die Außenluft wurden Grenzwerte erst in den 50er Jahren eingeführt und haben sich seitdem als wirksames Instrument der Luftreinhaltung erwiesen. Aber erst seit etwa einem Jahrzehnt werden Grenzwerte diskutiert, die für Innenräume gelten in denen keine Arbeitsstoffe gehandhabt werden. Dabei haben sich bis heute keine einheitlichen Definitionen für Grenz- oder Richtwerte herausgebildet. Im juristischen Sinne kann ein Grenzwert als eine konkrete Gefahr definiert werden, der in absehbarer Zeit zu einer Gesundheitsgefährdung führen kann. In einem Entwurf des Umweltgesetzbuches wird der Gefahrenbereich, der Vorsorgebereich und das Restrisiko unterschieden. Zwischen den drei Bereichen besteht rechtlich keine eindeutige Grenze. Der Grund liegt in den nicht definierten Grenzkonzentrationen. Deren Einführung bereitet besondere Schwierigkeiten, da verschiedene Unsicherheitsfaktoren die Festlegung erschweren. Die Benennung einer Dosis, die auf dem Prinzip des 'No Observed Adverse Effect Level' (NOAEL) oder dem 'Low Observed Adverse Effect Level' (LOAEL) basiert, hat tiermedizinische, arbeitsmedizinische oder epidemologische Erkenntnisse zur Grundlage und ist von verschiedenen Faktoren abhängig. Unsicherheiten ergeben sich beispielsweise bei der Übertragung von Tierversuchen auf den Menschen oder bei der Übertragung von arbeitsmedizinischen Studien auf die Allgemeinbevölkerung. Auch unzureichende Expositionsabschätzungen und Datenlagen können die Ergebnisse verfälschen, so dass die abgeleiteten Richtwerte nur Anhaltspunkte sein können. Für krebserzeugende Stoffe lässt sich dagegen keine untere Schwelle angeben, die ein Gesundheitsrisiko ausschließt, da sie auch im Niedrigdosisbereich wirken. Für diese Stoffe wird allein das 'unit risk', d.h. das zusätzliche Krebsrisiko angegeben, das sich in Ballungsgebieten um den Faktor Fünf erhöht. Die LAI schlägt daher für verschiedene Stoffe Minderungsmaßnahmen vor. Bei diesen Maßnahmen ist das Instrument Risk-Management einzusetzen, wobei die Risiko-Kommunikation besondere Beachtung zu teil werden sollte.

Betrieb von Pflanzenkläranlagen

Pflanzenkläranlagen sind in Niedersachsen seit 1991 zur Abwasserreinigung im privaten und kommunalen Bereich zugelassen. Gegenwärtig sind etwa 3.000 Anlagen in Betrieb, die überwiegend als Kleinkläranlagen bis etwa 50 Einwohner betrieben werden. Schon seit den 50er Jahren sind die stoffwechselphysiologische Leistungen von Sumpfpflanzen bekannt. In den 70er Jahren wurde das System näher erforscht und erste Prototypen wie das Krefelder System errichtet. Die mit Röhrichtpflanzen bestandenen Beete laufen heute unter verschiedenen Namen wie bewachsener Bodenfilter oder Schilf-Binsen-Anlage. Das Prinzip bleibt aber stets gleich: Die Reinigung des Abwassers übernehmen Mikroorganismen. Die Bepflanzung spielt daher für die Reinigung nur eine untergeordnete Rolle. Man unterscheidet Horizontalfilter von den weniger flächenintensiven Vertikalfiltern, bei denen eine Abwasserpumpe zum Einsatz kommt, die die Beete phasenweise beschickt. Weitere Optimierungen der Pflanzenkläranlage ergeben sich aus Körnungsabstufungen und Beimischungen zu den Filtersubstraten. Beispielhaft wird die Funktionsweise und Bemessung einer Pflanzenkläranlage vorgestellt, mit deren System sehr gute Reinigungsleistungen erzielt werden können. Das aus dem Bodenfilter ablaufende Wasser ist klar und geruchlos. Gesetzliche Mindestanforderungen an die Qualität des Abwassers werden weit unterschritten. Auch Fäkalbakterien werden in erheblichem Umfang eliminiert und erreichen bei entsprechender Dimensionierung die Forderungen der EG-Badegewässerrichtlinie von 1975. Aufgrund der robusten Bauweise sind Betrieb und Wartung der Anlagen unproblematisch. Diese reduziert sich auf die Kontrolle der Beschickungspumpe, der regelmäßigen Begutachtung der Schächte und des ablaufenden Wassers. Ferner ist einmal im Jahr der Schilfbestand zu mähen und ein Betriebshandbuch zu führen. Die Einsatzmöglichkeiten einer Pflanzenkläranlage sind vielfältig: Denkbar und teilweise auch schon realisiert sind Ortskläranlagen für mehrere Hundert Einwohner, Grundstückskläranlagen, Campingkläranlagen für den saisonalen Einsatz, zur Reinigung von verschmutztem Oberflächenwasser und zur Nachreinigung von bestehenden Kläranlagenabläufen. Die Kosten liegen in Abhängigkeit von den örtlichen Verhältnissen zwischen 700 und 2.500 DM je angeschlossenen Einwohner.

Entsorgungsmöglichkeiten für kleine Dörfer und Siedlungen 

Die Abwassersituation in den neuen Bundesländern ist geprägt durch dezentrale Kläranlagen in Dörfern mit in der Regel unter 1.000 Einwohnern. Die Entsorgung erfolgt über abflusslose Gruben, die von landwirtschaftlichen Großbetrieben entleert und auf den Feldern aufgebracht werden. Wegen hoher Kosten und hygienischer Probleme wird dieser Entsorgungsweg in naher Zukunft ausfallen. Daher sind flexible Planungen notwendig. Diese werden wahrscheinlich auf eine dezentrale Lösung im Sinne einer Kleinanlage abzielen. Größtes Problem bei derartigen Kleinanlagen ist die Entsorgung des Fäkalschlamms. Eine Eigeninitiative in Brandenburg hat nun ein Modell entwickelt, das Lösungsansätze für eine umweltverträgliche Entsorgung des Fäkalschlamms bietet. Gleichzeitig werden die Nährstoffe aus dem Abwasser zurückgewonnen und als Biomasse weiterverwendet. Die Anlage ist dreiteilig. Sie besteht aus einem 2-kammrigen Rottebehälter, einem zweistufigem Bodenfilter und einer Sickergrube. In naher Zukunft soll entschieden werden, ob dieses Konzept, das zurzeit einem Tagungszentrum einer Kreisstadt der Entsorgung dient, die zentrale Abwasserreinigung dauerhaft ersetzen kann. Ein wesentlicher Teil des Systems ist der Rottebehälter, der über eine Filterschicht verfügt auf der sich die festen Bestandteile absetzen und unter regelmäßiger Zugabe von organischen Strukturstoffen beschleunigt verrotten. Je höher diese gut durchlüftete Schicht wächst, desto größer ist die Reinigungsleistung. Wenn sich nach vier Jahren die zweite Kammer gefüllt hat, hat sich der Inhalt der ersten schon in reifen Kompost verwandelt. Dadurch werden u.a. Kosten für die Entsorgung des Schlamms gespart, kommunale Kläranlagen entlastet und ein Dünge-Substrat erzeugt. Vorteile bietet darüber hinaus die ungefährlichere Entnahme, die Volumenreduzierung und die teilbiologische Reinigung. Allein die etwas erhöhten Kosten für den Bau sind ein Contrapunkt, der gegen den Rottebehälter nach Wurster sprechen. Die nachgeschaltete biologische Einheit besteht aus zwei Beeten. Das Wasser durchläuft die angelegte Filterschicht mehrfach. Die Gesamtanlage zeigt gute Reinigungs- und Abbauleistungen, die sogar bei einer Erhöhung der Belastungen konstant blieben. 

Biologische Abwasserbehandlung für kleine Auslegungsgrößen

Für die ländlich strukturierten Gebiete in der Bundesrepublik werden Neuplanungen der Abwasseranlage immer dringlicher. Für dezentrale Konzeptionslösungen stehen recht unterschiedliche Abwasserreinigungsverfahren zur Verfügung. Das Angebot reicht von der naturnahen bis zur technischen Kompaktkläranlage. Um eine technisch, wirtschaftliche und ökologisch vertretbare Lösung zu finden, sind die unterschiedlichsten Parameter zu berücksichtigen. Wegen der negativen finanziellen Auswirkungen und den betrieblichen Problemen sind Container-Kläranlage innerhalb einer dezentralen Konzeption nicht empfehlenswert. Teichkläranlage stellen dagegen eine kostengünstige und betriebsfreundliche Lösung dar. Bei guten und sehr stabilen Reinigungsleistungen erfordern sie verhältnismäßig wenig Wartung. Voraussetzung ist allerdings ausreichender Platz. Die voluminösen Abwasserteiche puffern kurzzeitige Schmutzbelastungen sicher ab und ermöglichen die Integration der Regenwasserbehandlung in diese Reinigungselemente. Ein weiterer Systemvorteil sind die mehrjährigen Räumungsintervalle. Ferner sind Vorkehrungen gegen Lärm- und Geruchsemissionen entbehrlich. Zudem sorgen die Teiche für eine Bereicherung des Landschaftsbildes, da sie naturnahen Ersatz-Lebensraum für die Bewohner von Feuchtbiotopen darstellen. Wird eine höhere Reinigungsleistung verlangt, bieten sich Kompaktkläranlagen an. Meist sind diese verfahrenstechnisch als Schwachlastbelebung konzipiert. Bei der Planung müssen Grundstücksfläche, hydraulische Belastung, Schmutzfracht sowie betriebliche und wasserrechtliche Anforderungen gegeneinander abgewogen werden. Ferner muss jedes einzelne Reinigungselement auf die jeweilige Reinigungsleistung optimal abgestimmt werden. Ein wesentlicher Vorteil dieser Anlagen ist die geringe langfristige Gesamtkostenstruktur. Kompaktkläranlagen werden entweder in Ortbeton oder aus Betonfertigteilen erstellt.

Nachrüstung häuslicher Ausfaulgruben

Im Interesse unserer Umwelt und vor dem Hintergrund der sich weiter verschärfenden Abwassergesetze ist gerade für Einzelhaushalte in ländlichen Gebieten eine dezentrale und platzsparende Reinigung von Abwässern gefragt. Dadurch wird der teure Ausbau des Kanalnetzes und das Zahlen überhöhter Preise für die Abwasserreinigung überflüssig. Allerdings muss der Privatmann, der sein Abwasser bislang in Mehrkammer-Ausfaulgruben und Absetzgruben entsorgt hat, die Qualität der Reinigung deutlich erhöhen, um die gesetzlichen Vorgaben zum Einleiten des Abwassers zu erreichen. Dabei sind biologische Verfahren besonders geeignet, denn diese sind besonders günstig in der Anschaffung und arbeiten darüber hinaus nach dem Vorbild der Natur. Bei all den verschiedenen Anlagentypen werden z.T. platzintensive Baumaßnahmen und z.T. hohe Anfangsinvestitionen notwendig. Eine wartungsarme und unkomplizierte Variante ist dagegen ein Nachrüstsatz der Firma ENVICON, denn mit wenigen Zusatzteilen verwandelt sie eine bestehende Dreikammergrube in eine biologische Kläranlage. Für den Umbau werden nur wenige Stunden Arbeit benötigt. In die zweite Kammer wird lediglich ein spezieller Träger für Bakterien eingebracht. Der ständig untergetauchten Biofilm ist frei umflossen. Die hier siedelnden Mikroorganismen arbeiten optimal, da sie im Gegensatz zu einer Belebungsanlage keiner Über- und Unterlast ausgesetzt sind. Es sind bis heute über 1.600 Anlagen nach dem sogenannten 3K Plus System nachgerüstet worden. Dieses Festbett-Verfahren eignet sich für Größen ab 4 bis 50 Einwohner. Die Kosten für ein Einfamilienhaus liegen bei 7.500 DM netto. Alles in allem ergibt sich ein Preis von 4,50 DM pro Kubikmeter gereinigten Wassers. Die Erfahrung zeigt, dass die Anlage sehr gute Reinigungsleistungen erzielt. Geruchsintensive oder schädliche Gase entstehen nicht.

Konzept einer Dezentralen Abwasserbehandlung  

Im Interesse unserer Umwelt und vor dem Hintergrund der sich weiter verschärfenden Abwassergesetze ist gerade für Einzelhaushalte in ländlichen Gebieten eine dezentrale und platzsparende Reinigung von Abwässern gefragt. Dadurch wird der teure Ausbau des Kanalnetzes und das Zahlen überhöhter Preise für die Abwasserreinigung überflüssig. Im Landkreis Celle hat sich 1992 eine Interessengemeinschaft Dezentrale Abwasserbehandlung (IDA) Offensen, Schwachhausen, Nordburg gegründet, um Alternativen zu einer zentralen Abwasserentsorgung zu suchen. Seit 1995 obliegt die Abwasserbeseitigungspflicht in den drei Gemeinden allein den Nutzungsberechtigten der Grundstücke. Vorhandene Gruben sollen möglichst weiterverwendet bzw. aufgerüstet werden. Kriterien für die Neuanlagen sind: einfache Bauweise und Wartung, geringer technischer Betriebsaufwand und gute Kontrollmöglichkeit der Anlage. Das gereinigte Abwasser soll entweder einem Vorfluter zugeführt werden oder im Untergrund verrieselt werden. Bei der Entscheidung für oder gegen eine Alternative sind die geologischen und wasserhaushaltlichen Aspekte, aber auch Fragen der Einbindung der Anlagen zu berücksichtigen. Ferner wurde zur Klärung des aktuellen Standes der Abwassertechnik eine Bürgerbefragung durchgeführt, um ein Bild vom aktuellen Stand der Abwassertechnik zu erhalten, denn es erschien sinnvoll noch intakte und den heutigen Anforderungen genügende Teile weiterzuverwenden. Das Ergebnis der Befragung der 122 Haushalten zeigte, dass ein Drittel der Drei-Kammer-Ausfaulgruben den heutigen Anforderungen entspricht. 46 Prozent der Gruben müssten allerdings neu gebaut werden. Wegen des hohen Grundwasserstandes sind auch bei etwa der Hälfte der Grundstücke Maßnahmen hinsichtlich der biologischen Abwasserreinigung vorzusehen, da die derzeit existierenden Untergrundverrieselungen von der Wasserbehörde des Landkreises nicht mehr zugelassen werden. Für die Mehrzahl der Grundstücksbesitzer bietet sich nunmehr der Bau eines mit Röhrichtpflanzen bewachsenen Bodenfilters an. Die Interessengemeinschaft empfahl denn auch diese Art Pflanzenkläranlage in den Ortschaften einzusetzen. Eine Kalkulation ergab durchschnittliche Unkosten von unter 2000 DM für die dezentrale Abwasserbeseitigung. Die Jahreskosten für den Betrieb der Anlage liegen bei etwa 250 DM.

Situation und Strategien bei N2O Emissionen in Deutschland

Distickstoffdioxid (N2O) liegt mit sechs Prozent der Emissionen auf Platz drei der Treibhausgasverursacher in Deutschland. Die Datenlage der N2O-Emissionen ist allerdings recht ungenau und fehlerhaft. Sie ergibt sich aus Statistischen Jahrbüchern, Literaturrecherche, der Vergabe von Forschungsvorhaben oder dem IPCC-Manual. Hauptverursacher der N2O-Emissionen sind Landwirtschaft und Industrieprozesse. Für die Landwirtschaft liegen aufgrund komplexer Beziehungen ungenaue Daten vor. Grundsätzlich ist aber ein Ansteigen der Emissionen zu beobachten. Der Grund liegt in den steigenden Tierzahlen und dem erhöhten Düngereinsatz. Wissenschaftler entwickeln zurzeit N2O-Prozessmodelle, um die Genauigkeit bei den Emissionsbestimmungen zu erhöhen. Alles in allem stimmen Umweltschutzziele und Klimaschutzziele im Bereich der Landwirtschaft aber überein, da in der Bundesrepublik vor allem extensive landwirtschaftliche Produktionsweisen gefördert werden, die zu einer Verringerung des Düngereinsatzes führen. Auch die Berechnung der Emissionen aus tierischen Exkrementen und Böden wird diskutiert. Der überwiegende Teil der industriellen N2O-Emissionen entstammt organisch-chemischen Industrieprozessen. Die Emissionen aus den Industrieprozessen sind wechselhaft, das Minderungspotential aber besonders groß. So könnten im Bereich der Adipinsäureherstellung 95 Prozent der N2O-Emissionen verhindert werden. Der Anteil des Verkehrs an den N2O-Emissionen liegt mit 23 kt an dritter Stelle. Durch den Einsatz des Katalysators erhöht sich sein Anteil stetig. Die Verbesserung der Luftqualität führt dadurch zu unangenehmen Nebenwirkungen für den Klimaschutz.

Chemischer Pflanzenschutz als Produktionsfaktor

Trotz großzügiger Förderung hat der biologische Pflanzenschutz nur geringe Erfolge aufzuweisen. Lediglich 'Bacillus thuringiensis' gegen Maiszünsler und die Bekämpfung des Kartoffelkäfers sind praxistauglich. Ansonsten beschränken sich die Erfolge auf tierische Schadorganismen in Gewächshäusern und Dauerkulturen. Und der ökologische Landbau wird auch in Zukunft ein Nischendasein fristen. Ein Grund liegt in der geringen Effizienz und der oft mangelhaften Qualität der Produkte. Ausbaufähiger ist der integrierte Landbau, der diverse Vorteile für die breite Landwirtschaft bietet. Er vereinigt die Vorzüge beider Landbauformen. Beim integrierten Landbau spielt allerdings der Einsatz von Pflanzenschutzmitteln eine wesentliche Rolle, denn er bringt höhere Erträge, bessere Qualitäten, bessere Beerntbarkeit und ist arbeitserleichternd. Der technische Fortschritt hat immer wirksamere und preiswertere Produkte mit immer weniger Nebenwirkungen hervorgebracht. Darüber hinaus werden sie immer umweltverträglicher und neue Wirkstoffe stellen einen wesentlichen Fortschritt in der Risikominderung dar. Teilflächenspezifischer Pflanzenschutz könnten zukünftig die Anwendung gegen bestimmte Erreger erheblich reduzieren. Qualitätsverbesserungen und Ertragssteigerungen werden also auch in Zukunft zu nehmen. Gleichzeitig werden sich die Betriebsaufwendungen verringern. Ferner wird die standortspezifische Bewirtschaftung ansteigen. So werden auf guten Standorten verstärkt Pflanzenschutzmittel und moderne Technik eingesetzt und damit die Effizienz weiter verbessert. Auf Standorten mit schlechten Bodenverhältnissen werden dagegen weniger Pflanzenschutzmittel aufgebracht werden. Insgesamt wird der standort-, sorten- und jahreseinflussbedingte Pflanzenschutz an Bedeutung gewinnen. Die Betriebsstrategien werden stark von den zu erzielenden Preisen für die Produkte aber auch vom Verbraucher abhängig sein.

 Umweltpolitik und internationaler Wettbewerb

 Der Abbau der Arbeitslosigkeit und der Schutz der Umwelt sind Kernpunkte der jetzigen Politik der Bundesregierung. Teilweise stehen beide Ziele miteinander im Konflikt, teilweise erwachsen aus dieser Situation aber auch neue Perspektiven sowohl für den Arbeitsmarkt als auch für die Umwelt. Auch die Stahlindustrie hat inzwischen die Notwendigkeit von Nachhaltigkeit erkannt und in den letzten Jahren wesentliche Umweltziele umgesetzt, um Umwelt und Ressourcen zu schonen. Diese Maßnahmen betreffen Staub-, Lärm-, und Kohlendioxidemissionen, Gewässerschutz, den Energieeinsatz und die Kreislaufwirtschaft. Gerade die kürzlich aufgestockte Selbstverpflichtung der Stahlindustrie zu noch mehr CO2-Reduktion ist ein gutes Beispiel für das selbstverantwortliche Handeln der Industrie. Gleichzeitig unterstützt die Bundesregierung die Wirtschaft mit einem Forschungsprogramm, um umweltentlastende Innovationen zu entwickeln. Dabei stehen besonders solche Umweltschutzmaßnahmen im Blickpunkt, die die Wettbewerbsfähigkeit nicht beeinträchtigen und so Arbeitskräfte vernichten könnten. Durch die ökologische Steuerreform betrug die Nettobelastung der Stahlindustrie 1999 gerade mal 6 Mio. DM. Der Grund liegt in Ausnahmeregelungen, die von der EU allerdings nur bis März 2000 genehmigt wurden. Die Regierung will sich aber für eine Fortführung der Ausnahmeregelung einsetzen. Ein besonders wirksames Instrument zur Verminderung der Treibhausgase sieht die Regierung im Emissionshandel, deren Einführung von der EU-Kommission für das Jahr 2005 vorgeschlagen wurde. Die Rahmenbedingungen stehen allerdings noch nicht fest und müssten von Staat und Wirtschaft gleichermaßen erarbeitet werden. Da sich die Stahlindustrie in einem harten internationalen Wettbewerb befindet, findet die Stahlindustrie bei der Abwehr protektonistischer Maßnahmen die volle Unterstützung der Regierung. Auch durch die Umstrukturierungen sollen sich für die Stahlindustrie keinerlei Nachteile ergeben, denn die Wettbewerbsfähigkeit soll erhalten bleiben. Nach dem Auslaufen des EGKS-Vertrages sollen die Forschungsanstrengungen weiter fortgeführt werden.

Wie gefährdet sind Saumbiotope?

Saumbiotope erstrecken sich auf den Grenzflächen zwischen Ackerland und Kleinstrukturen. In Deutschland haben sie ein Länge von insgesamt 1,6 Mio. km. Durch Abdrift von Pflanzenschutzmitteln sind die Nutzarthropoden der Saumstrukturen potentiell gefährdet. Untersuchungen belegen, dass die Exposition mehrere Meter in den Saum hineinreichen kann, allerdings bei stark abnehmender Konzentration. Daher ist die vollkommene Elimination einer Population in einem Saumstreifen relativ unwahrscheinlich. Und auch wenn eine erhebliche Reduzierung einer Art angenommen werden muss, so ist das Wiedererholungspotential bestimmter Populationen beachtlich. Aus diesen Gründen erscheint die Vorgabe von TER-Werten (Toxicity-Exposure-Ratio) mit 5-10 bei der Risikobewertung von Pflanzenschutzmitteln nicht unbedingt realistisch. Forschungsbedarf ist daher angezeigt. Saumstrukturen repräsentieren allgemein ein hohes Schutzgut. Es sind naturnahe Strukturen und bedeutsam als Lebensraum für Nutzarthropoden, die als Leistungsträger bei der natürlichen Kontrolle von Schädlingen eine Rolle spielen. In wie fern diese Nützlinge wirklich an der Regulation von Pflanzenschädlingen Anteil haben, wird seit 1993 auf zwei Standorten in Fläming und in der Magdeburger Börde erforscht, wobei die Regulation von Getreideblattläusen im Vordergrund steht. Das Auftreten der Prädatoren (Nützlinge) lag bei beiden Standorten auf etwa gleichem Niveau und korrelierte gut mit der Blattlausdichte. Untersuchungen der quantitativen Wechselwirkungen zwischen Saum und Feld ergaben, dass bestimmte gut strukturierte Saumstrukturen Auswirkungen auf das Vorkommen im angrenzenden Feld haben. Simulationsrechnungen mit dem Programm GTLAUS99 verdeutlichen allerdings, dass reduzierende Effekte um mehr als die Hälfte des Blattlausbefalls im Feld nicht zu erwarten sind.

Paläoklimatologie - Was lernen wir aus der Vergangenheit 

Paläoklimatologische Untersuchungen zeigen, dass das gegenwärtige Klima nicht repräsentativ ist für die zurückliegenden 600 Millionen Jahre. Seit dem Kambrium hat die Erde vier Warm- und vier Kaltzeiten durchlebt. Eiszeiten im Karbon - Perm waren besonders intensiv und ihre Vergletscherungsspuren dienten Alfred Wegner als Grundlage zur Formulierung seiner Kontinentaldrifttheorie. Seit etwa 50 Millionen Jahren leben wir in einem kalten Klimazustand und die letzten 2,7 Millionen Jahre Erdgeschichte sind geprägt durch nur geringe Temperatur-Oszillationen auf der nördlichen Hemisphäre. In den vergangenen 800.000 Jahren hatten diese Zyklen eine Länge von 100.000 Jahren. Die Oszillationen und damit die Vereisungen korrelieren mit den sog. Milankowitsch-Zyklen. Sie können aber auch Folge von Rückkoppelungsprozesse sein. Paradebeispiel liefert die Schließung des Isthmus von Panama aber auch tektonische Gebirgsbildungsprozesse in den Anden. In der gegenwärtigen Warmphase, die schon etwa 11.500 Jahre dauert, treten klimatische Schwankungen mit absinkender Temperatur in regelmäßigen und unregelmäßigen Abständen auf. Teilweise sind die physikalischen Zusammenhänge für diese 'kleinen' Eiszeiten nicht geklärt. Bei der Klimaforschung erlangen daher die sogenannten Proxies immer mehr an Bedeutung. Diese Klimaindikatoren, die in den Klimaarchiven sehr unterschiedlich aufgezeichnet sind, könnten uns Aufschluss geben in welchem Abschnitt der Warmphase wir uns aktuell befinden. Dies geschieht über die Synchronisation von Zeitreihen möglichst auf Jahresbasis. Eiskerne liefern dabei die exaktesten Archive - sind doch die Gaseinschlüsse direktes Abbild der jeweiligen Atmosphäre. Auch die rezenten Ozeanböden lassen Rückschlüsse auf das ehemalige Klima zu. Diese marinen Kerne reichen zeitlich am weitesten zurück. Die Datierung erfolgt über Vergleiche mit durch paläomagnetische und Sauerstoffisotopenverfahren datierter Kerne. Rezente Daten ergeben sich dagegen aus der Analyse von terrestrischen oder kontinentalen Sedimenten. Hauptaugenmerk liegt dabei auf der Untersuchung von Baumringen (Dendroklimatologie) und Seesedimenten. Letztere bieten durch die jahresgeschichteten Ablagerungen eine hochauflösende Möglichkeit der Klimaforschung, die besonders in Maaren zu fruchtbaren Ergebnissen geführt hat.

Innovationstheoretische Perspektive nachhaltiger Schulentwicklung

Unter bestimmten Bedingungen kann das Schulsystem im Sinne eines Innovationsagenten einen Beitrag zur Popularisierung des Leitbildes 'Nachhaltige Entwicklung' leisten. Bei bisher durchgeführten Modellversuchen standen themenorientierte, lernprozessorientierte, anwendungsorientierte und kooperative Konzeptionen im Vordergrund. Einem innovationstheoretischem Verständnis im Sinne eines Forschungs-, Entwicklungs- und Disseminationsmodell folgen besonders die beiden erst genannten Konzeptionen. Nach Modellerprobung in den Modellschulen werden die Ergebnisse für andere Schulen verfügbar gemacht. Anwendungsorientierte und lernprozessorientierte Konzeptionen sind eher als Problemlösungsmodelle zu verstehen, bei denen der Schwerpunkt auf Veränderungen der Schule oder des Stadtteils liegt. Meist geschieht dies intern wobei man sich eines von außen kommenden Innovators als Berater oder Helfers bedient. Beide Konzepte haben über den Modellversuch hinaus nur selten Breitenwirkung erfahren. Eine Ökologisierung der Bildungseinrichtung fand kaum statt und wenn dann wurde sie nur selten in Lehrpläne oder Studien- und Prüfungsordnungen umgesetzt. Die Implementation und Dissementation der Umweltkonzepte ist daher als mangelhaft zu werten. Seit 1995 beteiligt sich Deutschland am internationalen Modellversuch Globe, das 1994 vom amerikanischen Vizepräsidenten Al Gore ins Leben gerufen wurde. Weltweit beteiligen sich 80 Länder an Globe. In Deutschland sind es inzwischen 200. Motivation für den starken Zuwachs in den letzten Jahren sind laut einer Befragung vor allem die Nutzung des Internets und die Umweltthematik. Doch obwohl das Interesse an Globe sehr groß ist, ist das Arbeitsverhalten an den Globe-Schulen tendenziell sehr unterschiedlich. Interviews mit den Lehrern ergaben prinzipiell drei unterschiedliche Schultypen: Die aktive Schule, die mitmachende Schule und die passive Schule. Eine Erklärung für dieses Phänomen ergibt sich aus dem Konzept der 'lernenden Organisation'. Die fragmentierte Schule, die Projekt-Schule und die Problemlöse-Schule sind Mentalitätsmuster, die die Globe-Schulen widerspiegeln. Es wird deutlich, dass Globe-Germany mehr ist als ein Angebot mit einer Kommunikations- und Unterstützungsstruktur für die Schule. Vielmehr kann es als zentral gesteuertes Reforminstrument betrachtet werden.

Versachlichung der Risikokommunikation durch die Nachhaltigkeitsdebatte? 

 Laut der Ottawa-Charta zur Gesundheitsförderung von 1986 gehören zu einer gesundheitsfördernden Gesamtpolitik folgende Punkte: Neuorientierung der Gesundheitsdienste, gesundheitsförderliche Lebenswelten schaffen, Gemeinschaftsaktionen sowie Interessen fördern und persönliche Kompetenzen entwickeln. Auch für die Risikokommunikation sind diese Punkte von Relevanz. Denn die Informationskanäle der Risikokommunikation sind vielfältig: Schule, Freunde, Familie und die Medien aber auch Wissenschaft, Wirtschaft, Gewerkschaften und Bürgerinitiativen bestimmen die Meinungsbildung der Bürger. Die Lebensqualität wird darüber hinaus durch verschiedene Umweltbereiche beeinflusst. Auf der einen Seite stehen Nahrung, Trinkwasser und Luft, aber auch Kleidung, Wohnung, Siedlung, die Region und der Wohn-, Arbeits- und Erholungsraum haben Einfluss auf die Gesundheit von Gesellschaft, Familie und Individuum. In diesem Wirkungsgeflecht ist der Konsument Mensch gleichzeitig auch der Verursacher. An oberster Stelle des Umweltschutzes steht die Verbesserung der Lebensqualität, das soziale Wohlbefinden und die Gesundheit. Das ganze spielt sich ab zwischen Kosten, Risiko und Nutzen. Wichtig ist nun, den Bürger mit in die Problemlösung einzubeziehen. Und hier bieten sich vor allem Fragebögen an. Denn Fragebögen dienen nicht allein der Informationsgewinnung sondern auch der Informationsvermittlung. Außerdem kann man rasch und ohne viel Aufwand an die Bürger herantreten. Ein erstes Projekt in diese Richtung entstand im Zusammenhang mit dem Radon-Problem in den 80er Jahren. Auch in Zusammenarbeit mit der Bahn wurden und den sogenannten Ideenzügen wurde dieses Konzept schon erfolgreich ausprobiert. Denn dieses Projekt gibt die Möglichkeit in der Nachhaltigkeitsdebatte Information und Bewusstsein zu vermitteln. In Zukunft muss die Umweltbildung aber noch weiter optimiert werden. Es sollte eine effiziente Risikokommunikation ohne schädliche Nebenwirkungen entstehen. Diese Aufgabe ist nur interdisziplinär zu lösen.

Lösungswege III: Die gesellschaftliche Ebene - Potentiale für soziale Innovationen 

Die ETH-UNS-Fallstudien sind Projekte zur Förderung einer nachhaltigen Entwicklung in der Schweiz im Sinne der Agenda 21. Die Lehr-Forschungsprojekte des Departements Umweltnaturwissenschaften der Eidgenössischen Technischen Hochschule Zürich (ETH) basieren auf einer integralen Betrachtung der Umwelt und ihrer Systeme und beschäftigen sich mit realen komplexen Fällen. Etwa 200-300 Personen sind an den ETH-UNS Fallstudien beteiligt. Die Projektsteuerung der Studien wird von der eigens dafür eingerichteten Professur übernommen. Im Klettgau, eine Grenzregion zwischen Baden-Württemberg und der Schweiz, wurden 1997 und 1998 ETH-UNS-Fallstudien durchgeführt. Im Klettgau treten verschiedene Umweltprobleme auf. Auf so unterschiedlichen Gebieten wie dem Grundwasserschutz und dem Natur- und Landschaftsschutz sind Handlungsprogramme umzusetzen. Mit Hilfe der ETH-UNS -Fallstudie 1997 sollte ein unfassendes Bild der Situation entworfen werden. Im zweiten Teil sollten Konzepte erarbeitet werden, um vor allem die Grundwassersituation zu verbessern. Die Erarbeitung umfasste drei verschiedene Ebenen. Es wurde zwischen dem Fall, der Synthese und den wissenschaftlichen Teilprojekten unterschieden. Es ist geplant in einem kooperativen Prozess mit den Wissensträgern im Sinne eines 'mutual learning' ein nachhaltiger Forschungsprozess anzustoßen. Dieser transdiszipliner Projektcharakter wird durch folgende Instrumente der Kooperation erreicht: (a) Kooperation, (b) Beteiligung und Bewertung sowie (c) Information. Besonders letztere Punkt ist für das Gelingen von ETH-UNS-Fallstudien wesentlich. Daher hat jede Fallstudie auch eine Mediengruppe, die den Kontakt mit der Presse pflegt. Darüber hinaus entwickelte die ETH-UNS-Fallstudie eine eigenen Tradition des Nachhaltigkeitsmarketings. Ein Paradebeispiel für derart kundenorientiertes Vorgehen liefert u.a. ein Kochbuch, das mit einem Naturschutzordner kombiniert wurde. Ferner fördert die ETH-UNS-Fallstudie Nachhaltigkeit im Sinne eines sozialen Prozesses. Dazu befasste sie sich mit der Umnutzung eines innerstädtischen Industrieareals und entwickelte die Methodik der Raumnutzungsverhandlungen. Kernziel ist, dass die Hauptakteure eines Planungsprozesses einbezogen werden. Der Ablauf von Raumnutzungsverhandlungen ist 6-stufig und erweist sich als wichtiger Beitrag zur Versozialwissenschaftlichung der gesellschaftlichen und planerischen Praxis. In der Praxis werden unterschiedliche Planungsvarianten auf verschiedene Art beurteilt. Die teilweise computergestützte Analyse ergab, dass sich schon mit wenigen Kriterien eine zufriedenstellende Bewertung der Planungsvarianten erreichen ließ. Intuitive und systematische Bewertungen liefen allerdings nicht immer synchron.

Entwicklung einer Ökologischen Lern- und Arbeitskultur (456309)

Im Jahre 1997 nahm die Linzer Pädagogische Akademie an einer österreichischen Initiative zur Ökologisierung von Schulen teil. Kerngedanke der Initiative an der PA war, auch außerhalb der naturwissenschaftlichen Fächer einen Beitrag zur Ökologisierung zu leisten. Im Blickpunkt standen verstärkt materiell, räumliche, soziale und emotionale Fragestellungen. Studierende kritisierten die stark fachspezifische Ausrichtung, eine Vielzahl von Themen, die nur oberflächlich behandelt werden oder nur geringe Praxisrelevanz haben. Ferner gerieten u.a. auch die geringen Mitsprache- und Mitgestaltungsmöglichkeiten in die Kritik. Dass das Schulleben durch ständige Raumwechsel geprägt wird und die Lehrer dagegen im Sinne eines Schlossherren ihre festen Räume haben, wollten die Schüler ebenfalls nicht mehr akzeptieren, da durch die ständigen Raumwechsel sehr viel Zeit verloren geht. Ferner waren die nüchternen und kalten Räume selbst Stein des Anstoßes. Im Rahmen des vorgesehenen Projektunterrichts im Bereich der Erziehungswissenschaften arbeiteten die Studierenden und die Lehrenden an einer Verbesserung der räumlichen Situation. Schließlich bildeten sich Lehrerteams heraus, die die Entwicklung einer ökologischen Lern- und Arbeitskultur vorantreiben und auch die Lehrveranstaltungen inhaltlich und organisatorisch umgestalten wollten. Außerdem war eine neue Form der Leistungsbeurteilung Thema. Diese Arbeitsgruppe erreichte, dass der Studienplan der PA zugunsten projektorientierten Arbeitens umgestaltet wurde. Ein erstes Projekt war das Anlegen eines Schulgartens. Dadurch stieg die Identifikation mit der Gruppe und deren Zusammenhalt. Als Ergebnis fühlten sich die Studierenden in ihrem Gebäude wohler als zuvor. Ob die Ziele erreicht wurden, wurde außerdem anhand von Interviews und Fragebögen eruiert. Ein Effekt ist besonders hervorzuheben: Aufgrund der selbstgemachten Erfahrung wurde neben der Fähigkeit im Team zu arbeiten vielfältiges Wissen und mannigfaltige Fähigkeiten erworben.

Netzwerke für eine Ökologisierung der Informations- und Kommunikationstechnologien

1,7 Millionen Erwerbstätige sind zurzeit auf dem Gebiet der Informationstechnologie beschäftigt. Damit ist er der drittgrößte Beschäftigungssektor Deutschlands - und das bei besonders kurzlebigen Produkten. So fallen jährlich 1,5 Millionen Tonnen Elektronikschrott an. Zehn Prozent davon entfallen auf Computerteile oder Peripheriegeräte. 1994 startete der BUND zum ersten Mal eine Umfrage zum Umweltengagement der Computerhersteller. Grundlage war dabei ein Fragebogen. Führende IT-Unternehmen wurden mit dem BUND Fragebogen konfrontiert und ihre Antworten kritisch durchleuchtet. Das Umweltengagement der Unternehmen wurde in mehrere Kategorien eingestuft. Dabei wurden die Fragen von Jahr zu Jahr etwas abgewandelt. Im Ergebnis zeigte sich, dass die meisten Schadstoffemissionen und somit Umweltbelastungen durch die reine Herstellung verursacht werden. Es wurde klar, dass recyclinggerechte Konstruktionen gemäß den Richtlinien des Blauen Engels in allen Firmen Standart sind. Dagegen ist die Rückgabe der Altgeräte noch nicht überall geregelt. Ferner ist der Energieverbrauch bei vielen Geräten noch exorbitant. Viele Computerhersteller haben unter der Vorgabe teilweise fadenscheiniger Begründungen nicht an der Fragebogenaktion mitwirken wollen. Von 19 befragten PC-Herstellern haben nur sieben teilgenommen. Die Umwelt-Computerliste hatte in den fünf Jahren ihres Bestehens eine ungeheure Medienwirkung. Seit 1997 arbeitet der BUND eng mit dem Tastaturhersteller Cherry zusammen. Ziel ist die Entwicklung einer umweltfreundlichen Tastatur. Mit dieser Wirtschaftkooperation will der BUND erreichen, dass sich eine ökologische Wirtschafts- und Umweltpolitik durchsetzt. Ferner soll das 'image' vom BUND gefestigt werden. Andererseits setzt der BUND auch auf konfliktorientierte Strategien bei Unternehmen, die nicht umweltverträglich wirtschaften. Verstärkte Öffentlichkeitsarbeit soll diese Firmen unter Druck setzen und zum Einlenken bewegen.

Optimierung der Reinigungsleistung von Kleinkläranlagen

Schilf- und andere Sumpfpflanzen werden seit circa 15 Jahren im häuslichen, kommunalen und gewerblichen Bereich verstärkt zur Abwasserbehandlung eingesetzt. Einige Konstruktionen sind heute soweit ausgereift, dass sie die erforderlichen Kontrollwerte erbringen. Vorteile der Schilfanlagen bieten vor allem die hohe Flexibilität, die geringe Anfälligkeit, der niedrige Energiebedarf und die geringen Baukosten. Dabei ist das Schilf selbst nur wenig an den Abbauvorgängen beteiligt. Es schafft vielmehr nur das notwendige Milieu für Mikroorganismen, die den Schmutzstoffabbau vollziehen. Außerdem gewährt das Schilf die notwendige hydraulische Leitfähigkeit. Vorteile des Schilfs sind seine hohe Toleranz sowohl bezüglich der Feuchtebedingungen am Wuchsort als auch der hinsichtlich der Nährstoff- und Bodenverhältnisse. Die sehr sauerstoffarmen Verhältnisse zwingen die Pflanzen dazu Sauerstoff über die Halme aufzunehmen und über die Hohlräume in den Halmen den unterirdischen Organen zuzuführen. Aus den Wurzeln entweichen über das ganze Jahr hinweg kleine Mengen Sauerstoff, der zum Beispiel Schwefelwasserstoffe durch Oxidation entgiftet. Es gibt verschiedene Möglichkeiten den Sauerstoffeintrag durch Schilf zu optimieren - zum Beispiel durch Bau der Anlage an sonnigen Stellen. Auch durch Konvektion oder Diffusion kann der Sauerstoffeintrag erhöht werden. Diese Faktoren sind direkt abhängig von der flächenhaften Ausdehnung der Anlage. Für einen raschen Gasaustausch mit dem Substrat sorgt beispielsweise auch eine gleichmäßige Verteilung der Abwässer auf dem Beet. Mindestens genauso wichtig ist die Gewährleistung der Filterfunktion des Beetes, da die Schmutzstoffe vor allem beim Durchsickern dieses Trägermaterials abgebaut werden. Besonders beim Eintrag von hohen CSB-Konzentrationen besteht die Gefahr der Kolmation. D.h. es kann zu einer Selbstabdichtung des Biofilter kommen. Diese Verstopfungserscheinungen treten bei zwei bis drei Prozent der Anlagen besonders im Einlaufbereich auf. Problematisch beim Betrieb einer Schilfkläranlage bleibt der ungenügende Stickstoffabbau. Auch durch nachgeschaltete Horizontalbeete ist ein Abbau höherer Belastungen nur durch Zudosierung von Methanol möglich. Dagegen weisen Vertikalbeete mit ihrem hohen Sauerstoffeintrag auch relativ hohe Nitrifikationsraten auf. Optimierte technische Kleinkläranlagen sind die druckluftbelüfteten Tauchkörper, die Membran-Belebungsanlagen sowie die optimierten Tropfkörper- und die Aufstaubelebungsanlagen. Diese Anlagen weisen einen noch deutlich verbesserten N-Abbau gegenüber den Teichanlagen auf.

Immer mehr Erdgasfahrzeuge rollen auf der Straße

Weniger als 0,2 Prozent der weltweiten Fahrzeugflotte werden mit Erdgas angetrieben. Von diesen insgesamt 1,1 Millionen Erdgasfahrzeuge ist der überwiegende Teil, nämlich 1,1 Millionen, in Italien und Argentinien stationiert. In Deutschland sind zurzeit nur rund 7.500 erdgasbetriebene Fahrzeuge im Einsatz. Eine neue Image-Kampagne soll dieser innovativen Technik weiteren Auftrieb geben und die Bestandszahl auf 700.000 Fahrzeuge in den nächsten 15 Jahren ansteigen lassen. Die Kampagne wurde von der deutschen Gaswirtschaft und den Automobilherstellern BMW, Fiat, Ford, Volkswagen und Volvo Anfang des Jahres unter dem Motto 'Sparsam, Sicher, Sauber' ins Leben gerufen. Dabei zielt die Kampagne sowohl auf öffentliche und private Unternehmen als potentielle Betreiber von Erdgasfahrzeugen - wie zum Beispiel Kurierdienste, Paketdienste oder Pflegedienste. Diese Gruppen sollen über alle Entwicklungen dieser geräuscharmen, umweltschonenden und wirtschaftlichen Alternative auf dem Laufenden gehalten werden. Dazu steht eine homepage und eine Infoline zur Verfügung. Die Hauptzielgruppen sollen regelmäßig beispielsweise über die diverse Medien oder den Informationsdienst 'Das Erdgasfahrzeug' informiert werden. Gleichzeitig soll das Erdgasnetz weiter verdichtet werden. 300 bundesweite Betankungsmöglichkeiten sind in den nächsten fünf Jahren anvisiert. Auch die Entwicklung der Fahrzeuge schreitet voran. Vorbei sind die Zeiten mit zuwenig Stauraum. Zukünftig werden die Kraftstofftanks Unterflur gelegt. Auf Initiative des Bundesumweltministeriums sollen die Erdgasfahrzeuge in fünf Regionen ihre Praxistauglichkeit beweisen. Entscheidenden Anteil an einer flächendeckenden Markteinführung von Erdgas hat aber die 'Verkehrswirtschaftliche Energiestrategie' (VES). Die Initiative hat sich zum Ziel gesetzt zwei zukunftsfähige Kraftstoffe auszuwählen und für diese eine Energie-Infrastruktur zu erarbeiten. In der engeren Wahl stehen derzeit Erdgas, Methanol und Wasserstoff.

Leise Brücke

Jahrelang war die Wasserparkbrücke ein Ärgernis für Anwohner aber auch für die Besucher des Freibads 'Angelibad'. Bootfahren, Spazierengehen oder Herumsitzen in den vielen Lokalen war nicht möglich, ohne dass sie auf sich aufmerksam gemacht hätte. 'Der Lärm war so stark als wenn 1.000 Autos an einem vorbei fahren würden'. Die Konsequenz: Anrainer liefen Sturm und forderten zusammen mit der Umweltschutzabteilung eine baldige Sanierung der Stahlbrücke. Allerdings zeigte sich bald, dass die Schallsanierung der von vier Pendelstützen getragenen und in den 50er Jahren erbauten Brücke sehr kostspielig sein würde, wenn man den üblichen Weg der Sanierung beschreiten würde. Denn dann wäre der Einbau einer Wanne oder einer Schotterfahrbahn notwendig geworden. Das hätte Kosten von 20 Millionen Schilling verursacht. Die Beteiligten, ÖBB, die Wiener Umweltschutzabteilung und das Bundesministerium für Verkehrsinnovation und Technologie erwogen daher den Einsatz eines Verfahrens, das speziell für die Lärmsanierung von Stahlbrücken entwickelt wurde. Kernpunkt sind dabei die sogenannten Schallabsorber, die schon an der Zugspitzbahn erfolgreich eingesetzt wurden. Die nach dem Sandwichprinzip aufgebauten 'Schalldämpfer' wurden an den Längsträgern und dem Schienenfuß angebracht. Des weiteren wurden als Teil der Schallsanierung neue Schienen verlegt und die Schienenauszugsvorichtungen von der Brückenseite auf den Bahndamm verlegt. Mithilfe dieses Maßnahmenbündels wurde die Lärmbelastung um die Hälfte gesenkt - bei Gesamtkosten von gerade Mal 7 Millionen Schilling.

 Überlegungen für fachliche Voraussetzungen zu Freistellungen von Regenwassereinleitungen von der Erlaubnispflicht 

 Regenwasser kann in Schleswig-Holstein seit dem Jahr 2000 erlaubnisfrei eingeleitet werden, wenn bestimmte Anforderungen erfüllt werden. Um diese Anforderungen näher zu präzisieren, die in einer Landesverordnung festgelegt werden sollen, hat sich eine Projektgruppe gebildet. Vertreter von abwasserbeseitigungspflichtigen Körperschaften, von Wasserbehörden und Bodenschutzbehörden erarbeiten die fachlichen Kriterien, die zur Beseitigung des Regenwassers nötig sind. Diese ergeben sich aus den regionalen Anforderungen und den gesetzlichen Vorgaben. Bei dem vorhandenen Beseitigungsverfahrens für Regenwasser sind vor allem die Auswirkungen von Phosphor und Schwermetallen problematisch. Durch die Freistellung soll diese Immissionssituation nicht verschlechtert werden. So ist bei der Versickerung von Regenwasser in das Grundwasser vorgesehen die Flächenversiegelungen teilweise rückgängig zu machen. Die Reinigung des Regenwassers vollzieht sich dann im Oberboden, wobei ein bestimmter Flurabstand einzuhalten ist, um einen Mindestabbau zu gewährleisten. Örtlich können sich allerdings Mengenbegrenzungen ergeben durch die Bedingungen des ATV-Arbeitsblatt 138 und wenn das Regenwasser als anorganisch belastetes Abwasser eingestuft wird. Schadstoffe, die sich im Boden anreichern sind überwiegend Kupfer, Blei und Zink. Für die Einleitung in Fließgewässer sind sowohl hydraulische als auch stoffliche Auswirkungen zu beachten. Bei größeren Gewässereinzugsgebieten verliert die Einleitung von Regenwasser allerdings an Bedeutung. Die Zielvorgaben ergeben sich aus der LAWA und den Anforderungen der FMGVO. Für die direkte Einleitung in Seen kann eine Mengenbegrenzung entfallen. Da an vielen Badeseen aber der Hygiene genüge getan werden muss, ist die Einleitung in Seen nicht erlaubnisfrei zu stellen. Besonders problematisch: Die eingetragenen Schwermetalle lagern sich im Sediment der Seen ab und wirken als Schwermetallfallen. Küstengewässer sind endgültige Schadstoffsenken. In Schifffahrtsstraßen könnten durch die Einleitung Querströmungen hervorgerufen werden. Schadstoffbelastungen durch Regenwasser wirken sich besonders in der Flensburger-Binnenförde aus. Eine Verminderung des Phosphoreintrags lässt sich hier durch die Versickerung des überwiegenden Teils des Regenwassers erreichen.

Erdgas als Treibstoff in Hannover (461795)

 Erdgas als Treibstoff gerät durch die gegenwärtige Preissituation bei den Mineralölen immer mehr in Aufwind. Seit 1998 bietet sich durch das Förderprogramm für gewerblich genutzte Erd- und Biogasfahrzeuge in der Region Hannover die Anschaffung eines Fahrzeug mit leiser und umweltfreundlicher Erdgastechnik an. Verschiedene Fördermodelle sehen für Gewerbetreibende sowie Taxen und Fahrschulen die Inanspruchnahme von 30 Prozent der Anschaffungskosten vor. Die Förderung beträgt für letztere Gruppe bis zu 13.800 DM. Für den professionellen Start läuft seit langem ein gezieltes Marketing: So zum Beispiel Kundeninformationsveranstaltungen, Telefonmarketingaktionen, Rundfunk- und Fernsehbeiträge oder Internetauftritte. Seit dem Start der Kampagne hat sich der Bekanntheitsgrad und die Akzeptanz für Gas deutlich erhöht. Auch die Tankstellensituation hat sich entspannt. Das Netz von Tankstellen verdichtet sich und es werden durchschnittlich bis zu 260.000 kg Erdgas monatlich abgesetzt - 1995 waren es erst 26.000 kg. Auch die Technik hat sich verbessert. So gibt es jetzt durch die Unterflurtechnik keine Laderaumprobleme mehr und in punkto Wirtschaftlichkeit bieten die Erdgasfahrzeuge heute äußerst positive Betriebsergebnisse.

Sauberes Trinkwasser 

Das Aufgabengebiet des Zweckverbandes der Landeswasserversorgung (LW), der etwa drei Millionen Menschen mit Wasser versorgt, ist zuweilen recht komplex. So müssen beispielsweise Informationen bereitgestellt werden, um das Verbot eines Pflanzenschutzmittels durchzusetzen oder aber nach Bodenuntersuchungen müssen Nährstoffbilanzen ermittelt werden, um die Düngermenge für das optimale Wachstum von Pflanzen zu erhalten. Für die Informationsverarbeitung werden seit langem EDV Systeme eingesetzt, die auf bestimmte Aufgabengebiete spezifisch ausgerichtet sind. Thematische Abfragen, deren graphische Auswertung und die Kommunikation mit anderen Behörden sind allerdings recht aufwendig und mitunter nicht machbar. Ein GIS-System leistet in diesem Zusammenhang wichtige Hilfestellung, um das Gewässermonitoring als Ganzes zu betrachten. So können zum Beispiel landwirtschaftliche und wasserwirtschaftliche Daten miteinander verschnitten und ausgewertet werden. Neben komplexen Abfragen und besseren Möglichkeiten zur Visualisierung, war die Integration aller zuvor in verschiedenen Applikationen vorliegenden Daten eine Hauptanforderung des LW bei der GIS-Integration. Ferner sollte das System die an verschiedenen Messstellen erfassten Daten automatisch in Datenbanken einlesen. Gleichzeitig war gefordert, dass der vorher auf Basis von dbase ablaufende Datenaustausch mit dem chemischen Labor weiterhin gewährleistet wird. Wichtiges Kriterium war auch die Möglichkeit das GIS in anderen Abteilungen des LW einzusetzen. Ferner sollen alle Daten allen Mitarbeitern schnell und zeitnah zur Verfügung stehen. Zur Datenintegration mussten verschiedene Umsetzungen vorgenommen werden. So konnten einige Daten nur über den Umweg einer Oracle-Datenbank für den Einsatz in Geomedia nutzbar gemacht werden. Die realisierte Lösung erweist sich als leistungsstark und ist nach Bedarf erweiterbar.

 Vorbeugender Schallschutz im Wohnungsbau (461453)

  Lärm und Geräusche werden in unserer modernen Welt immer bedeutsamere Probleme. Und was den Menschen bei der Arbeit und auf dem Weg dorthin stresst, davor will er wenigstens zuhause seine Ruhe haben. Doch häufig ist der bauliche Schallschutz im eigenen Heim so mangelhaft, dass sich viele auch dort durch Lärm gestört fühlen. Dabei ist Schallschutz ein grundlegendes Qualitätsmerkmal eines Hauses und wichtiger Wohnaspekt . Eine Befragung ergab, dass 85 Prozent der Bevölkerung nicht bereit sind Kosteneinsparungen für den Schallschutz hinzunehmen. Und die Güte des Schallschutzes sollte immer auch mit der Qualität des übrigen Hauses in Einklang stehen. Das sagen zumindest deutsche Gerichte, die aus hochkarätigen Baubeschreibungen auch Ansprüche an den Schallschutz ableiten. Die bauaufsichtlichen Anforderungen an dem Schallschutz werden aus der DIN 4109 abgeleitet. Auch beim genormten Mindestschallschutz können Geräusche aus der Nachbarschaft immer noch wahrgenommen werden. Er verpflichtet daher auf gegenseitige Rücksichtnahme durch Lärmvermeidung. Ein Gemeinschaftsausschuss von NABau und NALS will nun ein mehrstufiges Bewertungssystem für den Schallschutz konzipieren. Die existierenden Regeln DIN 4109 und VDI 4100, die schon 3-stufig ausgelegt ist und zur vertraglichen Verabredung des Schallschutzes dient, sollen durch ein einziges Normenblatt ersetzt werden, dass den Schallschutz von Wohnungen deutlich verbessern soll - ein Anliegen das den Geldbeutel nicht über die Maßen strapazieren muss. Denn werden die bauakustischen Kriterien schon bei der Planung und Bauausführung beachtet, sind die Mindestanforderungen an den Schallschutz ohne weiteres zu übertreffen.

Lärmimmissionsschutz

 Lärm und Geräusche werden in unserer modernen Welt immer bedeutsamere Probleme. Immissionsschutz ist daher auch in der Bauleitplanung von großer Bedeutung. Denn Planer müssen zahlreiche Vorgaben beachten, die in etlichen Regelwerken enthalten sind. Urteile der bundesdeutschen Rechtssprechung zeigen, wie wichtig das Thema 'Lärmschutz im Bebauungsplan' ist und wie sehr der Planer in seinem Handlungsspielraum eingeengt ist. Die wichtigsten Rechtsgrundlagen liefert das Baugesetzbuch (BauGB) und das begleitende Regelwerk, die Baunutzungsverordnung (BauNV). Auf Grundlage des BauGB können zum Beispiel Lärmschutzwände oder das Dämmmaß für Gebäude-Fassaden festgelegt werden. Doch immer wieder sieht sich der Planer in einer Konfliktsituation zwischen flächenschonender und damit nachhaltiger Planung, gemäß den Leitzielen der Agenda 21, und den Immissionsschutz-Verordnungen. So ist es zum Beispiel nicht möglich ein neues Wohngebiet im Einwirkungsgebiet von Gewerbelärm auszuweisen, obwohl eine solche Gliederung und Feindifferenzierung im Bebauungsplan durchaus erwünscht wäre. Dem steht aber das BlmSchG und die TA-Lärm entgegen. Der Planer muss daher frühzeitig die den Immissionsschutz betreffenden Belange in seine Überlegungen einbeziehen, um eine umweltverträgliche und nachhaltige Raumordnung sicher zu stellen. Besonders zu beachten ist, dass (a) Gewerbegebiete und Industriegebiete nicht an exponierter Stelle ausgewiesen werden, dass (b) schutzbedürftige Räume erstellt werden, und dass (c) durch die räumliche Zusammenfassung von Schallquellen effektive und kostengünstige Schallschutzmaßnahmen ermöglicht werden. 

Lärmschutz im Schienenverkehr

Lärm und Geräusche werden in unserer modernen Welt immer bedeutsamere Probleme, denn Lärm insbesondere Verkehrslärm ist gesundheitsgefährdend. So kann schon eine ständige Belastungen über 65 dB (A) ein erhöhtes Gesundheitsrisiko für das Herz-Kreislauf-System bedeuten. Und die Lärmbelastungen sind hierzulande so erheblich, dass zum Beispiel in den alten Bundesländern etwa 8,5 Millionen Bürger bei geschlossenen Schallschutzfenstern schlafen müssen. Eine Minderung des Verkehrslärms ist daher dringend erforderlich. Das fordert zumindest der Deutsche Städtetag. Er kritisiert, dass an entscheidenden Stellen die gesetzlichen Grundlagen fehlen, die eine effektive Lärmminderung und -sanierung ermöglichen. Ferner mangelt es an politischen Schwerpunktsetzungen, die eine Finanzierung des Verkehrslärmschutz erst gestatten würde. Bis heute stand bei der Verkehrspolitik der Straßenverkehr im Blickpunkt der Politik. Dadurch sind im Bereich Schiene Investitionsdefizite entstanden, die nur schwer wieder aufzuholen sind. Da zurzeit Aufgaben wie der Streckenschutz im Vordergrund stehen, wird das Problem Lärmschutz bei der Bahn wohl in naher Zukunft nicht gelöst werden können, obwohl zahlreiche kostengünstige Lärmminderungsmöglichkeiten zur Verfügung stehen. So können Rollgeräusche durch schallabsorbierende Klemmringe an den Fahrwerken der Waggons günstig vermindert werden. Auch schallschluckende Schürzen oder der Einsatz von Kunststoffbremsklötzen sind denkbar. Haupthinderungsgrund für eine Lärmsanierung bleibt aber die Finanzierung. Darüber hinaus kommt es durch die heutige unsichere Rechtslage immer wieder zu Konflikten zwischen Kommunen, Bürgern und der DB AG. Dies betrifft vor allem Streitigkeiten bei Streckenänderungen und den damit in Zusammenhang stehenden Lärmschutzmaßnahmen. Alles in allem bleibt das Lärmproblem daher ungelöst und es sind politische Weichenstellungen gefragt, gerade auch um den Forderungen der Agenda 21 genüge zu tun.

Neuster Stand der EDTA-Erklärung 

Die Aminopolycarbonsäure EDTA bildet mit Metallionen stabile wasserlösliche Komplexe, die dadurch ihre typischen Eigenschaften verlieren und so genannte Chelate bilden. In Europa produzieren pro Jahr acht Firmen 32.740 Tonnen. Auch in Deutschland ist ein steigender Absatz von EDTA zu beobachten. Hierzulande werden jährlich über 3.000 Tonnen verkauft und in den unterschiedlichsten Industrien weiterverarbeitet. Die Verwendung von EDTA ist vielfältig und reicht von der Produktion für Haarfärbemitteln über die Zellstoffherstellung bis zum Einsatz in der Milch- und Photoindustrie. Hauptabnehmer ist die Waschmittelindustrie. Der Einsatz und die Entsorgung von EDTA ist ökologisch gesehen allerdings nicht ganz unbedenklich. So kann es die Behandlung von Abwässern behindern, indem Flockungs- und Fällungsprozesse beeinträchtigt werden. Das Resultat: Schwermetalle werden durch die Abwasserbehandlungsanlagen geschleust und gelangen unbehandelt in die Oberflächengewässer. Die geringe Abbaubarkeit von EDTA ist seit Ende der 80er Jahre bekannt. Sie wird kontinuierlich an repräsentativen Stellen der großen Fließgewässer gemessen und in den EDTA-Gesprächen, die seit 1991 abgehalten werden, dokumentiert. Ziel der damals von Vertretern der Industrie, von Verbänden der Wasserwirtschaft und den Bundesministerien für Umwelt, Forschung und Gesundheit unterzeichneten Erklärung war es, innerhalb von fünf Jahren die Belastungen der oberirdischen Gewässer durch EDTA zu halbieren. Die Fachgespräche zeigten, dass es in diesem Zeitraum zu einer Minderung von gerade mal 35 Prozent gekommen ist. Um den Rückgang zu beschleunigen, wurden weitere Industrieverbände in die Gespräche mit einbezogen. Ein Schritt in Richtung Reduzierung sind auch die Selbstverpflichtungen der Photoindustrie. Sie setzen in Zukunft verstärkt Ersatzstoffe ein. Trotz dieser Bemühungen und Fortschritte ist eine Verlängerung der EDTA-Erklärung notwendig und soll bis Ende 2001 beschlossen sein. Nur so kann das Ziel einer 50-prozentigen Minderung von EDTA in den Oberflächengewässern erreicht werden.

Boden- und Grundwasserhygiene

Zentrales Anliegen der Boden- und Grundwasserhygiene ist der Gesundheitsschutz des Menschen. Im Vordergrund der Forschung stehen die engen Wechselwirkung zwischen Boden- und Grundwasser sowie deren humanpathogenen Effekte. Stoffliche, standort- und klimabezogene Parameter sind in diesem Zusammenhang von besonderer Bedeutung. Belastungen des Bodens, die beispielsweise durch die Landwirtschaft oder die Abfallwirtschaft hervorgerufen werden, können über das Dreiphasensystem Boden (fest, flüssig, gasförmig) mit dem Grundwasser in Verbindung treten und seine Qualität beeinträchtigen. Durch kapillaren Aufstieg können aber auch umgekehrt schädliche Stoffe in den Oberboden aufsteigen. Die Prozesse und Schadstoffverlagerungen im Boden sind vielfältig. Sie werden durch die Stoffeigenschaften des Bodens und die chemischen Eigenschaften der Schadstoffe bestimmt. Dabei wird zwischen den beabsichtigten und den unbeabsichtigten Schadstoffeinträgen unterschieden. Schadstoffe sind nicht nur organischer und anorganischer Natur. Auch humanpathogene Organismen und Arzneimittel können problematisch sein. I.d.R. ergeben sich Grundwasserbelastungen aus Bodenbelastungen. Besteht Kontaminationsverdacht ist eine Risikoanalyse daher zunächst für den Boden vorzunehmen. Im Institut für Wasser-, Boden- und Lufthygiene wurde ein Bewertungsverfahren erarbeitet, dass vom Prinzip her auf alle Schadstoffszenarien anwendbar ist. Grundlage für die Risikobewertung ist eine erste Vorrecherche sowie die Ermittlung der Stoffkonzentration im Boden und die Bewertung der Stofftoxizitäten. Falls eine Humanexposition besteht, ist zu prüfen ob eine Nutzung erfolgt. In diesem Fall müssen standortspezifische, nutzungs- und schutzgutspezifische Risikowerte abgeleitet werden. Am Beispiel von Schwermetallen wird erläutert, wie mobile Anteile zur Beurteilung von Schadensfällen berücksichtigt werden und welche Standorteigenschaften dem Modell als Eingangsgrößen dienen. Der vorgestellte Modellansatz ist auch für organische Schadstoffe anwendbar und verzahnt die verschiedenen Problemfelder der Landwirtschaft, der industriellen Produktion und der Infrastruktur. Dadurch wird deutlich wie wichtig ein gemeinsamer und flächendeckender Boden- und Grundwasserschutz ist.

Elemente moderner Naturschutzpolitik 

Seit seinem Bestehen ist das Naturschutzrecht in ständiger Bewegung und Entwicklung. Leider wird es immer noch nicht als mit anderen Politikfeldern gleichwertig erachtet. Daher braucht Naturschutz dringend eine stärkere Lobby. Voraussetzung dafür ist eine professionelle Informations- und Kommunikationsstruktur, damit die gesellschaftlichen Kräfte stärker gebündelt werden. Ein weiterer Ansatzpunkt zu mehr Akzeptanz ist die Umweltbildung. Hier liegt der Grundstein zu einer nationalen Nachhaltigkeitsstrategie und damit auch für den Naturschutz. Eine unserer langjährigen Forderungen ist die Novellierung des Bundesnaturschutzgesetzes. Naturschutz ist nicht nur für ökonomisch uninteressante Restflächen sondern ganzheitlich anzuwenden. Daher müssen Definitionen und Zielvorgaben im Bundesnaturschutzgesetz modifiziert, Mitwirkungsrechte gestärkt und die Landschaftsplanung als Instrument des Naturschutzes ausgebaut werden. Auch ist der Verkauf bundeseigener Liegenschaften gerade in Naturschutzgebieten zu stoppen und das Engagement für den Naturschutz allgemein zu erhöhen. Aber auch in Zukunft soll die Finanzierung von Naturschutz nicht den Bauern, Fischern und Forstwirten aufgebürdet werden - eine Überarbeitung des Vertragsnaturschutzes ist aber dringlich. Denn der Ausgleich für Leistungen im Naturschutz ist zwar notwendig, doch der Vertragsnaturschutz stellt nur einen kleinen Teil der Regulierungsmöglichkeiten dar und darf daher nicht zu sehr ins Zentrum der Naturschutzpraxis gerückt werden. Das ist insofern auch nicht gerechtfertigt, da der gesetzgebende Bund sich an diesen Zahlungen nicht beteiligt. Viele neue Perspektiven und Möglichkeiten würden sich darüber hinaus aus einer veränderten Regionalpolitik ergeben. Durch eine Stärkung der örtlichen Wirtschaftskraft sowie der naturschutzbetonten Raumordnungs-, Landschafts-, und Flächennutzungsplanungen kann eine nachhaltige Entwicklung vor Ort verwirklicht werden. Naturschutzpolitik ist eine Quersumme aus den unterschiedlichsten Bereichen und bedarf einer abgestimmten Politik. Dadurch und durch eine neue gesellschaftliche Wertediskussion ließen sich Feindbilder und Berührungsängste abbauen und die Akzeptanz für den Naturschutz erhöhen.

Die Veränderungen der abiotischen Standortfaktoren während und nach dem Abbau von Braunkohle in der Lausitz und ihre Folgen für Weiterbesiedlung und Nutzung 

Lausitz bedeutet soviel wie Sumpflandschaft. Hier im von Eiszeiten geprägten Nordosten Deutschlands wird seit gut 150 Jahren Braunkohle abgebaut. Braunkohle, die einen wesentlichen Beitrag zur industriellen Entwicklung leistete und noch heute eine sehr wichtige Energiequelle ist. Doch sind in der Lausitz nur verhältnismäßig geringmächtige Flöze von etwa 10 m Mächtigkeit vorhanden, so dass für die Förderung von Kohle sehr viel Land in Anspruch genommen wurde und wird. Im Tagebaubetrieb erfordert die Förderung der Braunkohle aber nicht nur die Beseitigung des Deckgebirges sondern auch die Absenkung des Grundwasserspiegels. Die Entwässerungswirkung geht dabei weit über das Abbaugebiet hinaus. Schon früh wurden in Deutschland gesetzliche Regelungen und Planverfahren eingeführt, um einen umwelt- und sozialverträglichen Braunkohlebergbau zu gestatten. Dies war auch notwendig, da die Rohstoffförderung komplexe Eingriffe und Wirkungen auf das Landschaftsbild zur Folge hatte. Heute ist die Genehmigung eines Braunkohletagebaus mit strengen Auflagen verbunden. Hauptaugenmerk liegt dabei auf der Wiedernutzbarmachung. Die Qualität der Kippsubstrate, die Reliefgestaltung, die geotechnische Sicherheit aber auch die Regulierung des Wasserhaushalts sind Fragen, die es zu klären gilt. Ferner ist die Eingliederung der neuen Landschaft in das Umfeld ein wichtiger Aspekt, den es bei der Wiederbesiedlung und Benutzung ehemaliger Braunkohlereviere zu bedenken gilt. In den letzten Jahren sind in der Lausitz hochwertige Folgelandschaften entstanden, die den Vergleich mit den natürlichen Standort nicht zu scheuen braucht.

 Vegetationsstruktur und -dynamik auf ehemaligen Bergbaustandorten

Durch die Renaturierung der Bergbaufolgelandschaften werden vollkommen neue Artenkombinationen entstehen. Diese Vegetationstypen werden nur noch sehr wenig mit der ursprünglichen Vegetation gemein haben. Die Klimaxvegetation werden in einigen hundert Jahren Wälder sein. Da die Besiedlung auf den tertiären und quartären Böden eng mit den Substrateigenschaften in Beziehung steht, werden besonders Ubiquisten vorherrschen. Eine Fallstudie, die die Floren- und Vegetationsentwicklung im Südraum von Leipzig thematisiert, zeigt, dass dort besonders viele Arten vorkommen, die sich durch den Wind verbreiten. In den überwiegenden Fällen sind diese Arten durch ihr indifferentes Verhalten und einer weiten ökologischen Amplitude (d.h. eine große Nischenbreite) gegenüber zahlreichen Umweltfaktoren ausgezeichnet. Ferner haben sich klare Korrelationen zwischen der Häufigkeit der Arten in der Bergbaufolgelandschaft und in den umgebenden Kulturlandschaften herausgestellt. Wesentliches Merkmal der Bergbaufolgelandschaften ist jedoch seine hohe Dynamik, so dass in Zukunft der Prozessschutz ein wesentliches Ziel des Naturschutzes sein sollte. Bergrecht und aktuelle Rekultivierungsmaßnahmen setzen dem aber sehr enge Grenzen. Prinzipien und Hypothesen der Vegetationsentwicklungen werden am Beispiel der Floren zweier ehemaliger Tagebaugebiete erläutert.

 Forstliche Rekultivierung im Lausitzer Braunkohlerevier

Deutschland ist weltweit der größte Produzent von Braunkohle im Tagebauverfahren. Aus dieser gigantischen Abbauleistung resultiert aber gleichzeitig auch die Notwendigkeit der Wiederherstellung und Rekultivierung der Tagebaufolgelandschaften. Dadurch das die quartären und tertiären Abraummassen des Deckgebirges auf den ausgekohlten Flächen wieder verstürzt werden, kann es aber zu Problemen bei der Wiederaufforstung kommen. Denn mit den aus dem Liegenden geförderten tertiären Substanzen gelangt nicht nur Kohle sondern in großem Rahmen auch Eisensulfide an die Erdoberfläche. Durch diese Technik kam es in der Vergangenheit immer wieder zu einer gesteigerten Versauerung mit pH-Werten bis unter 2,0. So gelangten diese kulturfeindlichen Schichten bis 1990 auf einen Großteil der Tagebauflächen als Abschlussschicht. Gegenwärtig werden im Niederlausitzer Braunkohlerevier keine schwefel- und kohlehaltigen Substrate mehr an der Oberfläche verkippt. Da die dominierende Vegetationsform im Bereich der Lausitz Wald ist, streben Planer im Zuge der Rekultivierung seit langem nach einer Wiederaufforstung. Praxisorientierte Forschungsvorhaben gaben den Anstoß zur Entwicklung von Verfahren, die den Anbau von Forstgehölzen auch auf kulturfeindlichen Substraten erlaubt. Ob die Wälder auch langfristig überdauern, war allerdings bislang unbekannt. Die Deutsche Forschungsgemeinschaft förderte über fünf Jahre ein vielfältiges Grundlagenforschungsprojekt, das an der BTU Cottbus durchgeführt wurde. Hauptaugenmerk der Untersuchungen lag auf den Kippenforstökosystemen, aus denen aktuelle Ergebnisse vorgestellt werden.

  Grundwasserabsenkung und Erhalt von Feuchtgebieten im rheinischen Braunkohlerevier

Im rheinischen Braunkohlerevier wird Grundwasser bis zu 500 m abgesenkt, um im Tagebau Kohle zu gewinnen. Im Einflussbereich der Absenkung liegen wertvolle Feuchtgebiete, die vom Grundwasser abhängig sind. Um Schaden von diesen Biotopen abzuwenden, sind mehrere Lösungswege gangbar. In einem ersten Schritt sollten die Feuchtgebiete klassifiziert werden. Dabei sind Faktoren wie Flora, Fauna, Vernetzung, Wasserqualität und Natürlichkeit ausschlaggebend für die Beurteilung bzw. die Benotung und zur Ableitung von Prioritäten. Schließlich sind zum Schutz der Feuchtgebiete ökologische und technische Ansätze zu verwirklichen. Versickerungsschlitze und -brunnen sind so zu planen, so dass sie einen optimalen Abstand zu wertvollen Feuchtgebieten haben. Ferner muss die Verträglichkeit des Sickerwassers mit dem Feuchtgebiet sichergestellt werden. Denn durch die Versickerung gelangt Wasser 'fremder' Zusammensetzung in die Feuchtgebiete. Bei den komplexen Zusammenhängen, die in solch einem Ökosystem herrschen, kann sich diese Änderung möglicherweise auch auf das gesamte System auswirken. Gleichzeitig stellt sich jedoch die Frage, wie lange die Versickerungsmaßnahmen anhalten sollen. Denn der Tagebau greift meist so massiv in den Wasserhaushalt ein, dass nach dem Bergbau völlig andere wasserwirtschaftliche Verhältnisse herrschen als danach. Erfahrungen mit Versickerungs- und Überwachungssystemen zeigen aber, dass die technischen Anlagen grundsätzlich funktionieren und dass die Grundwasserstände erhalten werden können.

Wärmebrücke Fenster

 Für Wärmeschutzfenster gilt in Deutschland seit 1994 ein besonders hoher Standart. Doch nur ein geringer Teil der Wohnungen ist bislang mit diesen Fenstern neuerer Bauart ausgerüstet. Dies betrifft besonders Ostdeutschland. Dabei sind gerade bei Fenstern noch erhebliche Energiesparpotentiale möglich. Ein Studie des Prüfinstituts für Bauelemente in Pirmasens (PIB) beziffert die möglichen Einsparungen auf bis zu 55 Mrd. Kilowattstunden in Deutschland. Das entspricht der Leistung von neun Großkraftwerken oder 8 Mrd. DM. Legt man darüber hinaus den Wärmeschutz für Energiesparhäuser zugrunde erhöht sich das Energiesparpotential noch einmal deutlich. Allein in Westeuropa können durch den Einbau von Wärmeschutzfenster etwa 193 Mrd. kWh eingespart werden. Die günstigste Variante ist dabei der Einbau von PVC-Fenstern und Profilen. Diese eignen sich auch zur Altbausanierung und zeichnen sich besonders durch Langlebigkeit, Wartungsfreiheit, Witterungsbeständigkeit und Recyclingfähigkeit aus .

Geothermische Potentialstudie

In Dortmund und Schwerte entsteht gegenwärtig die weltweit größte Wohnsiedlung, die mittels Erdwärme beheizt wird. Darüber hinaus hat die Landesregierung von Nordrhein-Westfalen weitere Projekte zur Nutzung von Erdwärme ins Leben gerufen, die mit mehreren Millionen Mark gefördert werden. Besonders vorteilhaft an dieser Technik ist, dass die Erdwärme (Geothermie) unabhängig von Klima und Jahreszeit zur Verfügung steht. Mit zunehmender Tiefe erhöht sich die Temperatur - pro 100 m um durchschnittlich drei Grad Celsius. Durch Erdwärmesonden lassen sich auch die relativ niedrigen Temperaturen in den erdnahen Schichten nutzen. Dazu wird ein Kunststoff-Röhrensystem eingesetzt, in dem ein Wasser-Frostschutz-Gemisch zirkuliert der dem Boden Wärme entzieht. Über eine Wärmepumpe lässt sich das Gemisch auf die Gebrauchstemperatur einer Fußbodenheizung erhöhen. Allerdings setzt die optimale Planung einer Erdwärmesondenanlage genaue Kenntnisse des Untergrundes voraus. Daten dieser Art stehen beim Geologischen Dienst Nordrhein-Westfalen zur Verfügung. Diese Daten sind Ausgangspunkt der geothermischen Potenzialstudie, die sich der Nutzung von Erdwärme mittels Sonden bis 100 m Tiefe verschrieben hat. Geologische und hydrologische Daten sowie die tiefenabhängige Temperaturverteilung sind dabei die Kernpunkte der Studie. Als Kartenwerk zusammengefasst, sollen sie schnelle Orientierungshilfe bei der Erschließung der tiefengeothermischen Ressourcen geben.

 Zur Bewertung von MVOC-Messungen im praktischen Einsatz 

Mikrobielle Schäden in Wohnräumen können zu massiven gesundheitlichen Schäden führen. Für die Beschwerden sind allerdings nicht nur die in der Luft messbaren Sporen verantwortlich. Die Erfahrung lehrt, dass es auch zu gesundheitlichen Beeinträchtigungen kommen kann wenn der mikrobielle Schaden versteckt besteht und keine Luftkeimbelastung vorliegt. Diese gasförmigen mikrobiellen Emissionen, die sogenannten MVOC (Microbial Volatile Organic Compounds), konnten von schwedischen Fachleute mit Erfolg in der Luft gemessen werden. Dazu wird Luft über ein Sammelmedium wie zum Beispiel Aktivkohle gezogen. Dieses absorbiert MVOC. Nach Desorption im Labor werden die einzelnen Substanzen dann chemisch analysiert und quantifiziert. Dabei bedient man sich eines Gaschromatographen. Die Messung geschieht nach längerer Lüftung im geschlossenen Raum. Vergleichsmessungen zeigen, dass die MVCO-Messungen reproduzierbar sind. Allerdings war bislang nicht immer klar, ob MVOC spezifisch für einen mikrobiellen Befund ist oder ob andere Naturprodukte für das Messergebnis verantwortlich zeichnen. Die Auswertung von über 500 MVOC Raumluftmessungen, bei denen nachfolgend Spürhunde eingesetzt wurden, zeigt aber, dass die Messungen mit hoher Wahrscheinlichkeit das Wachstum von Mikroorganismen indizieren. Die Untersuchungen machten darüber hinaus deutlich, dass die Grundbelastung in Wohnungen regelmäßig höher ist als in der Außenluft. In Wohnungen mit unhygienischen Zuständen stieg die MVOC-Gesamtkonzentration noch einmal deutlich an. Um Verfälschungen der Messungen zu erreichen, ist sicherzustellen, dass vor und während der Messung nicht gekocht oder gebacken wird, da zum Beispiel Hefepilze das Ergebnis beeinflussen können. Auch frisches Holz kann zu erhöhten Konzentrationen führen. Bei einem mikrobiellen Befall des Gebäudes sollte die Quelle gesucht werden. Feuchtigkeitsmessungen und der Einsatz eines Spürhundes können die Suche nach dem mikrobiellen Schaden unterstützen.

 Das Langzeit-Verhalten von Wärmedämm-Verbundsystemen

 Die Aufstockung von Altbauten oder die Fassadenrenovierung sind optimale Zeitpunkte für die Anbringung eines Wärmedämm-Verbundsystems. WDV-Systeme bestehen hauptsächlich aus Fassadendämmplatten, die aus Styropor oder Mineralwolle gefertigt sind. Diese werden entweder mit einem Kleber auf die Fassade aufgebracht oder aber auch verdübelt. Ein Abschlagen des alten Putzes wird daher nicht erforderlich. Auf einem Armierungsgewebe kann dann eine Endbeschichtung aufgebracht werden. Dazu stehen diverse Dekorputze zur Verfügung. Durch den Aufbau der kostengünstigen WDV-Systeme lassen sich sehr gute Energieeinsparungen erzielen. Befragungen von Bewohnern und die Ermittlung des Heizenergie-Verbrauchs bestätigen das. Die Mehrzahl der Häuser hat den Beanspruchungen durch Wind und Wetter über 20 Jahre standgehalten, ohne dass eine besonders aufwändige Sanierung durchgeführt werden musste. Das ergeben Untersuchungen des Instituts für Bauphysik der Fraunhofer Gesellschaft. Auch das Institut für Bauforschung hat ähnliche Untersuchungen an Wohnhäusern durchgeführt, die überwiegend in den 50er bis 70er Jahren erbaut wurden. Außer der erhöhten Wärmedämmung schützen die preiswerten WDV-Systeme vor der Witterung, verbessern die Bausubstanz und das Raumklima. Sie schaffen dadurch gute Bedingungen für ein gesundes Wohnen, denn durch die Wärmedämmung wird gerade auch der Schimmelbefall an den Innenwänden vermieden.

 10 Jahre Passivhaus in Darmstadt-Kranichstein

'Kaum das wir mal geheizt haben'. So die gängige Antwort von Passivhausbewohnern nach einem harten Winter. In Deutschland wurde das erste Passivhaus vor gerade mal zehn Jahren errichtet. Inzwischen existiert schon die zweite Generation. Passivhäuser weisen einen extrem geringen Wärmebedarf auf. Es wird daher auch fast keine aktive Heizung mehr benötigt. Das erste Passivhaus, ein Wohnhaus für vier Familien, entstand in Kranichstein. Die Mehrkosten beim Bau wurden vom Hessischen Umweltministerium zu 50 Prozent gefördert. Auch beim Bau in Kranichstein lagen die Prioritäten auf den Aspekten Wärmebewahrung, Wärmeschutz und Wärmerückgewinnung. Teil des Konzepts sind darüber hinaus Sonnenkollektoren sowie Erdreichwärmetauscher. In diesem ersten Passivhausprojekt, das nur unter Verwendung vorhandener Technik erstellt wurde, riskierte man noch nicht auf eine traditionelle Heizung zu verzichten. Aber schon in diesem ersten Passivhaus lagen die Verbrauchskosten bei unter zehn Prozent einer Vergleichswohnung. Und im Winter 1994 bis 1996 war es in einer Wohneinheit sogar möglich völlig ohne Heizung zu wohnen. Auch der Stromverbrauch ließ sich deutlich senken. Herzstück eines Passivhauses ist dabei die kontrollierte Be- und Entlüftung, die mit einer hocheffizienten Wärmerückgewinnung gekoppelt ist. Die nächste Generation von Passivhäusern soll nun deutlich kostengünstiger werden. Schon jetzt sind die baulichen Mehrkosten für Passivhäuser um den Faktor 7 gefallen.

Passivhäuser - Energiebilanz und Nutzerverhalten

Im Sommer des vergangenen Jahres wurden auf dem einstigen Kasernengelände Marbachshöhe in Kassel zum ersten Mal in Passivhaus-Technologie errichtete Geschosswohnungsbauten bezogen. Die Wohneinheiten dienen seitdem 'normalen' Mietern als Wohnraum. Ökologisch engagierte Bewohner waren nicht unbedingt Zielgruppe der Architekten. Eine Untersuchung der Gesamthochschule Kassel gab nun Aufschluss über die Akzeptanz dieser 'anonymen' Mietklientel. Es zeigte sich, dass die überwiegende Anzahl der Mieter mit den Wohnungen zufrieden sind. Auch die anfänglich gehegte Sorge, dass die veränderten Anforderungen an das Lüftungsverhalten zu Problemen führen könnten, haben sich nicht bestätigt. Die Wohnungen sind unterschiedlich orientiert. Optimierte Fensteröffnungen gewährleisten einen sommerlichen Wärmeschutz. Die Kosten für den Bau hielten sich trotz der energetischen Optimierung der Wohneinheiten im Rahmen der Grenzen des sozialen Wohnungsbaus. Dabei wurde klar, dass die Architektenhäuser durchaus neue Gestaltungsmöglichkeiten eröffnen. Für die Architekten sind die außergewöhnlichen technischen Besonderheiten eine besondere Herausforderung. Planungsfreiheit, Konstruktion und Materialwahl sind dabei Aspekte, die immer wieder gesteigerter Aufmerksamkeit bedurften. Dennoch erweist es sich nun, dass auch im Geschossbau ohne zusätzliche Förderung, wirtschaftlich Passivhäuser erbaut werden können.

Bioäpfel - besser und gesünder?

Bioprodukte werden größtenteils in der Hoffnung gekauft, dass diese Produkte wirklich gesünder sind. Gesundheitsfördernde Pflanzeninhaltsstoffe wie phenolische Verbindungen, Vitamin C oder Selen sind auch beim Apfel bekannt. Eine an der FiBL durchgeführte Vergleichsstudie sollte klären, ob Äpfel aus biologischer Produktion wirklich gesünder sind als Äpfel aus integrierten Pflanzungen. In fünf Ortschaften wurden jeweils zwei Golden-Delicious-Apfel Produzenten in die Untersuchung aufgenommen. Die Qualitätsmessungen umfassten das Fruchtgewicht, die Fruchtfleischfestigkeit, den Zuckergehalt, den Mineralstoffgehalt und den Apfelsäuregehalt. Ferner wurden die Äpfel auf ihre gesundheitsrelevante Inhaltsstoffe beprobt. Auch die sensorische Qualität der Äpfel war gefragt. Aber nicht nur menschliche Verkoster beurteilten die geschmackliche Qualität der Äpfel. 20 Laborratten labten sich ebenfalls an den Fruchtstückchen. Darüber hinaus wurden bildschaffende Methoden und Zersetzungsversuche angewendet. Die Ergebnisse zeigten, dass die ökologischen Äpfel den integrierten hinsichtlich Fruchtqualität zumindest ebenbürtig sind. Deutlich überlegen waren die 'Bioäpfel' aber hinsichtlich ernährungsphysiologisch bedeutsamer Antioxidantien. Für die Qualitätsbildung ausschlaggebend, scheint der Phosphorgehalt der Früchte gewesen zu sein. Allerdings sind die Zusammenhänge, die zu solch erhöhten Werten führen, noch unklar.

 Fauna und Flora am Salzburg Airport

Am Airport Salzburg wurde vor kurzem ein beispielhaftes Umwelt-Managementsystem integriert. Kernpunkt ist die umfangreiche und lückenlose Dokumentation der Fachgebiete Fluglärm, Luft. Boden und Grundwasser. Mit der vorliegenden Studie liegt nunmehr umfassendes Datenmaterial über Flora und Fauna am Airport vor - ein Muss für einen modernen Großflughafen. Denn Natur- und Umweltschutz sind heutzutage auch von einem Airport nicht mehr weg zu denken. Und erst das Wissen um die ökologischen Verhältnisse erlaubt es nachteilige Einflüsse zu reduzieren und naturräumliche Potentiale zu entwickeln. Federführend für die 'Umweltstudie Salzburg Airport' war das Ökoteam Graz. Bislang wurden 133 Pflanzenarten auf dem Flughafengelände dokumentiert. Auf Grund der reichhaltigen Vegetation wird der Streckenabschnitt an den Uferböschungen der Glan sogar heute als bedeutsam eingestuft. Hier findet zum Beispiel die Ringelnatter noch 'ungestörte' Ruheplätze. Die Dokumentation zeigt darüber hinaus, dass sich auf dem Flughafengelände auch noch viele andere, zum Teil recht seltene Tiere tummeln. So ist hier noch der Feldhase heimisch, der in anderen Teilen Österreichs als potentiell gefährdet gilt. Der Einsatz eines einfachen Keschers erwies sich beim Nachweis von Insekten und Spinnentieren als überaus nützlich. Allerdings sind durch die Regulierung der Glan viele Nischen verloren gegangen. So sollten im Zuge einer Renaturierung auch die ehemaligen Gehölzstrukturen wieder erstehen, um damit die Ansiedlung ursprünglich vorhandener Arten zu ermöglichen.

Neue Landschaften im Ruhrgebiet: Entwicklungen auf ehemaligen Montanstandorten

  Die Stahlbramme auf dem Haldentopp überragt die sonst flache Landschaft. Das weit sichtbare Zeichen des amerikanischen Künstlers Sierra ist 15 m hoch, 15 cm dick und 4,5 m breit und noch von Bottrop aus gut zu erkennen. Schon in der Vergangenheit wurden die nicht mehr benötigten Halden in die Landschaftsentwicklung integriert. Die erste Generation waren noch Spitzkegel, die nahe den Produktionsstätten angeschüttet wurden. Die zweite: Tafelberge, die schließlich zu Landschaftsbauwerken weiterentwickelt wurden und nun als komplexe Strukturen Anschluss an die umliegenden Landschaften finden. Auch um die im Zusammenhang mit dem Bergbau entstandenen Absenkungen kümmern sich die Landschaftsplaner. Denn diese sind immerhin bis zu 6 m tief und können zu bautechnischen Problemen führen. Fraglich ist, ob die durch die Geländevertiefungen notwendig gewordenen Grundwasserregulierungen wieder rückgängig gemacht werden sollen - sind doch in der Zwischenzeit künstliche Feuchtbiotope entstanden, die das Landschaftsbild an einigen Stellen abrunden. Beispielhaft für den Strukturwandel im Ruhrgebiet ist das Projekt Prosper III, das unter Beteiligung der RAG Aktiengesellschaft entstand. Es ist eines der ersten Projekte in Deutschland, das im Rahmen einer Private-Public-Partnership entwickelt wurde. Prosper III war von 1906 bis 1981 in Betrieb. Mit Einstellung des Betriebes und Abbruch der Anlage begann eine gemeinsame städtebauliche Entwicklung und Vermarktung der Fläche. Der städtebauliche Entwurf war Resultat eines internationalen Wettbewerbs. Schwierigkeiten ergaben sich aus den vom Bergbau zurückgelassenen kontaminierten Bodenmassen. Doch der größte Teil der Kosten entstand nicht etwa aus der Beseitigung der kontaminierten Bereiche, sondern aus der Aufbereitung des Baugrundes.

 Biogeochemische und luftchemische Untersuchungen in Brasilien

Landnutzungsänderungen wie zum Beispiel die Waldrodungen im Amazonasgebiet werden einschneidende Folgen für Ökologie und Klima haben. Der Grund liegt in den Änderungen des Wasser-, Energie-, Kohlenstoff, und Nährstoffkreislaufs. Aber besonders lokale und globale Konzentrationsverteilungen klimarelevanter Spurenstoffe sind bislang noch nicht lückenlos geklärt, obwohl diese aufgrund ihrer chemischen Reaktivität die atmosphärische Oxidationskapazität bestimmen wie zum Beispiel das Hydroxylradikal. Dieses OH-Radikal ist im Bereich des Äquators am höchsten konzentriert. Forscher gehen davon aus, das es eine hohe Klimarelevanz hat. Unter dem Namen EUTACH wurde ein multidisziplinäres Forschungsprojekt angelegt, um diese drängenden Fragen zu klären. Die Feldexperimente umfassen amazonasweite Messflüge zur Identifizierung und Quantifizierung der Aerosolemissionen sowie Konzentrations- und Flussmessungen. Sie sollen sowohl in der Regen- als auch in der Trockenzeit durchgeführt werden, um repräsentativ zu sein. Erste Feldexperimente von EUSTACH begannen 1999 in drei Regenwaltstandorten. An allen Standorten werden Langzeitmessungen zum Oberflächenaustausch von Energie und Wasser und Kohlendioxid durchgeführt. Ein Messturm im Primärregenwaldreservat 'Rebio Jaru' soll in acht Höhenstufen die Konzentrationen von CO2, H20, CO, NO, NO2, O3 und einiger VOC-Komponenten erhellen. Ferner wurde das Vertikalprofil dazu genutzt, Transport- und Austauschvorgänge zu untersuchen. Darüber hinaus wurde zur Messung der 3-dimensionale Windgeschwindigkeit ein Ultraschall-Anemometer eingesetzt. Es zeigte sich, dass tagsüber eine Aufnahme von Formaldehyd durch den tropischen Regenwald statt findet. In größeren Mengen emittiert der Regenwald dagegen Isopropen.

Regenwassernutzung in Frankreich

In Frankreich setzen sich moderne Anlagekonzepte wie die Regenwassernutzung nur langsam durch. Da die Trinkwasserversorgung in unserem westlichen Nachbarland in der Hand von wenigen, privaten Wasserversorgern ist, besteht auch oft nur wenig Interesse an solch ressourcenschonenden Technologien. Denn was zählt ist der Gewinn und möglichst viel Wasserverbrauch. Mit Abstand größter französischen Wasserversorger ist 'Vivendi', der sich auch schon in die Wasserversorgung deutscher Städte eingekauft hat. Und auch in Deutschland sind die Aktionäre an möglichst hohen Umsatzzahlen interessiert, um den eigenen Marktwert zu steigern. Doch während Deutschland ein 'Vorreiter' in Sachen Umweltbewusstsein ist, hinkt Frankreich in dieser Hinsicht noch hinterher. Ein Grund dafür ist auch die recht diffizile verwaltungstechnische Situation in Frankreich. Die einzelnen Departments verfolgen meist eine eigene Wasser- und Abwasserpolitik. Dennoch wurden auf dem Gebiet der Ökologie in den letzten Jahren in Frankreich regelrechte Quantensprünge vollzogen. Der gezielten Regenwassernutzung stehen aber immer noch die Interessen bestimmter Lobbyisten entgegen. Und während in einzelnen Regionen wie im Elsaß oder Lothringen die Regenwassernutzung immer öfter genutzt wird, findet dieses Anlagekonzept in anderen Gebieten doch nur wenig Interesse. Erste Impulse zu einer verstärkten Nutzung des 'l eau de pluie' geben derzeit Planer und Architekten. Oft scheitern sie aber an der Verweigerungshaltung der Bauherren oder den Genehmigungsbehörden.

Kavernenspeicher Kraak

Ende September 2000 wurde der zweite Untergrundspeicher der Firma HEIN Gas Hamburger Gaswerke fertiggestellt. Die Kavernenspeicheranlage, die auf dem Salzstock Kraak nach nur 6-jähriger Bauzeit entstand, stellt eine hervorragende Ergänzung der schon vorhandenen guten Speicherkapazität dar. Dadurch können die HEIN Gas mehr als 50 Prozent der für den Winter benötigten Kapazität aus dem eigenen Speicher fördern. Schon 1997 begannen die Arbeiten zu diesem Projekt, bei dem drei Kavernen entstanden. Problem bei den Aushöhlarbeiten war die Verbringung der Sole. Denn an diesem Standort war weder die Möglichkeit der industriellen Verwertung der Sole noch die Einleitung in die Vorflut gegeben. Es wurde daher auf eine Versenkung der Sole in geeigneten geologischen Schichten orientiert. Die geologischen und lagerstättentechnischen Voraussetzungen des Kavernenfeldes wurden schon in den Jahren 1993 bis 1995 geklärt. Umfangreiche Erkundungsarbeiten zeigten, dass die stratigraphische Abfolge in den Bohrungen homogener ist als ursprünglich angenommen. Um die Sole wieder zu versenken wurde eine aufwändige Solefiltration und Solekonditionierung auf dem Solestandort erstellt. Bis Ende 2004 soll auf diese Weise ein symmetrisches Hohlraumvolumen von 10-Millionen Kubikmetern entstehen. Insgesamt könnten in dem Salzstock, der oberflächlich mit Wald bestanden ist, mindestens zehn Kavernen ausgehöhlt werden. Zwei Ferngasleitungen speisen die schon jetzt betriebenen Kavernen. Die oberirdische Anlage zeichnet sich durch ihre Kompaktheit aus. Sie arbeitet mit elektrisch betriebenen schnelllaufenden Kolbenverdichtern und wird vom 80 Kilometer entfernten Reitbrook fern gesteuert.

Auswirkungen von Schwermetallanreicherungen in Böden

Rund tausend Jahre wird im Harz schon Bergbau betrieben. Die ersten schriftlichen Zeugnisse sind aus dem 10. Jahrhundert bekannt. Die letzten Gruben schlossen in den 80er Jahren des 20. Jahrhunderts. Im Laufe der Jahre sind durch schwermetallhaltige Prozesswässer der Erzaufbereitung die landwirtschaftlichen Nutzflächen zum Teil in erheblichem Maße kontaminiert worden. Auch die Emissionen von Erz verarbeitenden Betrieben und Erosionen an Rückstandshalden führten zu verstärkten Kontaminationen - hauptsächlich durch Cadmium, Blei und Zink. Besonders in den bis zu 1,2 m mächtigen Auelehmdecken an Oker, Innerste sowie an Leine und Aller treten diese Beimischungen zu Tage. Die chemischen Analysen zeigen, dass die Kontaminationen in Harznähe teilweise die in der Klärschlammverordnung fest gelegten Grenzwerte um das 15 - 40fache übertreffen. Mit zunehmender Entfernung vom Harz gehen die Konzentrationen deutlich zurück. Sie lassen sich jedoch noch die gesamte Weser hinunter bis nach Bremen nachweisen. Das Problem bei der Ackernutzung solch hoch belasteter Standort liegt u.a. im Wachstums- und Ertragsschwund. Maßnahmen wie Kalkungen und Standortverbesserungen konnten diese Einbußen wieder wett machen. Andererseits ist auch die Gefährdung von Mensch und Tier durch die Schwermetalle nicht von der Hand zu weisen. So hat zum Beispiel Weizen ein recht hohes Anreicherungsvermögen für Cadmium. Untersuchungen zeigen, dass die Konzentration dieses Schwermetalls im Weizen über den gängigen Grenzwerten liegen kann. In den Landkreisen Nord- und Südhannovers sind die Werte bei bis zu sechs Prozent der Anbaufläche deutlich erhöht. Eine Gefährdung der Bevölkerung ist dennoch nicht zu erwarten - werden doch bei Ernte und Vermarktung belastete und unbelastete Weizen durchmischt. Als Methode zur Erfassung von Problemstandorten hat sich die Bestimmung über austauschbare Cadmiumfraktion im Calciumchloridextrakt bewährt. Es werden Grenzwerte vorgeschlagen.

Depositionsuntersuchungen im Rahmen des Forschungsprogramms: Langfristige waldbauliche Untersuchungen in Kiefernbeständen

Im Rahmen des Waldbauprojektes 'Langfristige waldbauliche Untersuchungen in Kiefernbeständen der Berliner Forsten' wurden in einem 31-jährigen Stangenholz Niederschlagsmengen und Stoffeinträge in unterschiedlichen Durchforstungsvarianten erfasst. Darüber hinaus wurde die zeitliche Eintragsdynamik ausgewählter Inhaltsstoffe verfolgt, die mit den Wachstumsänderungen der einzelnen Varianten zu korrelieren waren. Auch die Frage, ob sich unterschiedliche Auflichtvarianten auf die klimatische Wasserbilanz auswirken und unter welchen Bedingungen Trockenstresssituationen auftreten, war zu klären. Niederschlagsmesser vom Typ 'Münden' dienten der Messung der Niederschläge sowohl in den Freiflächen als auch im Bestand. Organische Kontaminationen, wie zum Beispiel durch Vogelkot, wurden durch ein Gazenetz, das den Regensammlern fein angepasst wurde, eingedämmt. Der Eintrag in die einzelnen Durchforstungsvarianten unterschied sich schon bald deutlich. So traten zum Beispiel signifikante Abweichungen im Stickstoff- und Schwefeleintrag auf. Die höchsten Einträge der untersuchten Elemente wurden in den Durchforstungsvarianten I und IV registriert. Diese als Gruppe 1 bezeichnete Fläche unterschied sich bezüglich der Stofffrachten und dem Stoffeintrag deutlich von den Durchforstungsvarianten II und III (Gruppe2). Ob die Stoffeinträge Auswirkungen auf den Ernährungszustand der Bäume haben, ist noch ungeklärt. Zur Klärung dieser Frage wären Nadelanalysen erforderlich.

Vernunft oder Gefühl: Die Wahrnehmung der Kernenergie in Deutschland 

'Wir sind die Guten', steht teilweise auf den Spruchbändern von denjenigen, die gegen Kernkraft demonstrieren. Kein Wunder, denn schon lange herrscht in Deutschland eine Art Dualität zwischen dem 'kriminellen' Staat, der mit dem Nazi Regime gemeinsame Sache gemacht hat und der Bevölkerung, die nun der nuklearen Gefahr ausgesetzt wird. Und was sonst verkörpert Machtmissbrauch besser als die Atomwaffe - vereint sie doch in sich die Idee von der Vernichtung allen Lebens. Auch die unmögliche Entsorgung der Atomabfälle macht den Umgang mit der Kernenergie für die Deutschen nicht einfacher, denn die Natur ist 'nicht nur die Quelle sondern auch Ziel jeglicher echten Kultur'. In dieser Hinsicht unterscheidet sich die Wahrnehmung der Kernenergie auch deutlich von den Franzosen. In Deutschland erfasst sie alle Strömungen der Gesellschaft, trifft aber überall auch auf Widerstände. Nach der Wirtschaftskrise 1966/1967 war davon allerdings zunächst nicht die Rede. Erst nachdem in der Folge ein starkes Wachstum erreicht wurde, fand eine verstärkte Sensibilisierung für Umweltthemen statt. Schließlich werden einige Umweltgesetze erlassen. Im Mittelpunkt der öffentlichen Auseinandersetzung steht aber noch eine ganze Zeit lang der amerikanische Krieg in Vietnam. Der Kampf gegen Atomwaffen ist zunächst zweitrangig. Die Anti-Kernkraft-Mobilisierung blieb noch bis Anfang der 70er Jahre von der Öffentlichkeit relativ unbeachtet. Noch 1977 weckte Atomkraft beim Großteil der Bevölkerung keine negativen Assoziationen. Im Gegenteil. Sie wurde als 'sehr wünschenswert' gepriesen. Erst mit dem massiven Opposition gegen das bayerische Kraftwerk Wyhl beginnt massiver Widerstand. Massendemonstrationen und spektakuläre gewalttätige Auseinandersetzungen folgen. Und mit dem Unfall von Harrisburg zeichnet sich eine Trendwende ab. Das Kräfteverhältnis kehrt sich um. Nunmehr ist die Mehrheit der Deutschen Kernkraftgegner. Und seit Tschernobyl hat sich die Zahl erklärter Kernkraftgegner nochmals verdoppelt. Heute bekennt sich eine Mehrheit der Deutschen zum Umweltschutz und wendet sich von den Risiken der Atomkraft ab.

Zukunftsfähiges Wohnen mit Sonnenenergie - ein Liter-Solarhäuser 

Sonne ist der Hauptenergielieferant eines Solar-Passivhauses. Für den Restenergiebedarf zum Beispiel für die Wärmeversorgung sorgt eine hochinnovative kompakte Haustechnik. Diese vom Fraunhofer ISE zusammen mit der Industrie entwickelten Lüftungsgeräte dienen der Wärmerückgewinnung. Fester Bestandteil ist eine kleine Abluftwärmepumpe für die Restheizung und die Brauchwassererwärmung. Um die energetische Effizienz, die Funktionalität und die Bedienerfreundlichkeit der Lüftungs-Kompaktgeräte zu steigern, wurden sie einer umfangreichen Testserie unterzogen. Die Messungen, die im Solarhaus Freiburg durchgeführt wurden, zeigten, dass die Geräte schon jetzt den Ansprüchen weitgehend genügen. Auch ein Feldtest in einem schon bewohnten Einfamilienhaus in Büchenau bestätigten diese positiven Erfahrungen. Das freistehende Solar-Passivhaus wird durch ein Lüftungs-Kompaktgerät mit frischer Luft versorgt. Darüber hinaus ist ein Erdreichwärmetauscher in Einsatz. Doch besonders die passiven Solargewinne tragen wesentlich zur Deckung der Heizwärme bei. So ist an kalten Tagen mit viel Sonneneinstrahlung auch mit hohen Solarerträgen zu erwarten. Mehr als die Hälfte der Heizwärme wurde bei Tagesmittelwerten der Außenlufttemperatur über vier Grad Celsius benötigt. Außerhalb der Heizperiode übernahm die Solaranlage 90 Prozent des Wärmeeintrags in den Brauchwasserspeicher. Insgesamt deckt die Sonne in diesem Solarpassivhaus rund 44 Prozent der Gesamtenergieumsätze. Auch in einem Solar-Passiv-Haus Projekt in Neuenburg stellten die Lüftungs-Kompaktgeräte unter Beweis, dass sie eine ausreichende Wärmeversorgung in den Häusern garantieren.

Zur Massenvermehrung der Forleule in Brandenburg

 Die Forleule breitet sich in Brandenburg seit 1995 immer mehr aus. Sowohl bei der alljährlich durchgeführten Winterbodensuche als auch in den Falterfängen mit Pheromonfallen sind die Insekten immer stärker vertreten. Ernährungsgrundlage dieser Schädlinge sind sich öffnende Knospen und Maitriebnadeln. Nach der ersten Häutung laben sich die Eiräupchen auch an den älteren Nadeln, die sie dann bis auf kurze Stummeln abnagen. Erst Anfang Juli endet das 'große Fressen' mit der Verpuppung im Bodenstreu. Bis dahin haben die Raupen die Kiefern aber oft schon so sehr geschädigt, dass die Gefahr des Absterbens sehr groß ist. Bei Massenvermehrung kann es zu bestandesbedrohenden Folgen kommen. Beispiele dafür sind aus Polen, Schottland und den Niederlanden bekannt. Dabei ist die Gefährdung von 40-jährigen Kiefernreinbeständen besonders hoch - gerade in Gebieten mit Niederschläge von weniger als 700 mm. Ferner ist die Forleule Wegbereiter für Folgeschädlinge wie Borken-, Bock- und Rüsselkäfer. Nach den Ergebnissen der Winterbodensuche in Brandenburg zeichnete sich eine weiträumige Gradation der Forleule ab. Im Jahr 2000 erreichte die Dichte in Südbrandenburg Werte, die starke Nadelverluste in den Befallsgebieten erwarten ließen. Um frühzeitig Gegenmaßnahmen planen zu können, wurden im Frühjahr intensive Kontrollen durchgeführt. Die Gefährdung des Waldbestandes durch die Forleule reduzierte sich im Beobachtungszeitraum deutlich. Hohe Temperaturen während der Flugphase verminderten die Flugphase der Falter und dadurch auch deren Eiablage.

 Verzicht auf Kernkraft?

 Das Jahr 3000. Die Bevölkerung hat sich nicht wie in den vergangenen 70 Jahren jeweils verdreifacht sondern 'nur' stetig  verdoppelt. Das Ergebnis: Die Menschheit wäre 16.000 mal so zahlreich wie heute. Und Gesetz den Fall diese Menschenmasse würde sich ausschließlich fossiler Energieträger bedienen, wäre die Erde wohl mit einem dichten Kohlendioxidmantel umgeben. Die Entwicklung von Fusionsreaktoren, die ohne radioaktive Rückstände auskämen, wären in solch einer utopischen Konstellation sicherlich eine gefragte Technologie. So stellt also nicht nur die Endlagerung von Atommüll ein Langzeitrisiko dar, auch die weitere Verwendung fossiler Energieträger ist nicht unbedingt gefahrlos. Ferner sind radioaktive Abfälle mit einer langen Halbwertszeit längst vorhanden. Im Prinzip erledigt sich schon allein dadurch die Diskussion, ob der Nachwelt ein so langanhaltend strahlendes Erbe überlassen werden kann. Außerdem sind sowohl in Deutschland als auch in Frankreich die Fortschritte in der Sicherheitstechnik soweit voran getrieben worden, dass allein nach den Gesetzen der Wahrscheinlichkeitsrechnung, eine Gefährdung der Umwelt von einem Kernkraftwerk ausgehend, unmöglich ist. In beiden Länder wird derzeit an einem Reaktortyp gebaut, der eine Kernschmelze nach den Gesetzen der praktischen Vernunft ausschließt. Die deutsche Politik verfolgt allerdings immer noch das Ziel 'Ausstieg aus der Kernkraftwerkstechnik'. Ohne immense Entschädigungsleistungen an die Versorgungsunternehmen kann dies aber frühestens in 40 bis 50 Jahren realisiert werden. Bis dahin soll die Kernkraft durch Gasturbinen abgelöst werden. Der Pferdefuß: Kein Mensch kann heutzutage abschätzen, wie lange die Gas- und Ölvorräte reichen werden. Und wenn die fossilen Energievorräte in naher Zukunft zuende gehen, wird sich vielleicht auch wieder das Gefühl einstellen, dass einst während der Ölkrise vorherrschte. Damals war Kernkraft das Hätschelkind der Politik und es fehlte nicht viel zum Slogan 'Uran statt Iran'.

 Vergleich verschiedener Szenarien zum Flächenwasserhaushalt 

 Für einen 50 ha großen Niedermoorgrüngürtel im NSG Klienitz wird beispielhaft eine Methodik aufgezeigt, die sich verschiedener Szenarien bedient. Unterschiedliche Varianten der Wasserregulierung und ihre potentiellen Entwicklungen sollen dadurch aufgezeigt werden. Die Szenarien sollen bei der Entscheidung für das einzuleitende Naturschutzmanagement Hilfestellung leisten. Grundsätzlich ist die Frage des optimalen Wasserstands auf den Flächen zu klären. Auch sind im Zusammenhang mit der angestrebten Vernässung die zukünftigen Entwicklungsziele klar zu stellen. Der Wasserstand auf dem fruchtbaren Feuchtareal, das nordwestlich der Stadt Zehdenick liegt, soll dann in Form einer absoluten Höhenmarke festgelegt werden. Der Ist-Zustand des Szenario-Gebietes wird einführend kurz geschildert. Es herrschen wechselfeuchte Verhältnisse und die Entwässerung des Moores zieht bereits Vermulmungsprozesse nach sich. Des weiteren wird die GIS unterstützte Szenarientechnik erläutert. Auf dieser Grundlage werden drei verschiedene Szenarien durchgespielt, bei denen den Wasserständen eine entscheidende Rolle zukommt. Eckpfeiler der Szenarienbewertung sind die Entwicklung von Leitbildern und Entwicklungsziele für den Niedermoor-Wasserhaushalt. Durch eine moorschonende Nutzung sollen die Grünland-Moorflächen im NSG Klienitz weiterhin offen gehalten werden, um weiterhin besonders die Belange des Feuchtwiesen- und Wiesenbrüterschutzes erfüllen zu können. Der Moorbodenschutz ist daher nur von zweitrangiger Bedeutung. Allerdings ergibt sich aus der Prüfung der Auswirkungen, dass keines der Szenarien die festgelegten Entwicklungsziele optimal repräsentiert. Ein aus diesen Ergebnissen abgeleitetes 'Optimalszenario' soll die Ansprüche der einzelnen Entwicklungsziele besser berücksichtigen. Abschließend wird auf die Notwendigkeit einer Überprüfung und Beobachtung der Entwicklung bei einer Wasserstandsanhebung hingewiesen.

Kernenergie oder das geteilte Europa

 Sie heißen COGEMA, FRAMATOME, CEA oder EdF - die französische Atomindustrie. Früher oder später wird sie auch in Deutschland Firmen mit Nuklearaktivitäten aufkaufen, sofern Siemens nicht noch an seinem nuklearen Geschäftsvolumen fest hält. Der Verkauf wäre ein logischer Schritt - hat sich doch die rot-grüne Bundesregierung für einen endgültigen Ausstieg aus der Atomenergie verpflichtet. Doch warum nun Deutschland und Frankreich in der Atompolitik so konträre Wege gehen, ist nicht leicht zu verstehen. Als Grund für die unterschiedlichen Haltungen unserer Regierungen und Parteien zur Kernenergien, werden häufig ein ganzes Bündel Vorurteile genannt, die dem Wesen beider Völker nicht gerecht werden. So wird den Deutschen eine übertriebene Technikfeindlichkeit angedichtet, während die Franzosen ein rein ästhetisches Verhältnis zur Technik haben sollen. Aber viele Franzosen können verständlicherweise nicht einsehen, dass die Deutschen ihre Kernkraftwerke abstellen, um dann billig Strom aus veralteten Atomkraftwerken im Osten zu beziehen. Andererseits werfen auch die Deutschen den Franzosen einen zu laxen Umgang mit dem Naturschutz vor. Als Beispiel ist hier nicht nur die Atomkraft zu nennen, sondern auch die Jagd auf Zugvögel oder der unterentwickelte Anteil biologischen Landbaus. Doch auch in Frankreich ist die Atomenergie nicht unumstritten. Die Auseinandersetzung wird aber lange nicht so heftig und teilweise gewaltbereit geführt wie in Deutschland. Denn schon lange ist die Atomenergie auch ein Teil der Selbstbestimmung und Symbol für Stärke und Macht Frankreichs - legt sie doch auch die Grundlage für ein Frankreich als Atomstreitmacht. Und wenn im Jahr 2000 der nukleare Flugzeugträger 'Charles de Gaulles' in Betrieb genommen wird, tragen alle Franzosen diese 2,9 Milliarden Euro Investition bewusst mit.

Wachstumsabläufe in Kiefernbeständen

Aufgrund der Klima- und Bodenverhältnisse ist das nordostdeutsche Tiefland potentielles Waldland. Gegenwärtig ist der Bewaldungsanteil recht hoch. Bis 1990 unterlag das Gebiet jahrzehntelang standortseutrophierenden Fremdstoffen. Stickstoff spielte dabei hinsichtlich der ursprünglich recht geringen Waldbodenausstattung eine besondere Rolle. Auch Schwefel ging aufgrund einer Vielzahl von Emittenten in großen Rahmen auf die Waldflächen nieder. Nach 1990 kam es durch die industrielle Umorientierung in Deutschland zu einem starken Nachlassen dieser Einträge in das Waldökosystem. In diesem BMBF-Projekt sollten die Auswirkungen dieser Fremdstoffe auf den Baumbestand untersucht werden. Dazu wurden die holzmesskundlichen Kennwerte und die entsprechende Normal-Nettoprimärproduktion ermittelt. Ferner wurde der Rekonstruktion des Höhenwachstumsgang rekonstruiert und die jährlichen Zuwachsraten berechnet. Als Resultate stehen nun Zeitreihen des Höhenwachstumsgangs und hektarbezogene Volumenzuwachswerte zur Verfügung. Es zeigte sich, dass mittlere Stickstoffeinträge zu einer anhaltenden Akzeleration des Wachstums geführt haben. Wachstumsdepressionen konnten in der Nähe lokaler Stickstoff-Großemittenten aufgespürt werden. Starke Einträge bewirken zunächst eine Phase hypertrophen Wachstums, die dann aber schnell in eine Wachstumsdepression übergeht und zu erhöhter Baummortalität führen kann. Die Verringerung der Stoffeinträge hat das Fortschreiten dieser extremen Ökosystemänderungen zunächst gestoppt. Dennoch ist auch das aktuelle Niveau des Schadstoffeintrags noch kein Grund zur Entwarnung. Vielmehr ist eine Fortführung der Maßnahmen zur Luftreinhaltung dringend erforderlich.