Ochrona środowiska dla inżynierów

Ochrona środowiska dla inżynierów

Autorzy: Jacek Krystek

Wydawnictwo: DW PWN

Kategorie: Branżowe

Typ: e-book

Formaty: MOBI EPUB

Ilość stron: 400

cena od: 35.50 zł

To unikatowe kompendium wiedzy z zakresu TECHNOLOGII INŻYNIERSKIEJ OCHRONY ŚRODOWISKA, napisane przez grono wybitnych polskich naukowców zajmujących się różnymi aspektami tego zagadnienia. W publikacji tej dokonano połączenia: ZAGADNIEŃ PRAWNYCH, w tym: oceny oddziaływania na środowisko, zarządzania środowiskowego; jak i: ZAGADNIEŃ TECHNICZNYCH: gospodarki odpadami, ochrony powietrza atmosferycznego, uzdatniania wody, oczyszczania ścieków, ochrony powierzchni ziemi, jak i jej rekultywacji i remediacji, ochrony przed hałasem, jak i ochrony przed korozją. Książka powinna się stać podstawowym opracowaniem w Polsce dotyczącym ochrony środowiska, od której specjaliści związani z tą problematyką będą rozpoczynać swoje dociekania i studia. Po ten podręcznik sięgną zapewne studenci uczelni wyższych, zarówno uniwersyteckich, jak i technicznych, w których programach nauczania omawiane są zagadnienia związane z szeroko rozumianą ochroną środowiska.

Projekt okładki i stron tytułowych: GRAFOS

Fotografia na okładce: Wisky/Fotolia

Wydawca: Adam Filutowski

Koordynator ds. redakcji: Adam Kowalski

Redaktorzy: inż. Ewa Kiliś, mgr inż. Marek Kośnik (2. wydanie)

Redakcja i korekta 3. wydania (2018): Paweł Wielopolski

Produkcja: Mariola Grzywacka

Skład wersji elektronicznej na zlecenie Wydawnictwa Naukowego PWN: Angelika Duchnik/ Woblink

Dział reklamy: Małgorzata Pasenik (Malgorzata.Pasenik@pwn.pl)

Opiniodawcy (2. wydania):

prof. dr hab. inż. Mieczysław Kawalec

prof. dr hab. inż. Jan Kosmol

Wydanie książki dofinansowała Politechnika Opolska.

Książka, którą nabyłeś, jest dziełem twórcy i wydawcy. Prosimy, abyś przestrzegał praw, jakie im przysługują. Jej zawartość możesz udostępnić nieodpłatnie osobom bliskim lub osobiście znanym. Ale nie publikuj jej w internecie. Jeśli cytujesz jej fragmenty, nie zmieniaj ich treści i koniecznie zaznacz, czyje to dzieło. A kopiując jej część, rób to jedynie na użytek osobisty.

Szanujmy cudzą własność i prawo

Więcej na www.legalnakultura.pl

Polska Izba Książki

Copyright © by Wydawnictwo WNT

Warszawa 1998, 2010

Copyright © by Wydawnictwo Naukowe PWN SA

Warszawa 2017, 2018

ISBN 978-83-01-20325-2

eBook został przygotowany na podstawie wydania papierowego z 2018 r., (wyd. III zmienionego i uaktualnionego)

(I wydanie WN PWN)

Warszawa 2018

Wydawnictwo Naukowe PWN SA

02-460 Warszawa, ul. Gottlieba Daimlera 2

tel. 22 69 54 321; faks 22 69 54 288

infolinia 801 33 33 88

e-mail: pwn@pwn.com.pl; reklama@pwn.pl

www.pwn.pl

Spis treści

Wstęp

1. Ochrona powietrza atmosferycznego 1.1. Skład i struktura atmosfery

1.2.Transport zanieczyszczeń w atmosferze 1.2.1. Smog

1.2.2. Kwaśne deszcze

1.2.3. Efekt cieplarniany

1.3. Ochrona atmosfery przed zanieczyszczeniami 1.3.1. Metody odpylania gazów

1.3.2. Metody odsiarczania gazów

1.3.3. Metody usuwania tlenków azotu

1.3.4. Metody usuwania lotnych związków organicznych

1.3.5. Metody usuwania dioksyn

1.4. Monitoring powietrza atmosferycznego

1.5. Modelowanie rozprzestrzeniania się substancji w atmosferze

1.6. Literatura

2. Ochrona przed hałasem 2.1. Oddziaływanie hałasu na organizm ludzki 2.1.1. Jak słyszymy

2.1.2. Krzywe jednakowej głośności

2.1.3. Ryzyko uszkodzenia słuchu

2.1.4. Skutki doraźne i długofalowe wpływu hałasu na człowieka

2.2. Źródła hałasu

2.3. Wskaźniki stosowane w ocenie hałasu i metody ich wyznaczania 2.3.1. Parametry podstawowe oraz poziomy wskaźnikowe

2.3.2. Metodyki pomiarowe hałasu

2.3.3. Metody obliczeniowe. Modelowanie źródeł i propagacji hałasu w środowisku 2.3.3.1. Model propagacji dźwięku w przestrzeni otwartej

2.3.3.2. Składowe tłumienia dźwięku na ścieżce propagacji

2.3.3.3. Modele akustyczne wybranych źródeł hałasu

2.4. Mapy akustyczne

2.5. Metody ograniczania hałasu w środowisku

2.6. Literatura

3. Ochrona powierzchni ziemi 3.1. Najważniejsze właściwości i funkcje gleb 3.1.1. Czynniki i procesy glebotwórcze

3.1.2. Klasyfikacja gleb

3.1.3. Skład i podstawowe właściwości gleb

3.1.4. Najważniejsze funkcje gleb

3.2. Zagrożenia gleb i zasady ochrony środowiska glebowego 3.2.1. Erozja wodna i wietrzna

3.2.2. Utrata glebowej materii organicznej

3.2.3. Zanieczyszczenie ze źródeł rozproszonych i lokalnych

3.2.4. Zasklepianie gleby

3.2.5. Zagęszczanie gleby

3.2.6. Spadek różnorodności biologicznej

3.2.7. Zasolenie

3.2.8. Powodzie i osuwiska ziemi

3.2.9. Prawne regulacje dotyczące ochrony gleb w Polsce i w Europie

3.3. Zanieczyszczenie gleb substancjami stwarzającymi ryzyko 3.3.1. Przykłady substancji stwarzających ryzyko i ich zachowanie w glebie

3.3.2. Prognozowanie losu zanieczyszczeń w glebach

3.3.3. Ocena stanu zanieczyszczenia powierzchni ziemi

3.4. Metody remediacji gleb zanieczyszczonych 3.4.1. Strategie dekontaminacji oraz stabilizacji zanieczyszczeń

3.4.2. Techniki remediacji in-situ i ex-situ

3.4.3. Metody immobilizacji zanieczyszczeń w glebach

3.4.4. Wymywanie i ekstrakcja zanieczyszczeń

3.4.5. Odparowywanie i termiczna desorpcja zanieczyszczeń

3.4.6. Inne metody techniczne dekontaminacji gleb. Metody termiczne, chemiczne i elektrochemiczne

3.4.7. Bioremediacja

3.4.8. Metody fitoremediacji

3.4.9. Samooczyszczanie gleb

3.4.10. Wybór metody remediacji

3.5. Rekultywacja i zagospodarowanie terenów zdegradowanych geomechanicznie i hydrologicznie 3.5.1. Górnictwo jako przyczyna degradacji geomechanicznej gleb

3.5.2. Kierunki zagospodarowania terenów pogórniczych

3.5.3. Przebieg rekultywacji

3.5.4. Tereny zdegradowane hydrologicznie i ich rekultywacja

3.6. Literatura

4. Oczyszczanie wody 4.1. Rodzaje i jakość wód 4.1.1. Wody powierzchniowe

4.1.2. Wody podziemne

4.1.3. Wody infiltracyjne

4.1.4. Wody słone

4.2. Rodzaje zanieczyszczeń 4.2.1. Gazy

4.2.2. Substancje mineralne

4.2.3. Substancje organiczne

4.2.4. Mikrozanieczyszczenia

4.2.5. Zanieczyszczenia mikrobiologiczne

4.2.6. Metale ciężkie

4.3. Oczyszczanie wody 4.3.1. Koagulacja 4.3.1.1. Przebieg procesu koagulacji

4.3.1.2. Rodzaje koagulantów

4.3.1.3. Chemizm procesu koagulacji

4.3.1.4 Skuteczność procesu koagulacji

4.3.2. Separacja zawiesin 4.3.2.1. Sedymentacja

4.3.2.2. Filtracja

4.3.2.3. Charakterystyka złóż filtracyjnych i parametry pracy filtrów

4.3.2.4. Wykorzystanie i skuteczność procesu filtracji

4.3.3. Adsorpcja 4.3.3.1. Mechanizm adsorpcji i stosowane sorbenty

4.3.3.2. Kinetyka i dynamika procesu adsorpcji

4.3.3.3. Skuteczność adsorpcji i jej wykorzystanie w technologii oczyszczania wody

4.3.4. Usuwanie żelaza i manganu 4.3.4.1. Usuwanie żelaza występującego w związkach nieorganicznych

4.3.4.2. Usuwanie żelaza występującego w kompleksach żelazoorganicznych

4.3.4.3. Usuwanie manganu z wody

4.3.4.4. Skuteczność usuwania żelaza i manganu

4.3.5. Odsalanie i zmiękczanie wody 4.3.5.1. Zmiękczanie wody

4.3.5.2. Odsalanie wody

4.3.6. Odkwaszanie wody

4.4. Dezynfekcja wody 4.4.1. Dezynfekcja fizyczna 4.4.1.1. Promieniowanie nadfioletowe

4.4.2. Dezynfekcja chemiczna 4.4.2.1. Właściwości stosowanych dezynfektantów

4.4.2.2. Czynniki wpływające na skuteczność dezynfekcji wody

4.4.3. Uboczne produkty dezynfekcji

4.5. Literatura

5. Oczyszczanie ścieków 5.1. Ogólna charakterystyka ścieków

5.2. Wymagany stopień oczyszczania ścieków

5.3. Ogólna charakterystyka systemów kanalizacyjnych

5.4. Metody usuwania zanieczyszczeń ze ścieków 5.4.1. Procesy fizyczne (mechaniczne)

5.4.2. Procesy chemiczne

5.4.3. Procesy biologiczne

5.5. Technologie i systemy oczyszczania ścieków 5.5.1. Technologia osadu czynnego

5.5.2. Technologie z utwierdzoną biomasą

5.5.3. Technologia fermentacji metanowej ścieków

5.5.4. Zintegrowane systemy biologicznego oczyszczania ścieków

5.5.5. Zintegrowane systemy biologiczno-fizyczno-chemiczne

5.6. Zagospodarowanie osadów ściekowych 5.6.1. Zagęszczanie i odwadnianie osadów ściekowych

5.6.2. Biologiczna stabilizacja osadów ściekowych

5.7. Zagospodarowanie wód opadowych

5.8. Problemy ekologiczne funkcjonowania oczyszczalni ścieków

5.9. Aspekty ekonomiczne oczyszczania ścieków

5.10. Literatura

6. Gospodarka odpadami 6.1. Systemy gospodarki odpadami

6.2. Gospodarka odpadami komunalnymi 6.2.1. Uszczelnienia

6.2.2. Zasady projektowania uszczelnień

6.2.3. Wymagania stawiane kolejnym warstwom uszczelnienia podstawy składowiska

6.2.4. Uszczelnienie powierzchniowe

6.2.5. Uszczelnienia boczne

6.2.6. Uszczelnienie pośrednie

6.2.7. Eksploatacja

6.2.8. Unieszkodliwianie i odzysk biogazu

6.2.9. Możliwości zagospodarowania biogazu

6.2.10. Zagrożenia i oddziaływanie biogazu na środowisko

6.2.11. Odcieki ze składowisk, ich charakterystyka, metody postępowania

6.3. Gospodarki odpadami przemysłowymi 6.3.1. Odpady wydobywcze

6.3.2. Komunalne osady ściekowe 6.3.2.1. Termiczne przekształcenie komunalnych osadów ściekowych

6.3.2.2. Spalarnie komunalnych osadów ściekowych w Polsce

6.3.3. Odpady niebezpieczne

6.4. Biologiczne metody przetwarzania odpadów 6.4.1. Kompostowanie odpadów 6.4.1.1. Przegląd biotechnologii kompostowania

6.4.2. Fermentacja odpadów biodegradowalnych

6.5. Termiczne metody przetwarzania odpadów 6.5.1. Wykorzystanie stałych paliw wtórnych do produkcji energii elektrycznej i ciepła w Polsce

6.6. Metody odzysku, w tym recyklingu odpadów

6.7. Literatura

7. Ochrona przed korozją 7.1. Rodzaje korozji 7.1.1. Korozja chemiczna i elektrochemiczna

7.1.2. Rola środowiska w procesie korozji

7.1.3. Typy korozji

7.2. Degradacja materiałów niemetalowych

7.3. Ochrona przed korozją 7.3.1. Powłoki ochronne 7.3.1.1. Powłoki organiczne – malarskie

7.3.1.2. Powłoki nieorganiczne niemetalowe

7.3.1.3. Powłoki konwersyjne

7.3.1.4. Powłoki metalowe

7.3.2. Inhibitory korozji

7.3.3. Ochrona elektrochemiczna

7.4. Materiały metalowe odporne na korozję 7.4.1. Metale szlachetne i ich stopy

7.4.2. Metale nieżelazne i ich stopy 7.4.2.1. Miedź i stopy miedzi

7.4.2.2. Aluminium i stopy aluminium

7.4.2.3. Tytan i stopy tytanu

7.4.3. Stale nierdzewne 7.4.3.1. Stale ferrytyczne

7.4.3.2. Stale martenzytyczne

7.4.3.3. Stale austenityczne

7.4.3.4. Stale austenityczno-ferrytyczne

7.5. Literatura

8. Gospodarcze prawo środowiska 8.1. Gospodarcze prawo środowiska – zagadnienia ogólne 8.1.1. Prawna regulacja ochrony środowiska

8.1.2. Ochrona zasobów środowiska

8.1.3. Środowisko jako dobro wspólne

8.1.4. Pojęcie „zasobów środowiska”

8.1.5. Przeciwdziałanie zanieczyszczeniom

8.2. Wybrane instrumenty przeciwdziałania zanieczyszczeniu 8.2.1. Pozwolenia emisyjne 8.2.1.1. Pozwolenie zintegrowane

8.2.1.2. Pozwolenie na wprowadzanie gazów i pyłów do powietrza

8.2.2. Przeglądy ekologiczne

8.2.3. Prawne mechanizmy zapobiegania poważnym awariom przemysłowym

8.3. Środki finansowo-prawne 8.3.1. Zasada „zanieczyszczający płaci”

8.3.2. Opłaty i administracyjne kary pieniężne jako instrumenty finansowo-prawne ochrony środowiska

8.4. Formy odpowiedzialności za warunki korzystania ze środowiska 8.4.1. Pojęcie „odpowiedzialności prawnej” w ochronie środowiska

8.4.2. Odpowiedzialność administracyjna 8.4.2.1. Sankcyjna decyzja zobowiązująca

8.4.2.2. Sankcyjna decyzja zobowiązująca o charakterze finansowym

8.4.2.3. Sankcyjna decyzja wstrzymująca

8.4.3. Odpowiedzialność cywilna

8.4.4. Odpowiedzialność karna

8.5. System prawa gospodarki odpadami 8.5.1. Prawna regulacja gospodarki odpadami w systemie prawa ochrony środowiska 8.5.1.1. Odpady komunalne

8.5.1.2. Odpady wydobywcze

8.5.1.3. Szczególne zasady gospodarowania niektórymi rodzajami odpadów

8.5.1.4. Gospodarka opakowaniami

8.5.1.5. Gospodarka zużytym sprzętem elektrycznym i elektronicznym

8.5.1.6. Gospodarka pojazdami wycofanymi z eksploatacji

8.5.1.7. Postępowanie z innymi rodzajami odpadów

8.6. Literatura

9. Ocena oddziaływania na środowisko 9.1. Dostęp do informacji o środowisku

9.2. Udział społeczeństwa w postępowaniach dotyczących środowiska

9.3. Postępowanie w sprawie oceny oddziaływania na środowisko 9.3.1. Procedura administracyjna oceny oddziaływania na środowisko

9.3.2. Screening (ustalenie obowiązku przeprowadzenia oceny)

9.3.3. Scoping (ustalenie zakresu oceny)

9.3.4. Metody oceniania stanu środowiska

9.3.5. Metody oceny wpływu środowiskowego

9.3.6. Wariantowanie oddziaływań

9.3.7. Działania zapobiegające i kompensujące

9.3.8. Monitorowanie oddziaływań

9.3.9. Raport oceny oddziaływania na środowisko

9.3.10. Autorzy raportu o oddziaływaniu na środowisko

9.3.11. Karta informacyjna przedsięwzięcia

9.4. Strategiczna ocena oddziaływania na środowisko

9.5. Oddziaływanie na obszary natura 2000

9.6. Transgraniczne oddziaływanie na środowisko

9.7. Procedury kontrolne oceny oddziaływania na środowisko

9.8. Literatura

10. Metody zarządzania środowiskowego 10.1. Uwagi wstępne

10.2. Zarządzanie prośrodowiskowe w przedsiębiorstwie

10.3. Znormalizowane systemy zarządzania środowiskowego 10.3.1. Zarządzanie środowiskowe według normy ISO 14001

10.3.2. System ekozarządzania i audytu EMAS

10.3.3. Narzędzia specjalne zarządzania środowiskowego 10.3.3.1. Znakowanie wyrobów ekologicznych

10.3.3.2. Pochłanianie gazów cieplarnianych

10.3.3.3. Zintegrowane systemy zarządzania w organizacji

10.4. Niestandardowe metody zarządzania środowiskowego 10.4.1. Program Czystszej Produkcji

10.4.2. Odpowiedzialność i Troska

10.5. Literatura

Afiliacje

Przypisy

A U T O R Z Y :

dr hab. inż. GRZEGORZ WIELGOSIŃSKI

prof. Politechniki Łódzkiej

Autor ROZDZ. 1 • Ochrona powietrza atmosferycznego

dr hab. inż. TADEUSZ WSZOŁEK

prof. AGH

Autor ROZDZ. 2 • Ochrona przed hałasem

prof. dr hab. inż. ANNA KARCZEWSKA

Autorka ROZDZ. 3 • Ochrona powierzchni ziemi

dr hab. inż. MAŁGORZATA WOLSKA

Autorka ROZDZ. 4 • Oczyszczanie wody

prof. dr hab. inż. KORNELIUSZ MIKSCH

Autor ROZDZ. 5 • Oczyszczanie ścieków

prof. dr hab. inż. CZESŁAWA ROSIK-DULEWSKA

Autorka ROZDZ.6 • Gospodarka odpadami

prof. dr hab. BARBARA SUROWSKA

Autorka ROZDZ. 7 • Ochrona przed korozją

dr hab. PIOTR KORZENIOWSKI

prof. Uniwersytetu Łódzkiego

Autor ROZDZ.8 • Gospodarcze prawo środowiska

dr inż. JACEK KRYSTEK

Autor ROZDZ. 9 • Ocena oddziaływania na środowisko

dr inż. TOMASZ POSKROBKO

Autor ROZDZ. 10 • Metody zarządzania środowiskowego

Działalność inżynierska (gospodarcza, przemysłowa) zwykle wiąże się z korzystaniem z zasobów środowiska. Oprócz wytwarzania oczekiwanych produktów powstają odpady (stałe, ciekłe i gazowe), które mogą niekorzystnie wpływać na nasze otoczenie, a przez nie na nas samych. W okresie rewolucji przemysłowej mało przejmowano się zagadnieniami ochrony środowiska, co wkrótce doprowadziło do wielu niekorzystnych zdarzeń. Już przed II wojną światową zdarzały się przypadki, że na powierzchni rzek, do których odprowadzano ścieki, ze względu na znaczną zawartość ropopochodnych, pojawiał się ogień. Ze względu na zanieczyszczenie powietrza odnotowywano zgony ludzi (Holandia – Dolina Mozy 1930 r., Londyn grudzień 1952 i styczeń 1956 r.). Oczywiście stan rzek wykluczał w nich obecność wielu form życia.

W końcu uświadomiono sobie, że należy podjąć jakieś działania chroniące środowisko, w którym żyjemy. 3 grudnia 1968 r. na XXIII sesji Zgromadzenia Ogólnego ONZ padły następujące słowa:

po raz pierwszy w historii ludzkości pojawił się kryzys o zasięgu ogólnoświatowym, obejmujący zarówno kraje rozwinięte, jak i rozwijające się – kryzys dotyczący stosunku człowieka do środowiska. Oznaki zapowiadające ten kryzys widoczne były od dawna – eksplozja demograficzna, niedostateczna integracja niezmiernie rozwiniętej techniki z wymogami środowisk […]. Stało się jasne, że wszyscy żyjemy w biosferze, której przestrzeń i zasoby, jakkolwiek olbrzymie, są jednak ograniczone.

Jeżeli zasoby środowiska są ograniczone, to należy je chronić i reglamentować. W wyniku tej refleksji został opracowany przez sekretarza generalnego ONZ raport Człowiek i środowisko, który od nazwiska autora nazywany jest raportem U Thanta. W dokumencie tym, opublikowanym 26 maja 1969 r., znalazła się informacja o:

najważniejszych zagrożeniach środowiska naturalnego;

klasyfikacji problemów ochrony środowiska na: lokalne, regionalne, krajowe i międzynarodowe (globalne);

randze problemów globalnych;

celach, zadaniach, miejscu i czasie konferencji ONZ na temat ochrony środowiska.

Konferencja „Człowiek i jego środowisko” odbyła się w czerwcu 1972 r. w Sztokholmie. Od tej pory najczęściej mówi się o współczesnych ruchach ekologicznych. Również od tej konferencji zaczęły się szerzej pojawiać rozwiązania prawne i techniczne ograniczania negatywnego wpływu działalności człowieka na środowisko.

Ochronę środowiska można podzielić na trzy typy działań:

zapobieganie negatywnemu oddziaływaniu;

ograniczanie skutków naszej działalności;

przywracanie zdegradowanego środowiska w wyniku naszej wcześniejszej działalności do jak najlepszego możliwego stanu.

Najważniejszym sposobem zmniejszania uciążliwości naszego wpływu na środowisko jest zapobieganie jego powstawaniu. W tym obszarze podejmuje się wszystkie możliwe działania, aby nie dopuścić do powstawania odpadów, a jeżeli jest to niemożliwe, to aby powstawały w jak najmniejszej możliwej ilości, a ich szkodliwość była minimalna. Jako sposób takiego rozumowania można wymienić rozwijaną ostatnio koncepcję „gospodarki o obiegu zamkniętym”, czyli maksymalnym zwiększeniu recyklingu oraz ponownego użycia zamiast zużywania surowców pierwotnych. Innym rozwiązaniem zmniejszania uciążliwości może być konieczność przeprowadzania oceny oddziaływania na środowisko planowanych przedsięwzięć oraz wybieranie wariantu najmniej szkodzącego środowisku.

Ograniczanie negatywnych skutków naszej działalności jest starym rozumieniem ochrony środowiska. Polega ona likwidacji wytworzonych odpadowych substancji czy też niedopuszczaniu do wyemitowania powstałych gazów i ścieków, dlatego działania te określa się „koncepcją końca rury”. Jako przykład takiej działalności możemy wskazać systemy odpylania czy odsiarczania gazów, a także systemy oczyszczania ścieków komunalnych lub przemysłowych. Może to dotyczyć również przetwarzania odpadów (recyklingu, odzysku, unieszkodliwiania, ostatecznego składowania). Przez przywracanie zdegradowanego środowiska do stanu optymalnego rozumiemy wszelkie formy rekultywacji środowiska czy działań usuwania ze środowiska substancji niebezpiecznych. Niniejszy podręcznik ma za zadanie wprowadzać w podstawowe zagadnienia inżynierii środowiska, z którymi mogą się zetknąć inżynierowie w praktyce przemysłowej.

W podręczniku scharakteryzowano zagadnienia związane z ochroną atmosfery, wód, powierzchni ziemi, ochrony przed hałasem, gospodarki odpadami oraz ochrony przed korozją. Przedstawiono również podstawowe akty prawne dotyczące ochrony środowiska, systemy zarządzania środowiskiem oraz procedurę oceny oddziaływania na środowisko. Poszczególne rozdziały dotyczą elementów lub metod ochrony środowiska. Musimy jednak pamiętać, że środowisko jest całością i podejmując nasze działania, powinniśmy pamiętać o zasadzie globalnej ochrony, czyli o tym, że „ochrona jednego lub kilku elementów przyrodniczych powinna być realizowana z uwzględnieniem ochrony pozostałych elementów” (art. 5 ustawy Prawo ochrony środowiska, dalej zwane POŚ).

Materia w środowisku migruje. Gazy i pyły wprowadzane do atmosfery po jakimś czasie mogą opadać na ziemię i do wód (depozycja sucha). Mogą być również wymywane z atmosfery wraz z opadami (depozycja mokra). Tym samym zanieczyszczenia znajdujące się pierwotnie w powietrzu przechodzą do ziemi lub do wód. Podobnie substancje wprowadzane do wód mogą ulegać sedymentacji i tworzyć osady denne. Istnieje ryzyko, że przedostaną się do gleby w wyniku okresowego wylewania rzeki.

Jeżeli substancje wprowadzane do atmosfery szybko się w niej rozchodzą, to tym samym następuje ich szybka migracja. Przekroczone stężenia substancji szkodliwych w atmosferze jest skutecznie eliminowane w wyniku zjawisk meteorologicznych (poza wyjątkowymi sytuacjami – smog). Podobnie substancje w wodzie, szczególnie w wodzie płynącej, są skutecznie transportowane i rozcieńczane. Inaczej wygląda sytuacja w środowisku glebowym. Tutaj zanieczyszczenia zwykle utrzymują się długo, gdyż brak naturalnych mechanizmów transportu. Co więcej, mogą one przedostawać się do wód gruntowych i podziemnych, ale ten proces najczęściej jest znacznie wolniejszy.

Należy również pamiętać, że środowisko zanieczyszczają nie tylko substancje, ale również energia. Najbardziej dokuczliwy dla człowieka jest najczęściej hałas, który może powstawać w wyniku funkcjonowania instalacji przemysłowych, jak i infrastruktury komunikacyjnej.

Zapominamy często również o problemie odpadów, co uwidacznia się nawet w stosowanej terminologii. Często mówimy o wysypiskach śmieci. Tak naprawdę są to składowiska. Przyszłe pokolenia prawdopodobnie będą musiały się zmierzyć z problemami, które my obecnie im szykujemy. Ale śmieci zostają w jednym miejscu, jeżeli są właściwie zabezpieczone. Lekkie frakcje odpadów mogą być łatwo wywiewane poza miejsca ich złożenia. Ich dużą część stanowią odpady z tworzyw sztucznych lżejszych od wody. Jeżeli taki odpad dostanie się do rzeki, to na jej powierzchni wędruje do oceanów. Tam w wyników prądów morskich tworzą się plamy śmieci. Najbardziej znana z nich to Wielka Pacyficzna Plama Śmieci, które jest największym składowiskiem odpadów na świecie. Powolne rozpadanie się tworzyw sztucznych prowadzi do powstania coraz mniejszych cząstek, a ostatecznie pyłu. Wiele gatunków zwierząt umiera, ponieważ ich organizmy nie mogą strawić cząstek, które trafiają do ich przewodów pokarmowych. Odpady pływające po powierzchni wody ograniczają również dostęp światła słonecznego, co może wpływać na zmniejszenie produkcji biomasy roślinnej.

Często przez pojęcie „ochrony środowiska” rozumie się tylko działania inżynierskie. Zapomina się, że rodzaj możliwego do zastosowania działania ma obecnie uzasadnienie prawne. Dlatego specjaliści ochrony środowiska muszą orientować się w obowiązujących przepisach prawnych. Specyficznym rodzajem procedury prawnej jest ocena oddziaływania na środowisko, przeprowadzana zwykle na etapie planowania przedsięwzięcia.

Kolejnym nieinżynierskim sposobem ochrony środowiska są systemy zarządzania środowiskowego. Mają one za zadanie stosować w strukturze zarządzania całym przedsiębiorstwem narzędzi, które umożliwiają kontrolę wpływu danego zakładu na środowisko, a tym samym zmniejszanie jego negatywnego oddziaływania.

Jest zrozumiałe, że ten podręcznik nie jest w stanie wyjaśnić wszystkich wątpliwości i dostarczyć koniecznej wiedzy. Ma on za zadanie wprowadzić w tematykę inżynierii środowiska i odesłanie w koniecznych przypadkach do szczegółowych opracowań poszczególnych tematów. Autorzy wyrażają nadzieję, że ta książka będzie podstawowym opracowaniem dotyczącym ochrony środowiska dla specjalistów, a także studentów, zwłaszcza kierunków technicznych. Akty prawne podano w książce według stanu na lipiec 2018 r.

1.1. SKŁAD I STRUKTURA ATMOSFERY

Atmosfera ziemska to najbardziej zewnętrzna gazowa część naszej planety. Obecność atmosfery i jej skład mają istotny wpływ na życie na Ziemi. Atmosfera chroni organizmy żywe przed częścią wysokoenergetycznego promieniowania elektromagnetycznego i cząstkami promieniowania kosmicznego, a także pozwala na utrzymanie w przybliżeniu stałej temperatury powierzchni Ziemi. Składa się ona z mieszaniny gazów zwanej „powietrzem”. Masę atmosfery ziemskiej szacuje się na ok. 5,29 × 1018 kg, co stanowi jedynie ok. 0,0009% masy całej Ziemi. Oprócz mieszaniny gazów atmosfera ziemska zawiera unoszącą się w niej zawiesinę cząstek stałych i ciekłych zwaną „aerozolem atmosferycznym”. Przeciętny skład suchego powietrza atmosferycznego przedstawia tab. 1.1.

Podany w tabeli skład suchego powietrza w atmosferze ziemskiej jest bardzo zróżnicowany. Pewne gazy występują w ilościach znaczących (azot, tlen oraz argon) stanowiące ponad 99% całej atmosfery ziemskiej, inne w ilościach śladowych (ozon, tlenki azotu, amoniak, związki siarki). Ponadto w atmosferze ziemskiej występuje para wodna. Jej zawartość w powietrzu (0,02–4%) bardzo silnie zależy od klimatu oraz położenia na kuli ziemskiej – inna jest nad oceanami na równiku, w pobliżu biegunów czy nad lądami.

Tab. 1.1. Przeciętny skład chemiczny atmosfery ziemskiej [Iribarne, Cho 1988]

Lp.

Składnik atmosfery

Symbol

Udział [%]

Udział [p.p.m.]

1.

Azot

N2

78,084

780 840

2.

Tlen

O2

20,946

209 460

3.

Argon

Ar

0,9340

9340

4.

Ditlenek węgla

CO2

0,0360

332

5.

Neon

Ne

18

6.

Hel

He

5,2

7.

Metan

CH4

1,65

8.

Krypton

Kr

1,1

9.

Wodór

H2

0,58

10.

Podtlenek azotu

N2O

0,33

11.

Tlenek węgla

CO

0,20

12.

Ksenon

Xe

0,09

13.

Ozon

O3

0,1–0,01

14.

Tlenki azotu

NO/NO2

0,01–0,00001

15.

Amoniak

NH3

0,001–0,0001

16.

Ditlenek siarki

SO2

0,0001–0,00001

17.

Siarkowodór

H2S

poniżej 0,000001

Podstawowe właściwości powietrza to brak zabarwienia, brak smaku i zapachu oraz słaba rozpuszczalność w wodzie. Gęstość powietrza zależy od ciśnienia i temperatury oraz w pewnym zakresie również od składu, w szczególności zawartości pary wodnej. Pod ciśnieniem normalnym temperatura topnienia (krzepnięcia) powietrza wynosi ok. –213°C, natomiast temperatura wrzenia (skraplania) ok. –193°C. Po skropleniu powietrze przybiera barwę niebieską.

Zmiany temperatury w przekroju pionowym, zmiany składu chemicznego i stopnia jonizacji cząsteczek atmosfery są podstawą wydzielania (zgodnie z rys. 1.1) warstw zwanych „sferami”. Mieszanie się powietrza powoduje, że nie można między nimi wyznaczyć wyraźnych granic. Granicami są cienkie strefy przejściowe zwane umownie „pauzami”. Ustalono, że nazwa pauzy pochodzi od nazwy sfery leżącej bezpośrednio poniżej.

Pionowa struktura atmosfery jest niejednorodna. Ciśnienie atmosferyczne, które na poziomie morza wynosi średnio 1013 hPa (ok. 0,1 MPa, 1 atm, 760 mm Hg), wraz ze wzrostem wysokości szybko, w przybliżeniu wykładniczo, spada. Już na wysokości ok. 5 km wynosi tylko połowę wartości osiąganej na poziomie morza, na wysokości ok. 20 km jest równe ok. 5% wartości na poziomie morza, a na wysokości 100 km – ok. 0,0002% tej wartości. Przyjmuje się, że spada ono praktycznie do zera na wysokości ok. 500 km. Podobnie maleje z wysokością gęstość powietrza atmosferycznego.

Na poprzedniej stronie:

Rys. 1.1. Budowa atmosfery, rozkład temperatur w atmosferze [Iribarne, Cho 1988]

Oszacowano, że ok. 75% masy atmosfery ziemskiej mieści się w warstwie sięgającej od powierzchni Ziemi do wysokości 10 km, a 99% w warstwie sięgającej wysokości 50 km. W stosunku do wymiarów Ziemi atmosfera jest warstwą bardzo cienką, a gdyby przyjąć, że gęstość powietrza w atmosferze jest stała i równa gęstości panującej na poziomie morza, to wysokość ta byłaby mniejsza niż 10 km. Pomimo relatywnie niewielkiej grubości i masy nawet tak cienka i delikatna warstwa gazu wystarcza do stworzenia na powierzchni planety warunków korzystnych dla rozwoju życia.

Stan pseudorównowagi termicznej Ziemi objawia się tym, że średnia temperatura panująca na powierzchni Ziemi liczona w przedziale milionów lat jest w przybliżeniu stała i wynosi ok. 15°C. Jeżeli jednak przeanalizujemy mniejsze przedziały czasu, wynoszące tysiące lub setki lat, to można dostrzec duże zmiany temperatury rzędu nawet kilkunastu stopni. Wynikają one m.in. ze zmian w cyklu promieniowania słonecznego, ruchów skorupy ziemskiej, a przede wszystkim z cykli astronomicznych. To one powodują, że klimat ziemski, który jest kształtowany przez oddziaływania między powierzchnią Ziemi a atmosferą, ulega ciągłym zmianom. Ta zmienność jest regularna i występowała przed i po pojawieniu się człowieka na Ziemi.

Obecnie jesteśmy w wyraźnym cyklu ocieplenia klimatu. Wyższa temperatura sprawia, że następuje proces topienia się lodowców i uwalniania zmagazynowanych w hydratach olbrzymich ilości CO2. Rrównocześnie ze wzrostem temperatury maleje rozpuszczalność CO2 w wodach oceanów. Procesy zmian stężenia CO2 w atmosferze stosunkowo dobrze korelują się ze zmianami temperatury Ziemi.

Zjawiska fizyczne, fizykochemiczne oraz procesy chemiczne zachodzące w atmosferze mają bezpośredni wpływ na stan zanieczyszczenia powietrza atmosferycznego, a tym samym na stan środowiska naturalnego oraz jakość życia zamieszkujących te tereny ludzi. Drugim decydującym czynnikiem wpływającym na zanieczyszczenie powietrza atmosferycznego jest antropogeniczna działalność człowieka.

1.2. TRANSPORT ZANIECZYSZCZEŃ W ATMOSFERZE

Wprowadzenie zanieczyszczeń (skażeń) do środowiska nazywać będziemy „emisją”, a miejsce (źródło) wprowadzania tych zanieczyszczeń „emitorem”. Rozprzestrzenianie się (rozpraszanie) zanieczyszczeń w atmosferze odbywa się jednocześnie na drodze dyspersji, której mechanizm opiera się na 1) dyfuzji fizycznej zanieczyszczeń, tj. migracji molekularnej zanieczyszczeń z miejsc, gdzie występują one w wysokich stężeniach, do miejsc, gdzie te stężenia są niższe; 2) konwekcji, czyli przenoszeniu większych mas powietrza na skutek różnicy temperatur; oraz na drodze 3) adwekcji, tj. przenoszenia zanieczyszczeń przez wiatr. Rozprzestrzeniające się w atmosferze zanieczyszczenia docierają następnie do poszczególnych elementów środowiska – powierzchni ziemi, wody, elementów przyrody itp. Proces ten nazywamy „immisją” [Juda, Chróściel 1974]. Ilustrację graficzną podanych powyżej określeń przedstawia rys. 1.2.

Rys. 1.2. Rozprzestrzenianie się zanieczyszczeń w atmosferze – ilustracja pojęć: emisja (E), imisja (I) oraz dyspersja i adwekcja (D)

Sposób wprowadzania zanieczyszczeń do środowiska (powietrza) może być różny. Emitory możemy podzielić, biorąc pod uwagę różne kryteria. Pierwszy podział – to emitory wprowadzające zanieczyszczenia w sposób zorganizowany (np. z wykorzystaniem wentylatora) oraz w sposób niezorganizowany (np. wentylacja grawitacyjna, emitory powierzchniowe i liniowe itp.). W skrajnym przypadku emisja niezorganizowana może odbywać się również przez otwarte okno. W analizie problemów zanieczyszczenia powietrza podstawową uwagę zwraca się przede wszystkim na źródła zorganizowane.

Drugi podział bierze pod uwagę geometrię źródła. W tym przypadku wyróżnia się emitory punktowe (jest ich zdecydowana większość), w których emisja wprowadzana jest do powietrza w sposób zorganizowany w jednym konkretnym punkcie. Taki emitor charakteryzuje się przez jego wysokość i średnicę, a także przez sposób wprowadzania zanieczyszczeń – czy jest to emitor pionowy otwarty, pionowy zadaszony, czy też emitor poziomy. W sporadycznych przepadkach spotyka się również emitory o wylocie skierowanym ku dołowi.

Druga grupa to emitory powierzchniowe, gdzie emisja (najczęściej niezorganizowana) odbywa się z powierzchni płaskiej (np. gruntu, zbiornika wodnego lub cienkiej warstwy bezpośrednio do niej przylegającej) o określonych wymiarach, najczęściej z niewielką prędkością, gdzie wysokość emitora jest znacznie mniejsza od jego wymiarów poziomych (np. średnicy). Przykładem emitorów powierzchniowych mogą być np. komory napowietrzania oczyszczalni ścieków, powierzchnie nieuszczelnionych i nieodgazowanych składowisk odpadów, hałdy pylących materiałów stałych (np. popiołów lotnych) itp.

Trzecia grupa to emitory liniowe, zbliżone do emitorów powierzchniowych, gdzie jeden z poziomych wymiarów geometrycznych emitora jest znacznie mniejszy od drugiego, podobnie jak znacznie mniejsza od poziomych wymiarów geometrycznych jest jego wysokość. Przykładem emitorów liniowych są drogi, autostrady będące źródłem emisji spalin samochodowych czy kanały ściekowe emitujące zanieczyszczenia. Jako emitor liniowy może być traktowany również rząd emitorów punktowych położonych bardzo blisko siebie.

Trzeci podział – to lokalizacja emisji. W tym obszarze wyróżniamy emitory stacjonarne, gdy emitor jest położony w ściśle określonym miejscu bez możliwości przemieszczania się, oraz emitory ruchome, gdy jego lokalizacja się zmienia, np. rura wydechowa (wylot spalin samochodowych) pojazdu poruszającego się po drodze. W przypadku gdy analizujemy ruch wielu pojazdów, możemy przypisać konkretną, sumaryczną emisję określonemu odcinkowi, wtedy z pojedynczego emitora punktowego poruszającego się wzdłuż drogi otrzymujemy emitor liniowy o emisji stacjonarnej. Zdecydowana większość emitorów, których emisja jest rozpatrywana w kontekście zgodności z obowiązującym przepisami i analizowana w kontekście możliwości redukcji, są emitorami stacjonarnymi.

Ostatni podział – to podział na emisję ciągłą i impulsową (zmienną). Emisja impulsowa to emisja, która odbywa się w pewnych przedziałach czasu. Czas emisji, przerwy między okresami emisji oraz intensywność emisji mogą być stałe lub zmienne, natomiast emisja ciągła zachowuje swoje parametry (objętościowy przepływ, temperatura, wielkość emisji) praktycznie stałe. W rzeczywistości żadna emisja nie jest stała i występują niewielkie zmiany zarówno przepływu gazów odlotowych, jak i ich temperatury czy stężeń emitowanych zanieczyszczeń, jednakże jeżeli te odchylenia są niewielkie, emisję traktujemy jako emisję ciągłą i stałą. Oczywiście jest wiele procesów technologicznych w przemyśle prowadzonych w sposób okresowy, z których emisja ma charakter zmienny, często impulsowy, wtedy analiza emisji odbywa się w określonych interwałach.

Rys. 1.3. Zmiany emisji ditlenku siarki (SO2), tlenków azotu (NO2), lotnych związków organicznych (LZO) oraz pyłów w latach 1990–2014 [GUS]

W wartościach bezwzględnych wielkość emisji podstawowych zanieczyszczeń w 2014 r. w Polsce, według GUS, wyniosła:

ditlenek siarki SO2 – 847 tys. Mg;

ditlenek azotu NO2 – 798 tys. Mg;

pyły – 407 tys. Mg;

LZO – 919 tys. Mg;

ditlenek węgla CO2 – 322 900 tys. Mg;

tlenek węgla CO – 2876 tys. Mg;

amoniak NH3 – 263 tys. Mg.

1.2.1. Smog

Określenie „smog” pochodzi od połączenia dwóch angielskich słów: smoke (dym) oraz fog (mgła). Oznacza ono silne zanieczyszczenie powietrza w przyziemnej warstwie atmosfery, spowodowane kumulacją zanieczyszczeń przy powierzchni ziemi na skutek niekorzystnych warunków meteorologicznych oraz znacznej emisji zanieczyszczeń z niskich emitorów. Ogólnie rozróżnia się dwa rodzaje smogu:

smog kwaśny (londyński);

smog fotochemiczny (typu Los Angeles).

Z etymologicznego punktu widzenia jedynie smog londyński (kwaśny) powinien być nazywany „smogiem”, gdyż jest on ściśle związany z emisją toksycznych składników spalin oraz mgłą. Historycznie był obserwowany na terenie Londynu już pod koniec XIX w. – stąd jego nazwa. Występuje on głównie w miesiącach od listopada do stycznia podczas inwersji temperatur w umiarkowanej strefie klimatycznej. Inwersja temperatur to specyficzny, nietypowy rozkład temperatury z wysokością nad powierzchnią ziemi, kiedy to temperatura powietrza rośnie z wysokością, a nie maleje, jak wynika to m.in. z praw termodynamiki. Zjawisko takie występuje często, gdy nad wychłodzone podłoże napływa strefa cieplejszego, wilgotnego powietrza. Pionowe ruchy w atmosferze są wtedy silnie hamowane, a przy słabym wietrze lub bezwietrznej pogodzie następuje koncentracja zanieczyszczeń przy powierzchni ziemi. Duża wilgotność powietrza przy stosunkowo niskiej temperaturze przy powierzchni ziemi sprzyja powstawaniu mgły. Głównymi składnikami smogu londyńskiego są gazy kwaśne emitowane z procesów spalania, takie jak: ditlenek siarki SO2, tlenki azotu NOx (jako suma tlenku NO i ditlenku azotu NO2), tlenek węgla CO, ditlenek węgla CO2, sadza (węgiel elementarny C) oraz pyły. Pochodzą one z procesów spalania prowadzonych w niewielkich indywidualnych urządzeniach grzewczych, gdzie warunki spalania są dalekie od termodynamicznego ideału – spalania całkowitego i zupełnego, a spaliny wprowadzane są do powietrza przez emitory o niewielkiej wysokości. Przy powierzchni ziemi tworzy się wówczas kwaśny aerozol, który działa toksycznie na ludzi i środowisko, a w przypadku części populacji także alergicznie już w niewielkich stężeniach [Wielgosiński, Zarzycki 2018].

Można powiedzieć, że przeciwieństwem smogu londyńskiego jest smog fotochemiczny typu Los Angeles. Określenie to pochodzi od miejsca, gdzie po raz pierwszy zaobserwowano i opisano to zjawisko. Powstaje on przede wszystkim w miesiącach letnich, w strefach subtropikalnych, przy intensywnym nasłonecznieniu, przy temperaturze powietrza powyżej 28–30°C. Powstawaniu smogu fotochemicznego sprzyjają również słabe wiatry lub bezwietrzna pogoda oraz zjawisko inwersji temperatury. Głównymi składnikami smogu fotochemicznego są tlenki azotu NOx (jako suma tlenku NO i ditlenku azotu NO2), tlenek węgla CO, ditlenek węgla CO2 oraz węglowodory. Źródłem tych zanieczyszczeń są przede wszystkim spaliny samochodowe. Związki te ulegają później reakcjom fotochemicznym, w wyniku których powstaje m.in. ozon – O3, bardzo silny utleniacz powodujący choroby płuc oraz zniszczenia w świecie roślinnym na obszarach występowania smogu i terenach sąsiednich. Drugim ważnym, toksycznym zanieczyszczeniem powstającym podczas smogu fotochemicznego są aldehydy (np. formaldehyd). Uproszczony schemat przebiegu reakcji pokazano poniżej:

(1.1)

(1.2)

(1.3)

Wartym odnotowania jest fakt, że powstający w wyniku smogu ozon odpowiada za ogromne straty w uprawach winogron i pomarańczy na terenie Kalifornii. Dziś smogiem fotochemicznym zagrożonych jest większość wielkich aglomeracji miejskich, szczególnie w krajach szybko rozwijających się – np. Pekin, Szanghaj, Delhi, Mexico City, Santiago de Chile, gdzie w sposób lawinowy rośnie liczba pojazdów, a w okresie letnim temperatury często przekraczają 30°C, przy jednocześnie częstym występowaniu inwersji temperatury i słabych wiatrów [Wielgosiński, Zarzycki 2018].

W ostatnich latach prasa, radio i telewizja przynoszą coraz częściej informacje o fatalnym stanie jakości powietrza w polskich miastach. Według raportu Europejskiej Agencji Ochrony Środowiska na 27 najbardziej zanieczyszczonych europejskich miast znalazło się aż 21 polskich. Wynika to z nagminnego przekraczania dopuszczalnych stężeń w powietrzu atmosferycznym dla pyłu zawieszonego PM10, PM2,5 oraz benzo(a)pirenu. Określenie „polski smog” jest neologizmem, gdyż dotychczas takie pojęcie nie było używane. Powstało ono, aby odróżnić pojawiające się coraz częściej w polskich miastach zjawiska od znanych z literatury i wielokrotnie opisywanych: smogu kwaśnego (londyńskiego) i smogu fotochemicznego (kalifornijskiego).

„Polski smog” różni się od tych dwóch przede wszystkim składem – składają się na niego głównie cząstki pyłu – zarówno PM10, jak i PM2,5, a także PM1, sadzy oraz licznych wielopierścieniowych węglowodorów aromatycznych, w tym benzo(a)pirenu. Można więc użyć także innego określenia „smog pyłowy”. Są to zanieczyszczenia typowe dla procesu spalania paliw stałych w piecach o niskiej sprawności przy braku systemów oczyszczania spalin – czyli mówiąc prościej: piecach domowych. Używając szerszego określenia, podstawową przyczyną złej jakości powietrza w polskich miastach jest „niska emisja” – czyli emisja z domowych systemów grzewczych opalanych paliwami stałymi oraz ruch samochodowy, w szczególności wyeksploatowanych pojazdów bez katalizatorów. Jeżeli dodamy do tego stosunkowo często występujące w Polsce w okresie zimowym zjawiska inwersyjne (np. po okresie mrozów i cyrkulacji wschodniej napływ z zachodu cieplejszych mas polarno-morskich czy okresy pogody wyżowej o wysokim ciśnieniu, braku zachmurzenia i słabym wietrze), okazuje się, że na wielu obszarach kraju tworzą się doskonałe warunki do powstawania smogu – przede wszystkim pyłowego, ale także czasami kwaśnego typu londyńskiego.

Charakterystyczną cechą „polskiego smogu” jest jego powstawanie przy pogodzie wyżowej i ujemnych temperaturach powietrza. W okresie zimowym wiąże się to często z pogodą bezchmurną, czego efektem są znaczne nocne spadki temperatury i powstawanie inwersji. Ponadto przy niskich temperaturach rośnie zapotrzebowanie na ciepło, dlatego w tym okresie zwiększa się emisja zanieczyszczeń z indywidualnych systemów grzewczych. Skutkiem tego jest koncentracja pyłów w przyziemnej części atmosfery wielokrotnie przekraczającej dopuszczalne poziomy – czyli smog pyłowy. Ciekawostką jest to, że najczęściej nie towarzyszy mu przekraczanie dopuszczalnych stężeń SO2 czy CO, tak typowe dla „smogu londyńskiego” [Wielgosiński, Zarzycki 2018].

Natomiast w okresie letnim, przy temperaturach często przekraczających 30°C, na terenach wielu polskich miast, szczególnie obciążonych znacznym ruchem samochodowym, powstają doskonałe warunki do tworzenia się smogu fotochemicznego typu Los Angeles. Od lat mówi się o konieczności realizacji programów likwidacji „niskiej emisji” (tzn. emisji z emitorów o niewielkiej wysokości – z emitorów indywidualnych węglowych urządzeń grzewczych lokali mieszkalnych oraz emisji samochodowej), ale najczęściej kończy się to tylko na deklaracjach. Warunkiem likwidacji „niskiej emisji” w miastach, a tym samym warunkiem poprawy jakości powietrza w polskich miastach, jest:

budowa obwodnic wyprowadzających ruch tranzytowy z centrów miast;

ścisłe egzekwowanie skuteczności działania katalizatorów samochodowych wraz z bezwzględną odmową rejestracji samochodów niespełniających norm emisji spalin;

likwidacja ogrzewania węglowego w centrach miast;

preferowanie centralnego ogrzewania z elektrociepłowni miejskich jako podstawowego źródła zaopatrzenia w ciepło centrów miast;

bezwzględne przestrzeganie i egzekwowanie zakazu spalania odpadów w piecach domowych.

Skutki smogu są bardzo poważne. Wśród najczęściej obserwowanych można wymienić:

choroby układu oddechowego, w tym astma, przewlekła obturacyjna choroba płuc, alergia, katar, kaszel, ból gardła itp.;

choroby układu krążenia – miażdżyca, nadciśnienie tętnicze, niewydolność serca, zawał itp.;

nowotwory, w tym szczególnie rak płuc, gardła i krtani;

dolegliwości ze strony układu nerwowego, w tym problemy z pamięcią i koncentracją, depresja, szybsze starzenie się układu nerwowego oraz większe ryzyko choroby Alzheimera.

1.2.2. Kwaśne deszcze

Encyklopedyczna definicja mówi, że kwaśne deszcze to opady atmosferyczne o odczynie pH mniejszym niż 5,6. Powstają one w wyniku absorpcji w wodzie kwaśnych zanieczyszczeń powietrza, takich jak: SO2, SO3, NOx (NO + NO2), a także CO, CO2, HCl, HBr, HF oraz H2S. Pierwszy raz zjawisko zostało opisane już w 1692 r. przez Roberta Boyle w książce A General History of the Air (Historia powietrza), natomiast określenie to pojawiło się dopiero w 1872 r. w książce Roberta Angusa Smitha Air and Rain: The Beginnings of Chemical Climatology (Powietrze i deszcz: podstawy klimatologii chemicznej).

Choć zjawisko to zostało odkryte i opisane w erze przedindustrialnej, to jest ściśle związane z rozwojem przemysłu i energetycznym spalaniem paliw. Ponieważ wszystkie paliwa zawierają pewne ilości siarki, to ich spalanie zawsze skutkuje emisją SO2, a także innych związków siarki. Siarka występuje w węglu kamiennym i brunatnym, ropie naftowej i gazie ziemnym, a także w drewnie. Praktycznie wszystkie paliwa zawierają związki azotu, dlatego ich spalaniu towarzyszy również emisja NOx. Ponadto w wysokich temperaturach dochodzi do syntezy tlenków azotu z tlenu i azotu zawartych w powietrzu. W powietrzu atmosferycznym zarówno SO2, jak i NOx ulegają reakcji fotokatalitycznego utleniania, a następnie absorpcji w wilgoci tworzącej chmury – w efekcie powstaje tam mieszanina kwasu siarkowego(VI) i azotowego(V).

W uproszczony sposób możemy zapisać przebieg tych reakcji jako:

(1.4)

(1.5)

Według danych literaturowych rekord świata padł w 1978 r. w miejscowości Wheeling (USA), gdzie pH opadu atmosferycznego wyniosło 2,0. Nieco wcześniej, bo w 1974 r., w szkockiej miejscowości Pitlochry zarejestrowano opad o pH = 2,3. Średnia kwasowość opadów obserwowanych w latach 1970–1981 na terenach uprzemysłowionych Niemiec, Francji i Czech wynosiła – pH = 3,4–4,5, przy czym typowy odczyn opadów atmosferycznych wynosi najczęściej pH = 5,0–6,5 (ze względu na absorpcję CO2 obecnego w atmosferze, pochodzącego nie tylko ze spalania paliwa, ale np. z oddychania ludzi i zwierząt). Ponieważ uszkodzenia ekosystemów (np. leśnych i wodnych) zaczynają się przy pH niższym od 4, jest oczywiste, że kwaśne deszcze powodowały i powodują znaczne zniszczenia w środowisku. Skutkiem kwaśnych deszczy są uszkodzenia lasów, zniszczenia upraw, zakwaszenie gleby, wód i śnięcie ryb, wymieranie mniej odpornych gatunków zwierząt, korozja metali i budynków, a także choroby płuc i przedwczesne zgony wśród ludności zamieszkującej obszary występowania wysokich stężeń SO2 i NOx oraz szkodliwych opadów.

Najbardziej spektakularnym przykładem niszczenia środowiska na skutek wysokich stężeń SO2 i NOx oraz kwaśnych deszczy jest obszar „czarnego trójkąta”, czyli terenów u zbiegu granic Polski, Czech i Niemiec. W latach 80. XX w. w rejonie tym (w obrębie koła o promieniu ok. 150 km) znajdowało się 14 elektrowni i elektrociepłowni w Niemczech, 20 elektrowni i elektrociepłowni w Czechach oraz jedynie pięć podobnych obiektów w Polsce.

Żadna z elektrowni i elektrociepłowni nie była w tym czasie wyposażona w systemy ograniczania emisji SO2 czy NOx. Przy dominującym kierunku wiatru z południowego zachodu na tereny Gór Izerskich oraz zachodniej części Karkonoszy napływały masy powietrza bardzo silnie zanieczyszczonego gazami kwaśnymi (SO2 i NOx), często pojawiały się kwaśne deszcze o pH poniżej 4.

Skutkiem takiej sytuacji było wymieranie lasów w rejonie Gór Izerskich oraz zachodniej części Karkonoszy i uznanie obszaru „czarnego trójkąta” za najbardziej zanieczyszczony obszar w Europie z największą depozycją związków siarki. Sytuacja zaczęła się poprawiać od początku lat 90. XX w., kiedy wszystkie trzy kraje (Polska, Czechy i Niemcy) zainwestowały znaczne środki w odsiarczanie i odazotowanie spalin w największych źródłach emisji SO2 i NOx. Na efekty tych działań trzeba było poczekać do końca lat 90. W rezultacie udało się osiągnąć znaczący postęp w redukcji emisji tych zanieczyszczeń. Obecnie wydaje się, że problem „kwaśnych deszczy” i zanieczyszczenia powietrza w rejonie „czarnego trójkąta” udało się rozwiązać. Rzeczywiście na tym obszarze nie odnotowuje się obecnie przekroczeń dopuszczalnych stężeń SO2 i NOx, a kwasowość opadów atmosferycznych jest już dziś w normie [Bright 1995, Brimblecombe i in. 2007].

Ogólnie problem kwaśnych deszczy w Europie udało się rozwiązać w latach 90. XX w. dzięki coraz ostrzejszym normom emisji zanieczyszczeń. Dziś, w drugiej dekadzie XXI w., wydaje się, że problem kwaśnych deszczy w Europie, w szczególności w krajach UE, praktycznie nie istnieje.

1.2.3. Efekt cieplarniany

Klimat na Ziemi od prehistorycznych czasów ulegał zmianom, były okresy cieplejsze i zimniejsze. Analiza klimatu ostatnich kilkunastu tysięcy lat, czyli po ustąpieniu ostatniego zlodowacenia umiarkowanej strefy klimatycznej Europy, kiedy to większość obszaru Europy Północnej była pokryta lądolodem, którego grubość przekraczała trzy kilometry, wykazała stosunkowo niewielkie fluktuacje temperatury. To wynik ustabilizowania składu chemicznego atmosfery ziemskiej oraz zjawiska zwanego „efektem cieplarnianym”.

W tym rozdziale przez „efekt cieplarniany” (inaczej: „szklarniowy”) rozumie się względnie szybki wzrost średniej temperatury przy powierzchni Ziemi, spowodowany obecnością gazów pochłaniających promieniowanie podczerwone (zwanych „gazami szklarniowymi” lub „cieplarnianymi”). Zjawisko efektu cieplarnianego wiąże się bezpośrednio ze zwrotnym promieniowaniem długofalowym, które dociera do powierzchni Ziemi. Jest ono wynikiem wcześniejszej absorpcji promieniowania przez gazy cieplarniane zawarte w atmosferze. Efekt ten jest w głównej mierze efektem naturalnym, który istnieje na Ziemi od momentu pojawienia się w atmosferze pary wodnej, ditlenku węgla, metanu oraz pozostałych gazów cieplarnianych. Gazy te wraz z tlenem i azotem atmosferycznym są praktycznie całkowicie przepuszczalne dla widocznej części promieniowania słonecznego, pochłaniają jednak wtórne promieniowanie cieplne Ziemi o większych długościach fali (promieniowanie podczerwone). Pochłanianie to następuje w niskich warstwach atmosfery, prowadząc do wzrostu jej temperatury.

Należy pamiętać, że bez efektu cieplarnianego nie rozwinęłoby się życie na Ziemi w takiej formie, w jakiej je dziś znamy, gdyż temperatura byłaby dużo niższa niż ta, obecnie. Obliczono, że średnia temperatura powierzchni Ziemi zamiast ok. +15°C, którą rejestrujemy średnio od ponad tysiąca lat, bez efektu cieplarnianego mieściłaby się w granicach –21°C÷–18°C. Bez efektu cieplarnianego Ziemia byłaby najprawdopodobniej zimną niezamieszkałą planetą.

Jednakże w XX w., w szczególności w jego drugiej połowie, wyraźnie zaznaczył się wzrostowy trend temperatury na całym świecie. Stosunkowo szybko i dosyć powszechnie uznano, że za to zjawisko odpowiedzialny jest efekt cieplarniany wywołany rosnącą z roku na rok emisją ditlenku węgla pochodzącego przede wszystkim z energetycznego spalania paliw kopalnych. Rzeczywiście jego stężenie w atmosferze systematycznie rośnie, ale czy ogromna, antropogeniczna emisja CO2 rzeczywiście wpływa na podwyższenie średniej temperatury Ziemi, jest sprawą dyskusji naukowej.

Hipoteza, że działalność człowieka może wpływać na klimat, nie jest nowa i została sformułowana już w 1827 r. przez Jeana Baptiste’a Josepha Fouriera. Skutki środowiskowe, ekonomiczne i społeczne wzrastającej emisji CO2 ze spalania paliw kopalnych opisał w 1896 r. szwedzki chemik Svante August Arrhenius, wskazując, że przyjazne dla życia temperatury na naszej planecie są najprawdopodobniej wynikiem obecności CO2. Gdyby nie ten gaz, klimat na Ziemi byłby znacznie surowszy. Jednocześnie Arrhenius zwrócił uwagę na korzystne oddziaływanie CO2 na rozwój rolnictwa w walce z głodem. Badacz ten przeprowadził też pierwsze obliczenia, wykazując, że podwojenie koncentracji CO2 w troposferze może spowodować globalny wzrost temperatury powierzchni Ziemi o 5–6°C, co mimo upływu czasu nie odbiega specjalnie od aktualnych maksymalnych wyników rozwiązań modeli matematycznych. Obliczenia te oparte były na pomiarach absorpcyjności CO2 dla promieniowania podczerwonego światła z Księżyca, wykonanych przez amerykańskiego astronoma Samuela Pierponta Langleya w 1878 r.

Nieco wcześniej, w 1863 r., John Tyndall, prowadząc badania zdolności absorpcyjnych pary wodnej i ditlenku węgla w zakresie promieniowania cieplnego, sformułował hipotezę, że znane z historii okresy globalnego oziębienia były wynikiem zmniejszania się koncentracji CO2 w atmosferze, co jednak nie zostało ostatecznie potwierdzone. W 1938 r. Guy Stewart Callender rozszerzył rozważania Arrheniusa na inne gazy cieplarniane. Stwierdził, że ich emisja musi doprowadzić w konsekwencji do istotnych zmian klimatycznych. Przeprowadził analizę dostępnych wyników pomiarów zmian temperatury atmosfery, potwierdzając poprawność przewidywań Arrheniusa. Był, podobnie jak Arrhenius, zwolennikiem poglądu, że wzrost temperatury powierzchni Ziemi będzie pozytywnie oddziaływał na rolnictwo, doprowadzając do wzrostu plonów oraz zwiększania powierzchni pól uprawnych.

W 1949 r. Callendar jako pierwszy sformułował tezę o możliwości ocieplenia atmosfery Ziemi w wyniku wzrostu koncentracji CO2 spowodowanej spalaniem paliw kopalnych. Obawy te, dotyczące negatywnych skutków wzrostu koncentracji CO2 w atmosferze, wywołanego działalnością człowieka, potwierdzili w 1957 r. Roger R.D. Revelle oraz Hans E. Suess. W tym samym roku rozpoczęto w obserwatorium astronomicznym w Mauna Loa na Hawajach ciągłe pomiary stężenia CO2 w powietrzu atmosferycznym, wykazując jej monotoniczny wzrost z czasem. Nie potwierdzają jednak tego wyniki pomiarów na innych szerokościach geograficznych. Mimo to doprowadziło to do sformułowania teorii o ujemnym wpływie na klimat rosnącego spalania paliw naturalnych [Archer 2010].

Istotnym efektem dyskusji o znaczeniu i skutkach efektu cieplarnianego, wzroście globalnej temperatury, wzroście stężenia CO2 w atmosferze i globalnym ociepleniu klimatu było zorganizowanie światowego szczytu klimatycznego w Rio de Janeiro w 1992 r. oraz konferencji klimatycznej w Kyoto w 1997 r. Szczyt Ziemi zgromadził ponad 25 tys. uczestników, głównie zwolenników poglądu globalnego ocieplenia wywołanego przez nadmierną emisję CO2, oraz najwyższych rangą polityków z ponad 160 krajów. Uznano wtedy, że zjawisko globalnego ocieplenia jest efektem działalności człowieka, co zostało udowodnione naukowo. Zaapelowano więc do rządów krajów uprzemysłowionych o ograniczenie emisji CO2 i innych gazów cieplarnianych do atmosfery w możliwie najkrótszym czasie i w możliwie dużym zakresie.

Jako jeden z najważniejszych argumentów podano, że całkowity wzrost średniej temperatury Ziemi od wielolecia 1850–1900 do wielolecia 2003–2013, obliczony na podstawie najdłuższego dostępnego zbioru danych (obserwatorium Mauna Loa na Hawajach), wynosi ok. 0,78°C (0,72–0,85°C), zaś od początku XVII w. zaobserwowano nieustanny wzrost stężenia CO2 z poziomu ok. 278 p.p.m. do ponad 380 p.p.m. Według najnowszych danych dziś stężenie CO2 w atmosferze przekracza już 400 p.p.m.

W atmosferze ziemskiej występuje pięć związków i grup związków chemicznych odpowiedzialnych za zjawisko efektu cieplarnianego. Nazywamy je „gazami cieplarnianymi” lub „gazami szklarniowymi”. Zaliczamy do nich:

ditlenek węgla – CO2;

metan – CH4;

chlorofluorowęglowodory – freony – CFCs (chlorofluorocarbons);

ozon – O3;

podtlenek azotu – N2O.

Listę tę uzupełnia para wodna. Wpływ poszczególnych ww. gazów na efekt cieplarniany jest bardzo różny. Ocenia się, że zdecydowanie największy wpływ ma para wodna. Jej udział jest szacowany na 33–60% (różnice wynikają z różnych założeń i metodyk liczenia przyjętych przez zespoły badaczy), a po uwzględnieniu chmur nawet 54–85%. Drugie miejsce zajmuje CO2 (9–26%), a trzecie – metan (4–18%). Wpływ pozostałych gazów: ozonu, podtlenku azotu i CFC, nie przekracza 3–7%, przy czym największy udział z nich na efekt cieplarniany ma ozon, a najmniejszy – podtlenek azotu. Szacuje się również, że emisja antropogeniczna CO2 stanowi jedynie ok. 2–6% emisji naturalnej. Dla celów porównawczych przyjęto potencjał cieplarniany CO2 jako jednostkowy, odnosząc do niego inne gazy cieplarniane.

Sam efekt cieplarniany jest naturalnym zjawiskiem charakterystycznym dla atmosfery ziemskiej, bez którego życie na naszej planecie byłoby praktycznie niemożliwe. Jest to zjawisko fizyczne i jego występowanie ogólnie nie wzbudza wątpliwości. Czy jednak obserwowane zmiany klimatyczne (ocieplanie się klimatu) są wynikiem rosnącej antropogenicznej emisji CO2, czy jest to normalny efekt zmian klimatycznych występujących cyklicznie na naszej planecie, czy też mają inne źródło, trudno jest jednoznacznie rozstrzygnąć. Społeczność naukowców jest bardzo podzielona wobec wyjaśnienia efektu cieprlarnianego, gdyż wiele czynników naturalnych może wpływać na zmiany klimatu. Za najważniejsze uważa się [Wielgosiński, Zarzycki 2018]:

1) 11-letni okres zmian związany z aktywnością Słońca (plamy słoneczne);

2) 60–70-letni okres związany z prędkością ruchu wirowego Ziemi (oddziaływanie na cyrkulację atmosferyczną);

3) okresowe zmiany punktów precesji równonocy wywołane oddziaływaniem grawitacyjnym Księżyca i Słońca o cyklu 26 tys. lat;

4) zmiany wielkości kąta nachylenia osi ziemskiej względem płaszczyzny ekliptyki w cyklu ok. 40–41 tys. lat;

5) zachodzące w cyklu ok. 90–100 tys. lat okresy zmian klimatycznych, związane ze zmianą kształtu orbity Ziemi (elipsa–koło), cykle Milankovicia.

Dziś jednak przeważa przekonanie, że za ocieplanie się klimatu odpowiada rosnąca antropogeniczna emisja gazów cieplarnianych. Organizacje międzynarodowe i rządy wielu krajów podjęło szeroko zakrojoną działalność w celu znaczącego ograniczenia ich emisji [Houghton 2015].

1.3. OCHRONA ATMOSFERY PRZED ZANIECZYSZCZENIAMI

1.3.1. Metody odpylania gazów

Pył znajdujący się w powietrzu pochodzi zarówno ze źródeł naturalnych, jak i ze źródeł antropogenicznych. Cząstki stałe wypływające z gazami z instalacji przemysłowych, jak również pył znajdujący się w powietrzu ma zwykle różne właściwości, które później determinują zastosowanie określonych metod odpylania gazów.

Podstawowymi parametrami charakteryzującymi pył są:

średnica cząstek (rozkład granulometryczny);

kształt cząstek;

gęstość materiału cząstek;

gęstość nasypowa;

kąt naturalnego zsypu;

zwilżalność wodą;

udział cząstek o wybranym zakresie średnic: PM10, PM2,5.

Średnica cząstek pyłu bardzo zależy od źródła emisji pyłu. Żadne urządzenie przemysłowe nie wprowadza do atmosfery cząstek o jednej ściśle określonej średnicy, stąd obok średnicy cząstek często ważniejszy jest ich rozkład granulometryczny. Przykładowe zakresu średnic cząstek pyłu pochodzącego z różnych źródeł podano w tab. 1.2.

Kształt cząstek pyłu wprowadzanego do atmosfery może być rozmaity (rys. 1.4), zależny od procesu technologicznego, z którego pochodzi, oraz składu chemicznego (należy pamiętać o prawach krystalografii). Najczęściej spotykamy cząstki:

sferyczne – węgiel aktywny, skrobia, pyły tlenków żelaza, PCV i inne tworzywa sztuczne, kulki szklane;

nieregularne – cement, korund, tlenki glinu, pigmenty organiczne;

płytkowe (płaskie) – mika, grafit;

stożkowe i walcowe – talk, mąka, sublimaty organiczne;

włókniste – włókna tekstylne, celuloza.

Tab. 1.2. Typowe średnice pyłów występujących w powietrzu [Zajączkowski 1971]

Rodzaj cząstek pyłu

Średnica [μm]

Sadza

0,001–0,4

Pył w silnikowych gazach spalinowych

0,01–0,1

Dym tytoniowy

0,01–0,4

Wirusy

0,02–0,2

Sól morska

0,02–1,5

Talk

0,1–1

Pył z hut

0,1–80

Bakterie

0,2–20

Kwaśne aerozole

0,5–20

Azbest

0,5–100

Zarodniki grzybów

1,0–10

Mgła

1,0–40

Lotny popiół

1,0–700

Pył cementowy

3,0–70

Ludzkie włosy

5,0–600

Pyłki kwiatowe

7,0–120

Trociny

15,0–800

Pył wapienny

30,0–1000

Para (aerozole)

40,0–400

Krople deszczu

500,0–5000

Rys. 1.4. Przykładowe kształty cząstek pyłu

Z kształtem cząstek wiąże się pojęcie „sferyczności cząstek”, czyli stosunek powierzchni kuli o takiej samej objętości danej cząstki do rzeczywistej powierzchni cząstki.

Gęstość materiału cząstek zależy od rodzaju materiału, z którego jest zbudowany. Przykładowo, gęstość cząstek żelaza (np. opiłków) wynosi ok. 7850 kg/m3. Mówimy wtedy o gęstości właściwej materiału. Najczęściej cząstki pyłu mają strukturę porowatą. Dlatego też gęstość właściwa cząstek jest zdecydowanie mniejsza od gęstości właściwej materiału. Istnieje prosty przelicznik pomiędzy obiema gęstościami: gęstość właściwa cząstki jest równa gęstości właściwej materiału pomnożonej przez wyrażenie (1 – ε), gdzie ε jest porowatością cząstek.

Usypane cząstki ciała stałego nie są jednolitą masą złożoną tylko z materiału tworzącego te cząstki. Jest w nim wiele przestrzeni międzyziarnowych wypełnionych powietrzem. Wtedy będziemy mówić o gęstości nasypowej, która jest zawsze niższa od gęstości właściwej. Różnica ta jest tym wyraźniej widoczna, im większe są cząstki danego materiału (większa średnica), wtedy większe są też przestrzenie pomiędzy ziarnami wypełnione powietrzem. Należy odróżnić porowatość materiału (ziarna) od porowatości złoża.

Kąt naturalnego zsypu to kąt, jaki tworzy się pomiędzy powierzchnią zewnętrzną stożka usypanego z danego materiału ziarnistego a poziomą podstawą, przy której rozpoczyna się zsypywanie materiału sypkiego. Jest on charakterystyczny dla danego materiału ziarnistego i najczęściej waha się w granicach 30–40°. Wielkość kąta naturalnego zsypu jest funkcją wilgotności materiału. Znajomość kąta naturalnego zsypu jest konieczna przy projektowaniu zasobników pylistych ciał stałych czy systemów odprowadzania pyłu wydzielonego w instalacjach odpylania gazów.

Zwilżalność wodą cząstek pyłu ma – obok ewentualnej rozpuszczalności ciała stałego w wodzie – zasadnicze znaczenie przy projektowaniu mokrych instalacji odpylania gazów. Ogólnie pyły dzielą się na hydrofilowe, czyli łatwo zwilżalne wodą, które będą ulęgać zjawiskom koagulacji i agregacji, oraz hydrofobowe – źle zwilżalne wodą.

Udział cząstek o wybranym zakresie średnic PM10 i PM2,5 jest bezpośrednio związany z rozkładem granulometrycznym cząstek pyłu. Pod nazwą pyłu PM10 rozumiemy cząstki o średniej mniejszej niż 10 μm (1 μm = 10–6 m), które ze względu na niewielką prędkość opadania (poniżej 1 cm/s) zwane są „pyłem zawieszonym”. Natomiast przez PM2,5 rozumiemy cząstki o średniej średnicy mniejszej niż 2,5 μm, które ze względu na łatwość wchłaniania do płuc zwane są „pyłem respirabilnym”. W stosowanej nomenklaturze pojawia się też często pojęcie PM1 – oznacza ono cząstki o średnicy poniżej 1 μm, będące de facto cząstkami sadzy (węgla elementarnego, black carbon), oraz określenie TSP (total suspended particles) oznaczające pył całkowity – czyli całkowitą ilość (stężenie) pyłu w gazach odlotowych (wszystkie frakcje).

W rejonach uprzemysłowionych, w miastach, gdzie dominuje indywidualne ogrzewanie węglowe, w powietrzu atmosferycznym udział pyłu PM1 w pyle zawieszonym wynosi od 50 do 70% (w zależności od sezonu – wyższe wartości w sezonie zimowym), zaś udział pyłu PM2,5 w pyle PM10 mieści się w granicach 70–90%. Głównym składnikiem pyłu PM1 jest węgiel elementarny (ok. 80%), zaś drugim najważniejszym składnikiem – ditlenek krzemu (SiO2, czyli inaczej krzemionka).

Usuwanie pyłu z gazów odlotowych określane jest „odpylaniem”. Urządzenie służące do ograniczania emisji pyłów, czy inaczej usuwania cząstek pyłów z gazów odlotowych, nazywane są „odpylaczami”. Ogólnie odpylacze pod względem konstrukcji oraz sposobu działania możemy podzielić na [Wielgosiński, Zarzycki 2018]:

mechaniczne suche;

mechaniczne mokre;

elektrostatyczne;

filtracyjne.

Prawidłowy dobór odpylacza nie jest łatwy, ponieważ istnieje bardzo wiele kryteriów doboru urządzenia i rozmaite konstrukcje. Warunkiem absolutnie koniecznym jest zawsze dotrzymanie wymogów prawnych, tj. standardów emisyjnych (art. 141 POŚ) oraz standardów jakości powietrza (art. 144 POŚ). Za najważniejsze kryteria doboru odpylacza uznaje się:

skuteczność odpylania;

minimalna wielkość odpylanych cząstek;

spadek ciśnienia;

koszty inwestycyjne;

koszty eksploatacyjne.

Miarą skuteczności odpylania (η) jest stosunek masy pyłu usuniętego w odpylaczu do masy pyłu w strumieniu gazów przed odpylaczem, co matematycznie wyraża zależność:

(1.6)

gdzie:

(1.7)

Zaś: modpyl – masa pyłu wyłapanego w odpylaczu, kg.

mcałkow – masa pyłu zawartego w gazach odlotowych przed odpylaczem, kg.

mwylot – masa pyłu zawartego w gazach odlotowych za odpylaczem, kg.

Do urządzeń wykorzystujących metody mechaniczne suche zaliczamy odpylacze grawitacyjne, w których odpylanie następuje pod wpływem siły ciężkości (komory osadcze, komory półkowe). Druga grupę odpylaczy mechanicznych suchych tworzą odpylacze inercyjne wykorzystujące siłę bezwładności obdarzonych masą cząstek pyłu (np. odpylacze żaluzjowe), a trzecią odpylacze odśrodkowe wykorzystujące istnienie siły odśrodkowej – jej wielkość jest odwrotnie proporcjonalne do promienia okręgu, po którym porusza się cząstka ciała stałego.

Komory osadcze czy komory półkowe są najprostszymi urządzeniami odpylającymi. Wykorzystują one to, że cząstki ciała stałego obdarzone są masą, a tym samym podlegają działaniu siły grawitacji. Cząstki pyłu zawarte w gazie poruszającym się z pewna prędkością są unoszone wraz z gazem, kiedy jednak na skutek np. zwiększenia przekroju poprzecznego kanału, którym przepływa gaz, liniowa prędkość gazu ulegnie znacznemu zmniejszeniu, prędkość opadania staje się współmierna z prędkością unoszenia tych cząstek przez gaz. Przykładowy schemat komory osadczej pokazano na rys. 1.5.

Komora osadcza nie należy do urządzeń o wysokiej skuteczności. Przy zachowaniu rozsądnych wymiarów udaje się w niej odpylać cząstki o średnicach rzędu 20–30 μm. Próba odpylania cząstek o średnicy ok. 5 μm oznacza konieczność budowy komory osadczej o długości bliskiej 200 m. Niezaprzeczalną zaletą komory osadczej jest prostota konstrukcji, brak części ruchomych, możliwość odpylania gazów gorących, niewielki spadek ciśnienia (ok. 20–100 Pa) oraz niski koszt budowy. Ze względu na możliwość skutecznego i taniego odpylenia cząstek o większych średnicach komory osadcze bywają stosunkowo często stosowane jako pierwszy stopień odpylania, żeby cząstki o dużych średnicach – w szczególności gdy tworzą je twarde kryształy – nie spowodowały erozji i tym samym uszkodzenia bardziej wydajnych, ale jednocześnie znacznie droższych innych urządzeń odpylających.

Rys. 1.5. Komora osadcza: 1) komora, 2) zasobnik odpylonego pyłu, 3) tor cząstek pyłu ulegających odpyleniu, 4) tor cząstek pyłu nieulegających odpyleniu, 5) wlot gazów, 6) wylot gazów

Podobny mechanizm odpylania grawitacyjnego został wykorzystany w komorach półkowych. Nad poziomo umieszczonymi półkami (rys. 1.6.) przepływa gaz zapylony, z którego opadają na nie cząstki stałe. Dzięki małym odległościom między półkami droga opadania jest krótka i skuteczność odpylania jest większa w porównaniu z komorami osadczymi. Odpylacz działa w sposób okresowy. Podobnie jak w komorach osadczych w przypadku małych średnic cząstek (poniżej 20 μm), niewielka siła ciężkości sprawia, że sprawność odpylania jest niska i rzadko przekracza 30%. Metodyka obliczeń podstawowych wymiarów komory półkowej jest analogiczna jak w przypadku komór osadczych. Koszty inwestycyjne komór półkowych są nieco wyższe od komór osadczych. Ich wady oraz zalety są analogiczne jak komór osadczych, zastosowanie ich jest również podobne.

Rys. 1.6. Komora półkowa

Drugą grupę odpylaczy mechanicznych suchych stanowią odpylacze inercyjne. Wykorzystane jest w niech zjawisko bezwładności cząstek poruszających się z pewną prędkością. Przy jednakowej prędkości, z jaką poruszają się cząstki, na te o największej masie (czyli również o największej średnicy) będzie działała największa siła bezwładności. Jeżeli na drodze zapylonego gazu ustawimy przeszkodę, okaże się, że cząstki o największej masie (średnicy) nie będą w stanie jej ominąć i zostaną wytrącone ze strumienia gazów. Temu wydzieleniu sprzyjać będzie również zwiększenie poprzecznego przekroju, przez który przepływa gaz w stosunku do kanału przed odpylaczem. Zilustrowano to na rys. 1.7.

Rys. 1.7. Schemat najprostszego odpylacza inercyjnego

Odpylacz inercyjny jest – podobnie jak komora osadcza czy komora półkowa – urządzeniem prostym i tanim. Skuteczność odpylania nie przekracza zazwyczaj 30%, a minimalna średnica odpylanych cząstek jest nie mniejsza niż 20 μm. Ciekawym rozwiązaniem odpylacza inercyjnego są odpylacze żaluzjowe (rys. 1.8). Pozwalają one na dość skuteczne usunięcie z gazów frakcji pyłów o większych średnicach.

Rys. 1.8. Odpylacz inercyjny żaluzjowy

Wady oraz zalety odpylaczy inercyjnych są analogiczne jak komór osadczych, zastosowanie ich jest również podobne.

Do najbardziej znanych odpylaczy wykorzystujących działanie siły odśrodkowej zalicza się cyklony i multicyklony. Uzyskuje się w nich znacznie większą sprawność odpylania sięgającą 60–95%. Cyklon – jest to urządzenie zbudowane z dwóch współosiowych rur, przy czym rura wewnętrzna jest obustronnie otwarta, zaś rura zewnętrzna zakończona jest w dolnej części stożkiem ściętym (rys. 1.9).

Na poprzedniej stronie:

Rys. 1.9. Podstawowe wymiary cyklonu według Wilhelma Barth’a

Gaz wprowadza się do rury zewnętrznej (do przestrzeni międzyrurowej) stycznie do jej bocznej powierzchni, dzięki czemu wywołany jest ruch obrotowy gazu zawierającego cząstki pyłu. Gaz ten w przestrzeni międzyrurowej wykonuje ok. 1,5–3 obrotów. Powstająca siła odśrodkowa odrzuca cząstki stałe na ściankę, które uderzając i trąc o nią, tracą energię kinetyczną, a następnie zsuwają się po ścianie. Oczyszczony gaz wypływa rurą centralną (wewnętrzną) ku górze na zewnątrz cyklonu. W stożkowej części, na dole cyklonu, gromadzi się wydzielony pył.

Prawidłowo zaprojektowany cyklon pozwala na usunięcie cząstek pyłu nawet o średnicy ok. 1 μm. Skuteczność odpylania w cyklonach zależy od rozkładu granulometrycznego odpylanego pyłu i wynosi zazwyczaj od ok. 60 aż do 95%. Niewątpliwą zaletą cyklonu jest brak części ruchomych i tym samym możliwość pracy w wysokich temperaturach. Wadą jest wymagana precyzja wykonania oraz stosunkowo wysoki spadek ciśnienia sięgający nawet 2 tys. Pa. Wspomniana precyzja wykonania to jakość wewnętrznych spawów, które z jednej strony muszą być szczelne, a z drugiej strony nie może być w nich nierówności, zadziorów itp., gdyż mogą wtedy być miejscem, gdzie zsuwająca się po bocznej ściance odpylona cząstka oderwie się od ścianki i ulegnie porwaniu przez strumień gazów, zmniejszając skuteczność odpylania.

Zmniejszenie średnicy cyklonu z reguły zwiększa skuteczność odpylania. Jednakże nadmierne zmniejszenie średnicy cyklonu powoduje zwiększenie prędkości przepływu gazu przez cyklon, co wpływa na wzrost spadku ciśnienia, ale równocześnie zwiększa także zdolność wtórnego porwanych wcześniej odpylonych cząstek. W przypadku gdy całkowity strumień gazów jest duży, a wskazane byłoby zastosowanie cyklonu o mniejszej średnicy, buduje się baterie cyklonów pracujących równolegle. W takim układzie może pracować dwa, cztery, sześć, a nawet więcej identycznych cyklonów. Szeregowe połączenie identycznych cyklonów mija się z celem, gdyż w takim układzie cyklon drugi nie będzie odpylał praktycznie żadnych cząstek. W przypadku gdy chce się uzyskać wyższe skuteczności odpylania, można zastosować baterię kilku bądź nawet kilkudziesięciu małych cyklonów – zwaną „multicyklonem” (rys. 1.10).

Rys. 1.10. Schemat multicyklonu

Skuteczność odpylania w multicyklonie może sięgać nawet 99% przy krytycznej średnicy odpylanych cząstek mniejszej niż 0,5 μm. Niezaprzeczalną wadą multicyklonów jest wyższy niż w przypadku zwykłych cyklonów spadek ciśnienia. Podobnie jak cyklony, multicyklony mogą pracować w wysokiej temperaturze. Ze względu na trudność precyzyjnego wykonania (średnice pojedynczych cyklonów wchodzących w skład urządzenia są często mniejsze niż 0,1 m) koszt multicyklonu jest wyższy niż zwykłych cyklonów.

Zjawisko odpylania pod wpływem siły odśrodkowej zostało wykorzystane również w prostszych odpylaczach o niższej skuteczności zwanych „koncentratorami” (odśrodkowymi) lub „zawirowywaczami” (często także nieprawidłowo zwane „multicyklonami”). Schemat typowego koncentratora pokazano na rys. 1.11.

Zasada działania jest analogiczna jak klasycznego cyklonu – kierownica wlotowa (1) wywołuje ruch obrotowy gazu, cząstki pyłu pod wpływem siły odśrodkowej przemieszczają się w kierunku ścianki rury zewnętrznej (2) i opuszczają koncentrator przez szczelinę (4). Główny strumień gazu, pozbawiony cząstek o największej średnicy, opuszcza urządzenie przez rurę wewnętrzną (3). Koncentratory zazwyczaj buduje się w postaci baterii obejmujących od czterech do nawet 40 sztuk. Ich skuteczność sięga maksymalnie 30%, a pozwalają one na usunięcie jedynie cząstek o największych średnicach (powyżej 20 μm).

Rys. 1.11. Schemat koncentratora: 1) kierownica wlotowa, 2) rura zewnętrzna, 3) rura wewnętrzna, 4) szczelina

Mechanizm odpylania mokrego opiera się przede wszystkim na zjawiskach koagulacji, aglomeracji oraz agregacji. Cząstki pyłu pod wpływem wody zaczynają łączyć się ze sobą i tak „sklejone” łatwiej opadają, poddając się działaniu siły ciężkości. Jest to bardzo skuteczny sposób odpylania, niesie jednak ze sobą sporo problemów wymagających uwagi, a następnie rozwiązania. Po pierwsze, tą metodą z reguły nie mogą być odpylane cząstki rozpuszczalne w wodzie. W niektórych jednak przypadkach, podczas suszenia produktów gotowych z roztworów wodnych – mleka przy produkcji mleka w proszku, barwników itp. – zastosowanie odpylania mokrego jako ostatecznego doczyszczania powietrza po wydzieleniu zasadniczej masy gotowego produktu w innym urządzeniu odpylającym jest całkowicie uzasadnione, gdyż roztwór produktu może być ponownie zawrócony do procesu. W innych przypadkach muszą zostać użyte metody suche. Jeżeli jednak cząstki pyłu są nierozpuszczalne w wodzie (np. pyły z procesu przygotowania paliw – rozdrabiania i brykietowania, pyły ze spalania paliw, pyły z przemysłu metalurgicznego itp.), zastosowanie mokrych metod odpylania jest całkowicie realne. Uproszczony schemat instalacji odpylania mokrego pokazano na rys. 1.12.

Rys. 1.12. Schemat procesu odpylania mokrego

Bardzo ważnym elementem instalacji odpylania mokrego są:

1) odkraplacz, którego zadaniem jest usunięcie kropli wody gazów opuszczających instalacje, oraz

2) separator, który ma za zadanie oddzielić wytrącone, zaglomerowane cząstki pyłu od wody.

Wytrącony w procesie odpylania pył odbierany jest z instalacji w postaci wilgotnych szlamów, zaś woda zawracana do procesu odpylania może być zanieczyszczona wyekstrahowanymi z wytrąconego pyłu substancjami chemicznymi. W odpylaczu mokrym część wody odparowuje do strumienia oczyszczanych gazów odlotowych i pomimo istnienia odkraplacza powoduje znaczący wzrost wilgotności emitowanych do powietrza gazów. Drugim efektem ubocznym zjawiska odparowania jest konieczność ciągłego uzupełniania ilości recyrkulowanej wody strumieniem wody świeżej.

Z technicznego punktu widzenia możliwych rozwiązań odpylaczy mokrych może być bardzo dużo. Przykładowe urządzenia pokazano na rys. 1.13.

Rys. 1.13. Przykładowe rozwiązania odpylaczy mokrych stosowanych w przemyśle metalurgicznym. Odpylacz po prawej nosi nazwę skrubera Doyle’a

Urządzenia natryskowe, w tym przypadku również odpylacze, nazywane są „skruberami”. Przykłady odpylaczy – skruberów natryskowych – pokazano na rys. 1.14.

Rys. 1.14. Różne rozwiązania odpylaczy skruberów natryskowych: a) przeciwprądowy, b) z przepływem krzyżowym, c) współprądowy

Każdy aparat służący do wymiany masy w układzie: gaz–ciecz czy gaz–ciało stałe–ciecz, np. absorber, będzie także pracował jako odpylacz mokry. Tak więc odpylaczami, i to wysoko skutecznymi, będą kolumny absorpcyjne, zarówno natryskowe, półkowe, wypełnione, jak i barbotażowe (rys. 1.15).

Na poprzedniej stronie:

Rys. 1.15. Przykłady absorberów pracujących jako odpylacze mokre: a) odpylacz natryskowy, b) odpylacz półkowy, c) odpylacz wypełniony, d) odpylacz barbotażowy

Skuteczność odpylaczy mokrych jest bardzo wysoka, przekracza zazwyczaj 90–95%. Spadek ciśnienia w odpylaczach mokrych zależy od ich konstrukcji. Najniższy jest w urządzeniach natryskowych (skruberach), nieprzekraczający 100 Pa, oraz bardzo wysoki w odpylaczach półkowych czy barbotażowych. Koszt budowy najprostszych odpylaczy mokrych, skruberów, jest stosunkowo niewysoki. Ograniczeniem natomiast jest temperatura. Ogólnie urządzenia te nie powinny być stosowane do odpylania gazów bardzo gorących ze względu na duże odparowanie wody, choć w przemyśle metalurgicznym od strat wody ważniejsze jest szybkie schłodzenie pyłów wytrąconych ze strumienia gazów. Wysoka skuteczność usuwania pyłów w absorberach ma jednak i ujemne strony. W instalacjach odsiarczania mokrego, gdzie wytworzony gips jest produktem zbywalnym, koniecznie wymaga się wcześniejszego bardzo dokładnego odpylenia gazów, aby pyły nie zanieczyściły gipsu.

Dosyć specyficznym odpylaczem mokrym są odpylacze Venturiego. Wykorzystują one rozwiązanie zwane „dyszą Venturiego”, o bardzo niewielkim przekroju, gdzie w krótkim czas przepływający zapylony gaz uzyskuje ogromną prędkość. Ciecz (wodę) wprowadza się do tego przewężenia, gdzie panuje olbrzymia burzliwość i mieszanie wszystkich trzech faz (rys. 1.16). Skuteczność odpylacza Venturiego osiąga 98–99% przy spadku ciśnienia rzędu 5–8 tys. Pa.

Rys. 1.16. Odpylacz Venturiego

Odpylacze elektrostatyczne (elektrofiltry) to urządzenia wykorzystujące siły elektrostatyczne do wydzielania cząstek pyłu ze strumienia gazu. Zapylony gaz przepływa w przestrzeni pomiędzy elektrodami emisyjnymi oraz zbiorczymi, pomiędzy którymi istnieje bardzo duża różnica potencjałów (45–110 kV/cm). W polu elektrostatycznym następuje jonizacja gazu, elektrony gromadzą się na powierzchni cząstek ciała stałego – zawartego w gazie pyłu, co powoduje, że kierują się one w stronę elektrody zbiorczej, obdarzonej ładunkiem dodatnim. Mechanizm działania elektrofiltru obrazuje rys. 1.17.

Z technicznego punktu widzenia istnieje bardzo wiele możliwych konstrukcji układu elektroda emisyjna–elektroda zbiorcza w elektrofiltrze (rys. 1.18).

Skuteczność elektrofiltrów jest bardzo wysoka, sięgająca często 99,99%, również w odniesieniu do drobnych i bardzo drobnych cząstek pyłu (nawet 0,01 μm). Rozróżniamy dwie odmiany konstrukcyjne elektrofiltrów – suchą i mokrą. Różnica wynika ze sposobu usuwania osadzonego pyłu z elektrody zbiorczej.

Na poprzedniej stronie:

Rys. 1.17. Zasada działania odpylaczy elektrostatycznych

Rys. 1.18. Przykłady rozwiązań technicznych układu elektroda emisyjna–elektroda zbiorcza w elektrofiltrze: a) elektroda zbiorcza płytowa, b) elektroda zbiorcza koncentryczna walcowa, c) elektroda zbiorcza w układzie „plastra miodu”

W elektrofiltrze suchym (najczęściej o poziomym przepływie gazów odpylanych) następuje uderzenie mechaniczne (za pomocą specjalnych systemów młotków) w elektrodę, co powoduje, że pył zsypuje się w dół elektrofiltra, skąd jest odprowadzany. W elektrofiltrach mokrych pionowych po ściankach elektrod zbiorczych spływa woda powodująca spłukiwanie cząstek ciała stałego do dolnej części elektrofiltra, gdzie następuje separacja na szlam pyłu i ciecz nadosadową, która jest zawracana do spłukiwania. Elektrofiltry, ze względu na niewielki spadek ciśnienia, zazwyczaj nieprzekraczający 200 Pa, stosowane są zazwyczaj do odpylania bardzo dużych strumieni gazów odlotowych, z dużą skutecznością (np. w elektrowniach). Jednocześnie są one bardzo drogie zarówno pod względem inwestycyjnym, jak i eksploatacyjnym (zużywają energię na wytworzenie pola elektrostatycznego).

Odpylacze filtracyjne w ostatnich latach zyskały ogromnie na znaczeniu. Dzięki postępowi we włókiennictwie i dostępności coraz lepszych materiałów filtracyjnych znalazły one bardzo szerokie zastosowanie, pozwalając na bardzo wysokosprawne odpylanie gazów odlotowych. Większość istniejących rozwiązań technicznych to odpylacze workowe, w których materiał filtracyjny ma kształt worka wspartego na ażurowej konstrukcji podtrzymującej. Stosunkowo rzadko spotyka się dziś filtry ramowe ze względu na problem z czyszczeniem powierzchni filtracyjnej (usuwaniem zgromadzonego pyłu).

W przypadku filtrów workowych czyszczenie worków może odbywać się na dwa sposoby – przez okresowe podanie impulsu ciśnienia w kierunku odwrotnym do przepływu gazu (rys. 1.19) lub przez mechaniczne wstrząsanie worka (rys. 1.20).

Na poprzedniej stronie:

Rys. 1.19. Filtr tkaninowy czyszczony impulsowo

Zdecydowaną większość stanowią dziś filtry impulsowe ze względu na lepsze oczyszczanie powierzchni tkaniny filtracyjnej z nagromadzonego, wydzielonego ze strumienia gazów pyłu. Biorąc pod uwagę konstrukcję, filtry tkaninowe możemy podzielić na filtry z pionowym układem worków filtracyjnych oraz filtry z poziomym układem worków filtracyjnych.

Bardzo ważnym parametrem jest przepuszczalność tkaniny filtracyjnej. Określa on, jaki maksymalny strumień objętościowy powietrza może zostać odpylony na filtrze z danej tkaniny filtracyjnej o powierzchni 1 m2. W rzeczywistości przy projektowaniu instalacji odpylających najczęściej przyjmuje się przepuszczalność na poziomie 1–2 m3/(m2 × min).

KSIĄŻKI TEGO AUTORA

Ochrona środowiska dla inżynierów