Beata Szydło chce nas wyprowadzić z Europy? Niekoniecznie, chociaż jej działania z pewnością utrudniają wejście Polski do unijnej czołówki. (więcej…)

Foto: Pracownia na rzecz Wszystkich Istot

Wycinka w Puszczy Białowieskiej weszła w decydującą fazę i objęła stare, najcenniejsze przyrodniczo fragmenty tego wyjątkowego lasu. Minister Szyszko przekroczył czerwoną linię: świadomie zignorował przepisy krajowe i unijne oraz zobowiązania wobec UNESCO. W tej sytuacji organizacje pozarządowe – Dzika Polska, Greenmind, Greenpeace Polska, Pracownia na rzecz Wszystkich Istot i WWF Polska – rozpoczynają kolejny etap obrony Puszczy. Działania mogą przyjąć formę protestów znanych z Rospudy.

Leśne patrole Dzikiej Polski i Greenpeace Polska dostarczyły kolejnych dowodów, że wycinka Puszczy Białowieskiej przybrała na sile. Na terenie trzech puszczańskich nadleśnictw wyrąbano w tym roku kilkanaście tysięcy drzew w drzewostanach ponadstuletnich, które wcześniej, ze względu na swoje walory przyrodnicze, były wyłączone z prac leśnych – powiedział Dawid Kaźmierczak z Fundacji Dzika Polska. Znacznej części wycinek w starodrzewach nie da się wytłumaczyć względami bezpieczeństwa, ponieważ prowadzone były z dala od dróg i szlaków turystycznych. Oznacza to, że za zgodą ministra Szyszki rozpoczęła się dewastacja naturalnych fragmentów lasu dla celów komercyjnych.

Jan Szyszko świadomie ignoruje również polskie zobowiązania wobec UNESCO. Wycinka trwa także w tych częściach Puszczy, które zgodnie z regułami obowiązującymi w obiekcie światowego dziedzictwa Puszcza Białowieska, powinny pozostać w jak największym stopniu naturalne – wolne od cięć i sztucznych nasadzeń plantacyjnych – powiedział dr hab. Przemysław Chylarecki z Fundacji Greenmind. Puszcza Białowieska została uznana za obiekt światowego dziedzictwa ze względu na trwające w niej naturalne procesy oraz wielką różnorodność biologiczną. Decyzje Jana Szyszki nie tylko uniemożliwiają skuteczną ochronę tych wartości, ale wręcz im zagrażają.

Cięcia grożą również konsekwencjami ze strony Komisji Europejskiej, która pod koniec kwietnia ogłosiła, że daje Polsce jedynie miesiąc na zaprzestanie łamania prawa unijnego. Zwiększona wycinka jest sprzeczna z przepisami unijnymi, minister Szyszko wprowadza opinię publiczną w błąd, mówiąc że jest inaczej. W konsekwencji jego działania mogą zaprowadzić Polskę przed Trybunał Sprawiedliwości UE, tak jak to już miało miejsce wcześniej, w związku z doliną Rospudy – dodała Sylwia Szczutkowska z Pracowni na rzecz Wszystkich Istot.

Gospodarka leśna, a więc systemowe wycinki i nasadzenia, jest obecnie największym zagrożeniem dla Puszczy Białowieskiej. Niszczone są naturalne odnowienia drzew, ciężki sprzęt masakruje runo leśne i pozbawia chronione gatunki naturalnych siedlisk. Pierwszymi ofiarami są cenne gatunki ptaków, których lęgi są niszczone lub bardziej narażone na ataki drapieżników. Promowane przez Jana Szyszkę sztuczne nasadzenia są dla naturalnego lasu równie szkodliwe jak wycinki i zmieniają tętniący życiem dziki las w plantację desek – powiedział Dariusz Gatkowski z WWF Polska.

Minister Szyszko i związani z nim leśnicy przekroczyli czerwoną linię, dewastują największy polski skarb przyrodniczy w imię doraźnego zysku, wbrew przepisom krajowym i zobowiązaniom międzynarodowym. Nie będziemy się temu biernie przyglądać. W obronie Puszczy Białowieskiej stajemy ramię w ramię z ponad 167 tysiącami osób, które domagają się rozszerzenia parku narodowego na cały jej obszar – powiedział Robert Cyglicki z Greenpeace Polska.

Organizacje pozarządowe wchodzące w skład koalicji Kocham Puszczę, nie pozostają obojętne wobec niszczenia tętniących dzikim życiem, najcenniejszych przyrodniczo fragmentów lasu. Tym samym rozpoczyna się nowy etap obrony Puszczy Białowieskiej, którą organizacje prowadzą od czasu zapowiedzi zwiększenia wycinki przez Jana Szyszkę pod koniec 2015 roku. Aktywiści i aktywistki są obecni w Puszczy, by bronić przed ministrem środowiska to, co mamy najcenniejszego. Obecne działania – jak zapowiedziały organizacje – mogą przyjąć formę protestów znanych z Rospudy.

źródło: Greenpeace Polska

Według brytyjskiego biochemika Jamesa Lovelocka (ur. 1919), Ziemia jest niezwykłym organizmem, który sam się reguluje i sam podtrzymuje. Cała materia ożywiona działa dla utrzymania naturalnego środowiska jako całości. Mimo zanieczyszczania środowiska przez człowieka, burzenia przez niego naturalnej równowagi i powodowania ginięcia tysięcy gatunków, Gaja przetrwa to zagrożenie, chociaż sam gatunek ludzki może nie przetrwać nierównowagi, którą sam wywołuje. Starożytni Grecy i inne dawne cywilizacje były w pełni świadome, że nasza pomyślność zależy przede wszystkim od sposobu traktowania Ziemi. Gaja wynagrodzi w dwójnasób dobre traktowanie, ale też w takim samym stopniu odwzajemni popełniony na niej gwałt.

W 1979 r. wiele zamieszania w świecie naukowym wywołała książka nosząca tytuł: Gaja – nowe spojrzenie na życie na Ziemi. Teza autora – Jamesa Lovelocka była śmiała – nasza planeta nie jest jakąś bezładną masą mieszających się i reagujących przypadkowo ze sobą związków chemicznych, lecz żywym, samoregulującym się organizmem stanowiącym jedną wielką, harmonijną i niepodzielną całość. Wszystkie żywe organizmy – od bakterii, aż do płetwali błękitnych; od podmorskich alg, aż po tysiącletnie sekwoje, mają jeden wspólny cel – działanie dla podtrzymania istnienia całego środowiska. Temu żywemu megaorganizmowi James Lovelock nadał imię Gai – greckiej bogini Ziemi.

Korzenie hipotezy Lovelocka sięgają początku lat 60., gdy w laboratoriach NASA w Pasadenie w Kalifornii rozpoczął on pracę badawczą nad możliwością istnienia życia na Marsie. W tym czasie uważano, że istnieje olbrzymia szansa odkrycia jakiejś formy życia na Czerwonej Planecie. Dla Lovelocka najlepszą metodą sprawdzenia czy określona planeta może być środowiskiem życia, było zbadanie składu jej atmosfery, ponieważ żywe organizmy muszą korzystać z niektórych składników atmosfery i wydalać do niej pewne produkty przemiany materii, zaburzając jej statyczność. W Pasadenie Lovelock wraz ze współpracownikami zaczął żmudną pracę analizowania danych dostarczanych przez pracujący w zakresie podczerwieni ogromnych rozmiarów teleskop. Wyniki badań były jednoznaczne – zdominowana przez dwutlenek węgla atmosfera Marsa jest wyjątkowo trwała i niezmienna, bez śladów nierównowagi i dynamizmu poszukiwanych przez badaczy. Wniosek z tych badań był jednoznaczny – Mars nie nadaje się do życia, co późniejsze wyprawy sond kosmicznych w pełni potwierdziły.

Jednak analiza możliwości istnienia życia na Marsie przywiodła Lovelocka do głębszej refleksji nad warunkami sprzyjającymi życiu na naszej własnej planecie. Po zakończeniu badań w USA powrócił on do Anglii, jednak w dalszym ciągu nurtowały go dwa pytania – dlaczego atmosfera Ziemi pozostaje tak niezmienna, mimo że składa się z mieszaniny gazów, w tym także gazów bardzo łatwo wchodzących w reakcje, i dlaczego jest ona tak doskonale dostosowana do potrzeb życia? To był moment – pisał Lovelock po latach – w którym zacząłem myśleć, ze powietrze nie jest tylko środowiskiem życia, ale jest tego życia częścią składową.

Tę ideę żyjącego środowiska Lovelock przekształcił w teorię naukową, która zaczęła zmieniać sposób widzenia naszej planety przez cały świat naukowy. Według Jamesa Lovelocka Ziemia jest niezwykłym organizmem, który się sam reguluje i sam podtrzymuje. Cała materia ożywiona działa jako całość dla utrzymania naturalnego środowiska jako całości.

Zgodnie z teorią Gai, życie nie tylko zaadaptowało się do warunków na naszej planecie, ale także przystosowało planetę do swych własnych potrzeb. Dowodzi tego stała temperatura Ziemi – dla naszego organizmu jest to 36,6 stopnia Celsjusza, zaś nasza planeta utrzymuje temperaturę w pobliżu 13 stopni Celsjusza. Temperatura ta jest niezmienna od 3,8 miliarda lat, czyli w przybliżeniu od momentu, kiedy życie pojawiło się na Ziemi, nawet mimo faktu, że Słońce w tym czasie stało się o 25% bardziej gorące i jasne.

Co zapobiegło przegrzaniu się Ziemi? Życie – odpowiada Lovelock. Gdy Słońce zaczynało bardziej ogrzewać Ziemię, organizmy żywe zaczynały wiązać coraz większą ilość dwutlenku węgla w swoich organizmach, co powodowało ograniczenie efektu cieplarnianego w atmosferze Ziemi. W taki sposób, aby utrzymać stałą temperaturę i siebie samą przy życiu, Gaja stworzyła swój własny mechanizm chłodzenia, zabezpieczający przed przegrzaniem przez Słońce.

Lovelock przytacza jeszcze inne przykłady wpływania życia na środowisko naszej planety w taki sposób, że tworzy ono stabilny, samopodtrzymujący – homeostatyczny system. Zasolenie mórz nie zmienia się od tysiącleci i wynosi w przybliżeniu 3,4%, mimo spływania do mórz i oceanów ogromnych ilości soli wypłukiwanych z lądu przez wody opadowe i rzeki. Zawartość tlenu w powietrzu atmosferycznym utrzymuje się stale na poziomie 21%. Gdyby wzrosła ona na przykład do 25% – materia organiczna roślin na Ziemi ulegałaby ciągłym samozapaleniom. Jednocześnie obniżenie normalnej ilości tlenu w atmosferze mogłoby zagrozić istnieniu wielu gatunków zwierząt na Ziemi.

Według Lovelocka ta homeostatyczna równowaga nie jest przypadkowa – wyraża ona aktywność Gai dostosowującej procesy biochemiczne swego „ciała” do celu podtrzymania życia. Funkcjonowanie takie trwające już od miliardów lat to czas zdecydowanie zbyt długi, by ten sukces życia złożyć jedynie na karb przypadku. Przypadkowe przetrwanie Ziemi jest tak samo nieprawdopodobne, jak przejechanie samochodem przez centrum miasta w godzinach szczytu z zawiązanymi oczami, nie doznając szwanku – pisze J. Lovelock.  Bez życia na swej powierzchni Ziemia byłaby zupełnie inną planetą, jej zewnętrzna temperatura wynosiłaby około 400 stopni Celsjusza, czyli o wiele za dużo, by życie w formie jaką znamy mogło przetrwać. Oceany wyparowałyby już przed milionami łat, a Ziemia – niebieskie niebo, zielone łąki i łasy – byłaby gorącą, zapyloną planetą z czerwonobrunatną atmosferą, identyczną jak na Wenus –  planecie bez życia. Pomysł, że coś tak niewyobrażalnie ogromnego i wyraźnie nieruchomego jak Ziemia mogłoby być organizmem żywym może wydawać się wielu ludziom trudny do przyjęcia, choć przecież nasi przodkowie którzy postrzegali Ziemię jako boską, godną wielkiego szacunku istotę (Gaja), nie mieli z tym żadnych trudności.

Aby uczynić tę koncepcję bardziej zrozumiałą dla współczesnych ludzi, Lovelock i inni entuzjaści Gai porównują ją do olbrzymiej sekwoi. Takie 1000-tonowe drzewo jest pełne życia choć aż 97% jego gigantycznego pnia stanowi martwe drewno. Jego żywa część, przenosząca wodę i sole mineralne z korzeni do gałęzi, stanowi jedynie cieniutką tkankę pod samą korą drzewa. W ten sposób – pisze Lovelock – drzewo bardzo przypomina samą Ziemię – na jej powierzchni jest cieniutka tkanka żywej materii, której częścią są zarówno drzewa jak i my – ludzie. Wszystkie skały pod naszymi nogami, jak i powietrze ponad nami, są pewnie martwe, jednak zarówno powietrze, jak i skały albo są bezpośrednim produktem życia, albo też zostały bardzo zmodyfikowane przez jego obecność.

Aby łatwiej wyobrazić sobie żywy organizm Gai, dobrze jest spojrzeć na zupełnie inną skalę czasową naszej planety. James Lovelock mówi: Dla ludzi sto tysięcy lat jest prawie tym samym, co nieskończoność. Dla Gai 3,6 miliarda lat, to zaledwie odpowiednik najwyżej naszych trzech miesięcy. Tylko patrząc z takiej globalnej perspektywy można dostrzec, że Ziemia porusza się i zmienia tak, jak inne żywe organizmy – oceany i atmosfera opływają ją, masywy lądowe spiętrzają, tworząc łańcuchy górskie, a te z kolei łącząc i dzieląc się na przemian, tworzą ciągłe zmiany wybrzeży morskich. Życie Ziemi pulsuje i tętni według odwiecznych cyklów – zmiana dnia w noc, zimy w lato czy przypływy i odpływy oceanów – to tylko niektóre z nich.

Rytm życia całej planety zgrany jest z indywidualnymi rytmami życia miliardów ziemskich organizmów, w tym nas samych. Ta niezwykła zdolność do samoregulacji Gai pozwoliła jej przetrwać wiele śmiertelnych niebezpieczeństw, takich jak potężne meteoryty, które uderzały z ogromną siłą w jej skorupę średnio co 100 milionów lat powodując katastrofalne zniszczenia. Jeden z nich, uderzając w Ziemię przed 65 milionami lat spowodował skutki porównywalne z globalną wojną nuklearną – wyginęło wówczas ponad 60% gatunków roślin i zwierząt, w tym dinozaurów. Lovelock porównuje tę dramatyczną sytuację Ziemi do sytuacji ofiary rozległych oparzeń o spalonej w 60% skórze.

Gaja przetrwała to zagrożenie i leczyła rany zastępując jedne gatunki drugimi, co według Lovelocka jest dowodem na to, że mimo zanieczyszczania środowiska przez człowieka, burzenia przez niego naturalnej równowagi i powodowania ginięcia tysięcy gatunków, Gaja przetrwa to zagrożenie, chociaż sam gatunek ludzki może nie przetrwać nierównowagi, którą sam wywołuje. Starożytni Grecy i inne dawne cywilizacje były w pełni świadome, że nasza pomyślność zależy od sposobu traktowania Ziemi. Gaja wynagrodzi w dwójnasób dobre traktowanie, ale też w takim samym stopniu odwzajemni popełniony na niej gwałt. Historia zatacza tu koło i możemy zobaczyć, jak człowiek współczesnej wyrafinowanej nauki wyraża się słowami podobnymi do tych, którymi starożytni kapłani religii naturalnych zachęcali do oddawania czci bogini Ziemi.

Na początku XXI wieku głos Jamesa Lovelocka nie jest odosobniony. Wielu naukowców, filozofów i myślicieli rozważa obecnie fakt istnienia na naszej planecie sił, których jeszcze nie rozumiemy, lecz które mogą mieć wielkie znaczenie dla przyszłości całej ludzkości.

Jeśli podoba Ci się to, co robimy, prosimy, rozważ możliwość wsparcia Zielonych Wiadomości. Tylko dzięki Twojej pomocy będziemy w stanie nadal prowadzić stronę i wydawać papierową wersję naszego pisma.
Jeżeli /chciałabyś/chciałbyś nam pomóc, kliknij tutaj: Chcę wesprzeć Zielone Wiadomości.

 

Zagraniczny Fundusz Inwestycyjny – Mid Europa Partners – nowy właściciel kolei linowej na Kasprowy Wierch, chce zwiększyć jej przepustowość. Przed Burmistrzem Zakopanego trwa właśnie postępowanie dotyczące wydania decyzji środowiskowej dla inwestycji. Zwiększenie przewozowości kolei oznacza, że w sam środek Tatrzańskiego Parku Narodowego, w najcenniejsze obszary przyrodnicze, będzie wwożonych w skali roku ponad milion osób.

15 maja 2017 r. Stowarzyszenie Pracownia na rzecz Wszystkich Istot przekazało Tatrzańskiemu Parku Narodowemu (TPN) i Regionalnej Dyrekcji Ochrony Środowiska w Krakowie (RDOŚ) negatywne stanowisko w tej sprawie – nie ma naszej zgody na eksploatację tatrzańskiej przyrody.

Zobacz stanowisko Pracowni

Analiza dokumentacji ujawnia, że proces decyzyjny dla inwestycji od samego początku jest wadliwy. Wniosek inwestora o zwiększenie przepustowości jest bezprzedmiotowy, bowiem sprawę już ostatecznie rozstrzygnięto podczas modernizacji kolei w 2006 r. W decyzji środowiskowej dla przebudowy kolei na Kasprowy ustalono jej przewozowość w sezonie letnim w kierunku Kasprowego Wierchu na poziomie 180 os./godz. Liczba ta została ustalona na podstawie chłonności turystycznej terenu oraz dopuszczalnego obciążenia dziennego szlaków w okolicy Kasprowego Wierchu. Skoro nie zmieniły się warunki pojemności turystycznej Kasprowego i zagrożenia dla cennej przyrody Tatr, nie ma żadnych merytorycznych argumentów, które uzasadniałyby zmianę tej decyzji.

Nikt nie pozwoliłby sobie na wpuszczenie na Wawel tłumów ludzi, którzy zamiast podziwiać, niszczyliby cenne ekspozycje. Tak samo powinniśmy spojrzeć na ochronę Tatr. Ich udostępnienie nie może odbywać się kosztem przyrody tego miejsca – mówi Radosław Ślusarczyk z Pracowni na rzecz Wszystkich Istot

Forsowanie zwiększenia przewozowości kolei jest także złamaniem społecznego kompromisu, który pozwolił w 2006 r. na unowocześnienie infrastruktury przy zachowaniu wymogów środowiskowych. Zabezpieczeniem środowiska przed negatywnym oddziaływaniem kolei miała być gwarancja utrzymania przewozowości kolei w okresie letnim w kierunku Kasprowego Wierchu na poziomie sprzed modernizacji infrastruktury tj. 180 os./godz. Złamanie kompromisu w celu zwiększenia zysków z eksploatacji kolei kosztem tatrzańskiej przyrody uznajemy za niedopuszczalne.

To jednak nie koniec zarzutów. Po analizie Raportu środowiskowego dla inwestycji nie ma żadnych wątpliwości, że inwestor nie przeprowadził właściwej oceny oddziaływania inwestycji na przyrodę. To niedopuszczalne biorąc pod uwagę fakt, że kolej na Kasprowy funkcjonuje w strefie wysokogórskiej w samym centrum Tatr, w Międzynarodowym Rezerwacie Biosfery UNESCO, na terenie obszaru Natura 2000 „Tatry”, na terenie strefy ochrony ścisłej Tatrzańskiego Parku Narodowego. W związku ze zwiększeniem przepustowości, w tak cenne tereny będzie wwożonych w skali roku ponad milion osób. Tymczasem Raport nie tylko nie ujawnia negatywnych oddziaływań inwestycji, ale i zataja wpływ planowanych równolegle innych przedsięwzięć na terenie Tatrzańskiego Parku Narodowego.

Z tego względu 15 maja 2017 r. Stowarzyszenie przekazało TPN i RDOŚ w Krakowie negatywne stanowisko w tej sprawie. Liczymy, że służby i administracja ochrony przyrody opowiedzą się za zachowaniem unikatowej przyrody Tatr i nie zgodzą się na zwiększenie przewozowości kolei na Kasprowy.

Nastały bardzo złe czasy dla ochrony przyrody. Apelujemy do polskich władz o zabezpieczenie najważniejszego górskiego parku narodowego w Polsce przed zniszczeniem – dodaje Radosław Ślusarczyk.

źródło: Stowarzyszenie Pracownia na rzecz Wszystkich Istot

Osoba kontaktowa: Radosław Ślusarczyk

tel. 660 538 329; e-mail: suchy@pracownia.org.pl

ul. Jasna 17, 43-360 Bystra

 

Najtańszy sposób ogrzewania mieszkań zapewnia dostęp do sieci ciepłowniczej. W Warszawie płynące z niej ciepło kosztuje trzy razy mniej niż grzanie przy użyciu energii elektrycznej, dwa razy mniej niż olej opałowy i 35 proc. mniej niż gaz. Stąd najskuteczniejszym sposobem na walkę z ubóstwem energetycznym wydaje się upowszechnienie możliwości korzystania z miejskiej sieci ciepła, która do niedawna pozostawała w rękach publicznych. Jednak w stolicy to właśnie najbiedniejsi, pozbawieni dostępu do CO, płacą za ogrzewanie najwięcej lub zmuszeni są oszczędzać na nim, spędzając zimę w chłodnych mieszkaniach, niekiedy w warunkach kompletnie niezdatnych do życia.

Władze Warszawy oferują mieszkania z regulowanym czynszem osobom o najniższych zarobkach: listonoszom, sprzątaczkom, pracownicom hipermarketów, emerytom, bezrobotnym, itd. Większość – aż osiem na dziesięć – budynków należących w 100 procentach do miasta powstało formalnie jeszcze przed drugą wojną światową, a de facto tuż po, to jest w wyniku społecznej odbudowy miasta zniszczonego w ponad 80 procentach. Oryginalnie budynki te ogrzewano głównie węglem lub drewnem. Jeszcze w 1950 roku jedynie 16 procent z nich miało dostęp do centralnego ogrzewania. Pod presją mieszkańców w ciągu dekady 1950-1960 potężną część publicznego budżetu przeznaczono na upowszechnienie dostępu do CO w Warszawie, powstało wówczas Stołeczne Przedsiębiorstwo Energetyki Cieplnej (SPEC). Liczba budynków podłączonych w tym okresie do sieci ciepłowniczej niemal się potroiła, do 44 procent ogółu zasobu.

W ostatnich dekadach mogliśmy doświadczyć lub zaobserwować odwrotną tendencję. (Re)prywatyzacji mieszkań komunalnych towarzyszyło bowiem strukturalne niedofinansowanie zasobów miejskich w najsłabszej kondycji. W budynkach należących całkowicie do miasta, w 2008 roku opcję grzania w piecach i kozach władze stolicy oferowały najemcom częściej niż centralne ogrzewanie (19 proc. mogło korzystać z sieci centralnej, względem 23 proc. grzejących pokoje węglem, drewnem itp. Za resztę odpowiada prąd, gaz; istnieją też budynki formalnie pozbawione czegokolwiek – 4 proc. ogółu). W centrum stolicy w 2011 roku większość, to jest 80 na 148 budynków miasta, nie posiadało centralnego ogrzewania. W dzielnicy z największą liczbą mieszkań komunalnych i socjalnych, tj. na Pradze Południe, w tym samym roku odciętych od centralnej sieci grzewczej było 417 na 489 miejskich budynków mieszkalnych – inaczej mówiąc, 85 procent lokatorów zdanych było na własne, kosztowne sposoby przeżycia chłodnych miesięcy. Ogółem, w skali całego miasta i po uwzględnieniu mieszanej własności budynków (wspólnoty mieszkaniowe itp.), niemal 60 proc. lokatorów miejskich lokali dzieli los opisany powyżej.

Tym samym warunki życia w budynkach należących w pełni do władz są porównywalne do tych z połowy zeszłego wieku, przy czym lokatorzy z budynków całkowicie miejskich, szczególnie na Pradze, funkcjonują poniżej poziomu z roku 1950 (kiedy 16 proc. używało CO), a reszta szczęśliwców korzysta ze zdobyczy lat 1950-60. Należy tu nadmienić, że koszty ogrzewania energią elektryczną były w owych latach nieporównanie niższe niż dziś, czego wspomnieniem są m.in. zainstalowane w starych piecach kaflowych grzałki elektryczne. Dziś, w XXI wieku, zbyt kosztowne grzałki są w stolicy wymontowywane przez lokatorów, na rzecz powrotu do tańszego sposobu ogrzewania w piecu węglem, drewnem i czym popadnie – jesteśmy tu zatem świadkami regresu nie o 60-70 lat, a wręcz do epoki kamienia łupanego.

Jak władze stolicy zaplanowały swoje zmagania w zakresie ubóstwa energetycznego? Zgodnie z „Wieloletnim planem gospodarowania mieszkaniowym zasobem m.st. Warszawy na lata 2013-2017” ratusz uznał formalną możliwość podłączenia do sieci 61 proc. miejskich budynków pozbawionych centralnego ogrzewania – resztę władze planowo odpuszczają powołując się na trudności techniczne i związane z nimi zbyt wysokie koszty. W tytułowym okresie działań ratusz zobowiązał się do podłączenia centralnego ciepła dla 3622 lokali, co stanowi odpowiednio 4,4 proc. ogółu publicznego zasobu mieszkaniowego i 12,8 proc. mieszkań w budynkach należących do miasta w całości. Kolejne 4 procent miejskich budynków (1,4 proc. ogółu) przejdzie termomodernizację.

Znamiennie, narzędziem używanym dla poprawy statystyk częściej niż upowszechnianie dostępu do CO jest uwzględniona w Planie (re)prywatyzacja mieszkań: w omawianym okresie 2013-2017 władze oszacowały, iż wyzbędą się co najmniej 4800 lokali (3300 w ramach 'zwrotów’, reszta to wynik uwłaszczania się lokatorów). Warunki życia po reprywatyzacji, inaczej niż w neoliberalnych teoriach, zwykły się znacznie pogarszać dla osób wpędzonych w ubóstwo energetyczne. „- Jak wyłączyli nam gaz, to kupiliśmy termy i kuchenki elektryczne” – opowiada lokatorka przejętej kamienicy przy Kępnej 15. Wkrótce potem nowy właściciel odciął także wodę. Na pisemną prośbę o ponowne podłączenie, lokatorzy otrzymali odpowiedź: „Problem polega na tym, że w budynku jest za dużo gówna, zarówno ludzkiego, jak i psiego. Jak tylko gówno opuści budynek, wszystkie problemy przestaną istnieć.”…. Powyższą retorykę elit można rozciągnąć na szerszą skalę: „jak tylko biedni opuszczą miasto, problemy przestaną istnieć” (bogaci rzadko rozważają, kto wówczas roznosiłby im listy, niańczył ich dzieci, kto by im sprzątał, sprzedawał itp. itd.).

Walka z ubóstwem energetycznym w ramach neoliberalnego modelu sprowadza się do… walki z ubogimi. W takim sensie, neoliberalna retoryka grup anty-smogowych jest częścią problemu, a nie rozwiązania. Włączanie problematyki miejskiego smogu do anty-społecznego programu politycznych i biznesowych elit jedynie zamiata pod dywan tworzony przez nie brud i umacnia przepaści społeczne. Czystych, ciepłych warunków życia nie da się stworzyć dla wąskiego grona uprzywilejowanych w mieście bez rozwoju przestrzennego i ekonomicznego apartheidu. Dlatego skuteczna walka z brudnym powietrzem jest nierozerwalnie związana ze zniesieniem ubóstwa energetycznego. Ta walka o powszechny dostęp do ciepła i społeczną kontrolę nad jego dystrybucją powinna się stać częścią wspólnej strategii grup lokatorskich/anarchistycznych i ekologicznych.

Antek Wiesztort, Maria Burza

Anarchistyczny kolektyw Syrena

 

Medialna panika wywołana zimowym smogiem miała swoje dobre strony, miała też wyraźne przemilczenia. Wzmocniła się społeczna presja na władze, przyspieszyły zamrożone od lat projekty legislacyjne, wzrosła świadomość istnienia problemu. Ale upublicznienie danej kwestii to jednocześnie moment, w którym zostaje zdefiniowany sposób mówienia o niej, powstają ramy myślenia o jej źródłach i związanych z nimi potencjalnych rozwiązaniach.

Na mainstreamowy konsensus w sprawie zanieczyszczenia powietrza składa się kilka figur, w tym jedna z najpopularniejszych – biedni i/lub głupi ludzie palą odpadami w domowych piecach, trując nas wszystkich. Warto się przyjrzeć bliżej temu obrazkowi, bo to chyba jedyne miejsce, gdzie w dyskusję o smogu wkrada się (przedstawione w skrajnie uproszczony sposób) zjawisko ubóstwa. A w zasadzie jego szczególnej odmiany – ubóstwa energetycznego.

Czym jest ubóstwo energetyczne?

W skrócie, to trudność zaspokojenia podstawowych ludzkich potrzeb związanych z energią cieplną i elektryczną w miejscu zamieszkania. Te potrzeby to możliwość utrzymania odpowiedniej temperatury w pomieszczeniach mieszkalnych, przygotowania ciepłego posiłku oraz posiadanie dostępu do elektryczności zasilającej oświetlenie i kilka prostych sprzętów domowych. W praktyce – w naszej części świata – główną część kosztów stanowi ogrzewanie. Za zjawiskiem ubóstwa energetycznego stoją trzy grupy przyczyn, występujące razem lub oddzielnie. Po pierwsze są to kwestie techniczne związane z efektywnością energetyczną budynku i charakterem wykorzystywanej instalacji. Kolejną przyczyną jest bieda, czyli brak środków na uregulowanie rachunków lub oszczędzanie na ogrzewaniu czy elektryczności, tak, by starczyło na inne podstawowe potrzeby. Trzecim czynnikiem są zachowania związane z użytkowaniem energii, np. wietrzenie mieszkania przy włączonych kaloryferach.

Ubóstwo energetyczne ma negatywne konsekwencje na dwóch poziomach – indywidualnym i społecznym. Mieszkanie w niedogrzanych i zagrzybionych pomieszczeniach źle wpływa na zdrowie powodując choroby układu oddechowego i układu krążenia, przyczynia się także do zwiększonego stresu i zaburzeń psychicznych. Nie wspominając o tym, że zimne mieszkanie ogranicza możliwość realizacji codziennych potrzeb, takich jak uczenie się, czy zaproszenie znajomych. Jedną ze strategii zaradczych jest szukanie możliwie najtańszego opału – i tu pojawia się społeczny wymiar problemu, czyli smog.

Polskie prawo nie definiuje ubóstwa energetycznego, co w praktyce oznacza, że go nie dostrzega. A skala problemu w polskim społeczeństwie jest ogromna. Żeby to zrozumieć, warto na chwilę przenieść się do Wielkiej Brytanii, gdzie w latach 90. rozpoczęły się badania nad ubóstwem energetycznym. Powstał wówczas pierwszy oficjalny wskaźnik tego zjawiska, wg którego gospodarstwo domowe doświadcza ubóstwa energetycznego, jeśli ponad 10% jego wydatków jest przeznaczanych na energię (bez paliwa do samochodów). Tyle, że w Polsce średnie wydatki na ten cel wynoszą …ponad 11%, czyli tak rozumiane ubóstwo energetyczne dotyczyłoby ponad połowy mieszkańców. Obecnie w Anglii wykorzystywany jest inny wskaźnik, nazywany Low Income-High Costs (LIHC, niskie dochody-wysokie koszty). W odróżnieniu od poprzedniego miernika, LIHC pokazuje obraz relatywny, czyli odniesiony do średnich warunków panujących w danym kraju. W tym o ujęciu gospodarstwo ubogie energetycznie musi jednocześnie spełniać dwa warunki. Po pierwsze  koszt sfinansowania usług energetycznych na zadowalającym poziomie powinien być wyższy niż przeciętnie, np. ze względu na duży dom lub słabe ocieplenie. Po drugie dochód  takiego gospodarstwa (po odliczeniu wydatków na energię) nie może przekraczać relatywnej granicy ubóstwa, czyli 60% mediany* dochodu. Przeprowadzone dotychczas badania wskazują, że tak rozumiane ubóstwo energetyczne dotyczy kilkunastu procent Polek i Polaków, czyli między 4,5 a 6,5 miliona osób. Jeszcze innym sposobem zobrazowania skali ubóstwa energetycznego jest spytanie bezpośrednio zainteresowanych. I tak, wg danych opublikowanych przez Instytut Badań Strukturalnych, ponad 4 miliony osób w Polsce mieszka w niedogrzanych pomieszczeniach.

Jaka jest reakcja władz na ten problem?  Mimo że w prawie  pojęcie ubóstwa energetycznego jest nieobecne, pojawia się jednak wymagane przez unijną Dyrektywę Elektroenergetyczną pojęcie odbiorcy wrażliwego. Są to osoby otrzymujące dodatek mieszkaniowy z pomocy społecznej, którym – w ramach wsparcia w pokryciu kosztów energii – przysługuje dodatek energetyczny, wynoszący niecałe 16 złotych miesięcznie na 4-osobową rodzinę. To kwota tak mała, że trudno nawet narzekać, że państwo skupia się na walce z objawami, a nie przyczynami. Wróćmy więc do przyczyn. Działania ukierunkowane na trwałą poprawę sytuacji powinny polegać na (1) rozwiązaniach technicznych ograniczających koszt i zużycie energii; (2) rozwiązaniach ekonomicznych pozwalających uniknąć spirali zadłużenia i obarczania uboższych mieszkanek i mieszkańców kosztami nieefektywnego systemu energetycznego; (3) edukacji w zakresie efektywności energetycznej i odnawialnych źródeł energii. Jednocześnie trzeba szukać rozwiązań, które ograniczą zarówno ubóstwo energetyczne, jak i negatywne konsekwencje dla środowiska (i żyjących w nim ludzi).

Dobrym przykładem jest termomodernizacja, czyli minimalizowanie strat energii cieplnej w budynkach. Dobrze ocieplony dom to nie tylko niższy koszt ogrzewania i mniej spalonego paliwa, ale także – prawdziwa rzadkość w polskiej przestrzeni. Badania Instytutu Ekonomii Środowiska wskazują, że w powszechnych w Polsce nieocieplonych domach mieszkają głównie ludzie ubożsi, narażając się na wysokie koszty ogrzewania. Wydaje się, że to dobre pole do interwencji dla władz publicznych. Jednak istniejące instrumenty poprawy efektywności energetycznej są: (a) skoncentrowane głównie na budynkach użyteczności publicznej; te nieliczne (b) skierowane do osób prywatnych i wspólnot opierają się na pożyczkach lub dopłatach do kredytu, a i tak (c) główny program finansowania termomodernizacji domów jednorodzinnych – uruchomiony w 2015 roku „Ryś” – został zarzucony, zanim na dobre się rozpoczął, lecz nawet gdyby został wdrożony to (d) przeznaczone kwoty w przeliczeniu na mieszkańca były 16-krotnie mniejsze niż w Czechach i 34-krotnie mniejsze niż na Słowacji.

Nieobecność problemu ubóstwa energetycznego w publicznej dyskusji o smogu powoduje, że rozwiązania wysuwane przez poddane społecznej presji władze, mogą obrócić się przeciwko najsłabszym. Prosty przykład to kwestia parkowania w mieście. Spór ogniskuje się wokół możliwości podniesienia stawki opłat za parkowanie, tak by ograniczyć wjazd samochodów do centrum (a de facto ograniczyć możliwość wjazdu mniej zamożnym osobom). W dyskusji znika fakt, że sprawiedliwszym, skuteczniejszym i łatwiejszym z prawnego punktu widzenia rozwiązaniem byłoby zmniejszenie liczby miejsc parkingowych i wsparcie transportu publicznego. Kolejny przykład to programy wymiany pieców, mające ograniczyć niską emisję. Priorytetowe kierunki inwestycji dofinansowanych ze środków publicznych są zwykle wyznaczane na podstawie kosztu instalacji i efektu ekologicznego, pomija się natomiast koszt eksploatacji. W efekcie, nowoczesne kotły węglowe i gazowe wygrywają ze znacznie tańszymi z punktu widzenia użytkownika siecią ciepłowniczą i OZE.

Istnieją także pozytywne przykłady, pokazujące, że silna mobilizacja może doprowadzić do wdrożenia bardziej wrażliwych społecznie rozwiązań. W Krakowie funkcjonuje Lokalny Program Osłonowy, oferujący dopłaty do rachunków za energię osobom, które wymieniły stare piece na mniej emisyjne źródła. Przykładowo dwuosobowe gospodarstwo domowe, żyjące na 45m2, którego dochód wynosi łącznie 3000 zł miesięcznie, i które zmieniło piec opalany węglem na ogrzewanie gazowe, może liczyć na dofinansowanie do rachunku w wysokości ponad 850 złotych rocznie. Kolejne rozwiązania pochodzą z innych państw europejskich, i dotyczą termomodernizacji i ‘zazielenienia’ budownictwa socjalnego. Na przykład Atelier Mommaerts w Brukseli został docieplony, wyposażony w panele słoneczne i nowy system wentylacji. W rezultacie zużycie energii spadło o 50% (a z nim także rachunki), natomiast czynsze płacone przez lokatorów zostały utrzymane na tym samym poziomie, by zapobiec gentryfikacji.

Problem smogu wymaga pilnych działań, ale jeśli jedynym odniesieniem do problemu ubóstwa energetycznego w publicznej dyskusji będzie obrazek wrzucanych do paleniska odpadów, to rozwiązania wrażliwe społecznie będą niemożliwe do wyartykułowania, a zatem i do zrealizowania. Zamiast wsparcia dla potrzebujących dostaniemy wzmożone kontrole palenisk i zaostrzone kary. Zamiast inwestowania w rozbudowę sieci ciepłowniczych – dopłaty do kredytów na nowoczesne piece. Zamiast zamiany parkingów w tereny zielone – wjazd do miasta jako przywilej dla zamożnych.

Przypis

* Mediana (pojęcie matematyczne) – wartość środkowa; wartość cechy w szeregu uporządkowanym, powyżej i poniżej której znajduje się jednakowa liczba obserwacji.

Aktywiści miejscy z całej Polski spotkają się na V Kongresie Ruchów Miejskich, który odbędzie się w dniach 18-20 maja w sześciu miastach woj. śląskiego. W programie debaty, panele i warsztaty na tematy takie jak: ekologia miejska, zrównoważona mobilność, mieszkalnictwo, demokracja miejska i rewitalizacja. Hasło przewodnie tegorocznego Kongresu: Demokracja Miejska. Współodpowiedzialność za Miasta.

Zielone Wiadomości są partnerem i patronem medialnym V Kongresu Ruchów Miejskich. Specjalnie na to wydarzenie przygotowaliśmy nowe,  27. wydanie naszego pisma.

Więcej informacji na temat Kongresu Ruchów Miejskich i szczegółowy program V Kongresu: kongresruchowmiejskich.pl.

Zapraszamy!

Temat zanieczyszczenia powietrza w Polsce przetoczył się przez media jak burza – jednak w obiegu funkcjonują głównie wycinkowe informacje, nie pozwalające na bardziej całościową ocenę tego problemu. Dodatkowo, alarmistyczny ton organizacji społecznych i aktywistów/ek zwracających uwagę na wysokie stężenia zanieczyszczeń często spotyka się z uspokajającą reakcją przedstawicieli władz publicznych, wskazujących, że następuje poprawa jakości powietrza, że smog jest problemem teoretycznym, lub że dane prezentowane przez stronę społeczną są niewiarygodne. W tym tekście przyjrzymy się dokładniej problematyce zanieczyszczenia powietrza w Polsce, koncentrując się przede wszystkim na wynikach pomiarów – na tle europejskim i w odniesieniu do norm dla poszczególnych zanieczyszczeń. Przyjrzymy się także źródłom zanieczyszczeń, by lepiej zrozumieć charakter problemu i (nie)możliwości jego rozwiązania. Zaczniemy jednak od systemu pomiarowego, czyli odpowiedzi na pytanie co i jak jest mierzone.

Jak w Polsce mierzy się zanieczyszczenie powietrza?

Pomiar zanieczyszczenia powietrza w Polsce jest realizowany przez Inspekcję Ochrony Środowiska, która dysponuje siecią około 250 stacji monitorujących jakość powietrza. Ocena jakości powietrza pod kątem ochrony zdrowia bierze pod uwagę 12 rodzajów zanieczyszczeń, m.in. dwutlenek siarki (SO2), dwutlenek azotu (NO2), ozon (O3), pyły zawieszone PM2.5 i PM10. Wszystkie wyniki pomiarów są dostępne w Banku Danych Pomiarowych na Portalu Jakości Powietrza, skąd czerpią też informacje mobilne aplikacje pokazujące poziom zanieczyszczeń. Z prawnego punktu widzenia kluczowy jest doroczny raport Głównego Inspektoratu Ochrony Środowiska (GIOŚ), który sprawdza, czy w poszczególnych częściach (tzw. strefach) Polski zostały przekroczone limity zanieczyszczeń. Jeśli tak się stało, władze danego województwa są zobowiązane do przygotowania Programu Ochrony Powietrza, w którym zaproponują rozwiązanie problemu.

Przyjrzyjmy się teraz limitom stężeń, o których wspomnieliśmy w poprzednim akapicie. Kto je zdefiniował i na jakiej podstawie? Normy obowiązujące w polskim prawie są przeniesione z regulacji unijnych, zawartych w dwóch dyrektywach, tj. (1) CAFE: w sprawie jakości powietrza i czystszego powietrza dla Europy z 2008 roku oraz (2) w sprawie arsenu, kadmu, rtęci, niklu i WWA w otaczającym powietrzu z 2004 roku. Swoje wytyczne dot. dopuszczalnego – z punktu widzenia zdrowia publicznego – poziomu stężeń publikuje także Światowa Organizacja Zdrowia. Normy WHO są bardziej restrykcyjne, co oznacza, że limity zanieczyszczeń obowiązujące w polskim prawie nie stanowią dostatecznej ochrony zdrowia ludności. Oprócz dopuszczalnych stężeń, polskie prawo definiuje też poziom informowania i poziom alarmowy dla wybranych zanieczyszczeń – na zdecydowanie wyższym poziomie niż w innych państwach UE.

Jaki jest stan powietrza w Polsce?

Opisanie wyników dla wszystkich zanieczyszczeń zajęłoby zbyt wiele miejsca, dlatego skupimy się na PM10, PM2.5 oraz B[a]P. Po pierwsze, to w przypadku tych substancji najczęściej przekraczane są limity zdefiniowane w polskim prawie. Po drugie, to związki, które w największym stopniu przyczyniają się do negatywnych konsekwencji zdrowotnych (wraz z NO2 i O3).

W tym momencie powinniśmy wprowadzić ważne rozróżnienie. Zanieczyszczenie powietrza można analizować z dwóch różnych perspektyw: (1) emisji, tj. ilości danej substancji uwalnianej do atmosfery na wybranym obszarze z określonych źródeł, np. środków transportu albo elektrowni, oraz (2) stężenia, czyli ładunku danej substancji w powietrzu w danym punkcie. Emisja wyrażana jest zwykle w tonach. Z kolei stężenie jest podawane najczęściej w mikrogramach (μg) na metr sześcienny i jest wypadkową emisji oraz przemieszczania się zanieczyszczeń.

PM10 i PM2.5

Za tym skrótem kryje się pył zawieszony o średnicy ziaren, odpowiednio, poniżej 10 mikrometrów i poniżej 2,5 mikrometra (czyli PM2.5 zawiera się w PM10). Na ich powierzchni wiązane są toksyczne zanieczyszczenia, np. benzo(a)piren, metale ciężkie i silnie trujące dioksyny. Drobny pył wnika do organizmu przez drogi oddechowe (PM2.5 jest tak mały, że przenika także do krwiobiegu), podnosząc ryzyko wystąpienia chorób układu oddechowego, a także zawału serca, udaru mózgu i raka płuc.

Odsetek stref, w których przekroczono normy dla PM10 wyniósł w 2015 roku 85% (średnia dla poprzednich 5 lat wyniosła mniej więcej tyle samo). Problem dotyczy zwłaszcza dotrzymania normy dobowej, tj. 50 μg/m3 – dopuszczalne jest 35 dni z przekroczeniami w roku. W 2015 roku ten limit został przekroczony na około ¾ stacji pomiarowych w kraju. W kilkunastu przypadkach liczba dni z przekroczonym pułapem 50 μg/m3 wyniosła ponad 100. Na tym wskaźniku oparty był popularny w mediach ranking najbardziej zanieczyszczonych miejsc Europy, zdominowany przez polskie i bułgarskie miasta. Przyjmując kryteria WHO, okazuje się, że zaledwie ok. 5% stacji w Polsce mieści się w granicach bezpiecznego stężenia średniorocznego (20 μg/m3).

W przypadku PM2.5 norma została przekroczona w 2015 roku w połowie stref (w poprzednich 5 latach wynik był podobny). W roku tym około 40% stacji zanotowało średnie roczne stężenie przekraczające normę unijną, ale normę WHO przekroczyło 100% stacji. To właśnie ten wskaźnik stał u podłoża kolejnego popularnego rankingu, wskazującego, że spośród 50 najbardziej zanieczyszczonych miast UE aż 33 są w Polsce.

Czy I kwartał 2017 roku, kiedy w mediach dominował temat smogu, był wyjątkowo zły? GIOŚ nie udostępnia jeszcze pełnych baz danych dla lat 2016-2017, możemy więc odpowiedzieć tylko przez pryzmat wybranego punktu pomiarowego. Skupmy się na często przywoływanej w mediach stacji komunikacyjnej przy al. Niepodległości w Warszawie. We wspomnianym okresie dobowy limit stężenia PM10 został przekroczony 56 razy (na 90 dni!). Rok wcześniej, w I kwartale, było 29 dni z przekroczeniami. W przypadku PM2.5 średnia z wykonywanych co godzinę pomiarów wyniosła 47.6 μg/m3 w I kwartale 2017 roku i 34.3 μg/m3 w analogicznym okresie 2016 roku. Przynajmniej w Warszawie smog ostatniej zimy był zatem wyjątkowo dotkliwy.

Benzo[a]piren

B[a]P należy do najbardziej toksycznych zanieczyszczeń powietrza, ma charakter rakotwórczy i mutagenny. Jest jednym ze składników pyłu zawieszonego, powstającym przede wszystkim podczas spalania paliw kopalnych i biomasy.

W 2015 roku 96% stref w Polsce miało przekroczoną normę dla B[a]P (mniej więcej tyle samo co w poprzednich 5 latach). W 2015 roku tylko 3 stacje – na ponad 100 – zanotowały średnie roczne stężenie w ramach dopuszczanego prawem limitu. WHO stwierdza, że nie ma bezpiecznego dla zdrowia poziomu B[a]P, dlatego zamiast normy przyjmuje wartość odpowiadającą dodatkowemu prawdopodobieństwu zachorowania na raka na poziomie 0,00001 – 0,12 ng/m3. W 2015 roku 100% stacji w Polsce przekroczyło tę wartość, średnio 40-krotnie (prawie 5-krotnie w odniesieniu do normy unijnej). Polska zdecydowanie wyróżnia się wysokimi stężeniami B[a]P na tle UE, co dobrze pokazuje poniższa mapa z raportu Europejskiej Agencji Środowiska (EEA).

Rysunek 1. Średnie stężenie B[a]P w 2012 roku

Źródło: EEA 2015

Stan powietrza w Polsce – podsumowanie i dynamika zmian

Najpoważniejszym problemem dla jakości powietrza w Polsce są bardzo wysokie (zagrażające zdrowiu mieszkańców) stężenia pyłów PM10 i PM2.5 oraz B[a]P. Wskazują na to zarówno zestawienia wyników pomiarów z obowiązującymi lub zalecanymi (WHO) normami, jak i relatywna pozycja Polski wśród innych państw UE.

Jak wygląda dynamika zmian, i czy w ostatnich latach obserwujemy poprawę sytuacji? Na to pytanie trudno jednoznacznie odpowiedzieć, bo sieć stacji pomiarowych PM2.5 oraz B[a]P rozwinęła się stosunkowo niedawno. Zmianę średniego rocznego stężenia tych trzech zanieczyszczeń obrazuje poniższy wykres. W przypadku B[a]P trudno mówić o jakimkolwiek trendzie. PM10 pozostaje na podobnym poziomie jak 10 lat temu, choć w ostatnich latach istnieje wyraźny trend spadkowy. W przypadku PM2.5 także widoczny jest trend spadkowy, choć – biorąc pod uwagę wysoką korelację między stężeniami dwóch rodzajów pyłu – można zakładać, że w dłuższej perspektywie czasowej zmiana nie jest tak jednoznaczna. Co więcej, za obserwowaną tendencję spadkową mogą odpowiadać raczej łagodniejsze zimy, niż świadome działania naprawcze.

Rysunek 2. Średnie roczne stężenie PM10, PM2.5 i B[a]P na stacjach pomiarowych w Polsce, 2005-2015

Źródło: opracowanie własne, na podstawie Banku Danych Pomiarowych GIOŚ

Dane o łącznej wielkości emisji PM10, PM2.5 i B[a]P są zbierane już od 20 lat – przedstawia je poniższy wykres. W tym okresie emisja pyłów spadła o około 1/3, a B[a]P o kilkanaście procent. Najwyraźniejsze spadki były jednak notowane jeszcze w latach 90., kiedy transformacji podlegał polski przemysł ciężki i energetyka (zamykanie zakładów, inwestycje w filtry zanieczyszczeń). W ostatnich latach emisje pyłów znowu zaczęły spadać, a B[a]P – nieznacznie rosnąć.

Rysunek 3. Łączna emisja PM10. PM2.5 i B(a)P w Polsce w latach 1995-2014

Źródło: opracowanie własne, na podstawie LRTAP database

Źródła zanieczyszczeń

Wiemy już jakie zanieczyszczenia stanowią najistotniejszy problem. Żeby lepiej zrozumieć jego charakter, musimy sprawdzić, jakie są źródła pyłów zawieszonych i B[a]P w polskim powietrzu. Możemy do tego celu wykorzystać dwa rodzaje danych. Krajowy Ośrodek Bilansowania i Zarządzania Emisjami (KOBIZE) oblicza łączne emisje w rozbiciu na kilkadziesiąt rodzajów źródeł, głównie w oparciu o ilości paliw będących w obrocie. Inspekcja Ochrony Środowiska podaje z kolei główne przyczyny przekroczenia limitów stężenia – dla danego stanowiska i substancji.

Tabela 1. Źródła emisji i przyczyny przekroczeń dopuszczalnych stężeń B(a)P, PM10 i PM2.5

Zanieczyszczenie

Główne źródła emisji

Główne przyczyny przekroczeń

B[a]P

indywidualne ogrzewanie budynków – 76%

Koksownie – 17%

Indywidualne ogrzewanie budynków – 100%

PM10

indywidualne ogrzewanie budynków – 38%

Transport drogowy – 9%

Energetyka zawodowa i ciepłownictwo – 9%

Indywidualne ogrzewanie budynków – 85%

Intensywny ruch pojazdów – 9%

PM2.5

Indywidualne ogrzewanie budynków – 40%

Transport drogowy – 13%

Energetyka zawodowa i ciepłownictwo – 10%

Indywidualne ogrzewanie budynków – 89%

Intensywny ruch pojazdów – 8%

Źródło: opracowanie własne, na podst. KOBIZE 2016, GIOŚ 2015

Główną przyczyną niskiej jakości powietrza w Polsce jest indywidualne ogrzewanie budynków. To dlatego najwyższe stężenia zanieczyszczeń notowane są w zimie i – w odróżnieniu od większości państw europejskich – także w małych miejscowościach, pozbawionych przemysłu, czy intensywnego ruchu drogowego. Dotyczy to zwłaszcza Polski południowej, gdzie splata się kilka czynników: duża gęstość zabudowy jednorodzinnej, powszechne stosowanie węgla w domowych kotłowniach, obecność „brudnego” przemysłu, ukształtowanie terenu sprzyjające kumulacji zanieczyszczeń. Skoro przyczyna problemu jest tak łatwa do zidentyfikowania, czemu wciąż go nie rozwiązano?

Zanieczyszczenie powietrza a polska polityka ochrony powietrza

Wiemy już, że spośród trzech głównych źródeł zanieczyszczeń powietrza – przemysłu, transportu i sektora komunalno-bytowego – to ten ostatni odgrywa w Polsce dominującą rolę (choć lokalnie to transport bywa najpoważniejszym problemem), a konkretnie palenie węglem i/lub biomasą w domowych lub osiedlowych kotłowniach. Mamy więc kilka elementów tej układanki, którym warto przyjrzeć się dokładniej: potrzeby cieplne domów jednorodzinnych, jakość paliwa oraz jakość pieca.

Średnie zużycie energii w domach w Polsce to 170 kWh/m2/rok, czyli około 10-krotnie więcej niż w domach pasywnych. Wysoka energochłonność wynika z niedostatecznego ocieplenia – wg badań Instytutu Ekonomii Środowiska ponad 70% domów jednorodzinnych w Polsce to obiekty o niskim lub bardzo niskim standardzie izolacji cieplnej. Mimo dużych nakładów publicznych na termomodernizację, domy jednorodzinne pozostają poza systemem wsparcia. Także obowiązujące standardy energetyczne dla nowo powstających budynków nie sprzyjają wykorzystaniu potencjału istniejących technologii – za niskoenergetyczne domy jednorodzinne uznaje się budynki o zużyciu < 70 kWh/m2/rok.

Jak zaspokajane jest tak duże zapotrzebowanie na energię cieplną w polskich domach? Ponad 2/3 domów jednorodzinnych posiada kocioł węglowy, w którym zwykle – oprócz węgla – spalane jest także drewno. Zdecydowana większość to tzw. kopciuchy, czyli piece oparte na przestarzałej technologii i emitujące nawet dziesięciokrotnie więcej pyłów i B[a]P niż dostępne na rynku kotły 5 klasy. W polskim prawie nie ma dotychczas standardów emisyjnych dla nowych kotłów węglowych małej mocy, ale to wkrótce powinno ulec zmianie. Według Unijnej Dyrektywy Ekoprojektu od 2020 roku w państwach UE dopuszczone do obrotu będą tylko kotły najwyższej, 5 klasy. Ministerstwo Rozwoju zapowiada, że przyspieszy wdrożenie tych regulacji o dwa lata. Problemem pozostaną piece kupione wcześniej i wciąż mocno dymiące. Dlatego warto rozważyć wprowadzenie obowiązku wymiany kotłów przekraczających określone standardy emisyjności, tak jak zrobili to np. Czesi.

Sama wymiana kotłów nie wystarczy, ponieważ ich parametry emisyjne zależą także od jakości paliwa. Kwestią standardów dla paliw stałych NIK i polski parlament zajęły się już w 2000 roku: Najwyższa Izba Kontroli wykazała brak norm paliw stałych, ważnych w zakresie ograniczania niskiej emisji. [..] Jeżeli w ciągu 4-5 lat, w zakresie energetyki zawodowej zrobiliśmy w Polsce duży postęp, to w zakresie niskiej emisji […] zrobiono niewiele. Jedną z przyczyn jest to, że kopalnie mogą sprzedać odbiorcom indywidualnym węgiel dowolnej jakości, czego nie praktykuje się w żadnym z krajów Unii Europejskiej. Tam są wyraźnie określone parametry węgla przeznaczonego do odbioru indywidualnego. […] z tego wynika, jest w Polsce potrzeba, aby jakości paliw stałych były określone, bowiem nawet tzw. floty, czyli odrzut po flotacji, zawierające bardzo dużo siarki i popiołu, są sprzedawane przez kopalnie odbiorcom indywidualnym, co powoduje olbrzymią niską emisję, z którą do tej pory nie daliśmy sobie rady.

Jak wygląda sytuacja prawna po siedemnastu latach? W jaki sposób polscy decydenci „dali sobie radę” z tym problemem? W omawianym okresie nie zostały wprowadzone żadne standardy dla paliw stałych. Projekt rozporządzenia w tej sprawie z 2015 roku utknął ze względu na opór spółek węglowych, obawiających się utraty dochodowego sektora rynku. Obecnie Ministerstwo Energii wróciło do tematu, przedstawiając propozycję, która według organizacji społecznych nie zmienia status quo. Gospodarstwa domowe w Polsce wciąż palą więc węglem o nienormowanej zawartości siarki i popiołu, w tym także stanowiącym odpad z produkcji węgla mułem węglowym. Jego spalanie w domowych kotłowniach przekłada się na 2-3 krotny wzrost emisji pyłów i B[a]P w porównaniu do „normalnego” węgla – i około 100 milionów zł dodatkowych przychodów rocznie dla polskich kopalń.

Niemoc polskiej polityki/polityków w zakresie ochrony powietrza kilkukrotnie spotykała się z krytyką instytucji unijnych. W 2008 roku KE udzieliła Polsce ostrzeżenia i zażądała wyjaśnień ws. przekroczeń dopuszczalnych stężeń PM10. W 2012 roku KE skierowała skargę do Trybunału Sprawiedliwości UE, zarzucając Polsce niewprowadzenie przepisów wymaganych przez Dyrektywę CAFE. Rok później skarga została wycofana, po tym jak Polska dokonała koniecznych zmian w prawie. Wreszcie, w grudniu 2015 roku Komisja wniosła kolejną sprawę do Trybunału Sprawiedliwości, w związku z utrzymującymi się przekroczeniami dopuszczalnych stężeń PM10 – obecnie trwają wyjaśnienia między KE i Ministerstwem Środowiska.

Zanieczyszczenie powietrza okazuje się podwójnie brudnym problemem. Po pierwsze, polskie społeczeństwo skazane jest na oddychanie powietrzem gorszej jakości (czyli: bardziej szkodliwym) niż w innych państwach UE. Po drugie, władze (zwłaszcza centralne) z opóźnieniem reagują na problem zanieczyszczenia powietrza, lawirując między wymogami unijnymi i narastającą presją społeczną z jednej strony, a oporem lobby węglowego z drugiej. Miejmy nadzieję, że wraz z rosnącą świadomością problemu coraz trudniej będzie bronić interesów sektora wydobywczego.

Powyższy tekst jest zmodyfikowaną i zaktualizowaną wersją wpisu na blogu wiedzadlapolityki.wordpress.com

Artykuł ukaże się w najbliższym,  nowym wydaniu Zielonych Wiadomości (nr.27)

Czy po wyjściu Zjednoczonego Królestwa z Unii Europejskiej kraj ten stanie się liderem globalnego handlu? A może nowym rajem podatkowym u wrót Europy? Jest alternatywa! (więcej…)

Ktokolwiek dziś już u władzy lub do niej aspirujący nie może pozwolić sobie na zignorowanie poczucia niepewności, które zdaje się coraz mocniej ogarniać obywatelki i obywateli Europy. (więcej…)

Szacuje się, że zaniechanie w Polsce działań adaptacyjnych do zmian klimatu i łagodzących skutki tych zmian to koszt 86 miliardów złotych do roku 2020. W kolejnej dekadzie zaniechania w tym zakresie będą jeszcze bardziej kosztowne, na poziomie 119 miliardów.

Tymczasem publiczne pieniądze przeznaczone na cele określone w Strategicznym planie adaptacji dla sektorów i obszarów wrażliwych na zmiany klimatu wydawane są często nieefektywnie, niezgodnie z priorytetami Planu. Wiele przedsięwzięć, deklarowanych jako spójne z nim, nie pozwoli na osiągnięcie założonych celów, zwiększając ryzyko negatywnych skutków ekstremalnych zjawisk pogodowych – powodzi i suszy. Co więcej, planuje się na szeroką skalę inwestycje, które storpedują wysiłki, by przygotować Polskę na zmiany klimatu. Ucierpi na tym społeczeństwo, ucierpią polskie rzeki, a ogromne pieniądze zostaną po prostu zmarnowane.

Strategiczny plan adaptacji dla sektorów i obszarów wrażliwych na zmiany klimatu do roku 2020 z perspektywą do roku 2030 (SPA2020) zawiera zestaw kierunkowych działań, mających na celu poprawę odporności społeczeństwa i gospodarki na zmiany klimatu oraz zmniejszenia strat z tym związanych. W dokumencie wymienia się różne grupy przedsięwzięć, od infrastrukturalnych po prawne, organizacyjne i, co niezwykle ważne, edukacyjne. SPA2020 podkreśla konieczność wykorzystywania w działaniach, które mają służyć ochronie przeciwpowodziowej, w pierwszej kolejności rozwiązań najmniej inwazyjnych dla środowiska. Podobnie jak w unijnej Strategii adaptacji do zmian klimatu, SPA2020 w zakresie łagodzenia skutków suszy i gwałtownych wezbrań kładzie nacisk na rozwiązania oparte o potencjał ekosystemów – naturalną zdolność do magazynowania wody (retencji) i do spowalniania spływu wód. Takie podejście jest istotne nie tylko w kontekście ochrony przyrody, ale i z uwagi na efektywność działań. Nieskanalizowane i nieodcięte od swoich dolin rzeki to najskuteczniejsza metoda zapobiegania powodziom oraz eliminowania lub ograniczania skutków zarówno powodzi, jak i suszy.

Ochrona i przywracanie retencji dolinowej, glebowej czy fitoretencji (magazynowania wody przez rośliny) to działania znacznie tańsze od rozwiązań infrastrukturalnych, którym z reguły towarzyszą również negatywne skutki środowiskowe.

Słuszna strategia i co z tego?

Ze względu na możliwości, jakie stwarza dostępność unijnych funduszy w perspektywie finansowej 2014-2020, kluczowym, choć nie jedynym narzędziem wdrażania SPA2020 są regionalne programy operacyjne RPO. Zapisy programów i dokumentów, które je uszczegóławiają, oraz dobór kryteriów wyboru projektów decydują o tym, czy istotna część środków Europejskiego Funduszu Rozwoju Regionalnego (EFRR) zostanie skierowana na efektywne i przyjazne środowisku działania adaptacyjne w gospodarce wodnej oraz (horyzontalnie) na realizację inwestycji odpornych na zmiany klimatu w innych sektorach. Można też, przy zastosowaniu mechanizmu finansowania krzyżowego, skierować dodatkowe środki z Europejskiego Funduszu Społecznego na działania informacyjno-edukacyjne.

Tymczasem, pod szyldem adaptacji do zmian klimatu, w wielu regionalnych programach operacyjnych zaprogramowano znaczne środki finansowe na inwestycje szkodzące zarówno przyrodzie polskich rzek, jak i celom adaptacyjnym. Jest to źródłem zagrożeń, ale i zmarnowaną szansą na efektywne wydanie w sumie miliarda złotych.

Przegląd regionalnych programów operacyjnych i towarzyszących im dokumentów strategicznych wskazuje bowiem, że znacząca część województw nie dostosowała RPO do zapisów SPA2020. RPO nie odzwierciedlają preferencji wyrażonych zarówno w SPA2020, jak i w unijnej Strategii adaptacji do zmian klimatu. Te preferencje to rozwój retencji naturalnej poprzez ochronę i renaturyzację obszarów wodno-błotnych oraz podejmowanie przede wszystkim przedsięwzięć nietechnicznych.

Strategia sobie, programy finansowania sobie…

Większość województw stawia niestety na retencję sztuczną, znacznie droższą i bardziej szkodliwą dla przyrody. W co najmniej dwunastu regionach zaplanowano budowę, przebudowę i modernizację zbiorników i urządzeń piętrzących, przy czym tylko w połowie z nich dodatkowo zaplanowano inwestycje w rozwój retencji naturalnej. Tylko w pięciu województwach RPO obejmuje budowę zbiorników suchych lub polderów (wypełnianych wodą w czasie wezbrań), efektywnych także w zakresie kosztów środowiskowych. Tylko w dwóch województwach: mazowieckim i podkarpackim zaplanowano dofinansowanie dla przywracania bezpieczeństwa i naturalnej retencji poprzez rozbiórkę budowli, m.in. przeciwpowodziowych, których technologiczna żywotność dobiegła końca, bądź które zagrażają bezpieczeństwu ekologicznemu lub społecznemu (np. mogą spowodować spiętrzenie fali wezbraniowej). Jedynie w województwie warmińsko-mazurskim pomyślano o działaniach fitoretencyjnych, zwiększających magazynowanie wody przez rośliny. W województwie śląskim adaptacja do zmian klimatu uwzględnia jedynie wsparcie sprzętowe służb ratowniczych.

W kilku województwach niepokoić mogą też te zapisy dokumentów strategicznych, które wskazują na możliwość objęcia wsparciem projektów oddziałujących negatywnie na ekosystemy wodne i od wód zależne, względnie projektów nieefektywnych, kontr-produktywnych w stosunku do celu, jakim jest ograniczenie ryzyka wystąpienia powodzi i suszy. I tak w województwach dolnośląskim i lubuskim dokumenty strategiczne dopuszczają finansowanie regulacji rzek i potoków, a przecież nie tylko degraduje się w ten sposób ekosystemy rzeczne, ale też powoduje to wzrost ryzyka wystąpienia powodzi na odcinkach cieków i ich dolin zlokalizowanych poniżej, przesuszając jednocześnie obszar doliny na regulowanym odcinku. W województwie świętokrzyskim zaplanowano finansowe wsparcie budowy wielofunkcyjnych zbiorników retencyjnych. W kontekście wyzwań adaptacyjnych są one rozwiązaniem nieefektywnym – mają małą pojemność powodziową, wynikającą z ich wielofunkcyjności (ze względu na przeznaczenie równocześnie retencyjne i rekreacyjne zbiornik będzie stale wypełniony) – a do tego w sposób istotny negatywnie oddziałującym na ekosystemy wodne i od wód zależne.

Co z miastami i edukacją ?

Wśród projektów możliwych do dofinansowania znalazły się co prawda działania związane z zagospodarowaniem wód opadowych i roztopowych w miastach, dostrzeżono też konieczność zamiany powierzchni nieprzepuszczalnych na przepuszczalne czy też konieczność „opóźnienia, spowolnienia odpływu”. Nie było to jednak normą w każdym z województw. Mniej niż połowa z nich zaplanowała działania, które wychodzą naprzeciw zidentyfikowanym w SPA2020 problemom skutków zmian klimatu na obszarach zurbanizowanych. A przecież są to obszary z dużą gęstością zaludnienia, wrażliwe na ekstremalne zjawiska pogodowe, na których w porównaniu do terenów niezurbanizowanych temperatura może być wyższa nawet o 100C, a roczne opady większe o 10-15%.

Tylko w jednej czwartej województw dopuszcza się, aby elementem projektów adaptacyjnych były działania informacyjno-edukacyjne skierowane do mieszkańców regionu, odbiorców poszczególnych przedsięwzięć. W takiej samej liczbie województw zaplanowano wsparcie ukierunkowane na podnoszenie kompetencji osób odpowiedzialnych za funkcjonowanie systemów prognozowania, monitorowania, ostrzegania i reagowania na klimatyczne zjawiska ekstremalne. Wydaje się, że tylko dwa województwa: dolnośląskie i wielkopolskie rzeczywiście dostrzegają korzyści z tego typu działań, wzmacniających rezultaty realizowanych projektów i zapewniających ich długofalowe skutki.

Co gorsza, analizy istniejących kryteriów wyboru projektów wskazują, że żadne z województw nie wdraża mechanizmów zabezpieczających przed realizacją infrastruktury nieodpornej na skutki zmian klimatu czy zwiększającej ryzyko wystąpienia negatywnych skutków. I w tym zakresie zapisy SPA2020 zostały zignorowane, co w przyszłości przyniesienie dodatkowe koszty.

Inne poważne zagrożenia dla rzek

Jak widać, unijne i budżetowe pieniądze publiczne na działania adaptacyjne do zmian klimatu w dużej mierze chybiają celu. Niestety, ich złe wydatkowanie nie jest jedynym zagrożeniem dla rzek i dolin rzecznych i bezpieczeństwa społeczeństwa w przyszłości. Inne zagrożenie to wielkoskalowe plany inwestycyjne, np. te związane z rozwojem żeglugi śródlądowej po największych polskich rzekach. W czerwcu br. rząd przyjął założenia takiego programu, który kosztować ma blisko 80 miliardów złotych. W warunkach polskich wykorzystanie rzek do transportu towarowego wiązać się będzie z przekształceniem koryt rzek i ich dolin. Ze względu na wahania wielkości przepływów, a co za tym idzie i stanów wód, dla zapewnienia odpowiedniej głębokości toru wodnego stosuje się zabiegi inżynieryjne mające na celu skoncentrowanie koryta – mi. in. poprzez pogłębianie, zmianę i ustabilizowanie przekroju poprzecznego – oraz wielkoskalowe budowle hydrotechniczne gwarantujące również alimentację wód.

Tyle że poprzez techniczną ingerencję, zapewniającą możliwość żeglugi towarowej, naturalne i półnaturalne odcinki rzek dotychczas nieskanalizowanych oraz ich doliny tracą swe walory przyrodnicze i nie są zdolne do świadczenia usług ekosystemowych na dotychczasowym poziomie, w tym do łagodzenia skutków wezbrań i suszy. Specyficzny charakter układu przyrodniczego rzek i ich dolin, uzależniony m.in. od warunków geologicznych i hydrologicznych, sprawia, że strat w tym zakresie nie da się skompensować.

Zmarnowana szansa

Gdyby rzetelnie przeprowadzić analizę potrzeb, uwzględnić w rachunku kosztów i korzyści koszty społeczne i środowiskowe, ocenić skuteczność i efektywność, to miliardy złotych nie poszłyby na niszczenie rzek, a skutki zmian klimatu byłyby w przyszłości mniej odczuwalne.

Tylko czy ktokolwiek przy planowaniu wydatków ze środków publicznych kieruje się rachunkiem innym niż polityczny, czy korzyściami innymi niż korzyści dla wpływowych grup interesu ? Czy ktokolwiek bierze pod uwagę konieczność zachowania walorów przyrodniczych dolin rzecznych? Za odpowiedź niech posłuży fakt, że ocenę potrzeb przewozów dla kluczowej inwestycji rządowej znajdującej się w Strategii rozwoju żeglugi śródlądowe – drogi wodnej E-70 po Odrze, Warcie, Noteci i Wiśle – oparto na wynikach… 17 ankiet[i].


W artykule wykorzystano: 1) analizy regionalnych programów operacyjnych opracowane – w ramach projektu Fundusze europejskie dla zrównoważonego rozwoju w regionach, zrealizowanego przy wsparciu funduszy EOG (Program Obywatele dla Demokracji) – przez Związek Stowarzyszeń Polska Zielona Sieć; 2) stanowisko Grupy Roboczej ds. Ochrony Ekosystemów Rzecznych na Wydziale Biologii Uniwersytetu Warszawskiego ws. planów rozwoju śródlądowych dróg wodnych w Polsce.

[i] Wojewódzka-Król K., Rolbiecki R., Gus-Puszczewicz A. 2011. Analiza popytu na przewozy ładunków i pasażerów drogą wodną E-70 (dla przedsięwzięcia: Rewitalizacja śródlądowej drogi wodnej relacji wschód-zachód obejmującej drogi wodne: Odra, Warta, Noteć, Kanał Bydgoski, Wisła, Nogat, Szkarpawa oraz Zalew Wiślany (planowana droga wodna E-70 na terenie Polski)). Sopot

fot. źródło: eleusis.pl

29 kwietnia 2017 po długiej chorobie zmarł prof. Wiktor Osiatyński – prawnik, pisarz, publicysta, nauczyciel akademicki, działacz społeczny. Specjalizował się w zakresie prawa konstytucyjnego, historii doktryn politycznych i prawnych oraz praw człowieka. Miał 72 lata.

Wiktor Osiatyński ukończył warszawskie VII Liceum Ogólnokształcące im. Juliusza Słowackiego. Studiował prawo i socjologię na Uniwersytecie Warszawskim i w Polskiej Akademii Nauk. Uzyskał stopień naukowy doktora w zakresie socjologii. Następnie otrzymał stopień doktora habilitowanego nauk prawnych.

W latach 90. był dyrektorem Centrum Badań nad Konstytucjonalizmem w Europie Wschodniej w Chicago. W 1995 został profesorem w Central European University w Budapeszcie. Podejmował również współpracę z University of Connecticut i Uniwersytetem w Sienie. Wykładał na uniwersytetach m.in. Antioch w Los Angeles, Columbia, Stanforda, Harvarda. Uczył w więzieniu dla kobiet Frontera w Kalifornii. Był członkiem Komitetu Nauk Politycznych Polskiej Akademii Nauk, brał udział w pracach nad przygotowaniem Konstytucji Rzeczypospolitej Polskiej (1997).

Był również aktywnym działaczem społecznym. W ramach Helsińskiej Fundacji Praw Człowieka zainicjował powstanie Programu Spraw Precedensowych, został członkiem jego rady programowej. Zajął się szerzeniem informacji o uzależnieniach, w tym alkoholizmie, do której to choroby publicznie sam się przyznał. Był autorem publikacji poświęconych alkoholizmowi i współtwórcą Komisji Edukacji w Dziedzinie Alkoholizmu, jednego z programów Fundacji im. Stefana Batorego.

Był także feministą. W 2006 znalazł się w gronie czterech inicjatorów zawiązania Partii Kobiet.

Zasiadał w radzie Fundacji Centrum im. prof. Bronisława Geremka. Prowadził cykliczny program Zrozumieć świat w radiu Tok FM.

W 2011 został laureatem przyznawanej przez Instytut Spraw Publicznych Nagrody im. Jerzego Zimowskiego. W 2016 Konfederacja Lewiatan uhonorowała go Nagrodą za Odważne Myślenie im. Barbary Skargi. W tym samym roku za działalność na rzecz praw człowieka rzecznik praw obywatelskich nadał mu Nagrodę im. Pawła Włodkowica.

Był bratem ekonomisty Jerzego Osiatyńskiego i mężem psycholożki Ewy Woydyłło-Osiatyńskiej.