Naukowcy skupieni wokół problematyki zjawiska globalnego ocieplenia dążą do utrzymania go na poziomie, a najlepiej poniżej poziomu 2°C względem temperatur notowanych w przeszłości.

 
Jest to próg, którego przekroczenie wg U.N’s Intergovernmental Panel on Climate Change przyniesie katastrofalne skutki. Problem w tym, że nawet jeśli  dyskutanci dojdą w końcu do porozumienia w jakim stopniu ograniczyć emisję, i tak mamy duży problem: już teraz jesteśmy w połowie drogi do osiągnięcia limitu 2° C. Dla przykładu: w październiku –  najcieplejszym październiku od 135 lat monitorowania, globalna średnia temperatura wynosiła 1,04° C więcej niż notowano w toku przedindustrialnych odczytów.  Niemalże pewnym jest, że 2015 był najcieplejszym zarejestrowanym rokiem przewyższając poprzedni rekord ustanowiony w 2014.
 
Jak więc sformułować międzynarodową politykę klimatyczną, biorąc pod uwagę niepewności naukowe? Wielu ekspertów wzywa do samodopasowywującego się mechanizmu polityki, który ustanawia prostą formułę dla postępujących ograniczeń emisji na podstawie danych empirycznych, a nie ustanawiania z góry długoterminowych ograniczeń. Odpowiadając na to, co już się stało, a nie na wnioski naukowców, co może się zdarzyć, taki system, przynajmniej w teorii, omija niepewności    prognoz klimatycznych.
 
To nowe podejście przybrało formę w sierpniu 2015r w artykule opublikowanym w Nature Climate Change przez grupę naukowców na czele z Mylesem Allenem, profesorem nauk o Ziemi na Uniwersytecie w Oksfordzie, i Friederike Otto, wykładowcą geografii fizycznej w Oksfordzie. W artykule zatytułowanym "Embracing Uncertainty in Climate Change Policy", twierdzili, że elastyczny, samopoprawiający się system będzie "anti-fragile" (z ang. fragile – delikatny). Mając na uwadze ciągły rozwój wiedzy naukowej, wdrożenie takiego rozwiązania  sprawi, że polityka będzie bardziej skuteczna ponieważ ewentualne błędy i niepowodzenia będą wiązały się z niskimi kosztami społecznymi.

Czytaj cały artykuł w GLOBEnergia Plus 1/2016 POBIERZ APLIKACJĘ MOBILNĄ GLOBEnergia Plus!

 

appstore        google play


Dobrym przykładem jest Bank Rezerwy Federalnej USA. FED nie ustala stopy procentowej daleko w przyszłość, przypatrując się modelom komputerowym gospodarki i przewidując wzrost PKB i inflacji przyszłych dwóch dekad, ale monitoruje kluczowe wskaźniki, ocenia swoje stanowiska i odpowiednio dostosowuje poziom stóp procentowych. Powiodło mu się zadziwiająco dobrze w utrzymaniu inflacji w ryzach, nawet jeśli części gospodarki- takie jak sektor kredytów hipotecznych- okresowo są w gorszej kondycji
 
Takie podejście kontrastuje z zasadą, iż decydenci powinni opierać swoje decyzje na uniknięciu najgorszego scenariusza. Modele ostrożności opracowane przez ekonomistów, w tym Martina Weitzmana, z Harvardu, stanowią, że nawet jeżeli ryzyko katastrofy klimatycznej jest małe, jego skutki będą tak radykalne, że należy go unikać za niemal wszelką cenę. Problem z takim podejściem jest taki, iż wymaga od polityków zorganizowania ogromnych zasobów i podjęcia agresywnego działania (takiego jak drastyczne ograniczenie emisji dwutlenku węgla w biednych krajach np. Indiach), które może być nierealne, a nawet szkodliwe.
 
System ten ma kilka zalet, ale również pułapek. Korzystnym faktem jest to, że daje on decydentom politycznym i rządom bezpośrednią informację czy obserwowane ocieplenie jest mniejsze czy większe niż przewidywano. Ponadto, system ten automatycznie reaguje na sygnały. Formuła tych korekt jest ustalona z góry. "Jeśli czekasz na naukę, aby zapewniła Ci pewność o lokalnych zmianach i ich trendach na przestrzeni dekad, będziesz czekać w nieskończoność", mówi Diffenbaugh.
 
Emilia Kubas KN OZE "Grzała"
GLOBEnergia Plus 1/2016