Skorzystać z mocy meteo


22-08-2021 14:00:34

Na pytania Przeglądu Technicznego odpowiadają  pracownicy Instytutu Meteorologii i Gospodarki Wodnej: Paweł Staniszewski, Tomasz Walczykiewicz, Marta Bedryj, Dawid Bernacik, Sławomir Ulatowski, Jakub Sawicki, Bożena Łapeta.

- Czy na podstawie zjawisk pogodowych ostatniej zimy i wiosny da się sformułować prognozę dla pozostałej części roku? Czego może oczekiwać rolnictwo i gospodarka wodna?

- Paweł Staniszewski: - Tworząc prognozę meteorologiczną Instytut Meteorologii i Gospodarki Wodnej posługuje się modelami, które wykonują skomplikowane obliczenia matematyczne oraz danymi statystycznymi, tj. średnimi wartościami elementów pogody dla danego okresu i obszaru, do których można się odnieść. Na podstawie długoterminowej prognozy meteorologicznej i analogicznych sytuacji z poprzednich lat możemy wyznaczać trend na przyszłe miesiące w hydrologii.

Na to, co dzieje się w hydrologii tego lata mają wpływ zdarzenia już z początku roku hydrologicznego, tj. okresu od 1 listopada 2020 roku. Mieliśmy najbardziej mokry październik w historii pomiarów i rekordowe wezbranie na Odrze oraz zimną i śnieżną drugą połowę zimy. Dzięki temu zasoby wód powierzchniowych znacznie się odbudowały, poprawiają się również zasoby wód podziemnych. Pamiętajmy jednak, że deficyt opadów w ostatnich 6 latach był tak znaczny, że potrzebujemy nie jednego, a kilku sezonów, aby w pełni odnowić zasoby wodne. Pomaga w tym wilgotny kwiecień i maj, a także niskie parowanie powierzchniowe wynikające z niskiej temperatury powietrza – maj to 5 miesiąc z rzędu w tym roku z temperaturą bliską normy bądź z ujemnym odchyleniem od normy.

W sierpniu temperatura powietrza w całym kraju ma mieścić się w normach termicznych, co oznacza średnią dobową w okolicach 17-18 st. Celsjusza. Jeśli chodzi o opady, to spodziewamy się wartości w normie lub lekko powyżej normy. Mogą to być opady burzowe

i nawalne, które w krótkim czasie dadzą sumy normalne dla całego miesiąca – taką tendencją obserwujemy zresztą dla większości ostatnich sezonów letnich. Takie warunki oznaczają, że w niektórych regionach Polski może powrócić problem suszy. Powinniśmy się też liczyć z krótkotrwałymi, opadowymi wezbraniami na rzekach, zwłaszcza na południu Polski.

prof. Tomasz Walczykiewicz:  - Sytuacja hydrologiczna w 2021 roku sprzyja odbudowie zasobów wodnych. Po pierwsze,  zapasy śniegu w górach ulegają sukcesywnemu, powolnemu  topnieniu zasilając  wody  podziemne. Sprzyjają temu wiosenne a nie letnie temperatury , które mieliśmy w kwietniu i maju. Ponadto tej wiosny opady  występują zdecydowanie częściej niż w poprzednich latach, co również sprzyja alimentacji.

- W jakim stopniu zbieranie danych meteo- i hydrologicznych jest przydatne z gospodarczego punktu widzenia?

Marta Bedryj: -  Zbiory tych danych umożliwiają określanie trendów, a także stanowią podstawę wyznaczania wartości prognostycznych, w tym związanych ze zmianą klimatu. Aspekt klimatyczny jest uwzględniony w wielu dokumentach planistycznych, w tym planach zarządzania ryzykiem powodziowym (PZRP), za opracowanie których odpowiedzialne są Wody Polskie. IMGW wniósł znaczący wkład w tworzenie tych dokumentów, zwłaszcza w kontekście zmiany klimatu i wynikających z tego zmian zagrożenia powodziowego. Nasze prognozy były też wykorzystywane w przeglądzie i aktualizacji wstępnej oceny ryzyka powodziowego, stanowiących fundament dla PZRP. Problematyka zmiany klimatu uwzględniana jest również w innych dokumentach planistycznych, tj. w planach gospodarowania wodami i planie przeciwdziałania skutkom suszy, powinna być również ujmowana w procesie przygotowywania konkretnych inwestycji, zwłaszcza związanych z zabudową hydrotechniczną.

Dawid Biernacik: -  Praktycznie przy wszystkich większych inwestycjach, w tym również hydrotechnicznych i melioracyjnych, powinno brać się pod uwagę historyczne dane klimatologiczne i przyszłe trendy wynikające ze scenariuszy zmiany klimatu. Tak było na przykład podczas realizowania „Planów adaptacji do zmian klimatu w miastach powyżej 100 tys. mieszkańców”, dzięki którym miasta otrzymały kompleksowe dokumenty identyfikujące zagrożenia klimatyczne oraz dopracowane, indywidualnie dobrane, rozwiązania adaptacyjne. Eksperci z IMGW-PIB oraz innych wiodących ośrodków naukowych w zakresie ochrony środowiska przeanalizowali dokumenty strategiczne każdego miasta i historyczne dane meteorologiczne z 35 lat (1981-2015).

Analizę wrażliwości każdego miasta wykonano dla 18 sektorów/obszarów, m.in. zdrowia publicznego, transportu, energetyki, gospodarki wodnej, turystyki, przemysłu, budownictwa itp. Następnie oceniono potencjał adaptacyjny każdego miasta, uwzględniając jego możliwości finansowe, kapitał społeczny, przygotowanie służb, mechanizmy informowania i ostrzegania społeczności miasta o zagrożeniach związanych ze zmianami klimatu, sieć infrastruktury społecznej, zarządzanie kryzysowe i innowacyjność. To pozwoliło na odpowiedź na pytanie, czy miasto jest w stanie poradzić sobie z konsekwencjami zmiany klimatu, zarówno w zakresie ograniczania szkód, jak i wykorzystania możliwości. Dla zidentyfikowanych w projekcie ryzyk, wynikających z negatywnych konsekwencji zjawisk klimatycznych, zdefiniowano cele szczegółowe pozwalające na obniżenie ryzyka i zaproponowano konkretne działania adaptacyjne – w tym także w razie potrzeby działania techniczne, jak np. rozwój ochrony przeciwpowodziowej i melioracyjnej miasta, budowa zbiorników retencyjnych itp.

-  Czy da się ocenić ekonomiczną efektywność badań i pomiarów meteorologicznych? Jeżeli w budżecie określa się też finansowanie badań, to chyba muszą być ekonomicznie uzasadnione?.

Sławomir Ulatowski: - W przypadku meteorologii istnieje publiczna i społeczna konieczność prowadzenia badań i pomiarów. W Polsce rola ta przypadła IMGW w ramach Państwowej Służby Hydrologiczno-Meteorologicznej. Obejmuje ona osłonę hydrologiczną i meteorologiczną społeczeństwa, środowiska, dziedzictwa kulturowego, gospodarki oraz rozpoznawanie zagrożeń niebezpiecznymi zjawiskami, a także na potrzeby rozpoznania i kształtowania oraz ochrony zasobów wodnych kraju. Bez pomiarów zbieranych przez Instytut nie latają samoloty, nie działają centra zarządzania kryzysowego, obywatele nie mają dostępu do ostrzeżeń przed niebezpiecznymi zjawiskami.

Znakomita większość danych będących w posiadaniu IMGW-PIB jest publicznie dostępna. Trudno w takich okolicznościach mówić o ekonomicznej efektywności działań, są one prowadzone dla dobra ogółu, nie dla zysku. Instytut prowadzi własne badania i pomiary i nie zleca ich na zewnątrz.

Jakub Sawicki: -  Instytut nie korzysta z zamówień komercyjnych, gdyż posiada własną sieć pomiarowo-obserwacyjną oraz pozyskuje dane z innych Instytucji w ramach uzupełnienia własnej sieci. Instytut prowadzi również współpracę z jednostkami naukowymi i Instytucjami państwowymi, polegającą na wymianie i udostępnianiu różnego rodzaju danych

-Znając dokładnie ukształtowanie pionowe terenu oraz sieć rzeczną można z całą pewnością określić, gdzie z nadejściem silnego deszczu nawalnego nastąpi powódź lokalna. Dlaczego władze samorządowe nie wyciągają z tego wniosków ?

Marta Bedryj: - W przypadku powodzi mówimy raczej o określonym prawdopodobieństwie jej wystąpienia, na podstawie którego wskazuje się potencjalne obszary zagrożenia powodziowego. W ten sposób powstały mapy zagrożenia powodziowego MZP i mapy ryzyka powodziowego MRP, zrealizowane zgodnie z zapisami ustawy Prawo wodne oraz unijną dyrektywą powodziową. Pierwotnie mapy wykonano w ramach pierwszego cyklu planistycznego zarządzania ryzykiem powodziowym i opublikowano w 2015 r. jako wynik projektu „Informatyczny system osłony kraju przed nadzwyczajnymi zagrożeniami” (ISOK). W drugim cyklu planistycznym, kończącym się w bieżącym roku, dokonano przeglądu i aktualizacji map oraz opracowano nowe, dla obszarów i typów powodzi wskazanych w wyniku przeglądu i aktualizacji wstępnej oceny ryzyka powodziowego. IMGW-PIB było kluczowym wykonawcą w obu projektach, a jednostkami odpowiedzialnymi za opracowanie map są Wody Polskie i dyrektorzy urzędów morskich.

Jedną z głównych informacji zamieszczonych na mapach jest zasięg obszarów zagrożenia powodziowego dla danego prawdopodobieństwa wystąpienia powodzi. Określa się go na podstawie modelowania hydraulicznego przy wykorzystaniu m.in. numerycznego modelu terenu. Uwzględnienia się przy tym wszystkie czynniki mogące mieć wpływ na warunki przepływu wód powodziowych i tym samym na poziom zagrożenia powodziowego. Na podstawie wyników modelowania hydraulicznego uzyskuje się także informację o głębokości wody na obszarach zagrożenia powodziowego.

Mapy w wersji numerycznej i kartograficznej są dostępne w domenie publicznej pod adresem https://wody.isok.gov.pl/hydroportal.html. Każdy zainteresowany, w tym samorządy, może się z tymi materiałami zapoznać.

- Co jest najistotniejsze w krajowej sieci pomiarowej oraz w systemie zbierania danych? W jakiej dziedzinie postęp jest największy?

Jakub Sawicki:  - Hydrologiczno-meteorologiczna sieć pomiarowo-obserwacyjna jest skomplikowaną strukturą, trudną do opisania w kilku słowach. Jej idea nie jest w żaden sposób nowa, zorganizowane, sieciowe pomiary wykonywane są już ponad wieku. Z najbliższego, warszawskiego podwórka; w 1908 r. opublikowano "Instrukcję dla stacyj opadowych sieci warszawskiej". To co zmieniało się przez te ponad 100 lat, a przyspieszyło pod koniec XX wieku to: podejście do struktury sieci, pojawienie się nowych rozwiązań technicznych, umożliwiających automatyzację, pojawienie się urządzeń telemetrycznych, zmiana podejścia społeczeństwa do zagadnień prognoz meteorologicznych. Zarządzana przez IMGW-PIB sieć stacji urządzona jest i utrzymywana zgodnie ze standardami Światowej Organizacji Meteorologicznej (WMO). Stacje meteorologiczne rozmieszczone są tak aby w sposób możliwie całościowy reprezentować terytorium Polski. Każda stacja, zależnie od jej rodzaju, odpowiada za pewien wycinek, a po utworzeniu z nich sieci pozwala stworzyć obraz warunków jakie mamy na większym terenie.

O ile dzisiaj mamy informację pogodową w ciągu kilku minut po wystąpieniu zjawiska, dawniej zajmowało to zdecydowanie więcej czasu. Sieć jest gęstsza i działa szybciej. Stacje o charakterze klimatologicznym, które gromadzą pomiary i przekazują je w cyklu, przykładowo, miesięcznym, zanikają. Zależności opisane językiem liczb zostały wprowadzone do modeli prognostycznych, które nieustająco są rozwijane, a nowoczesna stacja zwykle spełnia wiele zadań przekazując dane na bieżąco i gromadząc dłuższe serie pomiarowe.

40 lat temu do pomiaru wilgotności powietrza wykorzystywane były między innymi ludzkie włosy. Były też techniki bardziej precyzyjne, lepsze, traktowane jako podstawowe, ale higrometry czy też higrografy włosowe jeszcze były w użyciu. Podobnie termometry cieczowe. Dzisiaj pomiary są wykonywane przy pomocy czujników elektronicznych, rolą obserwatora jest nadzór i prowadzenie obserwacji, czyli opis tych elementów pogody, które są opisywane w sposób jakościowy, a nie ilościowy, ale tu też trwają prace nad rozwiązaniami automatycznymi, między innymi z zakresu sztucznej inteligencji, które z czasem przejmą od człowieka również tą cześć. 

Automatyczne czujniki i automatyzacja systemów umożliwiają również generowanie większej ilości danych, przykładowy pomiar temperatury nie jest wykonywany raz na godzinę (jak 40 lat temu), ale w sposób ciągły, dane są wysyłane co 10 minut, co 2 minuty, co minutę, nie ma przeszkód by wysyłać je co kilka sekund. Na szczęście nie ma też takiej potrzeby.

W ostatnich 20 latach nastąpił olbrzymi postęp również w technologii radarowej, a właśnie stoimy na progu kolejnego przełomu. Dotychczasowy postęp związany był z możliwościami odbiornika. Zwiększona moc obliczeniowa komputerów, miniaturyzacja oraz większa dostępność zawansowanych komponentów mikrofalowych pozwoliły na wprowadzenie technik pomiarów w podwójnej polaryzacji, zwiększenie czułości i zakresu dynamicznego odbiornika, stosowanie filtrów cyfrowych oraz metod kontroli jakości niedostępnych kilkanaście lat temu. Rozwój szerokopasmowego Internetu pozwolił na przesyłanie dużej ilości danych w krótkim czasie, niezbędnym do przeprowadzenia obserwacji. Pozwoliło to na gromadzenie i przetwarzanie większej ilości informacji o dużej rozdzielczości przestrzennej oraz czasowej. Rewolucja, przed którą stoimy to dla odmiany zmiana w systemach nadajników. Systemy magnetronowe czy klistronowe będą stopniowo zastępowane przez technologie w pełni półprzewodnikowe (solid state). Pozwoli to rozwiązać problemy związane z kalibracją nadajnika oraz umożliwi zmniejszenie mocy w impulsie generowanego sygnału.

Prognoza wykonywana przed laty, przez wyszkolonego człowieka, następnie cytowana przez dziennikarza w telewizji spotykała się z raczej pozytywnym odbiorem.

Dzisiaj z punktu widzenia społeczeństwa prognozę "bierze się z Internetu" zatem po co coś mierzyć. Za kilkaset złotych można kupić stację meteorologiczną i mieć własne pomiary. Pogodę można sprawdzić na kilkudziesięciu różnych stronach internetowych czy w aplikacjach. Nie każdy się zastanawia, na podstawie jakich danych jest ona wykonywana. W efekcie zmniejsza się społeczne odczucie, że pomiary meteorologiczne są potrzebne, brakuje przełożenia między jakością pomiarów a jakością prognoz. Pomiary wykonywane amatorskim sprzętem albo sprzętem profesjonalnym, ale zainstalowanym nieprawidłowo dają inne wyniki, niż pomiary PSHM. To powinno być oczywiste. Pomiary te często służą też innym celom; pomiar temperatury i wiatru wraz z wielkim wyświetlaczem przy dużym moście nie służy celom synoptycznym, tylko ma ostrzec kierowców przed oblodzeniem czy podmuchami wiatru. Na tym konkretnym moście, w chwili przejazdu. Pomiary meteorologiczne mają umożliwić stworzenie prognozy na kilka dni do przodu. To jest inny cel.

Pomiary i obserwacje IMGW-PIB wykonywane są zgodnie z wymaganiami WMO, dzięki czemu można porównywać je z pomiarami z całego świata. Poziom finansowania służb jest różny, pojawiają się różne usprawnienia i nowinki techniczne, jednak pewien standard powinien być zachowany. PSHM również się rozwija, prowadzimy obecnie wielki projekt, w ramach którego zmodernizowanych zostanie kilkaset stacji, pojawi się także wiele nowych, wyposażonych w najnowszą technologię.

Znaczenie wyspecjalizowanego sprzętu rośnie, automatyka wprowadzana jest w różnych dziedzinach pomiarowych, takich jak chociażby sondaże aerologiczne. Rozwój technologii związanej z dronami spowodował zainteresowanie meteorologów i dzisiaj myślimy o tym, aby pomiary wykonywane przez małe bezzałogowe statki powietrzne uzupełniały dane pochodzące z sondaży wykonywanych sprzętem wznoszonym w górę przez balon. Rozwój sztucznej inteligencji pozwala na wykorzystanie jej w różnych aspektach, podejmuje się próby oceny widzialności czy zachmurzenia.

Bożena Łapeta: - W ostatniej dekadzie obserwujemy ogromy wzrost zainteresowania danymi satelitarnymi. Wynika to zarówno z postępu w dziedzinie technik teledetekcyjnych i informatycznych.

W pierwszym przypadku pojawiły się rozwiązania, dzięki którym dane satelitarne dostarczają informacji z lepszą rozdzielczością przestrzenną, czasową i spektralną co przekłada się to na istotne zwiększenie możliwości ich wykorzystania. O ile 20 lat temu dane satelitarne były wykorzystywane głównie do oceny sytuacji meteorologicznej oraz jako dane wejściowe do numerycznych modeli prognozy pogody, to obecnie stanowią istotne źródło informacji w hydrologii, agrometeorologii, monitorowaniu atmosfery, kriosfery oraz wspierają działania instytucji z sektora bezpieczeństwa państwa.

Coraz częściej są one również wykorzystywane przez administrację publiczną. Ostania zima pokazała, jak dane satelitarne mogą być wykorzystywane do monitorowania zatorów lodowych na rzekach czy napływu piasku saharyjskiego nad obszar Polski. Pamiętamy przydatność danych satelitarnych do oceny i monitorowania suszy w Polsce, a to jedynie kilka drobnych przykładów z szerokiego spektrum możliwości aplikacyjnych. Szczególnie ważnym etapem w tym rozwoju było uruchomienie przez UE Programu Copernicus, w ramach którego na orbicie ziemskiej umieszczono serie satelitów Sentinel dedykowanych monitoringowi powierzchni lądu, morza oraz atmosfery.  Obecnie większość danych i produktów satelitarnych może być udostępniana nieodpłatnie a dzięki rozwojowi w dziedzinie systemów komputerowych i mocy obliczeniowych możemy sprawić, aby dane satelitarne były dostępne dla każdego. W Polsce, realizacji tego celu służył projekt " System operacyjnego gromadzenia, udostępniania i promocji cyfrowej informacji o środowisku. Sat4Envi" współfinasowany ze środków Unii Europejskiej w ramach Programu Operacyjnego Polska Cyfrowa i realizowany przez konsorcjum w skład, którego wchodziły: IMGW-PIB, POLSA, CIK CBK oraz ACK Cyfronet AGH. W wyniku jego realizacji stworzono archiwum danych satelitarnych Programu Copernicus oraz dane z satelitów meteorologicznych i środowiskowych, które są dostępne poprzez system obsługi klienta są dla każdego. Aby wesprzeć użytkowników w pracy z danymi satelitarnymi, stworzone zostały moduły e-learningowe dostępne na stronie projektu.

Komentuje Waldemar Rukść

eNOT.pl - Portal Naczelnej Organizacji Technicznej | eNOT.pl