Telekomunikacja kontra atmosfera. Prof. Figurski: „Bez modeli pogody nie będzie 6G”
13.05.2026
Przyszłość telekomunikacji nie zależy już tylko od parametrów technicznych urządzeń, ale w coraz większym stopniu od tego, co dzieje się w atmosferze. Podczas seminarium „Rola numerycznych modeli pogody i cyfrowej atmosfery w projektowaniu systemów” prof. Mariusz Figurski, Zastępca Dyrektora Instytutu Łączności - PIB ds. Naukowych, pokazał, że wraz z przechodzeniem kolejnych generacji sieci komórkowych na wyższe zakresy częstotliwości, deszcz, wiatr czy wilgotność powietrza zaczynają odgrywać rolę, której do tej pory inżynierowie nie musieli brać pod uwagę.
Koniec „przezroczystej” atmosfery
Obecne systemy telekomunikacyjne funkcjonują jeszcze w „erze przezroczystości” - atmosfera nie stanowi istotnej bariery dla propagacji fal radiowych. Sytuacja zmienia się jednak wraz z kolejnymi wersjami G (5G, 6G) i towarzyszącym im wzrostem częstotliwości. Najpierw pojawia się tłumienie związane z opadami, a potem robi się coraz trudniej.
Problem się zaczyna horrendalny, jeżeli wejdziemy w przestrzeń subteraherców, czyli tam, gdzie ma pracować w przyszłości sieć 6G
– stwierdził prof. Figurski.
To właśnie w tym obszarze klasyczne podejście do planowania sieci przestaje wystarczać.
Modele pogody jako narzędzie inżynierii telekomunikacyjnej
Odpowiedzią, którą wskazał prof. Figurski, jest wykorzystanie numerycznych modeli pogody jako narzędzia inżynierii telekomunikacyjnej. Modele te, dotychczas kojarzone głównie z prognozowaniem warunków atmosferycznych, mogą być bezpośrednio stosowane do analizy propagacji fal radiowych. Pozwalają wykrywać zjawiska zakłócające działanie sieci – zanim te zakłócenia wystąpią.
Możemy badać zaniki sygnałów wokół obszaru, gdzie są nasze stacje 5G czy 6G, które są tłumione przez opady i turbulencję
– podkreślił Profesor.
Nie chodzi przy tym o ogólne prognozy, ale o precyzyjne dane fizyczne - temperaturę, wilgotność, ciśnienie czy strukturę chmur - które bezpośrednio wpływają na zachowanie sygnału.
Trzy czynniki, które „zjadają” sygnał
Szczególnie istotne w kontekście przyszłych sieci są trzy czynniki atmosferyczne, które dominują w wysokich częstotliwościach: absorpcja przez parę wodną, tłumienie deszczowe oraz wpływ chmur i mgły. Jak zaznaczył profesor, to właśnie suma tych zjawisk decyduje o całkowitym poziomie tłumienia sygnału.
To są trzy grupy parametrów, które są dominujące - i musimy je uwzględnić, żeby dobrze oszacować propagację
– podkreślił Figurski.
Bez ich dokładnego odwzorowania nie da się więc wiarygodnie projektować infrastruktury telekomunikacyjnej nowej generacji.
Od statystyki do fizyki
To prowadzi do szerszej zmiany paradygmatu. Obecnie stosowane modele propagacyjne, w tym rekomendowane przez ITU, opierają się głównie na danych statystycznych i uśrednionych warunkach klimatycznych. Tymczasem - jak wskazał prof. Figurski - przyszłość należy do modeli dynamicznych, które odwzorowują rzeczywiste, zmieniające się w czasie warunki atmosferyczne.
W praktyce oznacza to odejście od „średniego przypadku” na rzecz symulacji rzeczywistości niemal w czasie rzeczywistym.
Sieć, która reaguje na pogodę
Konsekwencje tej zmiany są daleko idące. Sieci telekomunikacyjne mogą w przyszłości nie tylko reagować na warunki atmosferyczne, ale wręcz je „rozumieć”. Możliwe stanie się adaptacyjne formowanie wiązki sygnału w zależności od stanu atmosfery, dynamiczne planowanie pracy sieci czy przewidywanie degradacji jakości połączenia jeszcze zanim ona nastąpi.
Adaptacja zasięgu do pogody czy predykcja degradacji sygnału - to jest w zasięgu ręki
– dodał prof. Figurski.
Telekomunikacja przestaje być więc statyczną infrastrukturą - staje się systemem sprzężonym z otoczeniem fizycznym.
Telekomunikacja pomaga meteorologii
Relacja ta działa jednak w obie strony. Profesor Mariusz Figurski zwrócił uwagę, że infrastruktura telekomunikacyjna sama w sobie może być źródłem danych meteorologicznych. Analiza tłumienia sygnału w radioliniach pozwala bowiem określać intensywność opadów - w niektórych przypadkach nawet dokładniej niż tradycyjne radary meteorologiczne.
To przykład bardzo praktycznej synergii między dwiema dziedzinami, które dotąd rozwijały się niezależnie.
Wyzwania: moc obliczeniowa i dane
Droga do pełnego wykorzystania tych możliwości nie jest jednak prosta. Największym ograniczeniem pozostaje skala obliczeń. Numeryczne modele pogody operują na ogromnych zbiorach danych i wymagają mocy obliczeniowej rzędu petaflopów (1 petaflop to 1015 operacji obliczeniowej na sekundę). Aby były użyteczne w kontekście sieci telekomunikacyjnych - zwłaszcza w środowisku miejskim - muszą osiągać bardzo wysoką rozdzielczość, nawet do kilkudziesięciu metrów.
To z kolei oznacza konieczność integracji danych w czasie rzeczywistym oraz zapewnienia ich wysokiej jakości i spójności - w skali trudnej do osiągnięcia nawet przez współczesne superkomputery.
Cyfrowy bliźniak Ziemi
Najbardziej ambitnym kierunkiem rozwoju, o którym mówił prof. Figurski, jest budowa tzw. cyfrowego bliźniaka Ziemi - kompleksowego modelu integrującego atmosferę, oceany, infrastrukturę oraz dane pochodzące m.in. z systemów smart city.
W takim środowisku możliwe będzie symulowanie działania sieci telekomunikacyjnych w warunkach maksymalnie zbliżonych do rzeczywistych - jeszcze przed ich wdrożeniem.
Wnioski dla sektora telekomunikacyjnego
Seminarium jasno pokazało, że wraz z rozwojem technologii telekomunikacyjnych rośnie znaczenie czynników, które do tej pory pozostawały w tle. Atmosfera przestaje być „przezroczysta” - staje się aktywnym uczestnikiem systemu.
A to oznacza, że przyszłość sieci - zwłaszcza tych działających w najwyższych częstotliwościach - będzie zależała nie tylko od inżynierii, ale także od tego, jak dobrze potrafimy zrozumieć i odwzorować… pogodę.