Od danych teledetekcyjnych do przepowiadania przyszłości

Od danych teledetekcyjnych do przepowiadania przyszłości

Cztery dekady temu zaczęły być w Polsce dostępne dane teledetekcyjne. Cieszyliśmy się, że możemy je pozyskiwać, korzystając z nowoczesnych jak na owe czasy źródeł, np. satelitów z zainstalowanymi urządzeniami rejestrującymi obraz powierzchni Ziemi czy też samolotów wyposażonych w specjalne kamery. Korzystający z tych danych mówili, że „z góry widać lepiej” i byli przekonani, że żadne inne dane nie będą im już potrzebne.

Informacje, które wtedy były dostępne, mówiły nam o tym, że w konkretnym miejscu jest coś. Tyle, że niewiele wiedzieliśmy o tym czymś. Musieliśmy się nauczyć tego, jak wyglądają obrazy różnych obiektów występujących na powierzchni Ziemi, zarejestrowane przez różne sensory. Dlatego szybko doszliśmy do wniosku, że aby pełniej wykorzystywać dane, trzeba je zamieniać w informacje. Musieliśmy wiedzieć nie tylko, że gdzieś jest coś, lecz także czym jest to coś. W tamtych czasach mieliśmy już systemy komputerowe – choć to brzmi zbyt szumnie, biorąc pod uwagę minikomputer z pamięcią operacyjną 128 kB (to nie pomyłka) i dyskiem zewnętrznym o pojemności 88 MB. Trzeba było nauczyć komputer tego, jak wyglądają na zdjęciach różne obiekty, jak należy je interpretować i jak wyświetlić ich obrazy na ekranie monitora, żeby użytkownik zorientował się, co ogląda.

Kiedy już się tego nauczyliśmy, dysponowaliśmy informacją, która powstała z danych. Informacją mówiącą o tym, że np. ciemny prostokąt zobrazowany na zdjęciu w określonym miejscu (czyli dane) przedstawia pole rzepaku w określonym stadium rozwoju wegetacyjnego. Tę informację dla wybranych rodzajów pokrycia terenu zdobywaliśmy z wybranych pól testowych, przenosząc ją na obraz. Ponieważ dysponowaliśmy komputerami, które można było uczyć, nie musieliśmy odwiedzać wszystkich pól uprawnych zobrazowanych na zdjęciu, bo na podstawie przekazanych przez nas danych terenowych komputer potrafił rozpoznać także inne pola pokryte tą samą uprawą. Cieszyliśmy się, że rozpoznajemy to, co rośnie na polach. Cieszyliśmy się z tego, że dane początkowe („na polu coś rośnie”) zamieniliśmy w informację („na polu rośnie rzepak”) i że w podobny sposób mogliśmy określić, co rośnie także na innych polach. Potrafiliśmy też wydzielić inne rodzaje pokrycia terenu, np. obszary zabudowane, drogi czy wody. Można powiedzieć, że umieliśmy opracować dany obszar (daną przestrzeń) informacyjnie, określając, jakie rodzaje pokrycia czy użytkowania terenu występują w konkretnych miejscach.

Z biegiem czasu rozwój technologii informatycznych był coraz szybszy. Wraz z nim rosły także nasze potrzeby i oczekiwania wobec tego, co mogą nam zaoferować coraz nowocześniejsze urządzenia, którymi dysponowaliśmy. Przykładowo, na analizowanym przez nas obrazie występowały pola uprawne, o których wiedzieliśmy, co na nich rośnie, ale wiele z nich było niejednolitych i nie umieliśmy stwierdzić, co się na nich dzieje. Dlaczego obrazy pól pokrytych uprawą tej samej rośliny były bardzo zróżnicowane? W udzieleniu odpowiedzi na pytanie, dlaczego tak się dzieje, nie były w stanie pomóc informacje zawarte w analizowanym obrazie – pokazywały one po prostu aktualny stan rzeczywistości. Żeby dowiedzieć się czegoś więcej, trzeba było sięgnąć do innych informacji. Mówiąc inaczej, dochodziliśmy do wniosku, że mimo iż z góry widać lepiej, to jednak nie widać wszystkiego. I tu z pomocą przyszedł GIS, który pozwolił połączyć dane obrazowe z innymi danymi obrazowymi oraz danymi wektorowymi z wielu różnych dziedzin, np. z mapami gleb. Korzystając z takiego połączenia danych i z możliwości analitycznych GIS-u, można było prowadzić o wiele dokładniejsze i bardziej wszechstronne analizy informacji. Od tamtej pory w zasadzie nie zmieniła się filozofia prowadzenia analiz: łączenie warstw informacyjnych, integrowanie danych pozyskiwanych z różnych źródeł, w tym z takich, o których jeszcze kilka lat temu nikomu się nie śniło (np. danych ze skanowania laserowego czy z małych urządzeń mobilnych, które można zmieścić w kieszeni).

Tak więc doczekaliśmy czasów, kiedy można powiedzieć, że wiemy wszystko o tym, co nas otacza. Potrafimy określić, co to jest, w jakim jest stanie, jaką ma wielkość, kolor czy kształt. Wydawałoby się, że osiągnęliśmy cel, o jakim marzyliśmy od lat. A tu okazuje się – niestety, a może na szczęście – że nie dość nam tego. Jak już wiemy, co, gdzie i jakie jest, to chcemy wiedzieć, dlaczego jest takie, jakie jest. Innymi słowy – może bardziej elegancko i naukowo – chcemy przeanalizować, co doprowadziło do tego, że to, o czym mówimy, jest takie, jakie jest. Sięgamy więc do danych archiwalnych, porównujemy je z danymi aktualnymi i śledzimy procesy, które zachodziły na danym terenie i dotyczyły danych obiektów czy sposobów zagospodarowania. Oczywiście, ponieważ dysponujemy szerokim wachlarzem danych, nie musimy ograniczać się jedynie do analizowania map – w takiej analizie historycznej uwzględniamy wszystkie dostępne dane, np. dane statystyczne, archiwalne zdjęcia. Dzięki temu możemy przeanalizować czynniki, które kształtowały zachodzące zmiany i doprowadziły do stanu obecnego.

Ale spełniajmy nasze marzenia i nie zatrzymujmy się tylko na określeniu, dlaczego jest tak, jak jest i co do tego doprowadziło. Zróbmy następny krok. Ekstrapolując wyniki naszych analiz na kolejne lata, możemy określić, co się stanie z przedmiotem naszych analiz za 10, 15, a może i za 100 lat. Nie będzie to przewidywanie przyszłości na podstawie wróżenia z kart czy patrzenia w szklaną kulę. Z dużym prawdopodobieństwem określimy, jaka będzie przyszłość analizowanych przez nas obiektów, procesów i zjawisk, opierając się na gruntownej analizie dostępnej o nich wiedzy.

Czy zainteresował Cię ten materiał?