Sposób na dane – jak nie utonąć w morzu informacji

Sposób na dane – jak nie utonąć w morzu informacji

Informacja to obecnie najcenniejszy z „surowców”. Posiadając dane na temat otaczających nas zjawisk jesteśmy w stanie z dużą dokładnością przewidzieć trendy, które mogą przynieść firmie wymierne korzyści finansowe i organizacyjne lub pomóc państwom i instytucjom w określeniu np. kierunków rozprzestrzeniania się chorób na świecie. W roku 2013 firma badawcza SINTEF podała, że 90% światowych danych powstało w ciągu ostatnich 2 lat! To już nie tylko informacje zbierane w wyniku działalności firmy czy instytucji, ale dane płynące z sensorów, kamer i kanałów social media, czyli krótko mówiąc Big Data. Czy jednak dostęp do wielu źródeł danych jest gwarantem lepszego zrozumienia zachodzących procesów?

Jasne i ciemnie strony Big Data

O Big Data zrobiło się naprawdę głośno w 2011 roku, kiedy tradycyjny wywiad zawiódł w operacji schwytania Osamy bin Ladena. Udało się to dopiero przy wykorzystaniu analiz Big Data. Wykorzystanie obrazu satelitarnego i dronów, które wspierały akcję wywiadowczą prowadzoną przez CIA i amerykańskich żołnierzy pozwoliło na zebranie wszystkich elementów układanki. Użycie specjalnie w tym celu stworzonego oprogramowania i zestawienie danych czasowo-przestrzennie w czasie rzeczywistym pozwoliło na wyznaczenie miejsca, w którym ukrywał się terrorysta.

Na analizie wielu źródeł danych oparty został także projekt Google Flu Trends (GFT), którego głównym zadaniem było monitorowanie w czasie rzeczywistym przypadków występowania grypy na świecie i na tej podstawie określanie kierunków rozwoju choroby. Projekt bazował na badaniu zapytań na temat grypy, które były wpisywane w wyszukiwarkę Google. Mimo zaawansowanych rozwiązań informatycznych i dostępu do olbrzymich ilości danych, trafność prognoz odnośnie rozwoju choroby w latach 2011-2012 i 2012-2013 była przeszacowana o 50%. Jak się okazało, dużo lepsze rezultaty dał w tym przypadku tradycyjny model analizy danych historycznych pochodzących z CDC.

Niepowodzenie projektu GFT było swoistym kubłem zimnej wody dla zwolenników Big Data. Okazało się, że dostęp do niezliczonych danych i zaawansowane rozwiązania informatyczne nie gwarantują skutecznej zamiany informacji w wiedzę. Zdaniem ekspertów, przyczyną fiaska projektu były algorytmy Google, które zostały zaprojektowane głównie w celu optymalizacji wyszukiwania treści i skutecznego pozycjonowania reklam. Zabrakło także włączenia do całego procesu tradycyjnych metod zbierania informacji z mniejszych obszarów czyli tak zwanego „small data”.

Think Small

Niezależnie od sukcesu lub porażki poszczególnych projektów, tym co łączy powyższe przykłady jest globalny charakter organizacji oraz dostęp do praktycznie nieograniczonych środków, które pozwalają na zbieranie i analizowanie olbrzymich zestawów danych. Warto zatem zadać sobie pytanie, czy firmy które nie należą do ekskluzywnego grona 500 największych przedsiębiorstw na świecie lub nie mają zaplecza w postaci instytucji państwowych, powinny w swoich strategiach uwzględniać analizy Big Data? Odpowiedź na to pytanie nie jest jednoznaczna, a diabeł jak zwykle, tkwi w szczegółach. Okazuje się bowiem, że pojęcie Big Data jest nadużywane, albowiem w większości przypadków analizy, rzekomo oparte o ten model zbierania danych są niczym innym jak small data.

Z punktu widzenia biznesu, small data to wszystkie dane, które mogą być pozyskane w ramach organizacji, np. za pomocą czujników w fabrykach czy wprowadzane przez pracowników firmy. Small Data to informacja, która najczęściej przetwarzana jest za pośrednictwem takich systemów jak ERP czy CRM i  usprawnia procesy związane z główną działalnością organizacji, co w połączeniu ze odpowiednią interpretacją informacji przekłada się na realne zyski. Jak pokazują badania Nucleus Research wysiłek włożony w analizę Small Data i wykorzystanie uzyskanej wiedzy do podejmowania decyzji biznesowych generuje 241% zwrot z inwestycji.

Dane w czasie i przestrzeni

Co jednak zrobić, aby zebrane dane stanowiły realną wartość dla firmy? Niezależnie od tego czy mówimy o small data czy big data, kluczem jest odpowiednia analiza. Najczęściej firmy wykorzystują pozyskane informacje do sprawdzenia zależności w ujęciu czasowym. Chodzi tu o kwestie finansowe i billingowe, związane z logistyką i produkcją, ale także sprzedażą i marketingiem. Śledzimy zmiany w przepływie zasobów i działaniu procesów na przestrzeni miesięcy, kwartałów, lat. Obecnie duży nacisk kładzie się także na analizowanie danych w czasie rzeczywistym co pozwala na wykorzystanie zdobytej wiedzy do szybkiego reagowania np. w sytuacjach kryzysowych.

Istnieje jednak drugi wymiar analizy danych, z którego niewiele przedsiębiorstw zdaje sobie sprawię, a mianowicie wymiar przestrzenny. Szacuje się, że prawie 80% informacji ma odniesienie przestrzenne, dlatego przetwarzanie informacji z uwzględnieniem lokalizacji nie tylko wzbogaca dane, ale sprawia, że są one łatwiej zrozumiałe dla wszystkich pracowników organizacji. Taki rodzaj analizy danych nosi nazwę Location Analytics.

Jednym z ciekawszych przykładów zastosowania narzędzi analitycznych z uwzględnieniem czynnika lokalizacji jest Bank of America. Połączenie danych pochodzących z poszczególnych placówek i regionów (small data) z informacją pochodzącą z każdej transakcji z uwzględnieniem podmiotu realizującego operację, miejsca, czasu i kanału oraz informacją np. na temat zarobków mieszkańców (big data), pozwala organizacji na podejmowanie dużo trafniejszych decyzji biznesowych w skali mikro i makro. Dzięki optymalizacji i skutecznemu zarządzaniu siecią oddziałów i bankomatów, Bank of America zredukował koszty operacyjne o 800 mln USD, z poziomu 5,5 mld USD do 4,7 mld USD.

Podsumowując. Jeżeli nie jesteś gigantem z Cupertino albo Mountain View to nie myśl o przetwarzaniu wszystkich informacji, które mogą ci się wydać wartościowe. Zacznij od swojego podwórka, przeanalizuj dane, które przez lata zbierałeś w systemach CRM lub ERP i z czasem dodawaj do nich kolejne warstwy informacji np. o zarobkach potencjalnych klientów. Staraj się także na bieżąco analizować informacje dostarczane przez systemy i pracowników i wzbogać je o element lokalizacji, aby nabrały jeszcze większego sensu.

Czy zainteresował Cię ten materiał?