Masz newsa? Powiedz nam o tym!

Korzyści z zastosowania Big Data wydają się być ewidentne. Jednak wielu polskich managerów analitykę danych widzi raczej nie teraz, ale jako element przyszłości. Raport Intela wskazuje, że w Polsce zaledwie 18 proc. firm wykorzystuje zautomatyzowane zbiory danych i informacji. Niektórzy mogliby stwierdzić, że tak słaby wynik jest efektem przekonania, iż korzystanie ze źródeł Big Data to tylko domena największych firm. Specjaliści stanowczo kwestionują takie podejście.   

Zdaniem Dimitar Pavlova, business analyst z Transmetrics, analiza danych jest najtrudniejszą i najbardziej czasochłonną częścią procesu logistycznego. Są to jednak działania opłacalne, ponieważ „mogą pomóc zaoszczędzić od 15 do 20 proc. wszystkich kosztów firmy„.

O tym, jakie efekty może przynieść analiza danych, pokazują wyniki spedycji UPS. Rozwiązanie analityczne, z którego korzysta (On-Road Integrated Optimization and Navigation – w skrócie ORION), rocznie pozwala firmie na zredukowanie przejechanych kilometrów o ponad 160 mln. To przekłada się na zaoszczędzenie od 300 do 400 mln dolarów.

Norbert Kręcicki, dyrektor marketingu z UPS Polska opowiada, że w analizie danych bardzo ważna jest zmiana sposobu myślenia z “co się z tym stało” (np. obserwujemy zachowanie rynku przed jakimś świętem), na “co się z tym stanie” (np. w przyszłym roku w tym samym okresie lub przed jakimiś innymi świętami), by ostatecznie zastanowić się nad “co powinniśmy z tym zrobić” (np. przerzucić część pojazdów na inne trasy, zwiększyć ilość cystern w danym okresie itd.).

Czesi, Węgrzy i Słowacy korzystają z danych znacznie częściej niż polskie firmy. Natomiast ostatni ranking Komisji Europejskiej badający popularyzację rozwiązań służących do przetwarzania wielkich zbiorów danych uplasował Polskę na szarym końcu – konkretnie, trzecim miejscu od końca. Wyprzedzamy jedynie Cypr i… Niemcy – to cytat z materiału eksperckiego Pawła Bracha z TogetherData zamieszczonego w „Forbesie”.

Big Data nie tylko dla wielkich koncernów

Zdaniem specjalistów z Unima 2000 dużym wyzwaniem dla Big Data na polskim rynku jest błędne przekonanie przedsiębiorców, że analityka danych to rozwiązanie zarezerwowane dla dużych graczy. Tymczasem z technologii tej mogą z powodzeniem korzystać firmy z sektora MŚP.

Już pięć lat temu eksperci instytutu badawczego InsightExpress stwierdzili, że 78 proc. polskich menedżerów IT uznało technologię danych za główny element strategii rozwojowych ich firm w ciągu najbliższych pięciu lat. Jednak już wówczas zauważono, że 8 na 10 badanych analizuje dane, ale tylko 3 na 10 potrafi wykorzystać je strategicznie.

– Tutaj tkwi sedno problemu – zarówno wtedy jak i dziś! Większość ludzi wie, o co chodzi z technologiami opartymi na analizie takich zbiorów danych, ale nie mają pojęcia, w jaki sposób przekuć to na potrzeby swojej firmy, i jednocześnie boją się potencjalnych kosztów takiego przedsięwzięcia. Ciągle słyszę o zwrotach z inwestycji. Niemal każdy przedsiębiorca pyta mnie, czy będzie z tego jakikolwiek zysk przy tak dużych kosztach? Czy to wszystko ma sens? 400 specjalistów IT z przedsiębiorstw całego świata przebadanych przez CompTIA twierdzi, że wdrożenie u nich analityki danych w 72 proc. sprostało oczekiwaniom firmy, a czasami nawet je przerosło – komentuje Paweł Brach.

Brak specjalistów barierą

Chociaż segment Big Data rozwija się nieprzerwanie niemal sześciokrotnie szybciej niż cały rynek IT, na wymierne rezultaty przyjdzie nam jeszcze poczekać. Jak wynika z badania przeprowadzonego w USA na zlecenie SAS, 49 proc. przedsiębiorstw twierdzi, że jest za wcześnie, aby ocenić zwrot z inwestycji w projekty Big Data. Jedynie co trzecia firma odnotowała zyski wynikające z wykorzystania rozwiązań do analizy dużych zbiorów danych. Stwierdzono przy tym, że aż 83 proc. firm ze Stanów Zjednoczonych przebadanych przez SAS inwestuje w projekty związane z Big Data.

Jedną z największych barier rozwoju rynku systemów analitycznych jest brak wykwalifikowanych specjalistów. Firmy zgłaszają coraz większe zapotrzebowanie na osoby, które potrafią przełożyć wnioski z danych na konkretne decyzje biznesowe. Według raportu SAS, tylko co druga firma ma w swoich szeregach osobę odpowiedzialną za proces ochrony i przetwarzania danych w ramach całej organizacji (Chief Data Officer).

Dostęp do informacji mają głównie wykwalifikowani specjaliści z zakresu data science i analitycy biznesowi. Z badania SAS wynika, że jedynie 13 proc. firm umożliwia pracownikom samodzielny dostęp do danych bez wsparcia lub nadzoru zespołu IT.

Łańcuchy dostaw mniej podatne na zakłócenia

Wprawdzie zastosowanie Big Data nie jest jeszcze powszechne, ale są pozytywne przykłady. Firma logistyczna DHL, dzięki wdrożeniu “Resilience360”, instrumentu do zarządzania ryzykiem łańcucha dostaw powstałego dzięki analizie Big Data, zaoferowała klientom informacje na temat potencjalnych zakłóceń ich poszczególnych łańcuchów dostaw. Kolejnymi z możliwych, badanych obecnie są modele: “Prognozy ilości paczek DHL” czy “DHL Geovista”. Pierwszy z nich pozwala np. uprościć planowanie wolumenu paczek do przewozu poprzez uwzględnienie czynników skorelowanych danych. Korzystanie z modelu “DHL Geovista” pozwala natomiast uzyskać szczegółowe analizy i oceny złożonych danych geograficznych. Dzięki temu dostawcy usług logistycznych mogą przewidywać wielkość sprzedaży.

– Resilience360 jest doskonałym przykładem korzyści gospodarczych płynących dla logistyki z analityki Big Data. Agregowanie i ocena danych pozwala zabezpieczyć i zwiększyć wydajność łańcuchów dostaw. Tak więc działalność operacyjna nie zostaje przerwana – mówi Markus Kückelhaus, kierownik ds. badania trendów, DHL Customer Solutions & Innovation.

Raport DHL wskazuje także na dwa inne potencjalne zastosowania analityki Big Data: zwiększenie wydajności operacyjnej oraz możliwość badania nowych modeli biznesowych.

– DHL Resilience 360 zawiera dwa elementy: analizę oceny ryzyka oraz instrumenty do monitorowania łańcucha dostaw, które działają niemal w czasie rzeczywistym. Łańcuchy dostaw powinny być bardziej wytrzymałe i mniej podatne na awarie, co pozwoli zapobiegać przerwom w produkcji oraz stratom przychodów – wyjaśnia Markus Kückelhaus.

Big Data w logistyce obecna już w Polsce

Łukasz Kryśkiewicz, doradca w Ministerstwie Cyfryzacji, podaje inne przykłady zastosowania Big Data w polskich firmach. Wymienia np. Inter Cars, największego dystrybutora części samochodowych i akcesoriów.

Wdrożenie analityki Big Data pozwoliło spółce efektywnie zarządzać dostępnością towaru. Analityk przewiduje ile i jakich części będzie potrzeba w każdej placówce, co pozwala na optymalną dystrybucję.

Zamiast prowadzić wojny cenowe z konkurencją, spółka postawiła na wysoką dostępność swoich towarów w cenie premium.

– Sieć dystrybucyjna Inter Cars jest sterowana potężnym silnikiem analitycznym, który na bieżąco oblicza przyszłe zapotrzebowanie na każdą z ponad dwóch milionów części umieszczonych w katalogu firmy – tłumaczy Łukasz Kryśkiewicz.

Kolejnym przykładem jest Poczta Polska, gdzie implementacja rozwiązań Big Data ma zoptymalizować transport listów i paczek.  

– Poczta dostaje kilka milionów listów i kilkaset tysięcy paczek dziennie. Uruchamiamy 10 tys. połączeń samochodowych dziennie i dwadzieścia kilka tysięcy listonoszy. To jest wielkie pole do popisu dla Big Data tłumaczył Marek Ziemiańczyk, dyrektor zarządzający spółki cytowany w raporcie “Jak polskie firmy wykorzystują Big Data, aby efektywnie konkurować na rynku”.

– Musimy brać pod uwagę nie tylko aspekty logistyczne, ale też takie czynniki jak informacje o pogodzie czy korki, by skuteczniej, szybciej i taniej dostarczać przesyłki. Poczta Polska wchodzi też bardzo mocno w e-commerce, bo wolumen listów powoli spada. Big Data może pomóc w trosce o spersonalizowane doświadczenie klienta lub w wielokanałowym zbieraniu danych, tak by dopasować ofertę do klienta – dodaje Marek Ziemiańczyk.

Fot. Pixabay/JohnsonGoh

Komentarze

comments1 komentarz
thumbnail
Aby ustawić powiadomienia o komentarzach - przejdź do swojego profilu