Firma » Biznes

Data Science paliwem napędowym koncepcji Przemysłu 4.0

Optymalizacja, monetyzacja i analityka. Pod znakiem tych pojęć będzie się rozwijać w Polsce coraz więcej firm z sektora przemysłowego, wynika z analizy firmy TogetherData.

Jednym z kluczowych trendów, który przyczyni się w 2019 roku do szerszej realizacji koncepcji Przemysłu 4.0 wśród polskich przedsiębiorstw będzie zbieranie, agregacja i analiza dużych zbiorów danych. Natomiast standardem mającym na celu wsparcie procesów decyzyjnych, identyfikacji nieefektywności oraz maksymalizacji jakości produkcji będzie Data Science – jedna z gałęzi Big Data. Odpowiednie wdrożenie tych działań może poprawić wyniki poszczególnych działów nawet o 15% – przewidują analitycy z TogetherData.

Zamów artykuły sponsorowane na serwisie CentrumPR.pl w kilka minut, poprzez platformę Link Buildingu np.:

 

Big Data, a Data Science

 

Data Science to dziedzina analityki szerokich strumieni danych, którą zaczyna się określać mianem „nauki o danych”. Jest to proces pozyskiwania, analizowania, wizualizacji i wnioskowania z zarówno ustrukturyzowanych jak i nieustrukturyzowanych danych, z użyciem m.in. takich technologii jak uczenie maszynowe i analiza predykcyjna. „Nauka o danych” w przeciwieństwie do Big Data, nie tylko agreguje i przetwarza dane, ale także tworzy całościowy model ich analizy, ukierunkowanej pod uzyskanie odpowiednich informacji i wniosków. W ciągu najbliższych dwóch lat zapotrzebowanie na wdrożenie systemów Data Science w Polsce wzrośnie nawet o 40 proc., wynika z szacunków firmy analitycznej TogetherData. Największy popyt będzie panował wśród firm z sektora produkcyjnego.

 

Big Data w przemyśle to jedynie prosta wizualizacja danych pozyskanych przykładowo z czujników monitorujących awarię na linii produkcyjnej. Natomiast Data Science, czyli „nauka o danych” wyznacza cele do osiągnięcia, determinuje rodzaj danych potrzebnych do analizy oraz dobór modelu statystycznego. – mówi Michał Grams, Prezes Zarządu TogetherData. W średniej wielkości zakładzie produkcyjnym z branży FMCG liczba zdarzeń podlegających ciągłej zmianie wartości jest liczona w tysiącach na sekundę. Dzięki odpowiedniemu zastosowaniu algorytmów, można przewidzieć jakie są główne czynniki wpływające na obniżenie bądź zwiększenie jakości produktu.

 

Data Science – kluczowy element Przemysłu 4.0

 

Dzięki zastosowaniu odpowiednich algorytmów systemy Data Sciecne są w stanie identyfikować wąskie gardła produkcji oraz zredukować występowanie awarii oraz przestojów w działaniu linii produkcyjnej . Zdaniem ekspertów TogetherData, analiza danych historycznych i aktualnych pochodzących z raportów dotyczących kontroli jakości oraz przebiegu procesów produkcji, umożliwia zwiększenie efektywności produkcji o średnio 15 proc. Natomiast analiza predykcyjna informacji pochodzących z inteligentnych czujników oraz sensorów rozlokowanych na linii produkcyjnej przyczynia się do optymalizacji kosztów produkcyjnych, w tym do zmniejszenia o średnio 20 proc. kosztu utrzymania i serwisowania maszyn.

Analiza danych dotyczących planowania oraz zapotrzebowania na dostawy, informacjach o pogodzie, czy remontach dróg pozwala na zwiększenie terminowości o średnio 10 proc., oraz optymalizację kosztów logistycznych o średnio 15 proc. Możliwa staje się predykcja zapotrzebowania oraz efektywniejsze zaplanowanie dostarczenia zaopatrzenia, a także optymalizacja stanów magazynowych. Dzięki integracji danych z każdego etapu życia produktu, możliwe jest podniesienia jakości w łańcuchu dostaw o blisko 10 proc., wynika z szacunków TogetherData.

Zastosowanie narzędzi Data Science umożliwia identyfikację głównych czynników wpływających na obniżenie, bądź zwiększenie jakości produktów poprzez monitorowanie i analizę danych dot. procesu produkcji, jakości wyrobów, ilości wad w danych partiach towarów. Po agregacji tych danych z danymi dotyczącymi zakupów czy logistyki możliwa będzie historyczna analiza pochodzenia surowca, jego jakości oraz predykcja wskaźników wpływających na niższą niż średnia jakość produktu końcowego. – mówi Michał Grams, Prezes TogetherData.

 

Analiza prognozy pogody i zbiorów z lat poprzednich daje firmom z branży produkcji żywności możliwość przewidywania wolumenów produkcji. Inteligentne algorytmy są w stanie zautomatyzować proces oceny ryzyka niewypłacalności potencjalnych kontrahentów i klientów, co umożliwia otrzymanie prognoz o ewentualnym opóźnieniu w płatnościach. Z danych TogetherData wynika także, że zastosowanie narzędzi Data Science przyczynia się do efektywnej estymacji marży produktowej oraz audytu wydatków marketingowych jak i automatyzacji predykcji ROI z działań reklamowych.

Główne wyzwania

Różnorodność dostępnych źródeł danych stwarza trudności w stosowaniu i wdrażaniu systemów analitycznych. Zdaniem ekspertów TogetherData, tylko cztery na dziesięć firm w Polsce nie skarży się na brak specjalistycznej wiedzy, aby móc wykorzystać duże zbiory danych do dalszej analizy. Uporządkowanie zetabajtów informacji pochodzących zarówno ze źródeł online jak i offline, jest największym wyzwaniem dla podmiotów z branży przemysłowej. Wynika to z faktu, iż wciąż poziom cyfryzacji polskich przedsiębiorstw jest zatrważająco niski. Badania przeprowadzone w 2018 roku przez firmę ASD Consulting dowodzą, iż 84 proc. firm z branży produkcyjnej gromadzi informacje ręcznie, a co czwarte przedsiębiorstwo przetwarza je analogowo w formie papierowej. Systemami skanerowymi i kodami kreskowymi wspomaga się jedynie 16 proc. firm, a zautomatyzowane procesy gromadzenia cyfrowych informacji z cyklu produkcyjnego wykorzystuje niespełna 12 proc. przedsiębiorstw. Największą barierą blokującą proces „datyzacji” polskiego przemysłu jest opór pracowników - wynika z badania ASD Consulting.

 

Wyzwaniem dla polskich przedsiębiorców będzie nie tylko sama kwestia wdrożenia narzędzi analizujących dane, ale także sprytnej i efektywnej strategii ich badania i wykorzystania. Moda na Big Data zmieni się w trend Data Science. – tłumaczy Michał Grams. - Firmy muszą zmienić swoje podejście. Nie liczy się bowiem ilość badanych i wykorzystanych biznesowo danych, lecz technologia, rodzaj i forma narzędzi używanej do analizy – dodaje. Zdaniem ekspertów z TogetherData agregacja danych z wielu źródeł oraz wygenerowanie wysokopoziomowej, między-departamentowej bazy  pozwala zwiększyć wyniki działów produkcji, jakości czy logistyki o średnio 15%. 



Redakcja CentrumPR informuje, że artykuły, fotografie i komentarze publikowane są przez użytkowników "Serwisów skupionych w Grupie Kafito". Publikowane materiały i wypowiedzi są ich własnością i ich prywatnymi opiniami. Redakcja CentrumPR nie ponosi odpowiedzialności za ich treść.

Nadesłał:

MaciejParol

Komentarze (0)


Twój podpis:
System komentarzy dostarcza serwis eGadki.pl
Opublikuj własny artykuł
Opublikuj artykuł z linkami

Kalendarium

Przejdź do kalendarium »

dodaj wydarzenie »

Ostatnio dodane artykuły

dodaj artykuł »