Technologie » Internet

Podsumowanie 2018 roku: trendy w IT

Rok 2018 jest kolejnym, który udowadnia, że żyjemy w coraz bardziej cyfrowym i zautomatyzowanym świecie. Jednak trendy, które najmocniej wybrzmiały w tym czasie skupiają się już nie wokół tworzenia zupełnie nowych rozwiązań i przełomowych wynalazków, ale dotyczą optymalizacji już istniejących.

 

Zamów artykuły sponsorowane na serwisie CentrumPR.pl w kilka minut, poprzez platformę Link Buildingu np.:

Podsumowanie 2018 roku: trendy w IT

Małgorzata Kasperska
Wiceprezes Działu ITD w Schneider Electric

Jaki to był rok dla działalności IT?

Rok 2018 jest kolejnym, który udowadnia, że żyjemy w coraz bardziej cyfrowym i zautomatyzowanym świecie. Jednak trendy, które najmocniej wybrzmiały w tym czasie skupiają się już nie wokół tworzenia zupełnie nowych rozwiązań i przełomowych wynalazków, ale dotyczą optymalizacji już istniejących systemów. Stąd eksperci IT w 2018 roku najwięcej dyskutowali o edge computing, który ma wspomóc chmurę obliczeniową, możliwościach optymalizacji centrów danych z wykorzystaniem sztucznej inteligencji oraz o konieczności zdywersyfikowania systemów zasilania gwarantowanego.

3 GŁÓWNE TRENDY W 2018 R.:

Edge Computing

To zdecydowanie był rok edge computing - widać to na przykład po częstotliwości odwiedzania artykułów na ten temat na naszym blogu. Termin ten jest ostatnio odmieniany przez wszystkie przypadki, a mimo to wciąż nie potrafimy go jednoznacznie zdefiniować. Jednak to właśnie brak jednego, wąskiego określenia tego pojęcia sprawia, że architektura ta daje nam niemal nieograniczone możliwości. Przetwarzanie na obrzeżach łączy dziedziny, które do tej pory nie szły ze sobą w parze i pozwala odciążyć centra danych, zwiększając wydajność procesów.

Szerokie możliwości zastosowania edge computing stawiają w jeszcze lepszym świetle przyszłość chmury. Eksplodujący ruch cyfrowy, IoT (Internet of Things), aplikacje stawiające wysokie wymagania związane z parametrami transmisji obnażyły pewne ograniczenia chmury. Okazało się, że dla wielu aplikacji problem stanowią opóźnienia w transmisji danych, przepustowość łącza bądź regulacje prawne. W związku z tym następuje migracja tych aplikacji w kierunku miejsc, gdzie dane są „konsumowane", przetwarzane. Bezpośrednio w związku z tym zjawiskiem rośnie znaczenie infrastruktury na obrzeżu.  Pewne jest, że edge computing to technologia przyszłości, której rozwojowi należy się bacznie przyglądać.

Edge computing ma ogromny potencjał, ale należy zauważyć, że nie jest alternatywą dla systemów do centralnej obróbki danych. Uzupełnia i rozszerza ich możliwości, wspomaga efektywność ich działania w połączeniu ze środowiskami o rozproszonym charakterze.

Optymalizacja data center

Rok 2018 pokazał, że centra danych nie tylko powinny dążyć do optymalizacji, ale zostaną do tego niejako zmuszone. Wszystko przez rosnące wymagania klimatyczne. Z jednej strony globalne zapotrzebowanie na energię wzrośnie o ok. 50%, a z drugiej jako ludzkość musi obniżyć emisję CO2 przynajmniej o połowę. Odpowiedzią na oba wyzwania jest efektywność energetyczna. Centra danych będą jednym z najważniejszych elementów nowej zoptymalizowanej infrastruktury, ponieważ odpowiadają za wysokie zużycie energii - w USA same centra danych zużywają 2% całkowitej energii.

Proces optymalizacji centrów danych to duże wyzwanie. Wszystko ze względu na obciążenia IT
i zewnętrzne warunki otoczenia organizacji - zmieniają się one dynamicznie i czasami są zupełnie nieprzewidywalnie. Z tego względu opcje znacząco poprawiające wydajność operacyjną centrów danych są ograniczone. Z pomocą przychodzi sztuczna inteligencja, która według danych Gartnera, do 2025 roku ma stać się fundamentem systemów IT. Dlaczego sztuczna inteligencja najlepiej odpowiada na wymagania centrów danych? Przede wszystkim dlatego, że jej podejście w modelu opartym na danych polega na pobieraniu danych i swoistym szkoleniu sieci tak, aby była w stanie modelować współczynnik efektywności - PUE (ang. power usage effectiveness) systemu. Gdy system dotrze do momentu, w którym użytkownik ma pełne zaufanie do modeli analitycznych i pozyskanych danych, sztuczna inteligencja może optymalizować centra danych w czasie rzeczywistym bez konieczności angażowania pracowników.

Zdywersyfikowane zasilanie gwarantowane

Zmiany klimatyczne wpływają na branżę IT nie tylko ze względu na nowe wymogi wobec centrów danych. Gwałtowne zjawiska pogodowe uświadamiają konieczność rozwijania systemów zasilania gwarantowanego. Przerwy w dostawach energii wynoszą w Polsce łącznie 300 minut w roku. Dla porównania w Japonii to zaledwie 17, a przecież nawet minuta bez prądu może narazić sprzęt elektroniczny, jak i dane na nim przechowywane, na nieodwracalne uszkodzenia.

Przy tym, rozwijanie systemów zasilania gwarantowanego nie powinno koncentrować się tylko na  poszerzeniu funkcjonalności UPS-ów, ale także dostosowaniu oferty dla szerszej grupy odbiorców, dlatego w 2018 roku Schneider Electric zaprezentował trzy nowe modele UPS, które odpowiadają na specyficzne potrzeby każdego środowiska - jednofazowy zasilacz Easy UPS z serii BV dla domów i małych firm, seria SRV dedykowana małym i średnim przedsiębiorstwom i wreszcie Easy UPS 3S dla bardziej wymagających środowisk.



Redakcja CentrumPR informuje, że artykuły, fotografie i komentarze publikowane są przez użytkowników "Serwisów skupionych w Grupie Kafito". Publikowane materiały i wypowiedzi są ich własnością i ich prywatnymi opiniami. Redakcja CentrumPR nie ponosi odpowiedzialności za ich treść.

Nadesłał:

AZ_2018

Komentarze (0)


Twój podpis:
System komentarzy dostarcza serwis eGadki.pl
Opublikuj własny artykuł
Opublikuj artykuł z linkami

Kalendarium

Przejdź do kalendarium »

dodaj wydarzenie »

Ostatnio dodane artykuły

dodaj artykuł »