#Future Builders

To druga edycja – a raczej ewolucja – rozpoznawalnego projektu Future Thinkers. Łącząc siły aż z trzech stron ekspertów stworzono program oparty na co-kreacji i dialogu.

Wejdź do świata Future Builders!

Dell Technologies jako firma, towarzyszy tej rewolucji technologicznej od samego początku, niejednokrotnie mając odwagę wspólnie z naszymi partnerami i klientami rozwijać projekty nowatorskie i innowacyjne. Dlatego nie mogliśmy odmówić sobie tej przyjemności, ale i trudności by zmierzyć się z wyzwaniami, które leżą na stołach czterech trendów technologicznych.

Dariusz Piotrowski

Dyrektor Generalny Dell Technologies Polska

O Future Builders

Drodzy czytelnicy Co sprawia, że przedsiębiorstwo osiąga rynkowy sukces? Jak skutecznie nawigować po świecie nowych technologii zwłaszcza dziś, w dobie cyfrowej transformacji i nowej normalności? Czy wreszcie, jakie technologie mają szansę zdefiniować nasz świat w perspektywie najbliższych lat? To tylko niektóre pytania, na które odpowiedzi szukamy w ramach projektu Future Builders. Wielomiesięczny program zainicjowany przez Dell Technologies, stworzony przy współpracy z 360 Inspiration, Greenhat Innovation oraz społeczności CIONET Polska.

Future Builders, to program będący wyjątkowo blisko biznesu. Jego celem jest stworzenie wizji przyszłości IT w ramach wybranych czterech obszarów technologicznych i ich praktycznego przełożenia - jak przewidywane zmiany i kierunki zaaplikować w możliwościach biznesowych, ułatwiając skuteczną nawigację i działanie.

Nadrzędnym celem programu jest wypracowanie praktycznych technologicznych wskazówek, ułatwiających podejmowanie decyzji w kluczowych obszarach IT oraz wsparcie biznesu w drodze do realizacji obranych kierunków i celów strategicznych.

Program oparty jest o cztery ścieżki technologiczne: Cyber Resilience, Stack Redefinition, Data Induced Everything, Entangled Worlds. Ścieżki te zostały wybrane z mapy 10 trendów nazwanych w edycji 1.0 - Future Thinkers.

Kiedyś wystarczył własny wewnętrzny zespół do opracowania trzyletniej prognozy dla biznesu, na podstawie wielomiesięcznych badań rynku, studiowania finansów, analizy modeli i przepisania przez branże standardowo przyjętych trendów.

"Jednak turbulencja kolejnych lat wymaga wielodyscyplinarnej perspektywy, szybkiego podejmowania decyzji oraz umiejętności zmiany kierunku. (…) Dlatego, pracując nad ułatwieniem nawigacji przez możliwe przyszłości patrzyliśmy na różnorodne przecinające się ścieżki (Cyber Resillience, Entangled Worlds, Stack Redefinition, Data Induced Everything), które w różny sposób pomogą osobom zarządzającym oświetlić drogę do ciągle zmieniającego się celu." - Zuzanna Skalska


Dowiedz się więcej

Data Induced Everything to naturalna ewolucja transformacji cyfrowej. Poprzednio skupialiśmy się na informacji, o której wiedzieliśmy, że ją posiadamy. Obecnie staramy się wyjść daleko poza, idziemy tak daleko, jak tylko się da do świata fizycznego i tam zbieramy informacje, bo wierzymy, że każda informacja jest ważna i pozwala nam zrozumieć więcej. A gdy widzimy i rozumiemy więcej to jesteśmy w stanie podejmować jeszcze lepsze decyzje.

Wojciech Janusz

EMEA Manufacturing Practice Lead, Dell Technologies

Wszechobecne dane. Wyzwania, szanse, zagrożenia

Dane są zarówno skutkiem, jak i przyczyną wszystkiego, co się dzieje w cyfrowej (ale nie tylko) rzeczywistości. Dane są wszechobecne, zbierane niemal wszędzie, przez niemal każde urządzenie. To daje ogromne możliwości, ale i powoduje problemy – a od ich rozwiązania zależy, czy dzięki danym powstaną wartościowe, lepiej dostosowane do potrzeb produkty i usługi.

Kluczowe punkty artykułu o Data Induced Everything:

  • Dane, dane, więcej danych,
  • Gdzie leżą problemy?
  • Trzy kroki do stania się organizacją data-driven,
  • Dane – czytelne i dobrze wykorzystane,
  • Im więcej danych tym lepiej?

O danych można na pewno powiedzieć jedno – jest ich coraz więcej. Bardzo często organizacje pozyskują więcej danych, niż są w stanie przetworzyć. Powstają zbiory, które puchną i prędzej czy później stają się źródłem problemów. Choćby takich jak sama konieczność ich przechowywania i zabezpieczenia. Do tego pojawia się też zjawisko dark-data, czyli powstawanie zbiorów danych, o których istnieniu nawet firmy, które je zbierają, nie mają pojęcia.

To wszystko rodzi wyzwania, z jakimi organizacje muszą dziś się zmierzyć.

  • Jak dane selekcjonować i odsiewać te, które nie są potrzebne?
  • Jak je efektywnie przetwarzać?
  • Jak dbać o cały cykl życia danych?
  • Jak znajdować nowe ich źródła?

Nad tym zastanawiali się uczestnicy warsztatów organizowanych przez Dell Technologies w ramach inicjatywy Future Builders, której celem jest wypracowanie pomysłów na nowe rozwiązania, jakie mogłyby znaleźć zastosowanie wśród firm-klientów Dell Technologies. Podczas spotkania pod hasłem "Data induced everything" zastanawiano się, jakie wyzwania związane z gromadzeniem i przetwarzaniem są najistotniejsze i gdzie należy szukać pomysłów na nowe narzędzia, mające pomóc osobom, które z danymi pracują na co dzień.

Prostych rozwiązań tu nie ma. Podczas części wydarzenia poświęconego danym okazało się, że wielość problemów, jaki organizacje mają z nimi, może być przytłaczająca.

Dane, dane, więcej danych

Jednym z głównych wyzwań, z jakimi przychodzi się dziś mierzyć w kontekście danych, jest ich rozproszenie, czyli mnogość źródeł ich pochodzenia i przechowywania. Często trzeba więc odpowiedzieć na podstawowe pytanie – gdzie szukać tego, czego potrzebujemy?

Odpowiedzią wydaje się gromadzenie wszystkich informacji w jednym miejscu, ale to rozwiązuje tylko jeden problem, a prowadzi do kolejnego: jak z nich korzystać, bo przecież – skoro pochodzą z różnych źródeł – mają niejednokrotnie różne formy. Od wielopoziomowych obiektów do zwykłych zeskanowanych kartek, zawierających również ręcznie wprowadzone informacje.

Może więc już na pierwszym etapie – kolekcjonowania danych – decydować o ich przydatności i odrzucać te niepotrzebne?

To rozwiązuje problem konieczności przesyłania i przechowywania wszystkiego, ale rodzi ryzyko, że przegapimy coś istotnego, przydatnego w dalszej pracy.

Pojawia się też – a jakże – czynnik ludzki. Bo chociaż technologia pozwala dziś na wiele, wciąż jeszcze istnieją punkty, w których jedynym narzędziem wyszukania i kategoryzacji informacji pozostaje człowiek. Tymczasem osoby zatrudnione w firmie nie znają choćby zasad gromadzenia i zabezpieczania danych. Brakuje osób, które są odpowiedzialne za zarządzanie danymi w organizacji, i to w całym cyklu ich życia. I chociaż obowiązki związane z RODO nieco to zmieniły, to tylko w przypadku danych osobowych, co jest niewielkim wycinkiem całego problemu.

Wreszcie trzeba powiedzieć o tym, że zarówno zbieranie, jak i późniejsze prace z danymi to proces kosztowny. Niejednokrotnie trudno ocenić, czy i jakie korzyści organizacja będzie miała dzięki pozyskanym informacjom. Decyzja o ograniczeniu zakresu ich zbierania powadzi do ryzyka, że w przyszłości mogą się one jednak okazać przydatne. Albo – podejście przeciwne – gromadzimy wszystko, co się da, ponosząc koszty i szukając dla tego zastosowania. Ryzykując z kolei, że wartość dodana, jaką dzięki temu zbudujemy, nie będzie jednak warta wydanych pieniędzy…

Gdzie leżą problemy?

Podczas konsultacji poprzedzających warsztaty Future Builders przeprowadzono ankietę, zadając uczestnikom pytanie o to, jakie potrzeby widzą już na tym etapie i gdzie można szukać dla nich rozwiązań.

Inteligentne łączenie danych od wielu dostawców i wyciąganie z tych danych wartości w celu usprawnienia proponowanych klientom rozwiązań to jedna z najczęściej wybieranych odpowiedzi. Mamy tu więc zarówno potrzebę odpowiedniego przygotowania danych przed ich analizą, samą analizę w poszukiwaniu wartościowych informacji oraz umiejętność przełożenia tych wartości na konkretne produkty czy usługi. Co istotne – cały proces powinien być inteligentny, co zakłada też pewną automatyzację czy wręcz elementy sztucznej inteligencji, która miałaby w tym procesie uczestniczyć (z j. ang.: IPA, czyli Inteligent proces automation).

Inna potrzeba opisana została jako "dostarczenie i selekcja detalicznych danych przez cały cykl życia produktu, umożliwiające kontrolę i transparentność rozwiązań, aby konsumenci mogli dokonywać świadomych wyborów". W tym przypadku bezpośrednimi beneficjentami przetwarzania informacji są sami klienci, dla których już same dane są wartością, oczywiście odpowiednio wybrane i przedstawione – i to miałoby być narzędziem, nad jakim firmy takie jak Dell Technologies powinny pracować. Dzięki niemu konsumenci sami podejmują decyzje na podstawie otrzymanych informacji, wybierają to, co jest im potrzebne, a rezygnują z rzeczy zbędnych.

Wśród istotnych aspektów pojawiły się też łańcuchy dostaw, a właściwie problem odpowiedniej agregacji danych, które je opisują. Powstaje potrzeba stworzenia scentralizowanej bazy, tworzonej przez partnerów z całej sieci dostaw. Dzięki temu łańcuchy byłyby bardziej transparentne.

To daje korzyści na wielu poziomach – ekonomicznym (pozwala lepiej szacować i obniżać koszty), bezpieczeństwa (dokładnie widzimy, co dzieje się z produktem na każdym etapie, co pozwala na monitorowanie ewentualnych zagrożeń i przeciwdziałanie im) oraz szeroko rozumianego ESG (choćby możliwość obliczenia śladu węglowego dla produktu w oparciu o dane z całego łańcucha).

Tu ewentualnie stworzone narzędzie miałoby umożliwić przekazywanie i analizę (też zautomatyzowaną) danych dostarczonych przez wszystkich uczestników procesu, ale tylko takich, które nie będą informacjami wrażliwymi z ich punktu widzenia.

Kolejne wyzwania to zarządzanie całym cyklem życia danych i ciągła optymalizacja posiadanych zasobów, aby tworzyły wspólną całość. Tu wracamy do problemu data management i kompetencji osób, które tym się zajmują. I konieczności powstania narzędzi, które pozwalają na efektywną realizację tych zadań.

Ostatnia wybrana przez ankietowanych potrzeba, jaką należałby pilnie zaspokoić, to "współdzielenie danych z innymi i ich efektywne przetwarzanie w celu przewidywania lokalnej oferty usługowej i produktowej". I chociaż brzmi to bardzo atrakcyjnie, to niesie ze sobą duże wyzwania – w tym chociażby konieczność podjęcia decyzji, w jaki sposób umożliwiamy dostęp do określonej części danych, nie udostępniając jednocześnie tych, które są wrażliwe lub istotne choćby z punktu widzenia budowania przewagi konkurencyjnej.

Całkowity budżet na inicjatywy związane z danymi w okresie 2016-2018 oraz 2019-2021. Obejmuje wszystkie wewnętrzne i zewnętrzne koszty pracowników, kontraktów outsourcingowych związanych z technologiami ryzyko-danych, kosztów infrastruktury, oprogramowania i innych.

Rosnący koszt danych - wydatki ogółem (mln $)

2016-18
2019-21

Żródło: https://www.mckinsey.com/business-functions/mckinsey-digital/our-insights/reducing-data-costs-without-jeopardizing-growth

Dzisiaj dane przenikają wszystko. Każdy system informatyczny i właściwie każde urządzenie teraz jakieś dane zbiera. Pytanie, czy będziemy umieć z tych danych skorzystać. Ja widzę duży potencjał, ale do pewnego stopnia to nadal jest potencjał uśpiony. Wiele z tych danych jest nawet relatywnie dobrze rozpoznane, natomiast wyzwaniem pozostaje to, jak dobrze łączyć dane z różnych obszarów. Dopiero bowiem w takiej sytuacji najczęściej pojawiają się rzeczy przełomowe.

Krzysztof Dąbrowski

mBank, COO

Dane – czytelne i dobrze wykorzystane

Uczestnicy warsztatów Future Builders podczas pracy nad poszukiwaniem rozwiązań, jakie są im potrzebne obecnie lub mogą być potrzebne w niedalekiej przyszłości, skupili się na kilku obszarach, które wzajemnie się przenikały i uzupełniały.

Pierwsza grupa wybrała drogę "data first". Tylko na podstawie rzetelnych i właściwie zinterpretowanych informacji organizacja powinna podejmować istotne decyzje.

Z tego powodu potrzebne jest rozwiązanie, które to umożliwi, a na które składa się zarówno narzędzie, jak i nowe procesy w firmie. Narzędzie powinno umożliwiać efektywną i dostępną dla wszystkich zainteresowanych analizę zgromadzonych informacji i tworzenie ich prezentacji. Odpowiednio przygotowane i zwizualizowane dane mają być podstawą do przedstawienia propozycji działań (np. zarządowi, który bez takiej analizy nie godzi się na żadne nowe inicjatywy – zgodnie z podejściem "no data – no founds").

W tej propozycji zawarto też możliwość stworzenia odpowiedniej kultury organizacyjnej, która zakłada szeroko zakrojoną edukację dotyczącą korzystania z danych, promowanie podejścia "data-first", stworzenie stanowisk dla osób, które odpowiadałyby za wspieranie tworzenia projektów na podstawie danych.

Pewnym uzupełnieniem tej propozycji był pomysł innej grupy, która również postulowała, by gromadzone dane były dostępne i czytelne dla wszystkich. To wymagałoby połączenia wielu rejestrów danych, a także współpracę pomiędzy zespołami tak, by transparentne było, czym poszczególne komórki się zajmują i jakimi informacjami dysponują.

Do realizacji wszystkich koncepcji potrzebne są odpowiednie rozwiązania programistyczne, umożliwiające szybki dostęp do danych, ale także organizacyjne, jak choćby stworzenie komisji weryfikujących sposób korzystania z informacji. Niezbędny jest też aktywnie działający CDO, Chief Data Officer, który odpowiadałby m.in. za zarządzanie danymi i edukację w zakresie możliwości ich wykorzystania.

Im więcej danych, tym lepiej?

Kolejna grupa uczestników zajęła się problemem rozproszonych i nieustrukturyzowanych danych. Przyjęto założenie, że wszystkie informacje są ważne na etapie ich zbierania i nie można ich pochopnie odrzucać. Z tego wynika potrzeba zbudowania narzędzia, które pozwoli na ich gromadzenie i zabezpieczenie, a także – inteligentną analizę. Tym powinno się zająć oprogramowanie oparte na sztucznej inteligencji, które pozwoliłoby znaleźć odpowiedź nawet na pytania, których człowiek prawdopodobnie by nie zadał. Byłoby to możliwe dzięki nieustannej analizie danych i wychwytywaniu łączących ich zależności.

Z tym wiąże się kolejna propozycja uczestników warsztatu, która dotyczyła problemu przełożenia dużej ilości danych na wartości w firmie. Ze względu na to, że zazwyczaj brakuje osób, które umieją łączyć dane z procesami biznesowymi, zaproponowano stworzenie narzędzia dla zespołów mieszanych (fusion teams), łączących analityków, specjalistów z różnych dziedzin, mających doświadczenie i wiedzę z różnych obszarów. Ich zadaniem byłoby kreowanie pomysłów, które trafiałyby do dalszej weryfikacji zgodnie z ideą "nie bójmy się próbować".

To klient zdecyduje o swoich danych

Ostatnia grupa podeszła do danych z punktu widzenia klientów-konsumentów. Przyjęto, że konieczność udzielenia zgód na przetwarzanie danych powoduje, że użytkownicy zupełnie nie kontrolują tego, komu i na jakie przetwarzanie pozwolili. Zaproponowane narzędzie byłoby więc rodzajem aplikacji, która ma pozwalać na aktywne zarządzanie zgodami na dostęp do danych. Klient w każdej chwili może do niego zajrzeć i sprawdzić, kto i w jaki sposób je wykorzystuje.

Taka transparentność mogłaby wydawać się mało korzystna z punktu widzenia biznesu, ale i na to jest sposób. Podczas warsztatu zaproponowano, by firmy mogły oferować klientowi dodatkowe korzyści wynikające z jego zgody na przetwarzanie jego danych. Dzięki temu otrzymywałby on potrzebne mu produkty i usługi, a firmy zyskałyby świadomego i lojalnego klienta.


Dowiedz się więcej
To od nas zależy, co z danymi zrobimy, czy przekształcimy je w jakieś wartości czy też one same przekształcą się w… jakiś problem. Postawa pasywna wobec danych zawsze oznacza przegraną.

Kiedyś mówiliśmy tylko o bezpieczeństwie IT. Później zrozumieliśmy, że funkcjonujemy w szerszym kontekście – cyberprzestrzeni. Powinniśmy zatem mówić również o cyberbezpieczeństwie. Dziś dyskusja jest już na tyle dojrzała, że dostrzegamy kluczowe elementy, które są najważniejsze dla współczesnego cyfrowego świata. To cyberodporność (cyber resilience) czy wręcz cyberprzetrwanie.

Mirosław Maj

Prezes Fundacji Bezpieczna Cybeprzestrzeń

Cyberbezpieczeństwo to przeszłość. Dziś ważna jest odporność cyfrowa

Chroniąc się przed atakami w sieci, nie możemy skupiać się tylko na własnej infrastrukturze. Konieczne są działania, które obejmują nie tylko naszą organizację, ale i naszych partnerów. Trzeba też znaleźć odpowiedź na pytanie: – Co zrobimy, gdy atak się powiedzie?

Kluczowe punkty artykułu o Cyber Resilience:

  • Krok przed czy krok po?
  • Co z tego wynika, czyli gdzie szukać rozwiązań?
  • Problemem jest komunikacja?

Czas, w którym dużo mówiło się jedynie o cyberbezpieczeństwie (cybersecurity), to już w zasadzie przeszłość. Decydują o tym wyzwania, z którymi firmy borykają się na co dzień, a które wykraczają daleko poza zastosowanie tradycyjnych (jakkolwiek nawet najbardziej nowoczesnych) zabezpieczeń, mających na celu ochronę sprzętu i danych na poziomie samej organizacji, jej komputerów, serwerów czy nawet rozwiązań chmurowych.

Dzisiaj mówić musimy o zabezpieczeniu "3D" – kompleksowym, obejmującym wszystkie wymiary firmy. Security musi być wpisana w DNA produktu – takie sformułowania padały podczas warsztatów Future Builders, organizowanych przez Dell Technologies, a mających na celu wypracowanie podstaw do budowania rozwiązań, odpowiadających obecnym i przyszłym potrzebom biznesu.

Pojawia się więc nowy termin – odporność cyfrowa (cyber resilience). To całość działań, które mają za zadanie zbudować możliwie najlepszą barierę przeciw zagrożeniom, ale też sięgają dużo dalej. Przecież nie ma zabezpieczeń doskonałych, w świecie przestępców działają technologie tej samej jakości, a często mają oni nawet pod tym względem przewagę nad nie zawsze doinwestowanymi działami bezpieczeństwa firm.

Czarne łabędzie", które Nicholas N. Taleb, amerykański pisarz i inwestor, zdefiniował jako zdarzenia nieprzewidywalne – mające ogromny wpływ na współczesny świat – to największe wyzwanie specjalistów cybersecurity pod kątem zabezpieczania struktur IT.

Krok przed czy krok po?

Elementem takiej odporności musi więc być również zabezpieczenie na wypadek… udanego ataku. Co zrobimy, gdy intruz już wejdzie pod nasz dach i wykradnie to, co jest cenne, często kluczowe dla działania firmy? Przetrwanie na tym etapie jest najbardziej istotne, na drugi plan schodzą wtedy technologie, z których korzystamy, by atak nie był skuteczny. Liczą się rozwiązania, które pozwalają przetrwać i działać dalej.

Zabezpieczamy się przed atakami, choćby typu ransomware, ale w przypadku udanego szyfrowania widzimy tu tylko dwa rozwiązania: złamanie szyfru lub zapłata okupu za odszyfrowanie danych. Ale czy wiemy, co zrobić w sytuacji, gdy celem hakerów nie będą pieniądze tylko… zniszczenie? Podobnie jak działania rosyjskie, wymierzone w ukraińskie serwery tuż przed wybuchem wojny, a mające tylko jeden cel – wymazanie (wipe) danych?

Wreszcie – ataki na łańcuch dostaw, czyli kolejny, ogromny obszar, do którego specjaliści od bezpieczeństwa zaglądają dopiero od niedawna. Co z tego, że jesteśmy (teoretycznie) bezpieczni jako organizacja, skoro przecież musimy współpracować z innymi podmiotami, o których wiemy niewiele albo zgoła nic? Jak bardzo możemy ufać naszym poddostawcom, którzy przecież również mają swoich poddostawców?

Tu nasuwa się przykład, który zajmie na pewno poczesne miejsce w podręcznikach – masowy cyberatak z grudnia 2020 r., kiedy oprogramowanie firm SolarWinds zostało wykorzystane do ataku na ok. 100 amerykańskich firm i organizacji. W ogóle zainfekowanych zostało 425 firm z listy Fortune 500, przestępcy wykorzystali oprogramowanie tylko w części z nich. Grupa hakerów uzyskała też dostęp do systemów komputerowych należących do wielu departamentów rządowych USA, w tym Departamentu Skarbu USA i Handlu.

Cała operacja trwała kilka miesięcy i polegała na uzyskaniu przez hakerów dostępu do infrastruktury SolarWinds, którą następnie wykorzystali do tworzenia i dystrybucji strojanizowanych aktualizacji oprogramowania firmy, co z kolei umożliwiło im uzyskanie dostępu do danych jej klientów.

Jest to przykład ataku na łańcuch dostaw producenta oprogramowania, którego kolejne ogniwa ufają, że narzędzia, z których korzystają, są zabezpieczone przez samego ich dostawcę. Podczas gdy oprogramowanie wdrażane w organizacjach przechodzi przeglądy bezpieczeństwa, mające na celu wykrycie luk w ich produktach, to niewielu zastanawia się nad możliwością kompromitacji samego mechanizmu aktualizacji.

Co z tego wynika, czyli gdzie szukać rozwiązań?

Mamy więc zdefiniowane – przynajmniej wstępnie – zagrożenia i wyzwania. Po drugiej stronie procesu są rozwiązania, które wypływają z firm technologicznych, które muszą się dostosowywać do zmieniających się okoliczności.

A skoro mamy przede wszystkim konieczność budowania odporności cyfrowej, łącznie z zabezpieczeniem całego łańcucha dostaw – jest to wyzwanie niemałe. O jednym rozwiązaniu już nieco mówiliśmy – konieczne jest budowanie narzędzi przydatnych w sytuacjach "day after", czyli szukanie odpowiedzi na pytanie, co zrobimy po udanym ataku, po którym przecież trzeba jakoś dalej funkcjonować.

Jak podkreślają eksperci Dell Technologies, trzeba wyjść poza schemat i wyszukiwać zagrożenia, o których nikt w zasadzie nie myśli.

Czy twoja organizacja tworzy kopie bezpieczeństwa? Pozytywna odpowiedź na to pytanie to jednak nie koniec – kolejne dotyczy ich jakości. Kiedy cyberprzestępcy podejmują atak typu ransomware, polegający na zaszyfrowaniu danych, zwykle pamiętają o tym, że ich żądania będą nieskuteczne, kiedy atakowany może po prostu odzyskać zasoby z backupu. Atakują więc również kopie bezpieczeństwa – stąd tak istotna jest potrzeba tworzenia jeszcze bardziej zaawansowanych zabezpieczeń.

To jest przykładowa odpowiedź na potrzebę bycia przygotowanym na skuteczny atak, ale tylko częściowa. Gdzieś na końcu tego procesu jest tzw. cyfrowy bunkier – miejsce, w którym nasze dane w ogóle nie są podatne na działania intruza, w którym nic nie może się zdarzyć – oczywiście tylko teoretycznie. Tym niemniej prawdopodobieństwo dotarcia do tak zabezpieczonych danych jest rzeczywiście znacznie ograniczone. Jak wynika z obserwacji pracowników Dell Technologies – klienci coraz częściej pytają o takie zabezpieczenia i tego typu produkty zaczynają zyskiwać coraz większą popularność.

Rozwiązaniem może też być stosowanie architektury typu zero-trust. Ogólnie mówiąc, polega ona na tym, że z założenia nie ufamy nikomu i każdy użytkownik, urządzenie czy aplikacja , który ma dostęp do danych czy sprzętu, stanowi zagrożenie. Zgodnie z tą ideą tylko w ten sposób jesteśmy w stanie podnieść bezpieczeństwo na jeszcze wyższy poziom. Wyzwaniem staje się tutaj zarządzanie takim systemem w warunkach pracy zdalnej, rozwiązań chmurowych czy hybrydowych. To też pociąga za sobą większe koszty, ale pamiętajmy, jakie straty może przynieść firmie skuteczny incydent.

Kolejna rysująca się potrzeba to np. ochrona przed atakami klasy APT, czyli wielostopniowymi, długotrwałymi i złożonymi działaniami, które są skierowane przeciwko konkretnej firmie, a nawet osobie. To bardzo niebezpieczna forma, zwykle przygotowywana i przeprowadzana przez zorganizowane grupy czy nawet agencje rządowe. Groźna głównie ze względu na to, że jej celem jest zwykle długotrwała infiltracja celu – często powodująca znacznie większe straty niż jednorazowa kradzież.

W ostatnim czasie widzimy wśród klientów coraz większe zrozumienie konieczności zabezpieczenia całego łańcucha dostaw. My pracujemy nad tym zagadnieniem od lat i jest to naszym wyróżnikiem. Ostatnie dwa lata pokazują wzrost liczby ataków na łańcuch dostaw oraz wzrost strat jakie te ataki powodują. Dlatego organizacje zaczynają zwracać uwagę na te element bezpieczeństwa.

Bartosz Charliński

Enterprise Architect, Dell Technologies

Problemem jest komunikacja?

Zupełnie inny aspekt cyberodporności okazał się być najistotniejszy dla uczestników warsztatów Future Builders. Największy problem widzieli oni w zakłóceniach komunikacji na linii IT-biznes, w tym szczególnym wyzwaniem okazała się współpraca między osobami odpowiedzialnymi za cyberbezpieczeństwo a zarządami firm.

Pomysł jest więc następujący: na styku tych dwóch grup powinno pojawić się narzędzie, które umożliwi efektywną współpracę bez konieczności wielogodzinnych spotkań i dyskusji w sytuacji, gdy obie strony mówią właściwie innymi językami.

To miałby być pewnego rodzaju agregator informacji dotyczących organizacji i jej otoczenia, który cyklicznie przekazywałby odpowiednio przygotowane treści. Dzięki temu osoby decyzyjne lepiej rozumiałyby konieczność prowadzenia działań zabezpieczających. To, co odróżniałoby to narzędzie od zwykłych newsletterów, to możliwość odniesienia tych informacji do tego, co dzieje się w samej organizacji. Krótko mówiąc, pomagałoby uzyskać odpowiedź na pytanie: "A jak u nas rozwiązany jest ten problem, na którym polegli inni?"

Potrzebny jest więc dodatkowy mechanizm, który dokonywałby stałego audytu działań firmy w tym zakresie, w czym pomóc miałoby właśnie to narzędzie. Byłoby rodzajem automatycznego systemu, który zbiera dane m.in. ze znanych i popularnych rozwiązań SIEM (Security Information and Event Management) oraz innych systemów monitorujących stan bezpieczeństwa organizacji, łączy je z aktualnymi danymi na temat wydarzeń na świecie i pozwala zaprezentować w przystępny sposób osobom, dla których istotne są wnioski, bo podejmują na ich podstawie decyzje. W ten sposób potrzeba dbania o bezpieczeństwo płynęłaby nie tylko od działów IT, ale też ze strony biznesowej, która rozumiałaby, jakie korzyści się z tym wiążą.

Uzupełnieniem takiego systemu, który zaproponowali uczestnicy warsztatów, mógłby być mechanizm wspierający osoby pracujące nad zabezpieczeniem w firmach. Tu zawsze problemem jest niedobór pracowników, którzy całościowo rozumieją działanie infrastruktury bezpieczeństwa. Oprogramowanie takie miałoby wspierać działy IT, np. poprzez stworzenie rejestru rodzajów ryzyka, monitorowanie i automatyczne wnioskowanie oraz przekazywanie tych wniosków w sposób czytelny dla niespecjalistów.

Takie narzędzie rozwiązałoby masę problemów. Po pierwsze – dałoby solidną analizę stanu faktycznego, a dzięki temu, że oparte byłoby na samouczących się algorytmach, powodowałoby wzrost wartości analiz bez konieczności zwiększania na nie nakładów.

To bardzo istotne wobec faktu, że w największych organizacjach audyt tysięcy procesów i podmiotów jest obecnie niewykonalny "ręcznie".

Po drugie – przez połączenie tych danych z konkretnymi kontekstami w rzeczywistości (wydarzeniami gospodarczymi, informacjami o incydentach w innych firmach, polityką) pozwalałoby urealnić potrzeby określonych działań i "usprawiedliwić" je w oczach np. zarządów.

Po trzecie – przeniosłoby część odpowiedzialności za bezpieczeństwo na biznesową stronę organizacji, która lepiej rozumiałaby konieczność zachowania pewnych procedur czy dokonania określonych inwestycji.

Istotą jest cykliczność tego procesu, dzięki czemu analiza skutków tych działań dałaby zarówno jednej, jak i drugiej stronie realne podstawy do rzetelnej oceny ich przydatności i pozwalałaby na bieżąco korygować zauważone błędy.

Czy stworzenie takiego rozwiązania jest realne? Podczas warsztatów Future Builders każda grupa wskazała na problem zrozumienia konieczności działań cyber-resiliance wśród osób niezajmujących się tym problemem na co dzień, ale podejmujących decyzje biznesowe. Daje to nadzieję, że tak silnie wyrażona potrzeba zostanie zauważona i być może przekuta w konkretne działania deweloperskie.


Dowiedz się więcej
Istotą proaktywnego zmieniania wszystkich obszarów IT jest budowa przewag konkurencyjnych. Trzeba je więc tak zmieniać, by dopasować jak najbardziej do wszystkich wyzwań, przed jakimi biznes stoi dziś i na jakie natknie się jutro.

Proaktywna zmiana. Nowe podejście do IT w organizacji

Wyzwania, jakie stoją przed firmami, których działanie opiera się na nowych technologiach, dotyczą głównie problemów z ogromem danych, przestarzałymi systemami, brakiem wykwalifikowanych pracowników czy trudnościami w doborze właściwych rozwiązań IT. To tym trudniejsze, że od podejmowanych dziś decyzji zależy rozwój i przyszły kształt każdej organizacji.

Kluczowe punkty artykułu o Stack Redefinition:

  • Wyzwania, bariery, ryzyka,
  • Edge computing,
  • Burza w chmurach,
  • Wyzwania na krawędzi,
  • Pamiętajmy o ESG,
  • Czego potrzebujemy?
  • Co zaproponowali uczestnicy warsztatów?

Środowiska IT w teorii są elastyczne i skalowalne. W praktyce jednak, szczególnie w dużych, obecnych od lat na rynku organizacjach, które mają ogromny dług technologiczny, wprowadzenie koniecznych zmian wymaga znacznego wysiłku. Tymczasem to od tej elastyczności niejednokrotnie zależy przewaga konkurencyjna, a czasem nawet przetrwanie firmy.

Taka myśl przyświecała warsztatom w ramach inicjatywy Future Builders, zorganizowanym przez firmę Dell Technologies, której celem jest wypracowanie nowego spojrzenia na problemy nowoczesnego biznesu i poszukiwanie pomysłów na narzędzia, które miałyby w prowadzeniu tego biznesu pomóc.

Stąd w ramach modułu warsztatowego zatytułowanego "Stack Redefinition" uczestnicy skupili się na ideach prowadzących m.in. do automatyzacji, lepszego zarządzania kosztami czy zmian ułatwiających bardziej elastyczne zarządzanie nie tylko systemami, ale też osobami, które te systemy budują i z nich korzystają.

Wyzwania, bariery, ryzyka

Jeśli jesteśmy start-upem, mamy łatwiej. Dynamiczny rozwój różnych rozwiązań dotyczących gromadzenia i dostępu do danych sprawia, że dziś mamy znacznie większy wybór i możliwość lepszej optymalizacji procesów niż jeszcze kilka lat temu. Większy problem mają organizacje, które działają już długo i zaczynały w czasach, gdy np. o chmurze mówiło się raczej w kontekście ciekawostki, ewentualnie rozwiązań dobrych dla użytkowników indywidualnych czy najmniejszych podmiotów, a nie jako o produkcie dla "dorosłego" biznesu.

Te "duże" i "dorosłe" firmy dziś już korzystają z tych rozwiązań, ale wejście w ten świat nie było i nadal nie jest dla nich łatwe.

W ramach przygotowania do warsztatów Future Builders Dell Technologies stworzyło więc katalog najczęstszych wyzwań, barier i rodzajów ryzyka, z jakimi borykają się firmy. Wszystko po to, by szukać najlepszych rozwiązań.

IT jest w dalszym ciągu zbyt skomplikowane, za mało elastyczne, zbyt kosztowne i trudne do realizacji zadań biznesu. I dlatego chcemy to maksymalnie uprościć, skorzystać z dobrych pomysłów, które już mamy – typu chmura czy kontenery aplikacyjne – i spróbować zbudować nową rzeczywistość, która pozwoli nam efektywnie realizować pomysły na biznes i dopasowywać się do tego, co się zmienia. Bo wszyscy widzimy, że głównym wyzwaniem teraz jest nieprzewidywalność otoczenia.

Radosław Piedziuk

Unstructured Data Solutions Sales Manager, Dell Technologies

Jeden z problemów odwołuje się do bezpieczeństwa w kontekście zarządzania uprawnieniami, kontroli systemów i reagowania na pojawiające się anomalie. Prawdziwym wyzwaniem w organizacjach jest np. odpowiednie profilowanie użytkowników tak, by dostawali dostęp do wszystkich danych, jakich potrzebują, ale byli oddzieleni od tych, które dla nich są nieistotne. Nie ma potrzeby wyjaśniać, jak jest to ważne z punktu widzenia samego bezpieczeństwa cyfrowego, ale też ogólnie bezpieczeństwa firmy, jej know-how czy innych krytycznych informacji.

Z tym wiąże się sprawa procesów i infrastruktury wewnątrz organizacji – czy są dostosowane do zmieniających się potrzeb, czy są elastyczne, czy budują odpowiednie zabezpieczenia? I czy są dostosowane wzajemnie do siebie, czyli czy procesy odpowiadają posiadanym zasobom, czy wykorzystują możliwości, jakie one dają (za które firma przecież zapłaciła). I gdzie jest moment, w którym należy coś zmienić?

Wspomniana infrastruktura też nie jest przecież jednolita. Pochodzi z różnych okresów rozwoju organizacji, jej różnorodne elementy wymagają integracji, co jest niemałym wyzwaniem. Często ten problem prowadzi do podjęcia decyzji o przeniesieniu przynajmniej części danych i operacji do chmury. I tu dochodzimy do kolejnych problemów.

Burza w chmurach

Różnorodność działań, ale też nierzadko względy bezpieczeństwa prowadzą zazwyczaj do wyboru modelu multicloud. I tu właściwie na każdym etapie pojawiają się potencjalne przeszkody.

Pierwsza to sam moment wyboru oferty – w organizacjach brakuje osób, które mają odpowiednie kwalifikacje do oceny różnych ofert chmurowych, nie tylko pod względem stosunku funkcjonalności do ceny, ale też możliwości rozwoju, jakie daje dana platforma, czy ryzyka, jakie potencjalnie może generować. Na tym etapie pojawia się znany i powszechny problem niezrozumienia potrzeb biznesu przez IT – i na odwrót. Dochodzi też aspekt możliwości dostosowania ofert do rozwiązań specjalizowanych czy raczej ich braku.

Na kolejnym etapie napotkamy kolejny kłopot – jak przenieść i dostosować aplikacje czy dane produkcyjne z modelu on-premise do multicloud? Istota rozwiązań wielochmurowych to pewnego rodzaju dywersyfikacja, czy wręcz rozproszenie procesów, ale przecież zazwyczaj konieczne jest, by korzystały one z tych samych danych. Tymczasem często brakuje uniwersalnej bazy, jednakowej dla różnych operatorów oraz – z drugiej strony – nie ma wspólnego sposobu zarządzania tymi danymi z różnych miejsc.

Wreszcie – może się okazać, że kiedy chcemy zrezygnować z usług jakiegoś dostawcy chmurowego, proces migracji staje się bardzo kosztowny. Zawsze istnieje też ryzyko, że dostawca wycofa się z usługi czy w ogóle z biznesu.

Przykładem dość oczywistego wyzwania, o którym łatwo jednak zapomnieć, jest kwestia zasilania. Nie zawsze całkowicie pewna w przypadku wielu rozproszonych urządzeń (IoT) lub mniejszych, lokalnych punków przetwarzania danych.

Wyzwania na krawędzi

Gromadzące coraz więcej zwolenników rozwiązania typu edge computing, ze wszystkimi zaletami, jakie się z nimi wiążą, generują również wiele problemów i wyzwań, z jakimi poradzić sobie muszą użytkownicy, ale i vendorzy: dostarczający zbudowane na tej koncepcji rozwiązania.

Przede wszystkim w sytuacjach, gdzie przepustowość jest dostosowana do istoty działania edge, czyli z założenia niższa, konieczne jest odpowiednie planowanie i zarządzanie tym zasobem, czyli coś, co w ogólnie rozumianym cloud computingu nie stanowi większego problemu. Dodatkowo edge wymaga nie tylko obecności platformy obliczeniowej, ale też stawia wysokie wymagania pod względem spójnego zarządzania sprzętem i oprogramowaniem działającym z założenia niezależnie.

Rozwiązania przetwarzania brzegowego rodzą też ogromne wyzwania pod względem zapewnienia możliwości zabezpieczenia dostępu fizycznego i logicznego. To zwiększa ryzyko celowego lub przypadkowego zakłócenia pracy.

W końcu warto wspomnieć o tym, że w przypadku rozwiązań edge’owych problemem jest często to, że po prostu brakuje jeszcze odpowiedników wielu urządzeń w wersji mini, co po prostu uniemożliwia skorzystanie z tej koncepcji w danym przypadku.

Pamiętajmy o ESG

To punkt, o którym nie tak łatwo pamiętać na co dzień, bo przecież – tak się zwykle o nim myśli – nie jest to nasz "core bussines". A jako temat dodatkowy nie zawsze znajduje zrozumienie po obu stronach na linii biznes – IT w organizacjach.

Główną trudnością w tym aspekcie jest uzasadnienie konieczności inwestowania w ESG, znacznie mniej oczywistej niż inwestowanie w główną działalność firmy. Tym bardziej że określenie jakichkolwiek wskaźników zwrotu z takiej inwestycji też jest problematyczne. A same działania mogą być dość kosztowne, choćby dlatego, że mogą wymagać skorzystania z usług podmiotów zewnętrznych, których coraz więcej istnieje na rynku w związku z rozpowszechnianiem się idei zrównoważonego biznesu.

Poza zmianą w samym podejściu do ESG i zrozumieniu, że staje się on istotnym elementem wyboru u klientów czy konsumentów, mamy też problem z wiarygodną analizą działań. Choćby tego, jaki ślad węglowy pozostawia konkretny produkt czy usługa, szczególnie gdy powstaje z wykorzystaniem poddostawców, podwykonawców czy innych kontrahentów, których procedur i sposobu działania często po prostu nie znamy.

Brakuje też rozwiązań, które pozwoliłyby jakkolwiek przeanalizować efekty takich inwestycji.

Dzisiaj dane są wartością dla organizacji, i to wokół danych budujemy rozwiązania biznesowe i aplikacje. Rozwiązania, które dotyczą transformacji środowisk monolitycznych na kontenery, na aplikacje zwinne, znakomicie w tym pomagają, ponieważ bazują na wykorzystaniu tych samych mechanizmów i informacji poprzez różne aplikacje. Dzisiaj członkowie zarządów są coraz bardziej świadomi tego, jakiego rodzaju wyzwania stają przed nowymi technologiami i bardzo dobrze odczytują trendy, które występują na rynku.

Sebastian Hutny

Head of Service Provision Department, Credit Agricole Bank Polska SA

Czego potrzebujemy?

Analizując na bieżąco wszystkie te ryzyka, potrzeby i wyzwania Dell Technologies – w celu zainspirowania uczestników warsztatów Future Builders – przygotowało katalog możliwości i rozwiązań, jakie odpowiadają na niektóre wymienione wcześniej potrzeby, pozostawiając uczestnikom warsztatów wypracowanie własnych pomysłów, o czym powiemy już za chwilę.

Jedno z nich to m.in. automatyczny re-platforming, czyli narzędzie, które pozwoli przenieść dane i procesy na inne platformy, najlepiej bez żadnych kosztów po stronie klienta, bez przerw w pracy. Sprawa wydaje się być szczególnie istotna w przypadku usług ciągłych.

Kolejna idea to narzędzia analityczne, które wspomagają proces planowania finansowego. Takie, które pozwolą choćby na określenie ilości potrzebnych zasobów przy założeniu określonego tempa rozwoju firmy.

Odpowiedzią na wspomniane wcześniej problemy z szacowaniem kosztów środowiskowych w podejściu ESG rozwiązać mogłoby narzędzie wspierające powstawanie konsorcjów technologicznych, budujących współpracę ESG. To oznacza zrzeszenie firm będących na przykład w jednym łańcuchu dostaw. Koszty węglowe powstają na wielu poziomach i w wielu organizacjach, których współpraca składa się na określony produkt lub usługę. A gdyby więc powstało rozwiązanie, które pozwala na pozyskanie i zagregowanie tych danych bez konieczności wzajemnego prześwietlania własnych procedur?

Kłopoty z pozyskaniem rozwiązań dostosowanych do specyfiki branży może częściowo rozwiązać branżowy stack, czyli zestaw technologii dostosowanych do określonych potrzeb danego segmentu klientów.

Nie zapominajmy tutaj także o czynniku ludzkim – powszechny brak wykwalifikowanych pracowników to problem, którego nie da się rozwiązać z dnia na dzień. Tu poszukiwane są pomysły na narzędzia wspomagające edukację i budowanie kompetencji pracowników w ramach firmy, ale też branży czy jeszcze szerzej – rynku.

Co zaproponowali uczestnicy warsztatów?

Pierwsza grupa skupiła się na "rozbijaniu monolitów". Ogromne systemy, z których korzystamy, wymagają wprowadzenia większej elastyczności, zarówno pod względem dostępu aplikacji do posiadanych danych, jak i ich transferu na różne platformy, w zależności od potrzeb. Mamy więc architekturę zorientowaną na dane, którą jednak trzeba tak przebudować, by nie była niedostępnym monolitem, z którego zawartości nawet nie zawsze zdajemy sobie sprawę.

Narzędzie, którego w tym przypadku potrzebujemy, ma pomóc w pierwszym kroku w rozpoznaniu dostępnych danych i opisaniu, jak są obecnie wykorzystywane.

Kolejny etap to podział na te, które zmieniają się szybko i te, które pozostają bez zmian przez dłuższy czas. To może być podstawa do podjęcia decyzji, które z nich powinny być przeniesione do chmury, a które powinny pozostać w data center. Te ostatnie muszą być jednak odpowiednio przygotowane do ewentualnej migracji, muszą być "cloud ready", co też powinno nowe narzędzie ułatwiać.

Żeby to narzędzie działało, potrzebna jest edukacja korzystających z nich zespołów i udostępnienie dla nich rozwiązań, pozwalających na bezpieczne operowanie tymi danymi (sandbox).

Druga grupa skupiła się na problemie finansowym. Jak zbudować efektywny model rozliczeń IT, który byłby przewidywalny? Narzędziem, jakie miałoby powstać, jest rodzaj rozbudowanego kalkulatora, do którego dane dostarczają dostawcy rozwiązań. To powinny być nie tylko ceny, ale też model rozliczeń, pozwalający na efektywne porównanie ofert.

Trzecia grupa warsztatowa doszła do wniosku, że problemem organizacji jest infrastruktura, która zazwyczaj jest zbyt skomplikowana, a ludzie ją obsługujący nie mają odpowiednich kompetencji. Narzędzie, które mogłoby w tej sprawie pomóc, miałoby za zadanie maksymalnie uprościć system obsługi. Sposobem na to ma być przeniesienie możliwie wszystkich procesów na zewnątrz przez wykupienie oprogramowania gotowego, chociaż z dużymi możliwościami dostosowania do potrzeb konkretnej branży czy firmy. W firmie pozostaliby więc jedynie kluczowi programiści, budujący odpowiednie wtyczki. W ten sposób powstałby model nazwany przez uczestników warsztatu CAS, czyli "Core As a Service", gdzie – w przeciwieństwie do wielu dzisiejszych rozwiązań – to właśnie główny trzon IT byłby na zewnątrz.

Wszystkie zaproponowane rozwiązania odnoszą się więc do realnych problemów – nieefektywności starych systemów, nieadekwatności kosztów czy braku pracowników. Jak podkreślają przedstawiciele Dell Technologies, dzięki tym pomysłom mogą powstać gotowe produkty. Na to uczestnicy i twórcy Future Builders z pewnością liczą najbardziej.


Dowiedz się więcej

Świat zawsze był splątany, realizowaliśmy różne zadania w różnych obszarach. One jednak działy się jedne po drugich. Teraz przenikają się i oddziałują na nas w czasie realnym. My więc musimy się między nimi przełączać również w czasie realnym. I to jest gigantyczne wyzwanie cywilizacyjne, to jest zmiana mentalności i sposobu reagowania na rzeczywistość, do czego potrzebne są odpowiednie narzędzia, także technologiczne.

Piotr Płoszajski

Szkoła Główna Handlowa

Światy splątane. Nowe wyzwania dla liderów i biznesu

Współczesny świat to wiele współistniejących rzeczywistości, a my jesteśmy w wielu z nich równocześnie. W tym wszystkim muszą odnaleźć się organizacje, chcące zadbać zarówno o wynik finansowy, jak i o jakość życia swoich pracowników. Bo to, co wygodne, może też być niebezpieczne lub po prostu nieefektywne. Jakich rozwiązań potrzebujemy, by pogodzić wszystkie te światy, nie tracąc z oczu sensu pracy i życia?

Kluczowe punkty artykułu o Entangled Worlds:

  • Z czym się mierzymy?
  • Potencjalny udział czasu w pracy zdalnej,
  • Gdzie szukać rozwiązań,
  • Efekt – lider nowej rzeczywistości;

Człowiek zawsze żył w różnych światach – zawodowo, rodzinnie, geograficznie, kulturowo. Rano szedł do pracy, po południu spędzał czas z rodziną lub rozwijał pasje czy wiedzę. Przemieszczał się, by odbyć spotkanie albo wypoczywać. Na miejscu mierzył się z różnicami kulturowymi i koniecznością dopasowania się do nich, ale odbywało się to w sposób odizolowany od innych wpływów – w tym własnej kultury czy wzorców zachowań swojego środowiska.

Większość rzeczy działa się sekwencyjnie – poszczególne rzeczywistości były od siebie w dużej mierze odseparowane. Teraz wszystko miesza się, współczesne światy są splątane i "dzieją się" równocześnie. Zdalna lub hybrydowa praca jest normą, miesza się dom i biuro, rodzina i kariera. Spotkania odbywają się online, ale to nie znaczy, że unifikują się kultury i znikają różnice. Splata się również czas – kiedy u nas jest poranek, nasz rozmówca być może właśnie skończył kolację…

Dlatego na te splątane światy trzeba patrzeć równocześnie przez pryzmat organizacji, pracowników i klientów. Oraz – oczywiście – technologii, która ma pomóc poruszać się w nich. Rzeczywistość realna i cyfrowa coraz bardziej przenikają się i na siebie oddziałują, co stwarza zupełnie nowe wyzwania i możliwości dla ludzi, którzy ciągle uczą się funkcjonowania w światach równoczesnych.

Trzeba również pamiętać, że chociaż technologia rozwiązuje problemy, to tworzy też kolejne. Dlatego wyzwaniem firm technologicznych jest tworzenie wartości dla uczestników tych splątanych światów w taki sposób, by uniknąć konsekwencji szkodliwych dla ludzi i tego, co ich otacza, włącznie ze środowiskiem naturalnym.

W tym, chcą i mogą nas wspomóc dostawcy rozwiązań, również cyfrowych tak, by po prostu było łatwiej, efektywniej i bezpieczniej. Infrastruktura splątanych światów musi być bowiem nie tylko szybka i efektywna ale również ma chronić te światy przed incydentami bezpieczeństwa. Z tego między innymi powodu firma Dell Technologies wyszła z inicjatywą Future Builders, której głównym celem jest wypracowanie narzędzi, dzięki którym jej klienci poradzą sobie w tej dynamicznej rzeczywistości (czy raczej – wielu rzeczywistościach).

Podczas warsztatów przedstawiciele różnych branż i środowisk dyskutowali i proponowali rozwiązania, które – ich zdaniem – są dla nich kluczowe. Jednym z tematów tej dyskusji był właśnie "Entangled Worlds", czyli splątany świat.

Wyzwaniem rzeczywistości splątanych światów jest taka organizacja pracy, by pogodzić potrzeby wszystkich pracowników, zachowując jednocześnie efektywność organizacji i płynną realizację zadań, które przecież też przenikają się między różnymi osobami.

Z czym się mierzymy?

Zaczynamy dosłownie od samej góry – bo jednym z najistotniejszych wyzwań w tym obszarze jest rola lidera w organizacji. Ta rola na przestrzeni ostatnich 2–3 lat uległa istotnej modyfikacji. Zmieniają się zadania szefa, który – nie zawsze w zgodzie z sobą – w większej mierze staje się organizatorem, w mniejszej mentorem, przywódcą czy liderem w dotychczasowym znaczeniu tego słowa. Nie jest już pierwszym, tym, który motywuje zespół, prowadzi spotkania, wie o wszystkim. Teraz jego zadaniem staje się w większym stopniu planowanie strategiczne i delegowanie zadań, z jednoczesnym odejściem od mikrozarządzania, które w pracy na odległość jest praktycznie niemożliwe.

Wielu pracownikom zupełnie taki system nie odpowiada, nie umieją sami dyscyplinować się do pracy. Potrzebują fizycznej obecności lidera, choćby nawet całymi dniami go nie widzieli. Wystarczy, że wiedzą o jego bliskiej fizycznej obecności. Inni świetnie znajdują się w nowej rzeczywistości, cenią sobie możliwość samodzielnego organizowania czasu i odpowiedzialność za siebie samego.

Istotnym problemem stał się też brak – lub znaczne utrudnienie – kontroli w zarządzaniu czasem pracowników. Co z tego, że ustalamy godziny pracy zdalnej, jeśli tylko niewielka część firm wykorzystuje narzędzia, które pozwalają monitorować to, czy w określonym czasie dana osoba pracuje czy zajmuje się innymi sprawami? Zresztą – nie każde stanowisko daje przecież takie możliwości.

Ale czy jest rzeczywiście taka potrzeba? Można zadać pytanie o sens rozliczania pracowników na podstawie czasu i wiele organizacji od tego odchodzi. Dla nich liczy się to, czy zadanie zostało wykonane w wyznaczonym terminie, a rolą lidera jest pilnowanie, by zespół na czas dostarczył efekt swojej pracy i aby ten efekt miał odpowiednią jakość.

W takim przypadku relacje pracownik – pracodawca stają się więc zdecydowanie bardziej transakcyjne niż kiedyś. Dzisiaj przypomina to często kontrakty B2B, w których jedna strona zamawia produkt, a druga go wytwarza i dostarcza. W praktyce wydaje się to niezłym rozwiązaniem, ale warto pamiętać o czymś, co można nazwać "duchem firmy", a czego w takim układzie brakuje. To z kolei może odbić się choćby na kreatywności poszczególnych zespołów i rozmyciu celu, do którego dąży organizacja. Osiągnięcie tak pożądanego efektu synergii jest więc niepomiernie trudniejsze niż kiedyś.

„Teoretyczne maksimum” to wszystkie aktywności, które nie wymagają obecności w biurze. „Bez utraty produktywności” to tylko te aktywności, które można wykonywać zdalnie bez utraty efektywności. Model został stworzony w oparciu o ponad 2000 aktywności w ponad 800 zawodach.

Potencjalny udział czasu w pracy zdalnej: kraje zaawansowane ekonomicznie Bez utraty produktywności Teoretyczne maksimum

Zjednoczone Królestwo
Niemcy
USA

Żródło: https://www.mckinsey.com/featured-insights/future-of-work/whats-next-for-remote-work-an-analysis-of-2000-tasks-800-jobs-and-nine-countries

Dodatkowym problemem jest to, że współpracujące ze sobą osoby, mimo przynależności do zespołów, są rozproszone. Zwołanie krótkiego spotkania wymaga czegoś więcej niż odwrócenia się do siebie pracowników, siedzących przy sąsiednich biurkach. Tu jednak widzimy również korzyści. Bo chociaż z jednej strony mamy pewne trudności komunikacyjne, to z drugiej ograniczona jest ilość niepotrzebnych mikrospotkań, które często wybijają pracowników z procesu realizacji ich zadań.

Zdalna czy nawet hybrydowa praca rodzi też wyzwania wynikające ze zróżnicowanych warunków, w jakich jest wykonywana. Nie wszyscy mają możliwość spokojnego realizowania zadań, choćby ze względu na to, że członkowie ich rodzin również pracują z domu, często z tego samego pokoju. Do tego dochodzą problemy infrastrukturalne (dostęp do internetu dobrej jakości) czy sprzętowe (co stanowi wyzwanie dla działów IT, by utrzymać go w dobrej kondycji z zapewnieniem maksymalnego poziomu bezpieczeństwa, ale i wydajności).

Firmy mierzą się też z problemem braku narzędzi, które pozwalają na badanie efektywności różnych modeli pracy w ich organizacjach. Z tego powodu dyskusja o tym, jaki system zastosować, w ramach których zespołów i jakich zadań, nie ma dziś jeszcze twardych podstaw w postaci efektów rzetelnych analiz.

Tu znów wracamy do kompetencji kadry zarządzającej, traktowanej jako zespół, którego zadaniem jest m.in. czuwanie nad sprawnym działaniem całej organizacji. Potrzebne im są nowe umiejętności, których do tej pory nie mieli okazji nabyć, bo nie było gdzie ich się nauczyć.

Nie zapominajmy też o podstawowej higienie pracy. Odpowiedzialnością organizacji jest nie tylko dobra efektywność działania zespołów rozproszonych, ale także dbanie o to, by pracownicy pracowali… mniej i nie „wplątywali się” w zbyt wiele światów. Zbyt wiele podjętych jednocześnie zadań i trwających jednocześnie procesów niekoniecznie pozytywnie wpływa na ich efektywność. Każdy też inaczej reaguje na splątaną rzeczywistość – jedni czują się w takim świecie doskonale, inni mają problem z przystosowaniem się. I na to organizacja – czyli w praktyce liderzy – muszą być bardzo wyczuleni.

Przeciętny użytkownik spędza ponad 1/3 czasu na korzystaniu z urządzeń mobilnych - każdego dnia 4h 48 min. 30% więcej aniżeli w 2019 roku. Aż 7 na 10 minut używania urządzeń mobilnych jest spędzone w mediach społecznościowych i aplikacjach photo/wideo

Zmieniają się modele zachowań naszych klientów, ale i klientów naszych klientów, bo oni się przecież też przełączają między tymi światami. Trzeba więc dostosować infrastrukturę i usługi tak, żeby sprostać tym potrzebom. Trzeba też zupełnie inaczej zarządzać zespołami w pracy hybrydowej czy zdalnej. Naszym celem jest więc zbudowanie narzędzi, które umożliwią naszym klientom ocenę tego, co mogą zrobić, żeby przygotować się dobrze do tego, co nadchodzi.

Robert Domagała

Infrastructure Solution Group Technology Consulting Manager, Dell Technologies Poland

Gdzie szukać rozwiązań?

Rzeczywistość, składająca się z wielu przenikających się płaszczyzn czy światów, generuje określone potrzeby – w organizacjach jako całości, ale też u pracowników i w relacjach z klientami. Na podstawie przeprowadzonych w ramach projektu Future Builders ankiet Dell Technologies wyodrębniło konkretne zadania, jakim trzeba sprostać, szukając konkretnych – w tym technologicznych – narzędzi przyszłości.

W świecie, w którym praca i życie prywatne są tak trudne do oddzielenia, niezwykle istotne wydaje się zapewnienie narzędzia, które pozwoli dostosowanie formy pracy do indywidualnych potrzeb. Co więcej – świat prywatny i zawodowy dzieją się równocześnie – musimy więc umieć nie tyle je oddzielić, co efektywnie łączyć.

Druga sprawa to edukacja w zakresie funkcjonowania w świecie cyfrowym tak, by minimalizować jego negatywny wpływ na świat rzeczywisty. Mimo coraz powszechniejszego dostępu do nowych technologii wciąż wiele osób ma problemy z tym, by w odpowiedzialny sposób z nich korzystać. Tu zdarzyć może się bardzo wiele – od łamania zasad bezpieczeństwa, co może skutkować poważnymi stratami finansowymi czy wizerunkowymi, po wpływ na psychikę człowieka, który jest "zanurzony" w świecie cyfrowym i nie jest w stanie się z niego "wylogować". Konieczne jest więc wypracowanie rozwiązań, które pozwolą na naukę możliwie bezpiecznego funkcjonowania w ramach splątanych światów.

Splątane światy to splątane wymiary – ludzki i technologiczny. To wymaga dążenia do równowagi między bezpieczeństwem a elastycznością. Należy odpowiedzieć sobie na pytanie jaki jest poziom bezpieczeństwa wymagany przez firmę i jak bardzo elastyczne mogą być narzędzia (i zasady) w kontekście wygody użytkowania ich przez pracowników.

Kolejna rzecz to problemy bardzo praktyczne, wynikające z rozproszenia – rzeczywistego i cyfrowego – osób i procesów. Rozproszenie fizyczne nie jest już tak istotne. Większość rzeczy zostało ucyfrowione i możemy robić je zdalnie. Firmy coraz częściej korzystają na przykład z elektronicznych podpisów, a w przypadku urzędów możemy korzystać z innych form potwierdzania tożsamości, np. poprzez bankowość internetową.

Rozwiązania cyfrowe jednak – choć jak najbardziej dostępne – wciąż mają ograniczone możliwości, czy to przez niedostosowane do rzeczywistości rozwiązania prawne, czy to przez brak wiedzy, umiejętności czy nawet – zwykłe przyzwyczajenia i przekonania

Zatem konieczność płynnej wymiany, bez straty wartości, różnorodnych aktywów (rzeczywistych i cyfrowych) pomiędzy przenikającymi się światami to kolejny impuls do poszukiwań nowych rozwiązań. Z tym powiązane jest współdzielenie kompetencji w tych przenikających się światach, a także współdzielenie usług i produktów – nie zawsze przecież cyfrowych.

„Teoretyczne maksimum” to wszystkie aktywności, które nie wymagają obecności w biurze. „Bez utraty produktywności” to tylko te aktywności, które można wykonywać zdalnie bez utraty efektywności. Model został stworzony w oparciu o ponad 2000 aktywności w ponad 800 zawodach.

Potencjalny udział czasu w pracy zdalnej: kraje rozwijające się ekonomicznie Bez utraty produktywności Teoretyczne maksimum

Meksyk
Chiny
Indie

Żródło: https://www.mckinsey.com/featured-insights/future-of-work/whats-next-for-remote-work-an-analysis-of-2000-tasks-800-jobs-and-nine-countries

Gdy pracujemy w rozproszeniu, potrzebujemy czasem wrócić "do bazy", miejsca, gdzie możemy dzielić się z innymi i czerpać od innych. I tu istnieje potrzeba zbudowania narzędzia, które taką przestrzeń stworzy.

Efekt – lider nowej rzeczywistości

Dla uczestników warsztatów Future Builders najistotniejsze potrzeby związane z entangled worlds to wspomaganie liderów oraz wspieranie talentów tak, by mogli oni budować podstawy nowoczesnych organizacji. Nie można tu zapomnieć o potrzebie samorealizacji i rozwoju, która ma być jednym z istotnych magnesów przyciągających utalentowanych ludzi. Jedną z zaproponowanych dróg jest stworzenie przestrzeni (fizycznej i/lub wirtualnej), do której można zaprosić osoby, które zaangażują się w firmie – talenty, których suma będzie budowała wartość organizacji i jednocześnie ich samych.

Pewnym uzupełnieniem tej koncepcji jest zapotrzebowanie na przywódców. Konieczność poradzenia sobie w trudnych warunkach pokazała, kto jest prawdziwym liderem, a kto tylko "kierownikiem", dającym sobie radę w sprawach organizacyjnych, ale niemającym zasobów, by pociągnąć za sobą innych. Potrzebne jest narzędzie wspierające tych prawdziwych liderów i dające możliwość wychowywania nowych. Do tego niezbędna jest jak największa ilość informacji – o organizacji, ludziach, procesach – i to mogłoby być punktem wyjścia do stworzenia konkretnego rozwiązania.

To dane, sprawdzone, dostępne i wstępnie przygotowane przy współpracy sztucznej inteligencji, dają liderowi mocne podstawy do podejmowania decyzji. Pozwalają też łatwo "wejść" do formy nowych osób, które mają wzmocnić ją swoimi umiejętnościami i – być może – wejść również w rolę przywódcy.

Takie rozwiązanie daje jeszcze jedną wartość –każdy może zostać liderem, bo ma dostęp do wszystkich potrzebnych informacji.

Trzecie zaproponowane rozwiązanie dotyczy również wyzwań dla lidera, który potrzebuje na bieżąco informacji o pracy swojego zespołu, o tym, że ten zespół jest zaangażowany. Tutaj kluczowa jest komunikacja i monitorowanie, ale nie dotyczące tego, czy ktoś w danej chwili pracuje czy nie, ale tego, by móc zbierać informacje zwrotne czy elastycznie zmieniać cele krótko- i długofalowe, a nawet przenosić pracowników z jednego stanowiska na drugie, w zależności od potrzeb i zadań, jakie stawia np. kolejny projekt.


Dowiedz się więcej
W splątanym świecie konieczne są rozwiązania, które ułatwiają zmianę kultury, dając wszystkim możliwość elastycznego dopasowania się do nowych okoliczności.