Pięć pytań do… Witolda Kilijańskiego, prezesa Zarządu NewDataLabs

1. Podczas wydarzeń branżowych z obszaru finansów i controllingu wiele uwagi poświęca się obecnie automatyzacji procesów controllingowych, zwłaszcza z wykorzystaniem narzędzi informatycznych. Występujący na nich prelegenci podkreślają, że controlling bez odpowiedniego wsparcia takim narzędziem właściwie nie ma racji bytu. Spróbujmy na początek postawić kropkę nad „i” i udokumentować zasadność inwestowania w porządne oprogramowanie do controllingu.

Rozróżnijmy dwie rzeczy. Czym innym jest automatyzacja procesów w firmie (nie tylko controllingowych, ale wszelkich), a czym innym ich analiza i optymalizacja. Rynek tzw. robotów software’owych rozwija się teraz bardzo dynamicznie, dostawcy tych narzędzi prezentują się na bardzo wielu imprezach branżowych, tyle że to… nie są narzędzia controllingowe. Automatyzuje się (a przy okazji mocno przyspiesza) za ich pomocą wiele rutynowych, powtarzalnych czynności, jak np. zakładanie kartotek pracowniczych, księgowanie dokumentów, przygotowanie przelewów itp. Ale to są zwykle procesy księgowe, kadrowe czy logistyczne, które generują dane dla controllingu, ale nie są controllingowe same z siebie.
Controlling służy do tego, by optymalizować biznes, czynić go coraz bardziej rentownym i wartościowym. Wnioskiem z analiz controllera może być automatyzacja części procesów – ale na razie trudno zastąpić rozum i kreatywność człowieka. To tyle o robotach.
Innym wątkiem jest informatyczne wsparcie controllera w jego pracy. Coś, co pozwoli lepiej zobaczyć i zrozumieć dane. Zobaczyć odchylenia i zidentyfikować ich przyczyny, znaleźć szanse. Tu widzę dwie główne grupy potrzeb (i narzędzi) – miałem do czynienia z jedną i drugą:
a) potrzeba sprawnego, szybkiego i samodzielnego przeanalizowania danych pochodzących z różnych źródeł i pokazania ich odbiorcom w zrozumiały sposób (100% firm).
b) potrzeba obsłużenia procesów planowania i prognozowania w firmie i porównania planów z wykonaniem (może 20% firm).
Obie ewoluują – od czasu pojawienia się narzędzi, takich jak Tableau, możliwości realizacji potrzeby „a” wzrosły niepomiernie i controllerzy po prostu muszą je mieć. Dzięki temu są kilka razy bardziej wydajni, obiektywni i wiarygodni dla tzw. biznesu.
Potrzeba „b” jest znacznie bardziej wyrafinowana i mam wrażenie że wraz z upowszechnianiem się podejścia beyond budgeting cokolwiek odchodzi do historii. Firmy zauważyły, jak pracochłonne jest zrobienie szczegółowego budżetu, jak mała szansa, że się „zejdzie” z wykonaniem. A sytuacja, gdy budżet kosztów zrealizujemy w 99%, a przychodów w 79%, może być naprawdę groźna i zdarza się częściej niż myślimy. Znacznie ważniejsza w dzisiejszych czasach jest umiejętność sprawnego reagowania na to, co niesie rynek – „zwinność”. Dlatego coraz częściej wyznaczamy „kilka głównych liczb”, kierunkowych wskaźników i skupiamy się na zbudowaniu zestawu wskaźników KPI, przy których realizacji wyjdziemy na żądane parametry finansowe. A to z kolei – z informatycznego punktu widzenia – prowadzi nas do potrzeby „a”.

2. Rynek narzędzi IT do controllingu w ostatnich latach bardzo dynamicznie się rozwijał. Jak Pan ocenia jego obecny stan?

Rozwija się nadal i nieustannie się zmienia. Tracą na znaczeniu rozwiązania oparte na tradycyjnym, „ciężkim” podejściu do projektu, sztywnych strukturach danych typu OLAP, hurtowniach danych „o wszystkim” budowanych przez lata. Większość projektów ma charakter zwinny, efekty pojawiają się znacznie szybciej i łatwiej rekonfigurować narzędzie. Tak jak wspomniałem, tracą też znaczenie tradycyjne narzędzia do budżetowania – z przyczyn opisanych powyżej. Modne stają się narzędzia do budowy kokpitów menedżerskich – tu przestroga: sporo jest narzędzi do „malowania” dashboardów, których modyfikacja może być bardzo pracochłonna. Dobre narzędzie dla controllera służy do wizualnej analizy danych, nie tylko do ich wizualizacji. To niuans, ale ważny. Dashboard powinien być mocno interaktywny i dawać tzw. flow w analizie danych, opowiadać historię, nie tylko pokazywać jakiś statyczny stan na określony moment. Jeszcze 2 lata temu nikt nie chciał z nami rozmawiać o rozwiązaniach „w chmurze” – dziś to mniej więcej połowa naszych projektów. Ważne jest jeszcze jedno – wielcy dostawcy, tacy jak SAP, Microsoft czy Oracle, budują własne „chmurowe ekosystemy” informatyczne (a centralnym punktem ich strategii staje się maksymalne „uwikłanie” klientów w takie narzędzie, ze względu na wielkość LTE, którą biorą pod uwagę analitycy giełdowi wyceniający wartość tychże firm – w ostatnich latach firmy o największej kapitalizacji na rynkach rozwiniętych to właśnie takie „ekosystemy”, jak Google, Facebook, SAP, Apple czy Microsoft). Dostawcy specjalistyczni, jak Tableau czy Qlik, mają strategię bycia „informatyczną Szwajcarią”, która zintegruje się z każdym rozwiązaniem – i w dłuższym horyzoncie będzie mniej „uzależniającym” i generującym więcej wartości dla Klienta rozwiązaniem. Sporo kontraktów na rynku IT – zwłaszcza tych z wielkimi dostawcami – ma postać umów ramowych, w których klient „w hurcie i w ciemno” kupuje całą paletę rozwiązań danego dostawcy – niekoniecznie najlepszych na rynku i najbardziej pasujących do jego potrzeb…

3. Jakie rysują się trendy na tym rynku na najbliższe lata?

Na pewno „chmura”. Na pewno mobilny dostęp do aplikacji – tym samym dostęp dla coraz szerszej grupy użytkowników (już dziś handlowcy naszych klientów oglądają na swoich smartfonach dashboardy typu „360 stopni” przed wejściem na spotkanie z klientem). Na pewno odejście od drobiazgowego budżetowania na rzecz monitorowania najważniejszych KPI. I coś jeszcze – bardzo ciekawy trend do wymiany danych z partnerami biznesowymi (dostawcami, odbiorcami, franczyzobiorcami, dystrybutorami itp.). To daje olbrzymią, zupełnie nową wartość dodaną w relacjach biznesowych. Jeden z naszych klientów dzięki zbudowaniu rozwiązania monitorującego stany magazynowe i sprzedaż jego produktów w kanale tradycyjnym zwiększył swoją sprzedaż w tym kanale o ponad 40%. Jego dystrybutorzy też – klasyczna sytuacja „win-win”. Do tego bardzo ciekawy trend do monetyzacji danych, czyli znalezienia w nich wartości w zupełnie nowy sposób. I nie chodzi tu o jakieś prymitywne sprzedawanie baz danych klientów itp. (w dobie RODO to zresztą prawie niewykonalne). Chodzi o to, że jeśli np. jesteśmy operatorem telefonicznym, to wiemy, w jakich obszarach miasta duża liczba telefonów loguje się do sieci na dłużej niż 30 minut – a to są potencjalnie ciekawe lokalizacje sklepów czy punktów usługowych. Nie mówiąc już o tym, że mając taką infrastrukturę, możemy np. bezobsługowo pobierać płatności przykładowo za przejazd autostradą (tak już się dzieje na Słowacji – ale to temat na zupełnie inną opowieść…).

4. Mimo tak dynamicznego rozwoju rozwiązań informatycznych do controllingu wciąż nieśmiertelny jest arkusz kalkulacyjny Excel. Wielu controllerów przyznaje, że – mimo postępującej informatyzacji przedsiębiorstwa – nadal stanowi on podstawowe wsparcie w ich codziennej pracy. Jak Pan myśli, z czego to wynika?

To proste – sam korzystam z Excela kilka razy dziennie. Excel jest supernarzędziem, gdy przeliczamy dane na poziomie komórek (czyli przysłowiowe A1 * B2). Jest łatwy, wydajny, prosty i niezwykle elastyczny. Jest nawet niezłym narzędziem do wprowadzania danych w układzie tabelarycznym czy prostych analiz ad hoc, modeli itp. Bardzo łatwo jest w Excelu dane sobie „ręcznie poprawić” czy „doczyścić”. To jego spora zaleta użytkowa – i wada jednocześnie. I w sumie chyba to przesądza o jego popularności.
Schody zaczynają się tam, gdzie „nie dociera” spora część użytkowników (albo po drodze kończą im się kompetencje i potrzeby), czyli przy działaniach na poziomie zbiorów danych, zwłaszcza dużych zbiorów. Excel nie jest bazą danych – trudno w nim zapewnić takie funkcje, jak uprawnienia, wielodostęp czy automatyczne odświeżanie danych. Excel nie jest narzędziem do wizualnej analizy danych – jest tam ciąg technologiczny: „Dane – Tabelka – Wykres”. Tak po prostu jest. I ma to sporo konsekwencji w codziennej pracy. W całym „ekosystemie” Microsoftu logika budowy wizualnej analizy jest taka, że na początku wybieram typ wizualizacji, potem dobieram do niego dane. Podczas gdy użytkownik zwykle chciałby najpierw zdecydować, co chce przeanalizować, a potem dobrać sposób, w jaki chce to pokazać…

5. Podsumowując, jak zatem zdefiniowałby Pan dziś nowoczesny system informatyczny do controllingu?

Powinien być bardzo elastyczny, wydajny, bezpieczny, stabilny, dawać możliwość łatwego przejścia od ogółu do szczegółu, integrować się z dowolnym źródłem danych, pracować zarówno w trybie „cloud”, jak i w naszej infrastrukturze, dawać możliwość pracy mobilnej na dowolnej platformie (w praktyce iOS i Android), działać na Windows i/lub Linux, a przy tym wszystkim oferować użytkownikom analizy pokazane w piękny wizualnie sposób. A wybrane dane móc wyeksportować… do Excela.

Dziękuję za rozmowę.

Rozmawiał:
Stanisław Woźniak
redaktor naczelny magazynu „controlling i Zarządzanie”