Teoria Agregacji

Ten artykuł to kontynuacja wpisu Natura Przełomowej Innowacji. Jeśli jesteś tutaj po raz pierwszy rekomenduje zacząć lekturę od tamtego artykułu.

Teoria Przełomowej Innowacji ma jedną zasadniczą wadę: powstała w 1995 roku, ponad 20 lat temu. 

To były czasy w którym Internet nie był jeszcze społeczną normą. Fala wznosząca już istniała, ale tylko mały procent ludzi wiedział, czym tak naprawdę Internet jest: 

Clayton Christiensen tworząc swoją teorię opierał się na danych o gospodarce „fizycznej” – nie istniał jeszcze rynek muzyki, filmów i seriali online, nie istniały gry MMORPG, płatności online, Bitcoin czy wirtualne przedmioty, ani piractwo internetowe.

Co to faktycznie zmienia? Okazuje się, że dotychczasowe podejście do opisywania dynamiki rynku oparte na teorii przełomowej innowacji, przestaje pasować do pewnej grupy podmiotów, które bardzo szybko zadomowiły się na liście najszybciej rosnących i największych społek na świecie (takie jak FAANG: Facebook, Apple, Amazon, Netflix i Google). Okazuje się, że w niektórych przypadkach teoria Christiensena zawodzi – np. według jej założeń iPod i iPhone nie powinny być aż tak wielkimi sukcesami.

Clayton Christiensen podzielił swoją teorię na dwie części:

  1. „New Market Disruption”
  2. „Low End Disruption”

Pierwsza mówi o tym, że nowe firmy, nie mając sieci wartości ustabilizowanych organizacji, są w stanie zignorować standardy rynkowe i zbudować technologie istotne dla segmentów rynkowych, które nie są zauważane przez najwiekszych graczy. Na tej definicji skupia się mój poprzedni artykuł.

Druga część teorii mówi o tym, że na nowym rynku produkt, który jest „zintegrowany” początkowo wygrywa. Z czasem gdy rynek się stabilizuje powstają standardy i wariacja między produktami maleje. Części produktu się komodytyzują („modularyzują”) i przewagę na rynku zyskuje podmiot, który oferuje najtańszy „wystarczająco dobry” produkt.

To wszystko było prawdą jeśli analizujemy początkowe elementy łańcucha wartości. Jeśli jednak weźmiemy pod uwagę zmiany biznesowe spowodowane przez Internet to zasady gry się zmieniają. 

Ten problem próbuje rozwiązać nowa teoria, która w mojej ocenie stanowi bardzo dobre uzupełnienie pracy Christensena: Teoria Agregacji.

Ale żeby zrozumieć jej założenia musimy zacząć, jak zwykle, od początku.

Łańcuch wartości

Efektywność każdego przedsiębiorstwa można oceniać w trzech domenach: 

  • skuteczność w pozyskiwaniu surowców
  • sprawność produkcyjna/świadczenia usługi
  • efektywność dystrybucji produktu/usługi

Te trzy elementy tworzą tzw. łańcuch wartości (to moje bardzo duże uproszczenie oryginalnej idei Michela Portera). „Łańcuch”, bo każdy z elementów jest ściśle powiązany z sąsiadami, a „wartości” z każdym następnym krokiem „obrabiania produktu” wartość dla użytkownika (i marża producenta) wzrasta.

Weźmy jako przykład maszynkę do golenia: użytkownik ma niewielką wartość z kawałka plastyku i metalu (surowce) zanim nie stanie się maszynką do golenia. Samo stworzenie maszynki do golenia (produkcja) jeszcze niewiele daje jeśli ta maszynka nie będzie łatwo dostępna do kupienia i wykorzystania (dystrybucja).

Uproszczony łańcuch wartości

Każdy następny krok wnosi większą wartość także ze względu na coraz większą złożoność procesu (który trzeba rozumieć i optymalizować jeśli chce się oferować maszynki do golenia).

Gospodarka analogowa

Przed rewolucją industrialną to, co nazywamy „gospodarką” opierało się głównie na zdobywaniu zasobów, a więc na pierwszym etapie łańcucha wartości. To był najpoważniejszy problem do rozwiązania – kto kontrolował zasoby kontrolował rynek. To jest dalej prawdą w niektórych sektorach (ropa naftowa, diamenty, metale ziem rzadkich), ale im gospodarka jest bardziej rozwinięta tym znaczenie sektora wydobywczego maleje w udziale PKB kraju i regionu.

Surowce naturalne mają jednak to do siebie, że są jednolite: baryłki ropy z Wenezueli, Arabii Saudyjskiej i Rosji są względnie podobne, tam samo jak buszel owsa w Kanadzie czy Australii. Dzięki tej standaryzacji można nimi swobodnie handlować na masową skalę. Ten proces standaryzacji nazywa się komodytyzacją.

Inny efekt komodytyzacji spowodował, że surowiec stał się „anonimowy” – dostawca, które je przywozi do naszej fabryki może być wymieniony w dowolnym momencie na innego i użytkownik końcowy tego nie zauważy. 

W związku z tym „wąskie gardło” zaczęło przesuwać się w dół łańcucha wartości. Teraz najpoważniejszy problem do rozwiązania to skuteczna produkcja. 

To moment, w którym zaczęły pojawiać się pierwsze eksperymenty związane z masową produkcją i ogromny zmianami społecznymi spowodowanymi industrializacją. Rosnąca konsumpcja powodowała zwiększający się popyt, ten wymagał coraz lepszych metod produkcji, to wymagało zwiększenia zatrudnienia co zwiększało dobrobyt społeczeństwa co zwiększało popyt. 

Ten kto potrafił najwięcej i najlepiej (czyli z najmniejszą liczbą defektów) produkować ten wygrywał na rynku. Zaczynają się pierwsze eksperymenty z zarządzaniem opartym na nauce, taśma produkcyjna Forda, harmonogram (którego twórcą był polski teoretyk zarządzania – Karol Adamiecki).

Wiedza o optymalizacji produkcji rozpowszechniała się szybko, innowacje Forda szybko zostały podłapane przez amerykańskich i zagranicznych konkurentów. Dysproporcje w szybkości produkcji wyrównywały się coraz szybciej – a więc coraz trudniej było zdobywać przewagę rynkową na tym polu. Czas na następny etap walki: dystrybucję.

Wraz z upowszechnieniem się konsumpcyjnego stylu życia zbudowały się nowe zwyczaje i rutyny. Zaczęły się pojawiać domy handlowe i specjalistyczne sklepy. Ludzie zaczynają mieć swoje ulubione marki – tzn. zauważyli, że mydło nie jest równe mydłu, nawet jeśli ma taki sam skład i wagę. Reklama i marketing stają się dominującymi siłami rynkowymi, gdy okazało się jak łatwo jest ludźmi manipulować stosując metody znane z propagandy wojennej.

Jednak nic z tych rzeczy nie ma znaczenia, jeśli mojego ulubionego mydła nie ma sklepie, w którym robię zakupy. Najważniejszy problem do rozwiązania to spowodować, żeby to, co produkuje było łatwo dostępne tam, gdzie są moi klienci.

Właściciele sieci sklepowych doskonale zdawali (i zdają!) sobie z tego sprawę i traktują takie pozycjonowanie jako kartę przetargową. Wiedzą, że są wąskim gardłem w całym procesie i korzystają strategicznie ze swojej pozycji. Jednocześnie coraz mocniej zaczynają zdawać sobie sprawę, że bez dostawców ich półki będą puste. 

Integracja i Modularyzacja

Jednym z fragmentów Teorii Przełomowej Innowacji, który opuściłem ostatnio, aby za bardzo nie komplikować sprawy był cykl integracji i modularyzacji rynkowej. Czas to nadrobić bo to konieczny element, aby zrozumieć gdzie Teoria Przełomowej Innowacji zaczyna się kłócić z nową rzeczywistością.

Przy opisywaniu łańcucha wartości użyłem słowa „komodytyzacja” definiując sytuację, gdy surowce potrzebne do wytworzenia produktu standaryzują się – nieważne w którym miejscu kuli ziemskiej zapytacie stal eutektoidalna będzie wyglądać, działać i kosztować w miarę podobnie – i każdy będzie rozumiał i oczekiwał tego samego.

Okazuje się, że nie tylko surowce się komodytyzują. Wraz z rozwojem gospodarki i rynków komodytyzują się także półprodukty – na przykład żyletki używane w maszynkach do golenia, ale także ekrany, procesory i baterie wykorzystywane w Waszych smartfonach czy klocki hamulcowe w Waszych samochodach.

Rynkowa dostępność podzespołów powoduje, że można, na przykład, zbudować smartfona z części dostępnych na półce z sklepie i będzie on działał wystarczająco dobrze. 

Odwrotnym procesem jest integracja. Gdy rynek jeszcze nie jest wystarczająco dorosły brakuje na nim dostawców podzespołów a więc jeśli chcesz wyprodukować zupełnie nowy produkt na zupełnie nowym rynku to Twoja fabryka musi tworzyć wszystkie części od zera. Z racji tego, że produkujesz tylko dla siebie to Twoje podzespoły są dostosowane tylko do Twoich potrzeb, wiec Twój finalny produkt jest wewnętrznie zintegrowany.

Gracze rynkowi są zamknięci w cyklu ciągłej walki między tym kto kogo zmodularyzuje i kto będzie miał wystarczająco dużo zasobów, żeby się zintegrować.

W swojej ostatniej książce „Prosperity Paradox” Christensen opisuje mnóstwo przypadków firm, które integrują się z górę i w dół, aby zagwarantować sobie zbyt na zupełnie nowym rynku. Jednym z najlepszych przykładów jest Celtel – pierwszy pan-afrykański dostawca telefonii komórkowej. Aby osiągnąć sukces Celtel sam musiał stawiać swoje maszty nadawcze, co często wiązało się z budowaniem własnych dróg i wewnętrznej organizacji do naprawy infrastruktury. To jest integracja w „dół”, czyli obejmowanie w swoją kontrolę wcześniejsze etapy łańcucha wartości.

Jest też integracja w górę. Na przykład gdy producent stwierdza, że nie chce być na łasce dystrybutorów i sam buduje swój sklep: jak Apple i ich własna sieć sklepów Apple Store.

Patrząc z drugiej strony: niektóre sieci sklepów inwestują w swoje własne marki dostępne na ich półkach (w Biedronce i Lidlu to już odpowiednio 14% i 15% wszystkich produktów) – to jest przykład na integrację w dół.

Modularyzacja i integracja walczyły ze sobą na rynku w niezmienny sposób aż do momentu pojawienia się Internetu i początku gospodarki cyfrowej.

Gospodarka cyfrowa

To, co stopniowo zaczęło się zmieniać po 1995 to wewnętrzna dynamika łańcucha wartości. Po pierwsze Internet spowodował, że krańcowy koszt dystrybucji produktów zaczął gwałtownie spadać (do zera w przypadku produktów łatwych do zdigitalizowania jak muzyka i tekst). Poza tym Internet spowodował, że koszty transakcyjne także spadają do zera, co pozwala producentom integrować się dalej w łańcuchu wartości (np. dając producentom bezpośredni dostęp do klientów z pominięciem dystrybutorów – jak pisarze, którzy publikują online bez konieczności posiadania wydawcy, czy muzycy bez wytwórni).

Przewaga strategiczna zaczyna znów się przesuwać. Dystrybutorzy przestają walczyć przede wszystkim o uwagę dostawców a zaczynają dostrzegać użytkowników końcowych. Najważniejszym problem do rozwiązania jest zbudowanie lojalności, a więc powracalności klientów. 

Dochodzi czwarty element układanki


Na rynku pojawia się nowy typ dystrybutora – Agregator. To podmiot, który na fali zmian zaczyna wykorzystywać technologię aby wcisnąć się miedzy konsumenta a dystrybutora, stając się dystrybutorem dystrybutorów.

Dlaczego to mu się udaje? Bo oferuje swoim użytkownikom ogromną wartość – większy wybór, szersze porównanie oferty z wielu źródeł, wygodniejszą i szybszą konsumpcję, eliminację zbędnych elementów oferty i lepsze dopasowanie.

Szybko okazało się, że agregator posiada obecnie najmocniejszy arsenał jaki można mieć na rynku: uwagę konsumenta. Uwaga to najważniejszy surowiec jakim handlujemy (a przynajmniej dopóki ludzie są dominującą siłą na rynku). Dzięki temu agregator wpycha się między użytkownika a wcześniejsze stadia łańcucha wartości i efektywnie modularyzuje to, co do tej pory modularyzacji się opierało.

Weźmy za przykład sieć społecznościową taką jak Facebook. Co agreguje Facebook? Znajomości między ludźmi, między innymi. Im więcej ma użytkowników tym ma lepszy user experience, gdyż nikt nie czuje się w środku samotny („moi znajomi już tu są”). To, opierając się na czystej psychologii, powoduje, że częściej na Fejsa zaglądamy, bo chcemy wiedzieć co ciekawego dzieje się w naszym otoczeniu. Skoro już tam jesteśmy to inne mechanizmy psychologiczne (m.in. virtue signaling) powodują, że produkujemy treści, które konsumują nasi inni znajomi, napędzając spiralę niesamowitego wzrostu tej firmy. Zauważcie że jest tutaj jeszcze jedna, mniej widoczna przewaga: Facebook otrzymuje treści za darmo, generowane przez swoich użytkowników ORAZ jest ich ekskluzywnym dostawcą.

Analogowa gazeta jest wydawana w zintegrowanym pakiecie – kupując egzemplarz dostawało się dział wiadomości, ekonomiczny, sportowy, ogłoszeniowy – niezależnie od tego, która część Cię akurat interesowała zawsze trzeba było zapłacić taką samą kwotę. Pojawił się Internet i wraz z nim pierwsze próby przeniesienia treści gazetowych w sieć. Te treści, dzięki wynalezieniu linków zaczęły być między sobą linkowane, z czego skorzystały katalogi linków – protoplaści obecnych portali internetowych. Na bazie tych danych zaczęły powstawać wyszukiwarki, wśród których niepodzielnym liderem dzięki swojemu algorytmowi jest obecnie Google. Google zmodularyzował treści gazet, gdyż doprowadził do sytuacji, w której ochota na przeczytanie jednego artykułu nie wiąże się już z koniecznością kupienia całej gazety. Gazeta została zmodularyzowana na pojedyncze artykuły

W ten sam sposób Apple iTunes wprowadził modę na słuchanie pojedynczych utworów zamiast całych płyt. W iTunes nie trzeba kupować całego albumu ulubionego artysty – można było pojedyncze utwory.

iTaxi z kolei zagregowało korporacje taksówkarskie, powodując, że istotne stało się gdzie jest najbliższa taksówka, a nie to z jakiej jest korporacji.

Pizzaportal zagregowała restauracje, dając większy wybór na wskroś wszystkich menu, modularyzując je. Dodanie do tego własnych dostaw pozwoliłoby na zintegrowanie w górę.

Możecie się w tym momencie zapytać: ok, ale co ma wspólnego agregator i Apple? Czy Apple jest agregatorem?

Teoria Agregacji zaczęła się od udowodnienia, że pewien rodzaj przełomowej innowacji nie działa w każdym przypadku – na przykład przy okazji Apple. To oznacza, że jest jakiś inny czynnik, który powoduje, że Apple utrzymuje się na powierzchni mimo przepowiedni Christensena.

Tak się akurat składa, ze zarówno agregatorzy jak i pionowo zintegrowany Apple, mimo zasadniczych różnic mają jedną cechę wspólną: strategię nastawioną na maksymalizację User Experience.

Era User Experience

To, co obserwujemy od ostatnich kilkunastu lat to samonapędzający się mechanizm:

Christensen przestrzegał, aby nie ufać za mocno temu co mówią klienci, bo oni zawsze będą chcieli więcej i lepiej z tego, co już znają – co spowoduje, że produkt będzie komplikował się i poprawiał szybciej niż rynek tego faktycznie potrzebuje. Tymczasem Teoria Agregacji przewiduje że nowi giganci rynku wyrośli (i wyrastają) na zrozumieniu, że:

  • przewaga biznesowa polega na budowaniu jak najlepszego doświadczenia interakcji z produktem,
  • użytkownicy są w stanie zapłacić więcej za lepsze doświadczenie

Naczelny wniosek Teorii Agregacji zakłada, że ten, kto ma lepszy UX wygrywa walkę o rynek, gdyż to, co jest najważniejsze to nie jest cena produktu, a doświadczenie jakie daje na interakcja z zakupionym produktem. Stało się to szczególnie istotne, gdy faktycznymi klientami technologii stali się klienci prywatni a nie biznesowi. Tym drugim bardziej zależy na racjonalnej i policzalnej efektywności biznesowej a nie trudnych efemerycznym uczuciu spełnienia i obcowania z piękną formą. W ten sposób możemy wyjaśnić niesłabnąca popularność i efektywność rynkowa iPhone’a – mimo tego, że ten produkt Apple jest zintegrowany i walczy na zmodularyzowanym rynku. 

Kiedyś, przed Internetem, gdy największymi problemami było zdobycie surowców, masowa produkcja bądź dystrybucja, doświadczenie było jedynie efektem ubocznym. Wraz ze zwiększaniem się świadomości konsumenckiej i działań marketingowych produkt przestawał być produktem. Lub patrząc inaczej: to co nazywamy produktem jest definiowane przez to jak użytkownik czuje się korzystając z tego produktu.

Najciekawsze jest to, że ze względu na swoją biologię i psychologię nigdy nie będziemy w pełni usatysfakcjonowani, nasz apetyt będzie rósł w miarę jedzenia.

Więc jeśli zastanawiacie się skąd pojawiło się tak ogromne ssanie na specjalistów od UX to jest właśnie powód: weszli w erę User Experience. Erę definiowaną przez wyścig zbrojeń nad kontrolą ostatniego niezmodularyzowanego element łańcucha wartości: interakcję konsumenta z produktem.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *