W obronie frustrujących produktów

HBO Go ma gorszą aplikację od Netfliksa – to raczej nie jest zbyt kontrowersyjne stwierdzenie. Wszystko w HBO Go jest jakieś takie koślawe, wolniejsze, mniej intuicyjne. Do tego czasami zachowuje się bez sensu – potrafi wylogować bez powodu, a później trzeba się zastanawiać czy się jest subskrybentem czy abonentem.

Pewnie też nie raz się zastanawiałaś dlaczego to tak słabo działa? Czemu nikt tego nie poprawił, nie uprościł, nie wywrócił do góry nogami mając użytkownika w centrum uwagi?

Czy nie ma w tej firmie PMa który powinien czuwać nad takimi sprawami? Czy nie ma tam dyrektora od produktów, który walnie pięścią w stół i powie „tak być k$%#@ nie może?”

Otóż w HBO, Microsofcie (hello MS Teams!), Cisco, Nokii i tym podobnych firmach jest mnóstwo świetnych ludzi od produktów, którzy te wszystkie problemy widzą, co więcej, jestem pewien, że mają je całkiem dobrze przeanalizowane. I bardzo by chcieli te problemy rozwiązać, ale nie mogą. Stopuje ich wielka niewidoczna siła, z której my, użytkownicy, nie zdajemy sobie sprawy.

Ta siła powoduje, że rzeczy, które wydają się oczywiste do naprawienia są ciągle na dole backlogów. To siła, która kładzie na kolana najlepiej poukładane zespoły z ogromnymi zasobami, ale nie znajdziesz o niej wzmianki w case studies i success stories.

Mówię o Value Network (w nomenklaturze teorii przełomowej innowacji) lub Value Stack (w nomenklaturze teorii agregacji). Czym jest najlepiej jest pokazać na przykładzie.

Zoom

Zoom to program do telekonferencji. Jego CEO i founder nazywa się Eric Yuan. Eric zaczął swoją pracę w WebEx, która także tworzyła oprogramowanie do telekonferencji. WebEx został kupiony przez Cisco i wcielony do portfolio giganta, a Eric został VP of Engineering u nowego właściciela.

Eric nie był zadowolony z tego jak (nie) idzie rozwój WebExa i przez wiele lat lobbował, aby przekonać organizację do walki o ten kawałek tortu. Mimo to nie udało się – WebEx był w stagnacji.

Ostatecznie Eric odszedł z Cisco i stworzył konkurencję dla swojego własnego produktu – czyli właśnie Zoom. Zoom pojawia się na giełdzie w 2019 roku i obecnie (na dzień 20.10.2020) jest wart 157 mld dolarów, Cisco jest warte niewiele więcej – 166 mld dolarów. To fascynująca historia.

Powtórzę: VP of Engineering mający pod sobą 800 pracowników, z ogromnym doświadczeniem dziedzinowym nie potrafił poprowadzić swojego produktu w zadowalającą stronę.

Możesz być najlepszą strateżką i egzekutorką produktową, możesz mieć najlepszy insight w potrzeby i rozumieć technologię w swojej niszy, możesz mieć nawet zastępy najlepszych programistów na wyciągnięcie ręki a i tak nic nie zrobisz jeśli Value Network Ci na to nie pozwala.

Jeśli chcesz zrobić coś, co nie wpisuje się w metabolizm firmy to spotka Cię tysiąc formalnych i nieformalnych, otwartych i zawoalowanych przeszkód – zaczynając od niezgodności ze strategią a kończąc na błahych formalizmach.

Wśród nich znajdują się także także kompromisy, niekoniecznie zgniłe. Nagle się okazuje ze pierwotnie odważny plan rozwoju trzeba przyciąć, bo jakaś jego część wpływa negatywnie na relacje z partnerem, inną zapauzować ze względu na niezgodność prawną, a jeszcze inna się przedłuży ze względu na dług technologiczny, którego nikt nie miał motywacji naprawiać. A czasami po prostu dlatego, że trzeba ugasić pożary, które teraz się palą, zamiast inwestować w coś co w sumie niewiadomo czy się zwróci.

Żebyśmy mieli jasność: Cisco nie robi tego na przekór swoim największym gwiazdom – w końcu jednym z głównych powodów skupowania spółek z rynku jest zdobywanie najlepszych ludzi wraz z technologią, którą stworzyli i mogą rozwijać pod nowymi skrzydłami.

Doświadczone firmy są już usadowione wygodnie w swojej pozycji, mają zbudowane relacje z resztą rynku (klienci, partnerzy, dostawcy, inwestorzy, giełda), mają ustabilizowane mechanizmy raportowania, mają warstwę managmentu, których premie są zależne od tego czy te same od lat metryki idą w górę czy nie. Jak widać pojawienie się kogoś, kto próbuje ruszać na boki tą łódką nikomu nie jest na rękę – nawet mimo tego, że firma uważa siebie za miejsce przyjazne innowacji. Wszystkim najbardziej opłaca się utrzymanie status quo i to nawet gdy wiedzą, że to krótkowzroczne.

HBO Go

Wróćmy jednak do naszego HBO Go. Jestem przekonany, że gdybyś miała perfekcyjną wiedzę o mechanizmach i dynamice podejmowania decyzji w HBO to byś zauważyła, że te wszystkie UXowe przeszkadzajki, które Cię tak codziennie wkurzają w ich aplikacji ostatecznie sprowadzają się do Value Network tej organizacji.

Nie mam takiej wiedzy, więc mogę jedynie spekulować, niemniej sądzę, że te wszystkie problemy z jakością odtwarzania mogą mieć coś wspólnego z tym jakiej jakości i jak zaenkodowane są treści, co z kolei może wynikać z tego jakie warunki licencyjne ma HBO na swojej platformie, co zapewne wynika z tego jakie warunki panowały w czasach kablówki. HBO powstało w 1972 roku, więc było dużo czasu na stworzenie procesów, procedur i umów, które zmieniały się wolniej niż otoczenie biznesowe i technologiczne.

Netflix powstał w 1990 roku, w walce z HBO to ten młodszy, zwinniejszy konkurent. Niemniej gdzieś tam, na peryferiach pojawiają się firmy, które to właśnie Netfliksa traktują jako wielkiego ciężkiego molocha, którego można przegonić brakiem długów organizacyjnych i technologicznych. Nie mają zobowiązań więc mogą się szybko poruszać. Ale zaczną budować coraz więcej relacji. Coraz częściej obok pytania o odbieranie użytkownikom konkurencji będzie stawać drugie: jak nie dać sobie podebrać już posiadanych. Zamiast tworzenia nowego softu: jak manewrować między limitami postawionymi przez obecny.

Nie wkurzaj się więc na HBO Go. To jak działa ta aplikacja to nie jest funkcja jakości ludzi w środku a efekt działania Value Network. Oni robią co mogą, na tyle, na ile pozwala im plansza do gry.

Teoria Agregacji

Ten artykuł to kontynuacja wpisu Natura Przełomowej Innowacji. Jeśli jesteś tutaj po raz pierwszy rekomenduje zacząć lekturę od tamtego artykułu.

Teoria Przełomowej Innowacji ma jedną zasadniczą wadę: powstała w 1995 roku, ponad 20 lat temu. 

To były czasy w którym Internet nie był jeszcze społeczną normą. Fala wznosząca już istniała, ale tylko mały procent ludzi wiedział, czym tak naprawdę Internet jest: 

Clayton Christiensen tworząc swoją teorię opierał się na danych o gospodarce “fizycznej” – nie istniał jeszcze rynek muzyki, filmów i seriali online, nie istniały gry MMORPG, płatności online, Bitcoin czy wirtualne przedmioty, ani piractwo internetowe.

Co to faktycznie zmienia? Okazuje się, że dotychczasowe podejście do opisywania dynamiki rynku oparte na teorii przełomowej innowacji, przestaje pasować do pewnej grupy podmiotów, które bardzo szybko zadomowiły się na liście najszybciej rosnących i największych społek na świecie (takie jak FAANG: Facebook, Apple, Amazon, Netflix i Google). Okazuje się, że w niektórych przypadkach teoria Christiensena zawodzi – np. według jej założeń iPod i iPhone nie powinny być aż tak wielkimi sukcesami.

Clayton Christiensen podzielił swoją teorię na dwie części:

  1. “New Market Disruption”
  2. “Low End Disruption”

Pierwsza mówi o tym, że nowe firmy, nie mając sieci wartości ustabilizowanych organizacji, są w stanie zignorować standardy rynkowe i zbudować technologie istotne dla segmentów rynkowych, które nie są zauważane przez najwiekszych graczy. Na tej definicji skupia się mój poprzedni artykuł.

Druga część teorii mówi o tym, że na nowym rynku produkt, który jest “zintegrowany” początkowo wygrywa. Z czasem gdy rynek się stabilizuje powstają standardy i wariacja między produktami maleje. Części produktu się komodytyzują (“modularyzują”) i przewagę na rynku zyskuje podmiot, który oferuje najtańszy “wystarczająco dobry” produkt.

To wszystko było prawdą jeśli analizujemy początkowe elementy łańcucha wartości. Jeśli jednak weźmiemy pod uwagę zmiany biznesowe spowodowane przez Internet to zasady gry się zmieniają. 

Ten problem próbuje rozwiązać nowa teoria, która w mojej ocenie stanowi bardzo dobre uzupełnienie pracy Christensena: Teoria Agregacji.

Ale żeby zrozumieć jej założenia musimy zacząć, jak zwykle, od początku.

Łańcuch wartości

Efektywność każdego przedsiębiorstwa można oceniać w trzech domenach: 

  • skuteczność w pozyskiwaniu surowców
  • sprawność produkcyjna/świadczenia usługi
  • efektywność dystrybucji produktu/usługi

Te trzy elementy tworzą tzw. łańcuch wartości (to moje bardzo duże uproszczenie oryginalnej idei Michela Portera). “Łańcuch”, bo każdy z elementów jest ściśle powiązany z sąsiadami, a “wartości” z każdym następnym krokiem “obrabiania produktu” wartość dla użytkownika (i marża producenta) wzrasta.

Weźmy jako przykład maszynkę do golenia: użytkownik ma niewielką wartość z kawałka plastyku i metalu (surowce) zanim nie stanie się maszynką do golenia. Samo stworzenie maszynki do golenia (produkcja) jeszcze niewiele daje jeśli ta maszynka nie będzie łatwo dostępna do kupienia i wykorzystania (dystrybucja).

Uproszczony łańcuch wartości

Każdy następny krok wnosi większą wartość także ze względu na coraz większą złożoność procesu (który trzeba rozumieć i optymalizować jeśli chce się oferować maszynki do golenia).

Gospodarka analogowa

Przed rewolucją industrialną to, co nazywamy “gospodarką” opierało się głównie na zdobywaniu zasobów, a więc na pierwszym etapie łańcucha wartości. To był najpoważniejszy problem do rozwiązania – kto kontrolował zasoby kontrolował rynek. To jest dalej prawdą w niektórych sektorach (ropa naftowa, diamenty, metale ziem rzadkich), ale im gospodarka jest bardziej rozwinięta tym znaczenie sektora wydobywczego maleje w udziale PKB kraju i regionu.

Surowce naturalne mają jednak to do siebie, że są jednolite: baryłki ropy z Wenezueli, Arabii Saudyjskiej i Rosji są względnie podobne, tam samo jak buszel owsa w Kanadzie czy Australii. Dzięki tej standaryzacji można nimi swobodnie handlować na masową skalę. Ten proces standaryzacji nazywa się komodytyzacją.

Inny efekt komodytyzacji spowodował, że surowiec stał się “anonimowy” – dostawca, które je przywozi do naszej fabryki może być wymieniony w dowolnym momencie na innego i użytkownik końcowy tego nie zauważy. 

W związku z tym “wąskie gardło” zaczęło przesuwać się w dół łańcucha wartości. Teraz najpoważniejszy problem do rozwiązania to skuteczna produkcja. 

To moment, w którym zaczęły pojawiać się pierwsze eksperymenty związane z masową produkcją i ogromny zmianami społecznymi spowodowanymi industrializacją. Rosnąca konsumpcja powodowała zwiększający się popyt, ten wymagał coraz lepszych metod produkcji, to wymagało zwiększenia zatrudnienia co zwiększało dobrobyt społeczeństwa co zwiększało popyt. 

Ten kto potrafił najwięcej i najlepiej (czyli z najmniejszą liczbą defektów) produkować ten wygrywał na rynku. Zaczynają się pierwsze eksperymenty z zarządzaniem opartym na nauce, taśma produkcyjna Forda, harmonogram (którego twórcą był polski teoretyk zarządzania – Karol Adamiecki).

Wiedza o optymalizacji produkcji rozpowszechniała się szybko, innowacje Forda szybko zostały podłapane przez amerykańskich i zagranicznych konkurentów. Dysproporcje w szybkości produkcji wyrównywały się coraz szybciej – a więc coraz trudniej było zdobywać przewagę rynkową na tym polu. Czas na następny etap walki: dystrybucję.

Wraz z upowszechnieniem się konsumpcyjnego stylu życia zbudowały się nowe zwyczaje i rutyny. Zaczęły się pojawiać domy handlowe i specjalistyczne sklepy. Ludzie zaczynają mieć swoje ulubione marki – tzn. zauważyli, że mydło nie jest równe mydłu, nawet jeśli ma taki sam skład i wagę. Reklama i marketing stają się dominującymi siłami rynkowymi, gdy okazało się jak łatwo jest ludźmi manipulować stosując metody znane z propagandy wojennej.

Jednak nic z tych rzeczy nie ma znaczenia, jeśli mojego ulubionego mydła nie ma sklepie, w którym robię zakupy. Najważniejszy problem do rozwiązania to spowodować, żeby to, co produkuje było łatwo dostępne tam, gdzie są moi klienci.

Właściciele sieci sklepowych doskonale zdawali (i zdają!) sobie z tego sprawę i traktują takie pozycjonowanie jako kartę przetargową. Wiedzą, że są wąskim gardłem w całym procesie i korzystają strategicznie ze swojej pozycji. Jednocześnie coraz mocniej zaczynają zdawać sobie sprawę, że bez dostawców ich półki będą puste. 

Integracja i Modularyzacja

Jednym z fragmentów Teorii Przełomowej Innowacji, który opuściłem ostatnio, aby za bardzo nie komplikować sprawy był cykl integracji i modularyzacji rynkowej. Czas to nadrobić bo to konieczny element, aby zrozumieć gdzie Teoria Przełomowej Innowacji zaczyna się kłócić z nową rzeczywistością.

Przy opisywaniu łańcucha wartości użyłem słowa “komodytyzacja” definiując sytuację, gdy surowce potrzebne do wytworzenia produktu standaryzują się – nieważne w którym miejscu kuli ziemskiej zapytacie stal eutektoidalna będzie wyglądać, działać i kosztować w miarę podobnie – i każdy będzie rozumiał i oczekiwał tego samego.

Okazuje się, że nie tylko surowce się komodytyzują. Wraz z rozwojem gospodarki i rynków komodytyzują się także półprodukty – na przykład żyletki używane w maszynkach do golenia, ale także ekrany, procesory i baterie wykorzystywane w Waszych smartfonach czy klocki hamulcowe w Waszych samochodach.

Rynkowa dostępność podzespołów powoduje, że można, na przykład, zbudować smartfona z części dostępnych na półce z sklepie i będzie on działał wystarczająco dobrze. 

Odwrotnym procesem jest integracja. Gdy rynek jeszcze nie jest wystarczająco dorosły brakuje na nim dostawców podzespołów a więc jeśli chcesz wyprodukować zupełnie nowy produkt na zupełnie nowym rynku to Twoja fabryka musi tworzyć wszystkie części od zera. Z racji tego, że produkujesz tylko dla siebie to Twoje podzespoły są dostosowane tylko do Twoich potrzeb, wiec Twój finalny produkt jest wewnętrznie zintegrowany.

Gracze rynkowi są zamknięci w cyklu ciągłej walki między tym kto kogo zmodularyzuje i kto będzie miał wystarczająco dużo zasobów, żeby się zintegrować.

W swojej ostatniej książce “Prosperity Paradox” Christensen opisuje mnóstwo przypadków firm, które integrują się z górę i w dół, aby zagwarantować sobie zbyt na zupełnie nowym rynku. Jednym z najlepszych przykładów jest Celtel – pierwszy pan-afrykański dostawca telefonii komórkowej. Aby osiągnąć sukces Celtel sam musiał stawiać swoje maszty nadawcze, co często wiązało się z budowaniem własnych dróg i wewnętrznej organizacji do naprawy infrastruktury. To jest integracja w “dół”, czyli obejmowanie w swoją kontrolę wcześniejsze etapy łańcucha wartości.

Jest też integracja w górę. Na przykład gdy producent stwierdza, że nie chce być na łasce dystrybutorów i sam buduje swój sklep: jak Apple i ich własna sieć sklepów Apple Store.

Patrząc z drugiej strony: niektóre sieci sklepów inwestują w swoje własne marki dostępne na ich półkach (w Biedronce i Lidlu to już odpowiednio 14% i 15% wszystkich produktów) – to jest przykład na integrację w dół.

Modularyzacja i integracja walczyły ze sobą na rynku w niezmienny sposób aż do momentu pojawienia się Internetu i początku gospodarki cyfrowej.

Gospodarka cyfrowa

To, co stopniowo zaczęło się zmieniać po 1995 to wewnętrzna dynamika łańcucha wartości. Po pierwsze Internet spowodował, że krańcowy koszt dystrybucji produktów zaczął gwałtownie spadać (do zera w przypadku produktów łatwych do zdigitalizowania jak muzyka i tekst). Poza tym Internet spowodował, że koszty transakcyjne także spadają do zera, co pozwala producentom integrować się dalej w łańcuchu wartości (np. dając producentom bezpośredni dostęp do klientów z pominięciem dystrybutorów – jak pisarze, którzy publikują online bez konieczności posiadania wydawcy, czy muzycy bez wytwórni).

Przewaga strategiczna zaczyna znów się przesuwać. Dystrybutorzy przestają walczyć przede wszystkim o uwagę dostawców a zaczynają dostrzegać użytkowników końcowych. Najważniejszym problem do rozwiązania jest zbudowanie lojalności, a więc powracalności klientów. 

Dochodzi czwarty element układanki


Na rynku pojawia się nowy typ dystrybutora – Agregator. To podmiot, który na fali zmian zaczyna wykorzystywać technologię aby wcisnąć się miedzy konsumenta a dystrybutora, stając się dystrybutorem dystrybutorów.

Dlaczego to mu się udaje? Bo oferuje swoim użytkownikom ogromną wartość – większy wybór, szersze porównanie oferty z wielu źródeł, wygodniejszą i szybszą konsumpcję, eliminację zbędnych elementów oferty i lepsze dopasowanie.

Szybko okazało się, że agregator posiada obecnie najmocniejszy arsenał jaki można mieć na rynku: uwagę konsumenta. Uwaga to najważniejszy surowiec jakim handlujemy (a przynajmniej dopóki ludzie są dominującą siłą na rynku). Dzięki temu agregator wpycha się między użytkownika a wcześniejsze stadia łańcucha wartości i efektywnie modularyzuje to, co do tej pory modularyzacji się opierało.

Weźmy za przykład sieć społecznościową taką jak Facebook. Co agreguje Facebook? Znajomości między ludźmi, między innymi. Im więcej ma użytkowników tym ma lepszy user experience, gdyż nikt nie czuje się w środku samotny (“moi znajomi już tu są”). To, opierając się na czystej psychologii, powoduje, że częściej na Fejsa zaglądamy, bo chcemy wiedzieć co ciekawego dzieje się w naszym otoczeniu. Skoro już tam jesteśmy to inne mechanizmy psychologiczne (m.in. virtue signaling) powodują, że produkujemy treści, które konsumują nasi inni znajomi, napędzając spiralę niesamowitego wzrostu tej firmy. Zauważcie że jest tutaj jeszcze jedna, mniej widoczna przewaga: Facebook otrzymuje treści za darmo, generowane przez swoich użytkowników ORAZ jest ich ekskluzywnym dostawcą.

Analogowa gazeta jest wydawana w zintegrowanym pakiecie – kupując egzemplarz dostawało się dział wiadomości, ekonomiczny, sportowy, ogłoszeniowy – niezależnie od tego, która część Cię akurat interesowała zawsze trzeba było zapłacić taką samą kwotę. Pojawił się Internet i wraz z nim pierwsze próby przeniesienia treści gazetowych w sieć. Te treści, dzięki wynalezieniu linków zaczęły być między sobą linkowane, z czego skorzystały katalogi linków – protoplaści obecnych portali internetowych. Na bazie tych danych zaczęły powstawać wyszukiwarki, wśród których niepodzielnym liderem dzięki swojemu algorytmowi jest obecnie Google. Google zmodularyzował treści gazet, gdyż doprowadził do sytuacji, w której ochota na przeczytanie jednego artykułu nie wiąże się już z koniecznością kupienia całej gazety. Gazeta została zmodularyzowana na pojedyncze artykuły

W ten sam sposób Apple iTunes wprowadził modę na słuchanie pojedynczych utworów zamiast całych płyt. W iTunes nie trzeba kupować całego albumu ulubionego artysty – można było pojedyncze utwory.

iTaxi z kolei zagregowało korporacje taksówkarskie, powodując, że istotne stało się gdzie jest najbliższa taksówka, a nie to z jakiej jest korporacji.

Pizzaportal zagregowała restauracje, dając większy wybór na wskroś wszystkich menu, modularyzując je. Dodanie do tego własnych dostaw pozwoliłoby na zintegrowanie w górę.

Możecie się w tym momencie zapytać: ok, ale co ma wspólnego agregator i Apple? Czy Apple jest agregatorem?

Teoria Agregacji zaczęła się od udowodnienia, że pewien rodzaj przełomowej innowacji nie działa w każdym przypadku – na przykład przy okazji Apple. To oznacza, że jest jakiś inny czynnik, który powoduje, że Apple utrzymuje się na powierzchni mimo przepowiedni Christensena.

Tak się akurat składa, ze zarówno agregatorzy jak i pionowo zintegrowany Apple, mimo zasadniczych różnic mają jedną cechę wspólną: strategię nastawioną na maksymalizację User Experience.

Era User Experience

To, co obserwujemy od ostatnich kilkunastu lat to samonapędzający się mechanizm:

Christensen przestrzegał, aby nie ufać za mocno temu co mówią klienci, bo oni zawsze będą chcieli więcej i lepiej z tego, co już znają – co spowoduje, że produkt będzie komplikował się i poprawiał szybciej niż rynek tego faktycznie potrzebuje. Tymczasem Teoria Agregacji przewiduje że nowi giganci rynku wyrośli (i wyrastają) na zrozumieniu, że:

  • przewaga biznesowa polega na budowaniu jak najlepszego doświadczenia interakcji z produktem,
  • użytkownicy są w stanie zapłacić więcej za lepsze doświadczenie

Naczelny wniosek Teorii Agregacji zakłada, że ten, kto ma lepszy UX wygrywa walkę o rynek, gdyż to, co jest najważniejsze to nie jest cena produktu, a doświadczenie jakie daje na interakcja z zakupionym produktem. Stało się to szczególnie istotne, gdy faktycznymi klientami technologii stali się klienci prywatni a nie biznesowi. Tym drugim bardziej zależy na racjonalnej i policzalnej efektywności biznesowej a nie trudnych efemerycznym uczuciu spełnienia i obcowania z piękną formą. W ten sposób możemy wyjaśnić niesłabnąca popularność i efektywność rynkowa iPhone’a – mimo tego, że ten produkt Apple jest zintegrowany i walczy na zmodularyzowanym rynku. 

Kiedyś, przed Internetem, gdy największymi problemami było zdobycie surowców, masowa produkcja bądź dystrybucja, doświadczenie było jedynie efektem ubocznym. Wraz ze zwiększaniem się świadomości konsumenckiej i działań marketingowych produkt przestawał być produktem. Lub patrząc inaczej: to co nazywamy produktem jest definiowane przez to jak użytkownik czuje się korzystając z tego produktu.

Najciekawsze jest to, że ze względu na swoją biologię i psychologię nigdy nie będziemy w pełni usatysfakcjonowani, nasz apetyt będzie rósł w miarę jedzenia.

Więc jeśli zastanawiacie się skąd pojawiło się tak ogromne ssanie na specjalistów od UX to jest właśnie powód: weszli w erę User Experience. Erę definiowaną przez wyścig zbrojeń nad kontrolą ostatniego niezmodularyzowanego element łańcucha wartości: interakcję konsumenta z produktem.

Natura przełomowej innowacji

Ten artykuł powstał na podstawie mojego wykładu “Wstęp do innowacji” prezentowanego 25.11.2018 podczas studiów Innovation and Technology Project Management na Collegium Civitas


Czym jest innowacja? To nowa metoda, idea, produkt. Pojemna definicja – na tyle szeroka, że można nią szastać na lewo i prawo, nazywając każdą ładną rzecz i sprytne zastosowanie innowacją.

Jest też pojęcie Disruptive Innovation (“przełomowa innowacja”), które ma dokładną i konkretną definicję, a mimo to także używane jest jako frazes, a co gorsza, zamiennie z powyższym.

Chciałbym więc przeprowadzić Was przez fascynującą teorię Disruptive Innovation Claytona Christiensena i pokazać co naprawdę oznacza przełomowa innowacja i dlaczego powinna być podstawą przy strategicznym myśleniu o produktach technologicznych.

Teoria dyfuzji technologii

Teoria dyfuzji technologii mówi nam, że gdy na rynku pojawia się nowy produkt to reakcje ludzi można podzielić na pięć kategorii i korespondujących im worków:

  • Innowatorzy – mała procentowo grupa ludzi, którzy muszą od razu przetestować każdą nowinkę, nawet jeśli jest niedopracowana,
  • Prekursorzy –  trendsetterzy, którzy szybko adoptują nowe rozwiązania, aby podnieść swój status społeczny – mają wysoki poziom zaufania u innych grup,
  • Wczesna Większość – jeśli ta grupa zaczyna korzystać z technologii to znaczy, że stała się umasowiona i weszła do świadomości społecznej (przekroczyła tzw. “przepaść” z książki Geoffreya Moore’a),
  • Późna Większość – tak jak wczesna większość, ale mniej chętna zmianom w swoim życiu, 
  • Maruderzy – ostatnia grupa, najbardziej konserwatywna i nieufna rynkowi i technologiom
Rozkład normalny typów uczestników rynku

Jeśli zmodyfikujemy ten wykres tak, aby pokazywał popularność (lub efektywność) w czasie to zamiast rozkładu normalnego pojawi się charakterystyczna krzywa (żółta linia):

Taką krzywą nazywamy krzywą “S”. Jest to jedno z kilku podstawowych elementów potrzebnych do zrozumienia teorii przełomowej innowacji.

Pierwsza krzywa “S”

Co pokazuje krzywa “S”? Prześledźmy ją na bazie życia produktu. Gdy produkt debiutuje to zbiera inicjalną grupę użytkowników. Producent otrzymuje od użytkowników i rynku informacje czy i na ile produkt jest dobry i jakich poprawek jeszcze wymaga. Dzięki temu zaczyna się wspinać w kategorii jakości (lepsze materiały, lepszy proces produkcyjny) i popularności (lepiej odpowiada na potrzeby, poszerza grupę odbiorców). Produkt mocniej nasyca rynek i coraz lepiej realizuje potrzebę użytkowników aż do momentu osiągnięcia szczytu popularności

Rozpatrzmy przypadek firmy Kodak. W 1888 roku Kodak stworzył rewolucyjną innowację: rolkę fotograficzną, która zastąpiła szklaną płytę. Dzięki temu stały się dwie rzeczy. Po pierwsze profesjonalni fotografowie mogli robić zdjęcia szybciej i wygodniej mimo tego, że rolka miała gorsze parametry w stosunku do standardowych płyt do dagerotypów. Po drugie dzięki rolce aparaty fotograficzne stawały się użyteczniejsze także dla amatorów (którzy mieli dużo pieniędzy na takie zabawki) bo sama logistyka naświetlania i wywoływania zdjęć się poprawiła. To była prawdziwa przełomowa innowacja, zmieniające zasady gry.

1888 rok – pierwszy aparat Kodakam, z rolką filmową zamiast szklanej tacki

Wraz z sukcesem aparatu na rolkę rozpoczyna się kaskada zmian: firma musi przygotować się na zwiększenie produkcji, co oznacza konieczność posiadania większej struktury sprzedażowej i logistycznej, większych nakładów na reklamę, możliwe, że dodatkowej fabryki, która wymaga zewnętrznego finansowania i tak dalej…

Rewolucja rolkowa się zaczyna

To jest początek krzywej “S” tego produktu. Następnie popularność rolki wzrastała – rynek zaczął się przekonywać do tej innowacji, pojawiało się coraz więcej profesjonalnych i amatorskich fotografów, którzy z kolei generowali coraz większe zapotrzebowanie na rolki fotograficzne, które Kodak zaspokajał zwiększając produkcję.

Umasowienie produktu (czyli przeskoczenie przepaści między Prekursorami a Wczesną Większością) spowodował subtelną transformację strukturalną Kodaka. Widząc coraz większy sukces rolki, oczy i mózgi wewnątrz organizacji zaczęły budować procesy, które czynnie i biernie wspierały kurę znoszącą złote jajka: szkolenia sprzedawców, długoterminowe kontrakty z dostawcami, dystrybutorami i innymi partnerami, umowy z inwestorami i kredytodawcami, budowy nowych linii produkcyjnych… Ta naturalna odpowiedź podaży na popyt stworzyła w Kodaku zupełnie nową sieć wartości (Value Network, więcej o tym za chwilę)

W 1935 roku Kodak poszedł krok dalej i zaprezentował rolkę fotograficzną 35mm, której unowocześnione wersję możemy spotkać do tej pory w sklepach na całym świecie. Ta rolka była mniejsza i przyjaźniejsza w użyciu – mieściła się w kieszeni spodni i pozwalała na robienie 36 zdjęć na jedną sztukę. Wyparła z rynku poprzednią rolkę stając się światowym standardem – ale nie była przełomową innowacją.

Dlaczego?

Bo w sumie nic się nie zmieniło poza unowocześnieniem tego samego produktu: rolka jest mniejsza i przyjaźniejsza, te same procesy służą do jej produkcji, te same maszyny i fabryki, sprzedawcy sprzedają w ten sam sposób. Rynek kupuje “to samo, tyle że lepsze”. Ten typ innowacji nazywamy  Sustaining Innovation (“innowacja podtrzymująca”).

Rolka fotograficzna przeszła więc przez krzywą “S” – jej początek to przedstawienie na rynku przełomowej innowacji elastycznej rolki, środek to proces ewolucyjnej, podtrzymującej innowacji. A to, jak wyglądał koniec dowiecie się niedługo.

Druga krzywa “S”

Teoria mówi, że prawdziwa przełomowa innowacja pojawia się w nieoczekiwanym miejscu i korzystając z odpowiedniego miksu warunków zewnętrznych (rynkowych) i wewnętrznych (organizacyjnych) zacznie wygrywać ze starymi, ustabilizowanymi, majętnymi graczami (którzy sami kiedyś byli innowatorami)

Dlaczego?

Dawny innowator wypierany przez nowego

Firma z produktem 1, który wygrał rynek i sprzedaje jego masowe ilości ma na sobie ciasny kaftan: użytkownicy przyzwyczaili się do jej oferty i nie chcą w nim radykalnych zmian (po co zmieniać coś co, działa?), z drugiej strony jednak liczą na to, że właściwości niefunkcjonalne bedą coraz lepsze (jeszcze lżejsze, jeszcze tańsze, jeszcze przyjaźniejsze itd). Firma, wbrew obiegowym opiniom, nigdy nie jest głucha na te słowa i robi co może, usprawniać swój produkt, nie niszcząc swoich procesów (zatrzymanie choć na chwilę fabryki produkującej masowo to ogromny koszt) . Robi to tworząc podtrzymujące innowacje zaspokajając coraz bardziej wymagające oczekiwania, daleko poza punkt w którym produkt jest “wystarczająco dobry”.

Wtedy jednak pojawia się konkurent, najpierw śmiesznie mały i godny zbagatelizowania. Z czasem jednak coraz szybszy i sprawniejszy – a gdy już przegoni starszego brata jest już dużo za późno żeby coś z tym zrobić. Cały ten dramat odbywa się w tym czerwonym kwadracie:

Dwie krzywe “S” w skali makro

Powiększmy go trochę i popatrzmy co tu się faktycznie dzieje:

Co się dzieje w “czerwonym kwadacie” – Dwie krzywe “S” w skali mikro

Dzięki doświadczeniu branżowemu i wielu cyklach produkcyjnych stary producent zbudował produkt, który jest dobry nawet dla najbardziej wymagających klientów. W tym samym czasie nowy producent wchodzi na rynek z czymś co jest gorsze technicznie i zaspokaja potrzeby o wiele mniejszego wycinka rynku.

Jednak brak ograniczeń widocznych u dużych przeciwników, mały przełomowy innowator może działać szybko i sprawnie – nie spowalniają go kwestie techniczne konkurencyjnych produktów, zalegające stany magazynowe, nie ma tak dużych zobowiązań i wewnętrznej konkurencji. Nowa firma dopiero “uczy się” czym jest jej produkt i czego chce konkretna mała grupa użytkowników. Bez tych ograniczeń może rosnąć dynamiczniej i zwiększać swój rynek znacznie szybciej niż stara konkurencja jest w stanie reagować. To wspaniały mechanizm rynkowego doboru naturalnego.

Sieć Wartości

Wróćmy więc do historii Kodaka. W 1975 roku Steven Sasson, inżynier w Kodaku, wynalazł pierwszy poręczny cyfrowy aparat fotograficzny. Był brzydki a rozdzielczość jego zdjęć (0.01 megapiksela) była katastrofalna, dając nieporównywalnie gorszy efekt od tych na papierze.

Related image
Pierwszy fotograficzny aparat cyfrowy

Miał jednak jedną zasadniczą przewagę: nie wymagał rolek (zapisywał dane na taśmie magnetofonowej).

Inżynier pokazał swój wynalazek swoim szefom myśląc, że trzyma w ręku przyszłość Kodaka, nazywając swój wynalazek “Film-less camera”. Co zrobili jego przełożeni? Zainwestowali w przełomową innowację czy zabili jego projekt?

Kodak kazał zamknąć pracę nad projektem i nigdy do niej nie wracać. Uznali aparat cyfrowy za, w najlepszym przypadku, stratę pieniędzy nad badaniami, a w najgorszym – strategiczne ryzyko.

Dlaczego?

Bo Kodak był firmą nastawioną na sprzedaż rolek filmowych – na to były zoptymalizowane wszystkie najważniejsze procesy, na to patrzyli szefowie, inwestorzy i reszta rynku oceniając progres spółki. Jeśli fotografia cyfrowa nie potrzebuje rolek to dlaczego Kodak ma inwestować w taką technologię?

Oczywiście obecnie błąd tego myślenia widać wyraźnie. Fotografia cyfrowa i tak się rozwinęła, niezależnie od starań Kodaka. Ale trzeba też zrozumieć motywację osób, które podjęły decyzje rezygnacji z tego projektu.

Wyobraźcie sobie, że jesteście dyrektorami w Kodaku w tamtym momencie. Kwartał za kwartałem stabilnie i przewidywalnie dostarczacie coraz lepsze wyniki, dostajecie coraz większe budżety do dyspozycji jako nagrodę za skuteczność. Każdy ma jasność co jest wartością biznesową i co warto robić: wsłuchiwać się w głos klienta i po trochu rozwijać produkt i dystrybucję aby nasycić rynek.

W pewnym momencie dowiadujecie się o jakimś małym projekcie, który zbudowany siłami jednego inżyniera redefiniuje to, w jaki sposób zaspokajana jest potrzeba, na którą do tej pory odpowiadały rolki fotograficzne. Cały biznes, który stał się częścią Waszego życia zawodowego, może okazać się niepotrzebny. Nawet jeśli jesteście w stanie zaryzykować i chcielibyście przestawić powolne koła wielkiej maszyny to co powiedzą Wasi szefowie? I szefowie Waszych szefów? Dlaczego mamy przestać inwestować w jasną i rozpoznaną drogę do zysków i w zamian za to przeznaczyć nawet małe środki w coś, co jest niejasne, nie wiemy jak działa i podkopuje przez tyle lat budowane fundamenty biznesowe? To przecież popsuje nasze wyniki kwartalne. Zdecydowalibyście się na taki karkołomny krok wiedząc jak dużo jest na szali?

Niemal nikt się nie decyduje.

To prawdziwy dramat w całej tej historii – nawet najlepsi menedżerowie w najefektywniejszych strukturach nie byli w stanie powstrzymać nieubłaganego walca przełomowej innowacji. Ta historia powtarza się ciągle, ale nawet widząc pierwsze sygnały nadchodzących kłopotów niewiele można zrobić – tak jak ze statkiem, który za wolno zmienia swój kolizyjny kurs. Tak duża jest siła Value Network, ludzkiego odpowiednika legacy code.

Sieć wartości jest głęboko zakorzeniona w kulturze firmy (czyli w tym co firma uznaje za istotne), w jej procesach (co optymalizuje), relacji z rynkiem (z kim podpisuje umowy), że niemal niemożliwa do wyeliminowania. Z tego samego powodu, dla którego Kodak nie patrzył łaskawie na fotografię cyfrową: zbyt dużo było do stracenia jeśli firma wyszła by ze swojej ścieżki najmniejszego oporu.

Każda firma buduje swoją sieć wartości, wraz z postępem krzywej “S” jej produktów. Nie oznacza to, że któreś konkretne sieci wartości są złe – po prostu mogą nie być dopasowane do zmieniającej się rzeczywistości.

Przypadek Blackberry 

Opisywałem poprzednio jak wygląda krzywa “S” i jaką moc ma Value Network w organizacji. Spójrzmy na jeszcze jeden przypadek: RIM, twórca smartfonów Blackberry.

RIM to kanadyjska spółka, która stworzyła nowy rodzaj telefonu komórkowego dla biznesu: z pełną klawiaturą i zbudowanym protokołem szyfrowania komunikacji. To były znaki rozpoznawcze tego produktu, a biznes go pokochał, bo po raz pierwszy można było napisać całego maila nie wyjmując laptopa.

BlackBerry 5810
Blackberry 5810 – pierwsza wersja z funkcją telefonu

Historia Blackberry, po całym cyklu krzywej “S”, jest zadziwiająco podobna do Kodaka. W pewnym momencie z zupełnie innego rynku pojawia się nieoczekiwany konkurent: Apple. Apple w 2007 roku prezentuje swój pierwszy telefon: iPhone. Steve Jobs ze sceny mówi jasno: fizyczna klawiatura zajmuje zbyt dużo miejsca – przyszłość należy do telefonów, które mają dotykowy wyświetlacz od brzegu do brzegu (fragment na ten temat zaczyna się w 5 minucie poniższego filmu, polecam jednak obejrzeć całość).

Steve równo w 5 minucie mówi o problemie fizycznych klawiatur

RIM zachował się tak jak przewiduje teoria przełomowej innowacji (zresztą jak każdy inny gracz na rynku – Nokia, Microsoft, Motorola czy Samsung): nie uznał, że iPhone stanowi zagrożenie, bo po pierwsze Apple nie ma doświadczenia w produkcji telefonów, ani kontaktów z telekomami a poza tym tworzy urządzenie dla prywatnych konsumentów, a nie biznesu.

Do tej pory to co było “smart” w smartfonach było definiowane przez biznes. Stąd sukces RIM i ich pełnowymiarowych klawiatur w smartfonach. Nikt nie widział potrzeby, aby taką kategoria urządzeń oferować segmentowi prywatnemu. Value Network RIMa był w zupełnie innym miejscu.

Nawet gdy Blackberry zauważyło, że iPhone rośnie coraz szybciej to bagatelizowało problem. iPhone okazał się ogromnym hitem. User Experience stał się tak ważnym elementem motywującym do kupna telefonu, że nawet użytkownicy biznesowi zaczęli przynosić do swoich biur prywatne iPhone’y żądając podłączenia do firmowej infrastruktury (tak upowszechnił się trend BYOD: Bring Your Own Device). Nagle użytkownicy końcowi zauważyli, że nie muszą się użerać z topornymi przydzielonymi przez dział IT urządzeniami. Użytkownicy biznesowi zaczęli oczekiwać telefonów równie przyjaznych jak ich prywatne. Punkt ciężkości na rynku przesunął się znacznie.

RIM trwało przy swoim podejściu: mamy własny rynek, mamy jasny wyróżnik: fizyczną klawiaturę, która jest po prostu lepsza od ekranowej (bo, na przykład, ma wyczuwalne przyciski i można na niej pisać bezwzrokowo). RIM jednak nie rozumiał, że klawiatura ekranowa w iPhone’ach była “wystarczająco dobra” do pisania a jednocześnie oferowała o wiele większą elastyczność, na przykład mogła się chować aby pokazać pełnowymiarową stronę internetową lub zdjęcie. 

RIM niechętnie podchodził do pracy nad wersją bez fizycznej klawiatury. Szybko rosnący udział iPhone’a i niedługo później Androida był stresujący, ale dopiero 4 lata po premierze młodszych konkurentów było widać realną zmianę rynkową. W tym czasie jednak Blackberry praktycznie stało w miejscu (ale mówiło, że słucha swoich klientów, którzy są zachwyceni fizyczną klawiaturą) a Apple i konsorcjum Android wspinało się coraz szybciej. Wreszcie, gdy otrzeźwienie przyszło, to było juz za późno. Projekty zmian był wewnętrznie sabotowane – z tych samych powodów co fotografia cyfrowa w Kodaku. Widzicie analogię do mojego wcześniejszego wykresu z czerwonym prostokątem?

I znów, zgodnie z teorią – Apple wygrało ten pojedynek.

Jak uciec spod walca?

Czy można uciec od tego nieubłaganego losu Kodaka, Blockbustera lub Blackberry?

Aby na to odpowiedzieć musimy najpierw przedyskutować dwie kwestie:

Pierwszy obrazek pokazuje tempo dyfuzji technologii na przykładzie USA przez ponad 100 ostatnich lat. To, co jest tutaj istotne, to że czas osiągnięcia poziomu 90%+ skraca się z każdą następną innowacją.

Nowe technologie bazują na starych: powstanie smartfona nie było możliwe bez powstania telefonu komórkowego. Powstanie telefonu komórkowego nie było możliwe bez telefonu a to bez telegrafu i tak dalej. Stare technologie tworzą grunt pod nowe – edukują użytkowników i budują infrastrukturę. Jaki z tego wniosek? Każda następna innowacja będzie adoptowana z coraz mniejszym oporem i stanie się kulturową oczywistością z coraz większym tempem. Zresztą – zobaczcie jak szybko naturalne stało się dla nas korzystanie ze smartfona i zapytajcie swoich rodziców o ich wrażenia z korzystania z telefonów stacjonarnych.

Drugi obrazek przedstawia koszmar każdego, kto chce budować trały biznes:

Wykres mówi nam jak długo żyje amerykańska firma w ramach S&P500, czyli 500 najwiekszych firm na amerykańskiej giełdzie. Ten czas fluktuuje, ale trend jest jasny: firmy żyją coraz krócej i krócej.

Łącząc ze sobą wnioski z obydwu wykresów można dojść do takiej konkluzji: firmy mają coraz mniej czasu, żeby udowodnić, że trzymają w ręku prawdziwą innowację a coraz więcej ryzyk, że konkurencja w ekspresowym tempie zdobędzie rynek nie zostawiając miejsca na dalszy rozwój.

Dlatego notujemy obecnie największy odsetek kapitału firm inwestowany w R&D. Firmy zrozumiały, że nawet jeśli tylko promil z tych prac obroni się na rynku to możliwe, że trafią na przypadek porównywalny do cyfrowego aparatu w Kodaku i tym razem nie przegapią tej okazji.

Trzecia krzywa “S”

Przejdźmy więc do zwycięzcy tego cyklu krzywej “S”. Apple zmiotło z rynku Blackberry i przy okazji Nokię (równie duże znaczenie miała też pojawienie się Androida i szybka ewolucja Samsunga, ale to historia na inny czas). Powstał rynek wysokomarżowych smartfonów łączących w sobie funkcje konsumenckie i biznesowe.

Pytanie brzmi: jeśli Apple zajął miejsce Blackberry, to kto będzie następnym Applem? Czyli, skąd przyjdzie następna krzywa “S”?

Oczywiście Apple chce, żeby następnym Applem był Apple. Tim Cook podsumował to najlepiej w 2013 roku:

Value Network tej firmy opiera się na założeniu, że Apple nie czeka aż ktoś go skanibalizuje, tylko chce zjeść samego siebie. Nie chce czekać, aż ktoś na nim wykona przełomowej innowacji. Ma tak zbudowane procesy, aby nie ograniczać swoich następnych produktów przez już istniejące na rynku.

Kilka historycznych przykładów:

  • iPhone posiada wszystkie funkcje iPoda Nano, najpopularniejszego odtwarzacza mp3 na świecie,
  • Pojawienie się iPada Pro z klawiaturą jasno uderzało w rynek Macbooków Air,
  • Obecnie Apple promuje Apple Watch z karta SIM i jasno mówi, że można z niego korzystać zostawiając swojego iPhone’a w domu.

W jaki sposób Apple uniknęło problemu wewnętrznej konkurencji? Przede wszystkim stosując inne metryki niż reszta firm. Tam gdzie Kodak liczył sprzedane rolki, a Blackberry sprzedane telefony, Apple liczy liczbę aktywnych użytkowników WSZYSTKICH swoich swoich urządzeń. Apple patrzy jak dużo nowych użytkowników może zdobyć i jak dużo zachować (artykuł na ten temat) i nie boi się zabić kurę znoszącą złote jajka jak tylko zobaczy potencjalne ryzyko przełomowej innowacji z nieoczekiwanej strony.

To jest pierwszy sposób na walkę z losem: być ciągle gotowym do ewolucji i umieć wyrzucać biznesowy balast gdy tylko się pojawi. Trzeba mieć do tego jednak odpowiednią kulturę organizacyjną, opartą na mierzeniu faktycznie trudnych rzeczy (satysfakcja użytkownika) zamiast powierzchownych “excelowych” faktów (sprzedaż).

Druga metoda jest jeszcze prostsza w teorii, ale jeszcze trudniejsza w implementacji: Ustabilizowany rynkowy gracz musi przede wszystkim zrozumieć cykl innowacji w którym się znajduje, następnie uświadomić sobie, że może być zniszczony przez nieoczekiwaną innowację a następnie konsolidować władzę nad każdym potencjalnym źródłem niebezpieczeństwa. Dzięki temu można zdecydować czy innowacja powinna być stłamszona w zarodku zanim dojdzie do dyfuzji technologii bądź dać wewnętrznie skanibalizować.

Nad żółtą linią źródła innowacji kupione przez Facebooka, pod żółtą linią te jeszcze nie kupione

Firmy takie jak Facebook rozumieją, że ostatecznym zasobem jest uwaga konsumentów. Ten, kto kontroluje interakcję z użytkownikiem jest w stanie przetrwać pojawienie się nieoczekiwanej innowacji, gdyż ta innowacja nie ma miejsca, aby zyskać pierwszych użytkowników a później przeskoczyć przez przepaść do umasowienia. Ale tutaj wchodzimy w temat Teorii Agregacji na którą przyjdzie jeszcze czas.