Buduję kurs zarządzania produktami cyfrowymi

Przez ostatnie lata przeprowadziłem kilkadziesiąt warsztatów – dla startupów, akceleratorów, uczelni a nawet dla kilku giełdowych i międzynarodowych korporacji. Każde z tych wydarzeń pomagało mi wyostrzyć argumenty i definicje, ale pozostawiało fizycznie i mentalnie wyczerpanego (jak to na introwertyka przystało).

Podczas zastanawiania się nad kontynuacją mojej książki (a raczej kryzysu związanego z jej powolnym powstawaniem) pomyślałem, że może problemem nie jest treść a forma. Bo albo pisałem bardzo długi tekst, albo siedziałem z mała grupą ludzi przez cały dzień w zamkniętym pokoju. Pierwsza forma jest bardzo statyczna, a druga nieskalowalna, bo mogłem być tylko w jednym pokoju naraz.

Tak powstał pomysł, aby zamiast kolejnej książki zrobić kurs online. Połączyłem kilka kropek, wykorzystałem posiadane już narzędzia  i zabrałem się za pierwsze eksperymenty.

Sama idea jest prosta. Wyobrażam sobie, że będzie to:

  • Baza wiedzy o zarządzaniu produktami technologicznymi,
  • Na bieżąco uzupełniania o nowe treści video, bez górnego limitu nagranych godzin kursu,
  • Luźna struktura połączonych ze sobą nagrań
  • Płatny dostęp w modelu abonamentowym, z niską miesięczną płatnością
  • W modelu “all you can eat”, bez ukrytych haczyków, z opcją wypisania się w dowolnym momencie,
  • Na mojej własnej platformie i własnych zasadach, aby nie ścigać się na kliki, gwiazdki i promocje.

To jest dla mnie eksperyment, więc ciężko powiedzieć jak przyjmie się na rynku. Tym bardziej, że to pierwsze moje komercyjne podejście do treści video (i w sumie niekomercyjne też…). Treści nie są też z góry zamknięte – będę na bieżąco nagrywał kolejne odcinki (mam zaplanowane już teraz ok 50 – co przekłada się na 10h video). Nie wiem jeszcze jak długie powinny być, ale zakładam, że optymalny czas to 10-15 minut na odcinek. 

A tutaj testowe nagranie (tak wstydzę się go, ale kiedyś trzeba postawić pierwszy krok!):

Jeśli się nie wyświetla to tutaj ten sam film na dropbox (trzeba ściągnąć na swój dysk żeby mieć dźwięk)

Postanowiłem zastosować model miesięcznej niskiej opłaty dostępowej zamiast pełnej kwoty z góry gdyż zakładam, że ta treść będzie ciągle żyła – wraz z doświadczeniem w boju poprawi się jakość nagrań oraz pojawią się nowe odcinki.

Więc płatności od uczestników będą dla mnie sygnałem, że wierzą i wspierają to co robię, a dla mnie metodą walidacji MVP. A jeśli nie to i kurs da się szybko zwinąć i schować do kieszeni.

Jeśli to co czytasz brzmi dla Ciebie ciekawie to możesz teraz wykonać jedną (lub wszystkie) z tych rzeczy:

1. Zapisać się na mailing listę (poniżej) tego bloga, aby załapać się na bycie pierwszym betatesterem,

2. Spojrzeć na listę tematów, które już teraz mam przygotowane i zasugerować nowe,

3. Uzupełnić ankietę, która pomoże mi lepiej zrozumieć rynek przed którym stoję

Uprzedzając pytania: nie mam pojęcia kiedy kurs wystartuje – przede mną jeszcze sporo decyzji technicznych i logistycznych (formaty, płatności, scenariusze, rozliczenia itd). Dopiero uczę się jak to wszystko robić więc będę wdzięczny za pomocną dłoń wszystkim, którzy mieli praktyczne doświadczenie z edukacją online, jakością dźwięku i obrazu, marketingiem i pricingiem takich usług.

Myślicie, że ten pomysł na ręce i nogi?

Teoria Agregacji

Ten artykuł to kontynuacja wpisu Natura Przełomowej Innowacji. Jeśli jesteś tutaj po raz pierwszy rekomenduje zacząć lekturę od tamtego artykułu.

Teoria Przełomowej Innowacji ma jedną zasadniczą wadę: powstała w 1995 roku, ponad 20 lat temu. 

To były czasy w którym Internet nie był jeszcze społeczną normą. Fala wznosząca już istniała, ale tylko mały procent ludzi wiedział, czym tak naprawdę Internet jest: 

Clayton Christiensen tworząc swoją teorię opierał się na danych o gospodarce “fizycznej” – nie istniał jeszcze rynek muzyki, filmów i seriali online, nie istniały gry MMORPG, płatności online, Bitcoin czy wirtualne przedmioty, ani piractwo internetowe.

Co to faktycznie zmienia? Okazuje się, że dotychczasowe podejście do opisywania dynamiki rynku oparte na teorii przełomowej innowacji, przestaje pasować do pewnej grupy podmiotów, które bardzo szybko zadomowiły się na liście najszybciej rosnących i największych społek na świecie (takie jak FAANG: Facebook, Apple, Amazon, Netflix i Google). Okazuje się, że w niektórych przypadkach teoria Christiensena zawodzi – np. według jej założeń iPod i iPhone nie powinny być aż tak wielkimi sukcesami.

Clayton Christiensen podzielił swoją teorię na dwie części:

  1. “New Market Disruption”
  2. “Low End Disruption”

Pierwsza mówi o tym, że nowe firmy, nie mając sieci wartości ustabilizowanych organizacji, są w stanie zignorować standardy rynkowe i zbudować technologie istotne dla segmentów rynkowych, które nie są zauważane przez najwiekszych graczy. Na tej definicji skupia się mój poprzedni artykuł.

Druga część teorii mówi o tym, że na nowym rynku produkt, który jest “zintegrowany” początkowo wygrywa. Z czasem gdy rynek się stabilizuje powstają standardy i wariacja między produktami maleje. Części produktu się komodytyzują (“modularyzują”) i przewagę na rynku zyskuje podmiot, który oferuje najtańszy “wystarczająco dobry” produkt.

To wszystko było prawdą jeśli analizujemy początkowe elementy łańcucha wartości. Jeśli jednak weźmiemy pod uwagę zmiany biznesowe spowodowane przez Internet to zasady gry się zmieniają. 

Ten problem próbuje rozwiązać nowa teoria, która w mojej ocenie stanowi bardzo dobre uzupełnienie pracy Christensena: Teoria Agregacji.

Ale żeby zrozumieć jej założenia musimy zacząć, jak zwykle, od początku.

Łańcuch wartości

Efektywność każdego przedsiębiorstwa można oceniać w trzech domenach: 

  • skuteczność w pozyskiwaniu surowców
  • sprawność produkcyjna/świadczenia usługi
  • efektywność dystrybucji produktu/usługi

Te trzy elementy tworzą tzw. łańcuch wartości (to moje bardzo duże uproszczenie oryginalnej idei Michela Portera). “Łańcuch”, bo każdy z elementów jest ściśle powiązany z sąsiadami, a “wartości” z każdym następnym krokiem “obrabiania produktu” wartość dla użytkownika (i marża producenta) wzrasta.

Weźmy jako przykład maszynkę do golenia: użytkownik ma niewielką wartość z kawałka plastyku i metalu (surowce) zanim nie stanie się maszynką do golenia. Samo stworzenie maszynki do golenia (produkcja) jeszcze niewiele daje jeśli ta maszynka nie będzie łatwo dostępna do kupienia i wykorzystania (dystrybucja).

Uproszczony łańcuch wartości

Każdy następny krok wnosi większą wartość także ze względu na coraz większą złożoność procesu (który trzeba rozumieć i optymalizować jeśli chce się oferować maszynki do golenia).

Gospodarka analogowa

Przed rewolucją industrialną to, co nazywamy “gospodarką” opierało się głównie na zdobywaniu zasobów, a więc na pierwszym etapie łańcucha wartości. To był najpoważniejszy problem do rozwiązania – kto kontrolował zasoby kontrolował rynek. To jest dalej prawdą w niektórych sektorach (ropa naftowa, diamenty, metale ziem rzadkich), ale im gospodarka jest bardziej rozwinięta tym znaczenie sektora wydobywczego maleje w udziale PKB kraju i regionu.

Surowce naturalne mają jednak to do siebie, że są jednolite: baryłki ropy z Wenezueli, Arabii Saudyjskiej i Rosji są względnie podobne, tam samo jak buszel owsa w Kanadzie czy Australii. Dzięki tej standaryzacji można nimi swobodnie handlować na masową skalę. Ten proces standaryzacji nazywa się komodytyzacją.

Inny efekt komodytyzacji spowodował, że surowiec stał się “anonimowy” – dostawca, które je przywozi do naszej fabryki może być wymieniony w dowolnym momencie na innego i użytkownik końcowy tego nie zauważy. 

W związku z tym “wąskie gardło” zaczęło przesuwać się w dół łańcucha wartości. Teraz najpoważniejszy problem do rozwiązania to skuteczna produkcja. 

To moment, w którym zaczęły pojawiać się pierwsze eksperymenty związane z masową produkcją i ogromny zmianami społecznymi spowodowanymi industrializacją. Rosnąca konsumpcja powodowała zwiększający się popyt, ten wymagał coraz lepszych metod produkcji, to wymagało zwiększenia zatrudnienia co zwiększało dobrobyt społeczeństwa co zwiększało popyt. 

Ten kto potrafił najwięcej i najlepiej (czyli z najmniejszą liczbą defektów) produkować ten wygrywał na rynku. Zaczynają się pierwsze eksperymenty z zarządzaniem opartym na nauce, taśma produkcyjna Forda, harmonogram (którego twórcą był polski teoretyk zarządzania – Karol Adamiecki).

Wiedza o optymalizacji produkcji rozpowszechniała się szybko, innowacje Forda szybko zostały podłapane przez amerykańskich i zagranicznych konkurentów. Dysproporcje w szybkości produkcji wyrównywały się coraz szybciej – a więc coraz trudniej było zdobywać przewagę rynkową na tym polu. Czas na następny etap walki: dystrybucję.

Wraz z upowszechnieniem się konsumpcyjnego stylu życia zbudowały się nowe zwyczaje i rutyny. Zaczęły się pojawiać domy handlowe i specjalistyczne sklepy. Ludzie zaczynają mieć swoje ulubione marki – tzn. zauważyli, że mydło nie jest równe mydłu, nawet jeśli ma taki sam skład i wagę. Reklama i marketing stają się dominującymi siłami rynkowymi, gdy okazało się jak łatwo jest ludźmi manipulować stosując metody znane z propagandy wojennej.

Jednak nic z tych rzeczy nie ma znaczenia, jeśli mojego ulubionego mydła nie ma sklepie, w którym robię zakupy. Najważniejszy problem do rozwiązania to spowodować, żeby to, co produkuje było łatwo dostępne tam, gdzie są moi klienci.

Właściciele sieci sklepowych doskonale zdawali (i zdają!) sobie z tego sprawę i traktują takie pozycjonowanie jako kartę przetargową. Wiedzą, że są wąskim gardłem w całym procesie i korzystają strategicznie ze swojej pozycji. Jednocześnie coraz mocniej zaczynają zdawać sobie sprawę, że bez dostawców ich półki będą puste. 

Integracja i Modularyzacja

Jednym z fragmentów Teorii Przełomowej Innowacji, który opuściłem ostatnio, aby za bardzo nie komplikować sprawy był cykl integracji i modularyzacji rynkowej. Czas to nadrobić bo to konieczny element, aby zrozumieć gdzie Teoria Przełomowej Innowacji zaczyna się kłócić z nową rzeczywistością.

Przy opisywaniu łańcucha wartości użyłem słowa “komodytyzacja” definiując sytuację, gdy surowce potrzebne do wytworzenia produktu standaryzują się – nieważne w którym miejscu kuli ziemskiej zapytacie stal eutektoidalna będzie wyglądać, działać i kosztować w miarę podobnie – i każdy będzie rozumiał i oczekiwał tego samego.

Okazuje się, że nie tylko surowce się komodytyzują. Wraz z rozwojem gospodarki i rynków komodytyzują się także półprodukty – na przykład żyletki używane w maszynkach do golenia, ale także ekrany, procesory i baterie wykorzystywane w Waszych smartfonach czy klocki hamulcowe w Waszych samochodach.

Rynkowa dostępność podzespołów powoduje, że można, na przykład, zbudować smartfona z części dostępnych na półce z sklepie i będzie on działał wystarczająco dobrze. 

Odwrotnym procesem jest integracja. Gdy rynek jeszcze nie jest wystarczająco dorosły brakuje na nim dostawców podzespołów a więc jeśli chcesz wyprodukować zupełnie nowy produkt na zupełnie nowym rynku to Twoja fabryka musi tworzyć wszystkie części od zera. Z racji tego, że produkujesz tylko dla siebie to Twoje podzespoły są dostosowane tylko do Twoich potrzeb, wiec Twój finalny produkt jest wewnętrznie zintegrowany.

Gracze rynkowi są zamknięci w cyklu ciągłej walki między tym kto kogo zmodularyzuje i kto będzie miał wystarczająco dużo zasobów, żeby się zintegrować.

W swojej ostatniej książce “Prosperity Paradox” Christensen opisuje mnóstwo przypadków firm, które integrują się z górę i w dół, aby zagwarantować sobie zbyt na zupełnie nowym rynku. Jednym z najlepszych przykładów jest Celtel – pierwszy pan-afrykański dostawca telefonii komórkowej. Aby osiągnąć sukces Celtel sam musiał stawiać swoje maszty nadawcze, co często wiązało się z budowaniem własnych dróg i wewnętrznej organizacji do naprawy infrastruktury. To jest integracja w “dół”, czyli obejmowanie w swoją kontrolę wcześniejsze etapy łańcucha wartości.

Jest też integracja w górę. Na przykład gdy producent stwierdza, że nie chce być na łasce dystrybutorów i sam buduje swój sklep: jak Apple i ich własna sieć sklepów Apple Store.

Patrząc z drugiej strony: niektóre sieci sklepów inwestują w swoje własne marki dostępne na ich półkach (w Biedronce i Lidlu to już odpowiednio 14% i 15% wszystkich produktów) – to jest przykład na integrację w dół.

Modularyzacja i integracja walczyły ze sobą na rynku w niezmienny sposób aż do momentu pojawienia się Internetu i początku gospodarki cyfrowej.

Gospodarka cyfrowa

To, co stopniowo zaczęło się zmieniać po 1995 to wewnętrzna dynamika łańcucha wartości. Po pierwsze Internet spowodował, że krańcowy koszt dystrybucji produktów zaczął gwałtownie spadać (do zera w przypadku produktów łatwych do zdigitalizowania jak muzyka i tekst). Poza tym Internet spowodował, że koszty transakcyjne także spadają do zera, co pozwala producentom integrować się dalej w łańcuchu wartości (np. dając producentom bezpośredni dostęp do klientów z pominięciem dystrybutorów – jak pisarze, którzy publikują online bez konieczności posiadania wydawcy, czy muzycy bez wytwórni).

Przewaga strategiczna zaczyna znów się przesuwać. Dystrybutorzy przestają walczyć przede wszystkim o uwagę dostawców a zaczynają dostrzegać użytkowników końcowych. Najważniejszym problem do rozwiązania jest zbudowanie lojalności, a więc powracalności klientów. 

Dochodzi czwarty element układanki


Na rynku pojawia się nowy typ dystrybutora – Agregator. To podmiot, który na fali zmian zaczyna wykorzystywać technologię aby wcisnąć się miedzy konsumenta a dystrybutora, stając się dystrybutorem dystrybutorów.

Dlaczego to mu się udaje? Bo oferuje swoim użytkownikom ogromną wartość – większy wybór, szersze porównanie oferty z wielu źródeł, wygodniejszą i szybszą konsumpcję, eliminację zbędnych elementów oferty i lepsze dopasowanie.

Szybko okazało się, że agregator posiada obecnie najmocniejszy arsenał jaki można mieć na rynku: uwagę konsumenta. Uwaga to najważniejszy surowiec jakim handlujemy (a przynajmniej dopóki ludzie są dominującą siłą na rynku). Dzięki temu agregator wpycha się między użytkownika a wcześniejsze stadia łańcucha wartości i efektywnie modularyzuje to, co do tej pory modularyzacji się opierało.

Weźmy za przykład sieć społecznościową taką jak Facebook. Co agreguje Facebook? Znajomości między ludźmi, między innymi. Im więcej ma użytkowników tym ma lepszy user experience, gdyż nikt nie czuje się w środku samotny (“moi znajomi już tu są”). To, opierając się na czystej psychologii, powoduje, że częściej na Fejsa zaglądamy, bo chcemy wiedzieć co ciekawego dzieje się w naszym otoczeniu. Skoro już tam jesteśmy to inne mechanizmy psychologiczne (m.in. virtue signaling) powodują, że produkujemy treści, które konsumują nasi inni znajomi, napędzając spiralę niesamowitego wzrostu tej firmy. Zauważcie że jest tutaj jeszcze jedna, mniej widoczna przewaga: Facebook otrzymuje treści za darmo, generowane przez swoich użytkowników ORAZ jest ich ekskluzywnym dostawcą.

Analogowa gazeta jest wydawana w zintegrowanym pakiecie – kupując egzemplarz dostawało się dział wiadomości, ekonomiczny, sportowy, ogłoszeniowy – niezależnie od tego, która część Cię akurat interesowała zawsze trzeba było zapłacić taką samą kwotę. Pojawił się Internet i wraz z nim pierwsze próby przeniesienia treści gazetowych w sieć. Te treści, dzięki wynalezieniu linków zaczęły być między sobą linkowane, z czego skorzystały katalogi linków – protoplaści obecnych portali internetowych. Na bazie tych danych zaczęły powstawać wyszukiwarki, wśród których niepodzielnym liderem dzięki swojemu algorytmowi jest obecnie Google. Google zmodularyzował treści gazet, gdyż doprowadził do sytuacji, w której ochota na przeczytanie jednego artykułu nie wiąże się już z koniecznością kupienia całej gazety. Gazeta została zmodularyzowana na pojedyncze artykuły

W ten sam sposób Apple iTunes wprowadził modę na słuchanie pojedynczych utworów zamiast całych płyt. W iTunes nie trzeba kupować całego albumu ulubionego artysty – można było pojedyncze utwory.

iTaxi z kolei zagregowało korporacje taksówkarskie, powodując, że istotne stało się gdzie jest najbliższa taksówka, a nie to z jakiej jest korporacji.

Pizzaportal zagregowała restauracje, dając większy wybór na wskroś wszystkich menu, modularyzując je. Dodanie do tego własnych dostaw pozwoliłoby na zintegrowanie w górę.

Możecie się w tym momencie zapytać: ok, ale co ma wspólnego agregator i Apple? Czy Apple jest agregatorem?

Teoria Agregacji zaczęła się od udowodnienia, że pewien rodzaj przełomowej innowacji nie działa w każdym przypadku – na przykład przy okazji Apple. To oznacza, że jest jakiś inny czynnik, który powoduje, że Apple utrzymuje się na powierzchni mimo przepowiedni Christensena.

Tak się akurat składa, ze zarówno agregatorzy jak i pionowo zintegrowany Apple, mimo zasadniczych różnic mają jedną cechę wspólną: strategię nastawioną na maksymalizację User Experience.

Era User Experience

To, co obserwujemy od ostatnich kilkunastu lat to samonapędzający się mechanizm:

Christensen przestrzegał, aby nie ufać za mocno temu co mówią klienci, bo oni zawsze będą chcieli więcej i lepiej z tego, co już znają – co spowoduje, że produkt będzie komplikował się i poprawiał szybciej niż rynek tego faktycznie potrzebuje. Tymczasem Teoria Agregacji przewiduje że nowi giganci rynku wyrośli (i wyrastają) na zrozumieniu, że:

  • przewaga biznesowa polega na budowaniu jak najlepszego doświadczenia interakcji z produktem,
  • użytkownicy są w stanie zapłacić więcej za lepsze doświadczenie

Naczelny wniosek Teorii Agregacji zakłada, że ten, kto ma lepszy UX wygrywa walkę o rynek, gdyż to, co jest najważniejsze to nie jest cena produktu, a doświadczenie jakie daje na interakcja z zakupionym produktem. Stało się to szczególnie istotne, gdy faktycznymi klientami technologii stali się klienci prywatni a nie biznesowi. Tym drugim bardziej zależy na racjonalnej i policzalnej efektywności biznesowej a nie trudnych efemerycznym uczuciu spełnienia i obcowania z piękną formą. W ten sposób możemy wyjaśnić niesłabnąca popularność i efektywność rynkowa iPhone’a – mimo tego, że ten produkt Apple jest zintegrowany i walczy na zmodularyzowanym rynku. 

Kiedyś, przed Internetem, gdy największymi problemami było zdobycie surowców, masowa produkcja bądź dystrybucja, doświadczenie było jedynie efektem ubocznym. Wraz ze zwiększaniem się świadomości konsumenckiej i działań marketingowych produkt przestawał być produktem. Lub patrząc inaczej: to co nazywamy produktem jest definiowane przez to jak użytkownik czuje się korzystając z tego produktu.

Najciekawsze jest to, że ze względu na swoją biologię i psychologię nigdy nie będziemy w pełni usatysfakcjonowani, nasz apetyt będzie rósł w miarę jedzenia.

Więc jeśli zastanawiacie się skąd pojawiło się tak ogromne ssanie na specjalistów od UX to jest właśnie powód: weszli w erę User Experience. Erę definiowaną przez wyścig zbrojeń nad kontrolą ostatniego niezmodularyzowanego element łańcucha wartości: interakcję konsumenta z produktem.

Natura przełomowej innowacji

Ten artykuł powstał na podstawie mojego wykładu “Wstęp do innowacji” prezentowanego 25.11.2018 podczas studiów Innovation and Technology Project Management na Collegium Civitas


Czym jest innowacja? To nowa metoda, idea, produkt. Pojemna definicja – na tyle szeroka, że można nią szastać na lewo i prawo, nazywając każdą ładną rzecz i sprytne zastosowanie innowacją.

Jest też pojęcie Disruptive Innovation (“przełomowa innowacja”), które ma dokładną i konkretną definicję, a mimo to także używane jest jako frazes, a co gorsza, zamiennie z powyższym.

Chciałbym więc przeprowadzić Was przez fascynującą teorię Disruptive Innovation Claytona Christiensena i pokazać co naprawdę oznacza przełomowa innowacja i dlaczego powinna być podstawą przy strategicznym myśleniu o produktach technologicznych.

Teoria dyfuzji technologii

Teoria dyfuzji technologii mówi nam, że gdy na rynku pojawia się nowy produkt to reakcje ludzi można podzielić na pięć kategorii i korespondujących im worków:

  • Innowatorzy – mała procentowo grupa ludzi, którzy muszą od razu przetestować każdą nowinkę, nawet jeśli jest niedopracowana,
  • Prekursorzy –  trendsetterzy, którzy szybko adoptują nowe rozwiązania, aby podnieść swój status społeczny – mają wysoki poziom zaufania u innych grup,
  • Wczesna Większość – jeśli ta grupa zaczyna korzystać z technologii to znaczy, że stała się umasowiona i weszła do świadomości społecznej (przekroczyła tzw. “przepaść” z książki Geoffreya Moore’a),
  • Późna Większość – tak jak wczesna większość, ale mniej chętna zmianom w swoim życiu, 
  • Maruderzy – ostatnia grupa, najbardziej konserwatywna i nieufna rynkowi i technologiom
Rozkład normalny typów uczestników rynku

Jeśli zmodyfikujemy ten wykres tak, aby pokazywał popularność (lub efektywność) w czasie to zamiast rozkładu normalnego pojawi się charakterystyczna krzywa (żółta linia):

Taką krzywą nazywamy krzywą “S”. Jest to jedno z kilku podstawowych elementów potrzebnych do zrozumienia teorii przełomowej innowacji.

Pierwsza krzywa “S”

Co pokazuje krzywa “S”? Prześledźmy ją na bazie życia produktu. Gdy produkt debiutuje to zbiera inicjalną grupę użytkowników. Producent otrzymuje od użytkowników i rynku informacje czy i na ile produkt jest dobry i jakich poprawek jeszcze wymaga. Dzięki temu zaczyna się wspinać w kategorii jakości (lepsze materiały, lepszy proces produkcyjny) i popularności (lepiej odpowiada na potrzeby, poszerza grupę odbiorców). Produkt mocniej nasyca rynek i coraz lepiej realizuje potrzebę użytkowników aż do momentu osiągnięcia szczytu popularności

Rozpatrzmy przypadek firmy Kodak. W 1888 roku Kodak stworzył rewolucyjną innowację: rolkę fotograficzną, która zastąpiła szklaną płytę. Dzięki temu stały się dwie rzeczy. Po pierwsze profesjonalni fotografowie mogli robić zdjęcia szybciej i wygodniej mimo tego, że rolka miała gorsze parametry w stosunku do standardowych płyt do dagerotypów. Po drugie dzięki rolce aparaty fotograficzne stawały się użyteczniejsze także dla amatorów (którzy mieli dużo pieniędzy na takie zabawki) bo sama logistyka naświetlania i wywoływania zdjęć się poprawiła. To była prawdziwa przełomowa innowacja, zmieniające zasady gry.

1888 rok – pierwszy aparat Kodakam, z rolką filmową zamiast szklanej tacki

Wraz z sukcesem aparatu na rolkę rozpoczyna się kaskada zmian: firma musi przygotować się na zwiększenie produkcji, co oznacza konieczność posiadania większej struktury sprzedażowej i logistycznej, większych nakładów na reklamę, możliwe, że dodatkowej fabryki, która wymaga zewnętrznego finansowania i tak dalej…

Rewolucja rolkowa się zaczyna

To jest początek krzywej “S” tego produktu. Następnie popularność rolki wzrastała – rynek zaczął się przekonywać do tej innowacji, pojawiało się coraz więcej profesjonalnych i amatorskich fotografów, którzy z kolei generowali coraz większe zapotrzebowanie na rolki fotograficzne, które Kodak zaspokajał zwiększając produkcję.

Umasowienie produktu (czyli przeskoczenie przepaści między Prekursorami a Wczesną Większością) spowodował subtelną transformację strukturalną Kodaka. Widząc coraz większy sukces rolki, oczy i mózgi wewnątrz organizacji zaczęły budować procesy, które czynnie i biernie wspierały kurę znoszącą złote jajka: szkolenia sprzedawców, długoterminowe kontrakty z dostawcami, dystrybutorami i innymi partnerami, umowy z inwestorami i kredytodawcami, budowy nowych linii produkcyjnych… Ta naturalna odpowiedź podaży na popyt stworzyła w Kodaku zupełnie nową sieć wartości (Value Network, więcej o tym za chwilę)

W 1935 roku Kodak poszedł krok dalej i zaprezentował rolkę fotograficzną 35mm, której unowocześnione wersję możemy spotkać do tej pory w sklepach na całym świecie. Ta rolka była mniejsza i przyjaźniejsza w użyciu – mieściła się w kieszeni spodni i pozwalała na robienie 36 zdjęć na jedną sztukę. Wyparła z rynku poprzednią rolkę stając się światowym standardem – ale nie była przełomową innowacją.

Dlaczego?

Bo w sumie nic się nie zmieniło poza unowocześnieniem tego samego produktu: rolka jest mniejsza i przyjaźniejsza, te same procesy służą do jej produkcji, te same maszyny i fabryki, sprzedawcy sprzedają w ten sam sposób. Rynek kupuje “to samo, tyle że lepsze”. Ten typ innowacji nazywamy  Sustaining Innovation (“innowacja podtrzymująca”).

Rolka fotograficzna przeszła więc przez krzywą “S” – jej początek to przedstawienie na rynku przełomowej innowacji elastycznej rolki, środek to proces ewolucyjnej, podtrzymującej innowacji. A to, jak wyglądał koniec dowiecie się niedługo.

Druga krzywa “S”

Teoria mówi, że prawdziwa przełomowa innowacja pojawia się w nieoczekiwanym miejscu i korzystając z odpowiedniego miksu warunków zewnętrznych (rynkowych) i wewnętrznych (organizacyjnych) zacznie wygrywać ze starymi, ustabilizowanymi, majętnymi graczami (którzy sami kiedyś byli innowatorami)

Dlaczego?

Dawny innowator wypierany przez nowego

Firma z produktem 1, który wygrał rynek i sprzedaje jego masowe ilości ma na sobie ciasny kaftan: użytkownicy przyzwyczaili się do jej oferty i nie chcą w nim radykalnych zmian (po co zmieniać coś co, działa?), z drugiej strony jednak liczą na to, że właściwości niefunkcjonalne bedą coraz lepsze (jeszcze lżejsze, jeszcze tańsze, jeszcze przyjaźniejsze itd). Firma, wbrew obiegowym opiniom, nigdy nie jest głucha na te słowa i robi co może, usprawniać swój produkt, nie niszcząc swoich procesów (zatrzymanie choć na chwilę fabryki produkującej masowo to ogromny koszt) . Robi to tworząc podtrzymujące innowacje zaspokajając coraz bardziej wymagające oczekiwania, daleko poza punkt w którym produkt jest “wystarczająco dobry”.

Wtedy jednak pojawia się konkurent, najpierw śmiesznie mały i godny zbagatelizowania. Z czasem jednak coraz szybszy i sprawniejszy – a gdy już przegoni starszego brata jest już dużo za późno żeby coś z tym zrobić. Cały ten dramat odbywa się w tym czerwonym kwadracie:

Dwie krzywe “S” w skali makro

Powiększmy go trochę i popatrzmy co tu się faktycznie dzieje:

Co się dzieje w “czerwonym kwadacie” – Dwie krzywe “S” w skali mikro

Dzięki doświadczeniu branżowemu i wielu cyklach produkcyjnych stary producent zbudował produkt, który jest dobry nawet dla najbardziej wymagających klientów. W tym samym czasie nowy producent wchodzi na rynek z czymś co jest gorsze technicznie i zaspokaja potrzeby o wiele mniejszego wycinka rynku.

Jednak brak ograniczeń widocznych u dużych przeciwników, mały przełomowy innowator może działać szybko i sprawnie – nie spowalniają go kwestie techniczne konkurencyjnych produktów, zalegające stany magazynowe, nie ma tak dużych zobowiązań i wewnętrznej konkurencji. Nowa firma dopiero “uczy się” czym jest jej produkt i czego chce konkretna mała grupa użytkowników. Bez tych ograniczeń może rosnąć dynamiczniej i zwiększać swój rynek znacznie szybciej niż stara konkurencja jest w stanie reagować. To wspaniały mechanizm rynkowego doboru naturalnego.

Sieć Wartości

Wróćmy więc do historii Kodaka. W 1975 roku Steven Sasson, inżynier w Kodaku, wynalazł pierwszy poręczny cyfrowy aparat fotograficzny. Był brzydki a rozdzielczość jego zdjęć (0.01 megapiksela) była katastrofalna, dając nieporównywalnie gorszy efekt od tych na papierze.

Related image
Pierwszy fotograficzny aparat cyfrowy

Miał jednak jedną zasadniczą przewagę: nie wymagał rolek (zapisywał dane na taśmie magnetofonowej).

Inżynier pokazał swój wynalazek swoim szefom myśląc, że trzyma w ręku przyszłość Kodaka, nazywając swój wynalazek “Film-less camera”. Co zrobili jego przełożeni? Zainwestowali w przełomową innowację czy zabili jego projekt?

Kodak kazał zamknąć pracę nad projektem i nigdy do niej nie wracać. Uznali aparat cyfrowy za, w najlepszym przypadku, stratę pieniędzy nad badaniami, a w najgorszym – strategiczne ryzyko.

Dlaczego?

Bo Kodak był firmą nastawioną na sprzedaż rolek filmowych – na to były zoptymalizowane wszystkie najważniejsze procesy, na to patrzyli szefowie, inwestorzy i reszta rynku oceniając progres spółki. Jeśli fotografia cyfrowa nie potrzebuje rolek to dlaczego Kodak ma inwestować w taką technologię?

Oczywiście obecnie błąd tego myślenia widać wyraźnie. Fotografia cyfrowa i tak się rozwinęła, niezależnie od starań Kodaka. Ale trzeba też zrozumieć motywację osób, które podjęły decyzje rezygnacji z tego projektu.

Wyobraźcie sobie, że jesteście dyrektorami w Kodaku w tamtym momencie. Kwartał za kwartałem stabilnie i przewidywalnie dostarczacie coraz lepsze wyniki, dostajecie coraz większe budżety do dyspozycji jako nagrodę za skuteczność. Każdy ma jasność co jest wartością biznesową i co warto robić: wsłuchiwać się w głos klienta i po trochu rozwijać produkt i dystrybucję aby nasycić rynek.

W pewnym momencie dowiadujecie się o jakimś małym projekcie, który zbudowany siłami jednego inżyniera redefiniuje to, w jaki sposób zaspokajana jest potrzeba, na którą do tej pory odpowiadały rolki fotograficzne. Cały biznes, który stał się częścią Waszego życia zawodowego, może okazać się niepotrzebny. Nawet jeśli jesteście w stanie zaryzykować i chcielibyście przestawić powolne koła wielkiej maszyny to co powiedzą Wasi szefowie? I szefowie Waszych szefów? Dlaczego mamy przestać inwestować w jasną i rozpoznaną drogę do zysków i w zamian za to przeznaczyć nawet małe środki w coś, co jest niejasne, nie wiemy jak działa i podkopuje przez tyle lat budowane fundamenty biznesowe? To przecież popsuje nasze wyniki kwartalne. Zdecydowalibyście się na taki karkołomny krok wiedząc jak dużo jest na szali?

Niemal nikt się nie decyduje.

To prawdziwy dramat w całej tej historii – nawet najlepsi menedżerowie w najefektywniejszych strukturach nie byli w stanie powstrzymać nieubłaganego walca przełomowej innowacji. Ta historia powtarza się ciągle, ale nawet widząc pierwsze sygnały nadchodzących kłopotów niewiele można zrobić – tak jak ze statkiem, który za wolno zmienia swój kolizyjny kurs. Tak duża jest siła Value Network, ludzkiego odpowiednika legacy code.

Sieć wartości jest głęboko zakorzeniona w kulturze firmy (czyli w tym co firma uznaje za istotne), w jej procesach (co optymalizuje), relacji z rynkiem (z kim podpisuje umowy), że niemal niemożliwa do wyeliminowania. Z tego samego powodu, dla którego Kodak nie patrzył łaskawie na fotografię cyfrową: zbyt dużo było do stracenia jeśli firma wyszła by ze swojej ścieżki najmniejszego oporu.

Każda firma buduje swoją sieć wartości, wraz z postępem krzywej “S” jej produktów. Nie oznacza to, że któreś konkretne sieci wartości są złe – po prostu mogą nie być dopasowane do zmieniającej się rzeczywistości.

Przypadek Blackberry 

Opisywałem poprzednio jak wygląda krzywa “S” i jaką moc ma Value Network w organizacji. Spójrzmy na jeszcze jeden przypadek: RIM, twórca smartfonów Blackberry.

RIM to kanadyjska spółka, która stworzyła nowy rodzaj telefonu komórkowego dla biznesu: z pełną klawiaturą i zbudowanym protokołem szyfrowania komunikacji. To były znaki rozpoznawcze tego produktu, a biznes go pokochał, bo po raz pierwszy można było napisać całego maila nie wyjmując laptopa.

BlackBerry 5810
Blackberry 5810 – pierwsza wersja z funkcją telefonu

Historia Blackberry, po całym cyklu krzywej “S”, jest zadziwiająco podobna do Kodaka. W pewnym momencie z zupełnie innego rynku pojawia się nieoczekiwany konkurent: Apple. Apple w 2007 roku prezentuje swój pierwszy telefon: iPhone. Steve Jobs ze sceny mówi jasno: fizyczna klawiatura zajmuje zbyt dużo miejsca – przyszłość należy do telefonów, które mają dotykowy wyświetlacz od brzegu do brzegu (fragment na ten temat zaczyna się w 5 minucie poniższego filmu, polecam jednak obejrzeć całość).

Steve równo w 5 minucie mówi o problemie fizycznych klawiatur

RIM zachował się tak jak przewiduje teoria przełomowej innowacji (zresztą jak każdy inny gracz na rynku – Nokia, Microsoft, Motorola czy Samsung): nie uznał, że iPhone stanowi zagrożenie, bo po pierwsze Apple nie ma doświadczenia w produkcji telefonów, ani kontaktów z telekomami a poza tym tworzy urządzenie dla prywatnych konsumentów, a nie biznesu.

Do tej pory to co było “smart” w smartfonach było definiowane przez biznes. Stąd sukces RIM i ich pełnowymiarowych klawiatur w smartfonach. Nikt nie widział potrzeby, aby taką kategoria urządzeń oferować segmentowi prywatnemu. Value Network RIMa był w zupełnie innym miejscu.

Nawet gdy Blackberry zauważyło, że iPhone rośnie coraz szybciej to bagatelizowało problem. iPhone okazał się ogromnym hitem. User Experience stał się tak ważnym elementem motywującym do kupna telefonu, że nawet użytkownicy biznesowi zaczęli przynosić do swoich biur prywatne iPhone’y żądając podłączenia do firmowej infrastruktury (tak upowszechnił się trend BYOD: Bring Your Own Device). Nagle użytkownicy końcowi zauważyli, że nie muszą się użerać z topornymi przydzielonymi przez dział IT urządzeniami. Użytkownicy biznesowi zaczęli oczekiwać telefonów równie przyjaznych jak ich prywatne. Punkt ciężkości na rynku przesunął się znacznie.

RIM trwało przy swoim podejściu: mamy własny rynek, mamy jasny wyróżnik: fizyczną klawiaturę, która jest po prostu lepsza od ekranowej (bo, na przykład, ma wyczuwalne przyciski i można na niej pisać bezwzrokowo). RIM jednak nie rozumiał, że klawiatura ekranowa w iPhone’ach była “wystarczająco dobra” do pisania a jednocześnie oferowała o wiele większą elastyczność, na przykład mogła się chować aby pokazać pełnowymiarową stronę internetową lub zdjęcie. 

RIM niechętnie podchodził do pracy nad wersją bez fizycznej klawiatury. Szybko rosnący udział iPhone’a i niedługo później Androida był stresujący, ale dopiero 4 lata po premierze młodszych konkurentów było widać realną zmianę rynkową. W tym czasie jednak Blackberry praktycznie stało w miejscu (ale mówiło, że słucha swoich klientów, którzy są zachwyceni fizyczną klawiaturą) a Apple i konsorcjum Android wspinało się coraz szybciej. Wreszcie, gdy otrzeźwienie przyszło, to było juz za późno. Projekty zmian był wewnętrznie sabotowane – z tych samych powodów co fotografia cyfrowa w Kodaku. Widzicie analogię do mojego wcześniejszego wykresu z czerwonym prostokątem?

I znów, zgodnie z teorią – Apple wygrało ten pojedynek.

Jak uciec spod walca?

Czy można uciec od tego nieubłaganego losu Kodaka, Blockbustera lub Blackberry?

Aby na to odpowiedzieć musimy najpierw przedyskutować dwie kwestie:

Pierwszy obrazek pokazuje tempo dyfuzji technologii na przykładzie USA przez ponad 100 ostatnich lat. To, co jest tutaj istotne, to że czas osiągnięcia poziomu 90%+ skraca się z każdą następną innowacją.

Nowe technologie bazują na starych: powstanie smartfona nie było możliwe bez powstania telefonu komórkowego. Powstanie telefonu komórkowego nie było możliwe bez telefonu a to bez telegrafu i tak dalej. Stare technologie tworzą grunt pod nowe – edukują użytkowników i budują infrastrukturę. Jaki z tego wniosek? Każda następna innowacja będzie adoptowana z coraz mniejszym oporem i stanie się kulturową oczywistością z coraz większym tempem. Zresztą – zobaczcie jak szybko naturalne stało się dla nas korzystanie ze smartfona i zapytajcie swoich rodziców o ich wrażenia z korzystania z telefonów stacjonarnych.

Drugi obrazek przedstawia koszmar każdego, kto chce budować trały biznes:

Wykres mówi nam jak długo żyje amerykańska firma w ramach S&P500, czyli 500 najwiekszych firm na amerykańskiej giełdzie. Ten czas fluktuuje, ale trend jest jasny: firmy żyją coraz krócej i krócej.

Łącząc ze sobą wnioski z obydwu wykresów można dojść do takiej konkluzji: firmy mają coraz mniej czasu, żeby udowodnić, że trzymają w ręku prawdziwą innowację a coraz więcej ryzyk, że konkurencja w ekspresowym tempie zdobędzie rynek nie zostawiając miejsca na dalszy rozwój.

Dlatego notujemy obecnie największy odsetek kapitału firm inwestowany w R&D. Firmy zrozumiały, że nawet jeśli tylko promil z tych prac obroni się na rynku to możliwe, że trafią na przypadek porównywalny do cyfrowego aparatu w Kodaku i tym razem nie przegapią tej okazji.

Trzecia krzywa “S”

Przejdźmy więc do zwycięzcy tego cyklu krzywej “S”. Apple zmiotło z rynku Blackberry i przy okazji Nokię (równie duże znaczenie miała też pojawienie się Androida i szybka ewolucja Samsunga, ale to historia na inny czas). Powstał rynek wysokomarżowych smartfonów łączących w sobie funkcje konsumenckie i biznesowe.

Pytanie brzmi: jeśli Apple zajął miejsce Blackberry, to kto będzie następnym Applem? Czyli, skąd przyjdzie następna krzywa “S”?

Oczywiście Apple chce, żeby następnym Applem był Apple. Tim Cook podsumował to najlepiej w 2013 roku:

Value Network tej firmy opiera się na założeniu, że Apple nie czeka aż ktoś go skanibalizuje, tylko chce zjeść samego siebie. Nie chce czekać, aż ktoś na nim wykona przełomowej innowacji. Ma tak zbudowane procesy, aby nie ograniczać swoich następnych produktów przez już istniejące na rynku.

Kilka historycznych przykładów:

  • iPhone posiada wszystkie funkcje iPoda Nano, najpopularniejszego odtwarzacza mp3 na świecie,
  • Pojawienie się iPada Pro z klawiaturą jasno uderzało w rynek Macbooków Air,
  • Obecnie Apple promuje Apple Watch z karta SIM i jasno mówi, że można z niego korzystać zostawiając swojego iPhone’a w domu.

W jaki sposób Apple uniknęło problemu wewnętrznej konkurencji? Przede wszystkim stosując inne metryki niż reszta firm. Tam gdzie Kodak liczył sprzedane rolki, a Blackberry sprzedane telefony, Apple liczy liczbę aktywnych użytkowników WSZYSTKICH swoich swoich urządzeń. Apple patrzy jak dużo nowych użytkowników może zdobyć i jak dużo zachować (artykuł na ten temat) i nie boi się zabić kurę znoszącą złote jajka jak tylko zobaczy potencjalne ryzyko przełomowej innowacji z nieoczekiwanej strony.

To jest pierwszy sposób na walkę z losem: być ciągle gotowym do ewolucji i umieć wyrzucać biznesowy balast gdy tylko się pojawi. Trzeba mieć do tego jednak odpowiednią kulturę organizacyjną, opartą na mierzeniu faktycznie trudnych rzeczy (satysfakcja użytkownika) zamiast powierzchownych “excelowych” faktów (sprzedaż).

Druga metoda jest jeszcze prostsza w teorii, ale jeszcze trudniejsza w implementacji: Ustabilizowany rynkowy gracz musi przede wszystkim zrozumieć cykl innowacji w którym się znajduje, następnie uświadomić sobie, że może być zniszczony przez nieoczekiwaną innowację a następnie konsolidować władzę nad każdym potencjalnym źródłem niebezpieczeństwa. Dzięki temu można zdecydować czy innowacja powinna być stłamszona w zarodku zanim dojdzie do dyfuzji technologii bądź dać wewnętrznie skanibalizować.

Nad żółtą linią źródła innowacji kupione przez Facebooka, pod żółtą linią te jeszcze nie kupione

Firmy takie jak Facebook rozumieją, że ostatecznym zasobem jest uwaga konsumentów. Ten, kto kontroluje interakcję z użytkownikiem jest w stanie przetrwać pojawienie się nieoczekiwanej innowacji, gdyż ta innowacja nie ma miejsca, aby zyskać pierwszych użytkowników a później przeskoczyć przez przepaść do umasowienia. Ale tutaj wchodzimy w temat Teorii Agregacji na którą przyjdzie jeszcze czas.