TEDAI Vienna – krótkie podsumowanie i wnioski pod kątem CX’a


Jestem fanem TED i TEDx. W 2013 rozpocząłem organizację, w moim rodzinnym Lublinie, wydarzeń pod marką TEDx. I prowadziłem je do 2022 roku kiedy to przekazałem temat nowej ekipie.

W między czasie miałem okazję brać udział w 3 oficjalnych wydarzeniach TED w (TEDActive, TEDSummit oraz TEDGlobal). I to zawsze były dobre doświadczenia. Tak pod kątem wiedzy i inspiracji, jak i i doświadczenia uczestnika.

Kiedy więc zobaczyłem informację nt. TEDAI, które zaplanowano w Wiedniu, to bilet miałem kupiony jakieś 5 minut później!

Czym jest TEDAI?

TEDAI to seria konferencji organizowanych przez TED, poświęconych tematyce sztucznej inteligencji (AI).

Celem konferencji TEDAI jest zgłębianie wpływu i możliwości AI w kontekście społecznym, kulturowym i przemysłowym, a także inspirowanie do krytycznego myślenia i innowacji w tej dynamicznie rozwijającej się dziedzinie.

A TEDAI Vienna 2024, która odbyła się w dniach 17-19 października 2024 była pierwszą europejską konferencją TED poświęconą AI.

W programie znalazło się ponad 20 wystąpień typu TED Talk, panele ekspertów, warsztaty, hackathon oraz wydarzenia towarzyszące w historycznych miejscach Wiednia. Wśród prelegentów znajdą się m.in. Thomas Dohmke (CEO GitHub), Raia Hadsell (VP of Research w Google DeepMind) oraz Selena Deckelmann (Chief Product and Technology Officer w Wikimedia Foundation).

Wystąpienia, które mnie zainspirowały


Selena Decklemann, Chief Product and Technology Officer, Wikimedia Foundations, która mówiła o sile współpracy społeczności Wikipedii będącej największą „społecznościową” encyklopedią w historii. 63 miliony artykułów i 15 miliardów odsłon miesięcznie. I masa ludzi, która współtworzy treści i dyskutuje nad ich rozwojem oraz każdego dnia wspiera ten open source’owy projekt. Na którym, swoją drogą, trenowane są, podobno, wszystkie modele AI, z których korzystamy.

Profesor i dyrektor Australian AI Institute Ching-Teng Lin, który mówił o przyszłości interakcji człowiek-maszyna wskazując, że zmierzamy w stronę interakcji bezpośredniej z pomięciem narzędzi takich jak np. klawiatura. Czyli pomyślisz, a komputer to zapisze. Przerażające i fascynujące zarazem. Tym bardziej, że próbkę tego jak to działa pokazał na scenie. I ZADZIAŁAŁO (ciarki mam nawet jako to piszę;).

Youssef Mohamed Nader oraz Julian Schillinger (Scroll Prize), którzy mieli fenomenalne wystąpienie o cyfrowej archeologii. Pokazali, jak w oparciu o konsekwetnie trenowany model AI, odkryli 2000 znaków na papirusach zasypanych popiołem Wezuwiusza. To mi pokazało, że AI nie tylko tworzy przyszłość, ale również pozwala lepiej zrozumieć przeszłość. No i było to najlepsze wystąpienie w parze, jakie dotychczas widziałem.

Andreo Lavazza, filozof z Pegaso Univeristy, który opowiadał o koncepcji Robo Spadkobierców. Czyli robotów, które, po naszej śmierci, przejmą to czego się nauczyliśmy i co zrobiliśmy i będą to dalej rozwijać. Tak w duchu “zero waste”, bo jak mówił “szkoda, żeby się zmarnowało, to co wiemy i potrafimy jako jednostki”. W sumie trochę racja.

Cara Hunter, polityczka
Cara opowiedziała historię tego, jak stała się bohaterką pornograficznego deepfake’a i jaki to miało wpływ na jej życie, bliskich i karierę zawodową. Wstrząsająca historia, która uświadamia, że to może przytrafić się każdemu. Dlatego jej zdaniem w centrum rozwoju AI powinien być człowiek i człowieczeństwo.

Shaolei Ren, Computer Scientist, UC Riverside, który pytał, czy AI potrzebuje wody? Okazuje się, że potrzebuje i to ogromne jej ilości. A jest potrzebna, aby chłodzić serwery, które modele trenują i utrzymują. Np.szacuje się, że wygenerowanie dwóch szablonów maili w modelu Llama 3 pochłania ok 500 litrów wody i ilość energii potrzebą do naładowania smartfona. Zatem zrównoważony środowiskowo rozwój AI, to jedno z wyzwań, przed którym stajemy.

Hilke Schellmann, dziennikarka, badaczka na New York Univeristy dzieliła się wynikami swojego badania, w którym weryfikowała systemy rekrutacyjne oparte o AI. I okazało się, że popełniają one wiele błędów (np. wykluczają osoby o konkretnym imieniu albo odrzucają osoby, który za wolno klikały w danym zdaniu w klawisze). Mówiła też o tym, że osoby poszukujące pracy są “wymuszonymi użytkownikami” mocno niedoskonałej technologii. Bo jeśli chcą wziąć udział w procesie rekrutacji, to muszą zgodzić się na narzędzia i jego kształt narzucony przez firmę

Raia Hadsell, VP of Reserach at Google DeepMind, która pokazywała jak jej zespół łączy i analizuje duże zbiory danych tworząc modele predykcyjne np. huraganów. I pokazała, że ich ich model, we wrześniu tego roku, pozwolił przewidzieć huragan o 3 dni wcześniej niż ten, z którego korzystano wcześniej. To 3 dodatkowe dni na przygotowanie i ewakuację. Mówiła też o tym, że jej zdaniem, największych potencjał AI nie tkwi w generowaniu treści na posty blogowe, ale właśnie w analizowaniu wielki zbiorów danych pod kątem przewidywania zjawisk meteorologicznych czy chorób.

P.S. To moje czwarte, oficjalne, wydarzenie TED w życiu, po którym podtrzymuję opinię o tym, że poziom wystąpień, storytellingu i przygotowania mówców na TED, to jest bardzo wysoka liga!

Jak to przekłada się na obszar Customer Experience Mangement?

Ejaj ejajem, ale starałem się też w tym wszystkim znaleźć jakieś bezpośrednie przełożenie na codzienną pracę w obszarze Customer Experience i Service Design. No i z tego starania się wyszło mi kilka poniższych wniosków.

Ko-kreacja z klientami na wzór modeli open source
Projekty społecznościowe, takie jak Wikipedia, pokazują, jak ogromny wpływ na rozwój treści i technologii ma otwartość na współpracę z użytkownikami. Dokładnie tak samo jest w kontekście tworzenia lub optymalizacji usług i produktów. Dlatego na kolejne warsztaty zaproś klientów. Tylko tyle i aż tyle.

Ewolucja tego, jak wchodzi w interakcje z urządzeniami

Przyszłość interakcji, to bezpośrednia komunikacja z maszyną, jak pokazały testy Ching-Teng Lina. Czyli bez pośrednictwa klawiatur czy ekranów dotykowych. Firmy muszą się chyba przygotować się na stopniowe przejście z klasycznych formularzy i aplikacji do naturalniejszych form, takich jak komendy głosowe, a nawet myślowe. Oznacza to konieczność uproszczenia i ułatwienia procesu obsługi klienta. No i będzie to spora zmiana pod kątem projektowania UX.

Wykorzystanie AI do odkrywania potrzeb klientów

Cyfrowa archeologia, jak w przypadku Scroll Prize, pokazuje, że AI może odkrywać nieoczywiste wzorce w danych. W CX oznacza to możliwość głębszej analizy historii klienta czy zebranych informacji na jego temat i trafniejsze przewidywania jego potrzeb na podstawie „ukrytych” informacji, które wcześniej były trudne do wyłapania przy „ręcznej” analizie głosu klienta.

Tworzenie treści w czasie rzeczywisym

Jednym z wystąpień była bitwa freestyle’owa między ChatGPT a raperem Chrisem Turnerem. Pokazała ona, że AI może nie tylko odpowiadać na pytania klientów, ale także wchodzić w angażujące dialogi w czasie rzeczywistym. W kontekście CX’a możemy ( i to już się dzieje) wykorzystywać to do tworzenia np. agentów obsługi, którzy będą wchodzili w dialog z klientem i reagowali zależnie od tego, jak klient się zachowa.

Przewidywanie kryzysów i proaktywności

Raia Hadsell, mówiła o modelach predykcyjnych huraganów, które pozwoliły, jesienią 2024, przewiedzieć jedne z huraganów o 3 dni szybciej niż dostępne do tego momentu narzędzia. to aż 3 dni więcej na reakcję, ewakuację i przygotowanie się. W kontekście CX’a możemy szukać zastosowania AI do przewidywania momentów krytycznych (pain pointów i momentów prawdy) w podróży klienta – np. okresów spadku zainteresowania usługą, rezygnacji czy niezadowolenia. Dzięki tego typu analizie będziemy mogli podjąć działania zapobiegawcze, takie jak wysyłanie dedykowanych ofert, przypomnień lub wsparcia technicznego zanim klient sam zgłosi problem.

Czy tak faktycznie będzie?

Nie wiem, ale bez wątpienia udział w TEDAI zmienił mi perspektywę i skłonił do tego typu rozmyślań. A czasami warto podumać na różnymi scenariuszami przyszłości.

Chętnie dowiem się, co Ty o tym sądzisz. Napisz na piotr.wojciechowski@fuzers.com

Podobne wpisy