2023: chatGPT
Generative AI zdominowała w rekordowym tempie rynek konsumencki. W 2023 roku prywatni klienci wydali ponad miliard dolarów na płatne usługi.
Czy ten rok będzie należał do biznesu? Prawdopodobnie tak. Szacunki mówią o kilku miliardach inwestycji. W zeszłym roku wiele firm rozpoczynało eksperymentowanie z genAI. Było to ograniczone do kilku przypadków użycia.
Dość częste było wprowadzanie na rynek produktów będących de facto opakowaniem chatGPT. Obserwuję to w grupie startupów, które otrzymały grant od openAI.
Kilka lat temu, gdy generative AI nie trafił jeszcze pod strzechy, studiowałem u Andrew Ng te tematy. Wśród wielu kursów istotne miejsce zajmowały generatywne modele tekstowe i graficzne. Były interesujące i rokujące. Nie sądziłem jednak, że rozpoczną rewolucję w takiej skali.
2024: AI w biznesie
W ubiegłym roku większość wydatków na AI przedsiębiorstw pochodziła ze środków na „innowacje” i innych budżetów specjalnych. W 2024 roku są one alokowane w ramach prac IT.
Zgodnie z badaniem Andressen-Horowitz udział budżetów innowacji spadnie do 25% przy rosnących wartościach bezwzględnych. Przy tych wzrostach prawdziwym wyzwaniem jest i będzie budowa założeń finansowych (business case) do projektów. Podobna sytuacja występowała już w projektach z obszaru big-data, data science czy próby monetyzacji danych, tak więc mamy kontynuację, jednak w nieco innym, nowym temacie.
Realizacja i wdrożenie
Gdy firma przejdzie przez etap business case, staje przed wyzwaniem realizacji projektu. Tak jak pisałem w książce „Data-Driven Transformation” (https://books.chiefdataofficer.pl/), pewne warunki są niezbędne do skutecznej realizacji projektów opartych na danych. Z AI wcale nie jest łatwiej.
Wdrożenie i skalowanie wymaga właściwego zespołu, którego często brakuje. Posiadanie dostępu do API nie wystarcza, aby budować i wdrażać rozwiązania. Wdrożenie to 3/4 kosztu i złożoności projektu. Koszt modeli czy technologii to mniejszość. Często należy złożyć rozwiązanie z kilku algorytmów i sporej ilości danych. Z tego powodu ważne są zarówno modele pozyskiwane od wielu dostawców, jak i open-source, który coraz bardziej króluje.
Niektórych to zaskakuje, jednak wygrywający trend open-source widoczny był już od dawna w środowisku danych. To z tego powodu znane komercyjne platformy są często marginalizowane przez rozwiązania open source.
Różnice w kosztach między opensource i rozwiązaniami komercyjnymi były ważne na początku tej fali. Komponenty otwarte dają elastyczność, czas dostępu do nowych funkcji i wsparcie środowisk.
Bezpieczeństwo danych w kontekście AI
Korzystanie z serwisów zewnętrznych przy wdrożeniach powoduje ryzyko wycieku informacji. Samo oparcie procesu na automatach dodaje do tego ryzyka operacyjne i wizerunkowe. Firmy wciąż nie czują się komfortowo udostępniając swoje własne dane zamkniętym dostawcom modeli z powodów regulacyjnych lub dotyczących bezpieczeństwa danych. Podmioty, których wartość intelektualna jest kluczowa dla ich modelu biznesowego, są szczególnie konserwatywne.
Dostosowywanie modeli i wybór chmury
Firmy dostosowują modele zamiast budować je od podstaw. W 2023 roku toczyła się dyskusja na temat budowy niestandardowych modeli, takich jak BloombergGPT. W 2024 wiele rozwiązań korzysta z podejścia retrieval-augmented generation (RAG) lub dostosowuje model open source do swoich konkretnych potrzeb.
Wiele decyzji dotyczy chmury. Istnieje korelacja między wykorzystywanym dostawcą chmury a preferowanym modelem: użytkownicy Azure zazwyczaj preferowali OpenAI, podczas gdy użytkownicy Amazona wybierali Anthropic lub Cohere.
Pojawia się ciekawy trend – deweloperzy projektują swoje aplikacje tak, aby przełączenie między dostawcami LLM przebiegało błyskawicznie. Zapewnia to dodatkową niezawodność i bezpieczeństwo.
Operacjonalizacja modeli
Najtrudniejszym elementem (podobnie jak w przypadku wdrażania wcześniej złożonych rozwiązań data science) wydaje się być operacjonalizacja.
Wiedzą o tym dopiero ci, którzy przejdą przez etap eksperymentowania, czyli niewielka grupa firm. Podczas produkcyjnego działania dowiadujemy się o wszystkich problemach naszego rozwiązania. To jest realny poligon, który w pomyślnym scenariuszu ma potencjał zbudować zespół wdrażający podobne projekty.
Industrializacja modeli odbywa się na razie dla use-case’ów wewnętrznych, czyli dla pracowników. Zastosowanie dla klienta zewnętrznego wydaje się być ryzykowne i trudniejsze.
Wyłaniające się zastosowania
AI to nie tylko konwersacje i kreacja komunikatów. Pojawiają się zastosowania mające na celu uwolnienie danych nieustrukturyzowanych. Dzięki AI uzyskujemy dostęp do skwantyfikowanych informacji, które są zaszyte w od dawna gromadzonych danych. Teraz można je wydobyć i użyć do analiz.
AI to także wsparcie jakości danych. Z powodzeniem stosowałem te metody w branży food-tech.
Te wszystkie zmiany to rewolucja. Czekałem na nią i przygotowywałem się, a mimo to zaskoczyła mnie swoją dynamiką.
Jest to ogromna szansa dla startup’ów, które rozumiejąc biznes i problemy, w udany sposób pomogą korporacjom w inicjatywach AI.
Taka współpraca jest dobra dla klienta, umożliwia przejście z podejścia opartego na usługach do budowy skalowalnych produktów.
Wszyscy się tego uczymy.
Zapraszamy do kontaktu 🙂
O mnie
Mariusz Jażdżyk
Doświadczony architekt i manager o wieloletnim doświadczeniu w branżach telekomunikacyjnej, mediowej a także w startupach i w administracji publicznej.
Specjalizuje się w realizacji projektów związanych z architekturą i strategią danych, oraz implementacją rozwiązań z obszaru analityki danych i uczenia maszynowego. Pracował dla Komisji Europejskiej w ramach programów big data.
Jest autorem dwóch książek: „Data Driven Transformation” oraz „Chief Data Officer”.
Absolwent Wydziału Elektroniki Politechniki Warszawskiej. Posiada certyfikaty Deep Learning, Machine Learning oraz Digital Marketing.