AI – wyzwania dla firm

2023: chatGPT

Generative AI zdominowała w rekordowym tempie rynek konsumencki. W 2023 roku prywatni klienci wydali ponad miliard dolarów na płatne usługi.

Czy ten rok będzie należał do biznesu? Prawdopodobnie tak. Szacunki mówią o kilku miliardach inwestycji. W zeszłym roku wiele firm rozpoczynało eksperymentowanie z genAI. Było to ograniczone do kilku przypadków użycia.

Dość częste było wprowadzanie na rynek produktów będących de facto opakowaniem chatGPT. Obserwuję to w grupie startupów, które otrzymały grant od openAI.

Kilka lat temu, gdy generative AI nie trafił jeszcze pod strzechy, studiowałem u Andrew Ng te tematy. Wśród wielu kursów istotne miejsce zajmowały generatywne modele tekstowe i graficzne. Były interesujące i rokujące. Nie sądziłem jednak, że rozpoczną rewolucję w takiej skali.

2024: AI w biznesie

W ubiegłym roku większość wydatków na AI przedsiębiorstw pochodziła ze środków na „innowacje” i innych budżetów specjalnych. W 2024 roku są one alokowane w ramach prac IT.

Zgodnie z badaniem Andressen-Horowitz udział budżetów innowacji spadnie do 25% przy rosnących wartościach bezwzględnych. Przy tych wzrostach prawdziwym wyzwaniem jest i będzie budowa założeń finansowych (business case) do projektów. Podobna sytuacja występowała już w projektach z obszaru big-data, data science czy próby monetyzacji danych, tak więc mamy kontynuację, jednak w nieco innym, nowym temacie.

Realizacja i wdrożenie

Gdy firma przejdzie przez etap business case, staje przed wyzwaniem realizacji projektu. Tak jak pisałem w książce „Data-Driven Transformation” (https://books.chiefdataofficer.pl/), pewne warunki są niezbędne do skutecznej realizacji projektów opartych na danych. Z AI wcale nie jest łatwiej.

Wdrożenie i skalowanie wymaga właściwego zespołu, którego często brakuje. Posiadanie dostępu do API nie wystarcza, aby budować i wdrażać rozwiązania. Wdrożenie to 3/4 kosztu i złożoności projektu. Koszt modeli czy technologii to mniejszość. Często należy złożyć rozwiązanie z kilku algorytmów i sporej ilości danych. Z tego powodu ważne są zarówno modele pozyskiwane od wielu dostawców, jak i open-source, który coraz bardziej króluje.

Niektórych to zaskakuje, jednak wygrywający trend open-source widoczny był już od dawna w środowisku danych. To z tego powodu znane komercyjne platformy są często marginalizowane przez rozwiązania open source.

Różnice w kosztach między opensource i rozwiązaniami komercyjnymi były ważne na początku tej fali. Komponenty otwarte dają elastyczność, czas dostępu do nowych funkcji i wsparcie środowisk.

Bezpieczeństwo danych w kontekście AI

Korzystanie z serwisów zewnętrznych przy wdrożeniach powoduje ryzyko wycieku informacji. Samo oparcie procesu na automatach dodaje do tego ryzyka operacyjne i wizerunkowe. Firmy wciąż nie czują się komfortowo udostępniając swoje własne dane zamkniętym dostawcom modeli z powodów regulacyjnych lub dotyczących bezpieczeństwa danych. Podmioty, których wartość intelektualna jest kluczowa dla ich modelu biznesowego, są szczególnie konserwatywne.

Dostosowywanie modeli i wybór chmury

Firmy dostosowują modele zamiast budować je od podstaw. W 2023 roku toczyła się dyskusja na temat budowy niestandardowych modeli, takich jak BloombergGPT. W 2024 wiele rozwiązań korzysta z podejścia retrieval-augmented generation (RAG) lub dostosowuje model open source do swoich konkretnych potrzeb.

Wiele decyzji dotyczy chmury. Istnieje korelacja między wykorzystywanym dostawcą chmury a preferowanym modelem: użytkownicy Azure zazwyczaj preferowali OpenAI, podczas gdy użytkownicy Amazona wybierali Anthropic lub Cohere.

Pojawia się ciekawy trend – deweloperzy projektują swoje aplikacje tak, aby przełączenie między dostawcami LLM przebiegało błyskawicznie. Zapewnia to dodatkową niezawodność i bezpieczeństwo.

Operacjonalizacja modeli

Najtrudniejszym elementem (podobnie jak w przypadku wdrażania wcześniej złożonych rozwiązań data science) wydaje się być operacjonalizacja.

Wiedzą o tym dopiero ci, którzy przejdą przez etap eksperymentowania, czyli niewielka grupa firm. Podczas produkcyjnego działania dowiadujemy się o wszystkich problemach naszego rozwiązania. To jest realny poligon, który w pomyślnym scenariuszu ma potencjał zbudować zespół wdrażający podobne projekty.

Industrializacja modeli odbywa się na razie dla use-case’ów wewnętrznych, czyli dla pracowników. Zastosowanie dla klienta zewnętrznego wydaje się być ryzykowne i trudniejsze.

Wyłaniające się zastosowania

AI to nie tylko konwersacje i kreacja komunikatów. Pojawiają się zastosowania mające na celu uwolnienie danych nieustrukturyzowanych. Dzięki AI uzyskujemy dostęp do skwantyfikowanych informacji, które są zaszyte w od dawna gromadzonych danych. Teraz można je wydobyć i użyć do analiz.

AI to także wsparcie jakości danych. Z powodzeniem stosowałem te metody w branży food-tech.

Te wszystkie zmiany to rewolucja. Czekałem na nią i przygotowywałem się, a mimo to zaskoczyła mnie swoją dynamiką.

Jest to ogromna szansa dla startup’ów, które rozumiejąc biznes i problemy, w udany sposób pomogą korporacjom w inicjatywach AI.

Taka współpraca jest dobra dla klienta, umożliwia przejście z podejścia opartego na usługach do budowy skalowalnych produktów.

Wszyscy się tego uczymy.

Zapraszamy do kontaktu 🙂

O mnie

Mariusz Jażdżyk

Doświadczony architekt i manager o wieloletnim doświadczeniu w branżach telekomunikacyjnej, mediowej a także w startupach i w administracji publicznej.

Specjalizuje się w realizacji projektów związanych z architekturą i strategią danych, oraz implementacją rozwiązań z obszaru analityki danych i uczenia maszynowego. Pracował dla Komisji Europejskiej w ramach programów big data.

Jest autorem dwóch książek: „Data Driven Transformation” oraz „Chief Data Officer”.

Absolwent Wydziału Elektroniki Politechniki Warszawskiej. Posiada certyfikaty Deep Learning, Machine Learning oraz Digital Marketing.