W latach 40‑tych ubiegłego wieku, kiedy Warren McCulloch i Walter Pitts stworzyli matematyczny model sieci neuronowych, wydawało się, że droga do stworzenia sztucznego mózgu i sztucznej inteligencji stoi otworem.
Euforia jednak szybko opadła, a przez kilkadziesiąt kolejnych lat naukowcy wraz z inżynierami napotykali i rozwiązywali kolejne problemy na drodze do pierwszych znaczących sukcesów. Ale kiedy te sukcesy wreszcie zmaterializowały się w postaci działających tzw. głębokich sieci neuronowych, kula śnieżna z napisem „AI” zaczęła się toczyć i wydaje się, że nic nie może jej już zatrzymać.
Rewolucja w dziedzinie sztucznej inteligencji (AI)
Czy mamy już do czynienia z prawdziwą sztuczną inteligencją (AI), czy też obecne algorytmy uczenia maszynowego to dopiero początek długiej drogi? Zapewne bliższe prawdy jest to drugie stwierdzenie, ale faktem jest, że od blisko 10 lat obserwujemy spektakularne efekty działania wspomnianych algorytmów: AlphaGo pokonał arcymistrza starochińskiej gry planszowej Go, AlphaZero w kilka godzin potrafi nauczyć się gry w szachy na poziomie arcymistrzowskim (zaczynając „od zera” i nie wykorzystując żadnej wiedzy eksperckiej), a kolejne algorytmy prześcigają człowieka w coraz to nowych dyscyplinach. Co więcej, od kilku lat poza ciekawostkami obserwujemy także coraz liczniejsze praktyczne zastosowania: autonomiczne samochody, zrobotyzowane i samo‑zarządzające się magazyny, inteligentne sieci energetyczne, doskonałe systemy voice‑to‑text oraz tłumaczenia maszynowe, a także trafne rekomendacje platform takich jak Netflix czy Spotify.
Dlatego śmiało możemy mówić o pewnego rodzaju rewolucji, która odbywa się na naszych oczach i zmienia otaczającą nas rzeczywistość. Głównymi siłami napędowymi są niewątpliwie ogromne zbiory dostępnych danych oraz coraz większa moc obliczeniowa komputerów, a także nowe algorytmy potrafiące te zasoby wykorzystać.
Spraw, by Twój biznes był SMART »
Uporządkowanie pojęć
Zanim przejdziemy do właściwej dyskusji o możliwościach wykorzystania AI, spróbujmy uporządkować terminologię.
Sztuczna inteligencja (Artificial Intelligence, AI) zwykle rozumiana jest jako szerokie pojęcie obejmujące wszelkie próby naśladowania inteligencji człowieka: od prostych systemów opartych o kilka zdefiniowanych przez programistę reguł (np. do gry w kółko i krzyżyk), po złożone modele potrafiące rozpoznawać obiekty na zdjęciach czy interpretować wypowiedzi w języku naturalnym. Warto tutaj wyróżnić silną AI (Strong AI), do której dopiero zmierzamy i która w niczym nie ustępowałaby inteligencji ludzkiej, oraz słabą AI (Weak AI lub Narrow AI), która już dzisiaj potrafi rozwiązać konkretne, z góry określone problemy w sposób zbliżony do tego, w jaki poszedłby do nich człowiek.
Jedną z technik wykorzystywanych przy budowaniu systemów AI jest uczenie maszynowe (Machine Learnig, ML). Algorytmy ML nie bazują na regułach ręcznie wprowadzanych do systemu przez człowieka, ale automatycznie budują modele na podstawie danych trenujących oraz zdefiniowanego celu. Przykładowo, jeśli chcemy zbudować system do rozpoznawania twarzy znanych ludzi, możemy wykorzystać tzw. proces uczenia z nadzorem, który polega na podawaniu do modelu kolejnych zdjęć znanych osób z dołączoną do każdego zdjęcia informacją o nazwisku celebryty. Wytrenowany w ten sposób model potrafi później rozpoznawać celebrytów na niewidzianych wcześniej zdjęciach.
Wśród metod uczenia maszynowego od kilku lat wyróżniają się tzw. algorytmy głębokiego uczenia (Deep Learning, DL). Modele DL to niezwykle złożone struktury zawierające miliony parametrów i zdolne do analizowania skomplikowanych zjawisk, takich jak mowa ludzka, obrazy, strumienie wideo czy nietrywialne wzorce w danych biznesowych. Modele DL zazwyczaj wymagają bardzo dużej ilości danych trenujących oraz mocy obliczeniowej niezbędnej do ich przetworzenia – dlatego efekty ich działania obserwujemy dopiero od kilku lat. Ale to właśnie modele głębokie stoją za ostatnimi sukcesami AI oraz uczenia maszynowego.
Przykłady zastosowania AI
Metody zaawansowanej statystyki oraz uczenia maszynowego wykorzystywane są w praktyce od kilkudziesięciu lat, także w biznesie. Przykładem mogą być choćby szeroko stosowane modele predykcyjne, które na podstawie danych klienta potrafią przewidzieć jego skłonność zakupową czy też ocenić ryzyko rezygnacji z usług. Pierwszy przykład zastosowania nowoczesnych metod uczenia maszynowego dotyczy właśnie poprawy działania klasycznych modeli predykcyjnych. Projekty pilotażowe – przeprowadzone także na polskim rynku – pokazały, że wykorzystanie głębokich sieci neuronowych daje możliwość poprawy skuteczności predykcji nawet o 30‑40 procent. Mówimy tu m.in. o modelach cross‑sellingowych oraz churnowych u wiodących operatorów sieci komórkowych w Polsce.
Kolejny przykład może dotyczyć możliwości automatycznego rozpoznawania obrazów. Do niedawna umiejętność interpretacji np. zdjęć była domeną ludzi. Sytuacja zmieniła się wraz z powstaniem tzw. sieci konwolucyjnych (Convolutional Networks, CNN). Jest to specjalny rodzaj głębokich sieci neuronowych dedykowany do analizy obrazów – struktura połączeń w sieciach CNN inspirowana jest korą wzrokową mózgu. Obecnie komputery wykorzystujące sieci konwolucyjne potrafią prześcignąć człowieka w zadaniach takich jak rozpoznawanie twarzy na zdjęciu czy odnajdowanie i klasyfikowanie obiektów w obrazie. Sieci CNN znajdują więc zastosowania w obszarach takich jak zapewnienie bezpieczeństwa i wykrywanie incydentów na podstawie obrazu z kamer monitoringu, kontrola granic z wykorzystaniem analizy zdjęć satelitarnych i lotniczych, rozpoznawanie defektów w produkcji na podstawie zdjęć, czy przyśpieszenie i zmniejszenie kosztów analizy szkód w ubezpieczeniach poprzez automatyczne przetwarzanie zdjęć pojazdów.
Zastosowanie metod głębokiego uczenia, w tym rekurencyjnych sieci neuronowych, zwiększa także możliwości wirtualnych asystentów oraz chatbotów. W przeciwieństwie do botów opartych na klasycznych metodach uczenia maszynowego oraz zestawach reguł, boty wykorzystujące głębokie sieci neuronowe potrafią w bardziej naturalny sposób komunikować się z wykorzystaniem tekstu lub syntetyzowanej mowy, lepiej rozumieją kontekst dialogu i potrafią odpowiedzieć na nietypowe pytania. Oczywiście działanie botów może i powinno być wsparte klasycznymi modelami analitycznymi, które dobierają rekomendowane oferty, oceniają ryzyko związane z danym klientem, czy też informują o segmencie do którego należy dany klient. Sieci głębokie i rekurencyjne doskonale radzą sobie także z innymi zadaniami przetwarzania języka naturalnego (NLP) takimi jak analiza sentymentu, automatyczne streszczanie dokumentów czy też kategoryzacja tekstów.
Rekurencyjne sieci neuronowe mogą być także wykorzystane do analizy i prognozowania szeregów czasowych, a także do analizy sekwencji zdarzeń biznesowych. W jednym z projektów dla dużej firmy telekomunikacyjnej w Polsce wykorzystano m.in. takie sieci do „śledzenia” zdarzeń generowanych przez klientów (np. dane użyciowe, akcje na stronie internetowej operatora, interakcje z infolinią). Celem było wskazanie klientów i kontekstów, w których należy się z nimi kontaktować w ramach kampanii marketingowych. Osiągnięta skuteczność działań kontekstowych była znacznie wyższa niż w przypadku standardowych kampanii marketingowych – zazwyczaj o około 15‑25%.
Droga do wykorzystania AI w organizacjach
Powyższe przykłady pokazują, że nowoczesne techniki z pogranicza sztucznej inteligencji (AI) nie tylko stwarzają nowe możliwości, ale także mogą istotnie poprawić skuteczność już istniejących w organizacji procesów. Powstaje zatem zasadnicze pytanie: jakie warunki powinna spełnić organizacja, aby otworzyć sobie drogę do wykorzystania możliwości AI? Szczegółowa odpowiedź nie jest prosta, spróbujmy więc wskazać kilka najważniejszych, kluczowych elementów.
Po pierwsze: podejście do zarządzania. Wymagane jest uzyskanie pewnego poziomu dojrzałości mentalnej i kulturowej niezbędnej, aby przejść z klasycznego, opartego na intuicji i doświadczeniu, modelu zarządzania działalnością w kierunku podejmowania decyzji na podstawie danych, analiz, symulacji i prognoz.
Po drugie: dane. Istotna jest jak największa automatyzacja w ich gromadzeniu, czyszczeniu i integracji. Kluczowe jest monitorowanie ich jakości w czasie – nawet najbardziej zaawansowane algorytmy analityczne nie są odporne na liczne błędy w danych wejściowych.
Po trzecie: narzędzia analityczne. Idealne narzędzie powinno być wydajne, wspierać różne grupy użytkowników (niezależnie od tego, czy preferują rozwiązania wizualne, czy programistyczne), oferować możliwie szeroki wybór nowoczesnych metod analitycznych oraz umożliwiać sprawne przejście przez całość procesu analitycznego: od danych wejściowych do łatwej publikacji lub wdrożenia modelu w organizacji. Ważna jest również możliwość integracji z innymi środowiskami, np. dedykowanymi do głębokiego uczenia narzędziami typu open‑source. Przykładem takiego narzędzia jest nowoczesne środowisko analityczne SAS Viya.
Oczywiście niezbędne są również kompetencje – jeśli organizacja nie posiada ich wewnętrznie, niezbędne będzie znalezienie odpowiedniego partnera dysponującego wiedzą i doświadczeniem w obszarze wdrożeń systemów zaawansowanej analityki. W SAS od kilkudziesięciu lat wspieramy klientów w wykorzystaniu analityki do tworzenia innowacyjnych produktów i usług oraz odkrywania nowych szans biznesowych.
Biorąc pod uwagę potencjalne korzyści, lista wymagań nie jest długa i warto rozważyć choćby pilotażowe projekty weryfikujące możliwości wykorzystania nowoczesnej analityki w przypadku konkretnej organizacji.