Czy używasz terminu ‘AI’ niepoprawnie?

Cassie Kozyrkov
4 min readApr 14, 2019

Tłumaczył Dawid Ostrowski na podstawie oryginału Cassie Kozyrkov

Już to kiedyś powiedziałam: Nie przeszkadza mi, że używa się słów AI i ML zamiennie. Czy jest to jednak technicznie poprawne, czy wkraczamy na grząski grunt? A skoro już mielibyśmy pokazywać palcem, to kto tak naprawdę używa terminu ‘AI’ niepoprawnie?

To co biznes określa jako ‘AI’, z technicznego punktu widzenia nazwiemy ‘głębokim uczeniem’ (ang. deep learning).

Ludzie świata nauki nie uznają pojęć: sztucznej inteligencji (ang. Artificial Intelligence) i uczenia maszynowego (ang. Machine Learning), za wymienne. Jako były członek środowiska naukowego, sympatyzuję z tamtejszymi definicjami i zgadzam się, że technicznie rzecz biorąc sztuczna inteligencja (AI) jest nadzbiorem właściwym uczenia maszynowego (ML), które to z kolei jest nadzbiorem właściwym uczenia głębokiego (ang. deep learning — DL). Uczenie głębokie (DL) to takie uczenie maszynowe (ML), które wykorzystuje szczególną klasę algorytmów (sieci neuronowe) i jest tym, co najczęściej ludzie mają na myśli, kiedy mówią o AI.

Jak to właściwie wygląda?

Z drugiej strony, wiem, że pozostała większość ludzi (i środowiska biznesu) niekoniecznie ma na uwadze takie niuanse i będzie korzystać z tej terminologii w mniej formalny sposób. Język ewoluuje, czy się nam to podoba, czy nie. Termin AI, oryginalnie używany tylko przez szalonych naukowców, wymknął się spod ich kontroli i wylądował w słowniku zwykłych ludzi, po drodze lekko zmieniając znaczenie.

Język ewoluuje, czy się nam to podoba, czy nie.

Ryzykując obrażenie naukowców, skłaniam się ku stwierdzeniu, że najbardziej pomocne byłoby przyjęcie do wiadomości nowego sposobu w jaki biznes i przemysł używają terminu i wytłumaczenie jego różnorodnego użycia czytelnikom, którzy nie wchodzą w niuanse. Nie ma problemu w ewolucji języka, o ile za nią nadążamy. Stworzony w 1956 termin sztuczna inteligencja (AI) nigdy nie był nazbyt formalnie zdefiniowany. (Prawda, akademicy? Przypomnijcie sobie czasy, kiedy AI było zbyt wstydliwym zwrotem, aby używać go na swoich wnioskach grantowych… więc zamienialiście wszystkie wystąpienia tego słowa na ML) Jeśli jakieś pojęcie jest kiepsko zdefiniowane, to trudno mówić o poprawnym jego użyciu. Wszyscy możemy być zwycięzcami, a świat się kręci dalej.

I uważajcie, Wy, adwokaci definicji: czy nie byłoby to zawstydzające, gdyby się okazało, że to co nazywacie AI, z technicznego punktu widzenia jest uczeniem ze wzmocnieniem (ang. Reinforcement learning — RL) i że Wy także nieodpowiednio używacie terminologii? Chodźcie, przytulmy się, wszyscy możemy zostać przyjaciółmi. Jeśli Wasza definicja opiera się na sekwencjach akcji, planowaniu, zbieraniu informacji ze środowiska, odkrywaniu zasad zachowania w przyszłości — z klasycznym przykładem komputera uczącego się wykonywać kaskaderskie manewry zabawkowym helikopterem — bardzo możliwe, że myślicie o RL.

“Ludzkopodobna” inteligencja (ang. Human-like intelligence — HLI) jest lepszym terminem dla AI w wersji fantastycznonaukowej.

Jeżeli topicie się już w tej alfabetycznej zupie: AI, ML, DL, RL, nadal szukając odpowiedniego terminu dla fantastycznonaukowych robotycznych bytów, powinna się wam spodobać “Ludzkopodobna” Inteligencja (ang. Human-Like Intelligence — HLI). Inteligencja podobna do ludzkiej. Jeśli zamierzacie odwoływać się do AI w sposób sugerujący osobowość, HLI będzie prawdopodobnie najbardziej odpowiednim terminem. Ci którzy boją się, że HLI czai się w każdej szafie, mogą odetchnąć. Wszystkie te zastosowania AI w przemyśle i produktach trudno zakwalifikować jako HLI i nie mają związku z budową prawdziwych umysłów. Wszyscy są zajęci używaniem AI do rozwiązywania realnych problemów biznesowych, do których potrzeba zwykłej, solidnej etykieciarki rzeczy.

Podsumujmy. Profesorowie, zatkajcie uszy. Wszyscy pozostali: w kontekście poza akademickim, terminy AI i ML są często używane jako synonimy i mają mało wspólnego z HLI.

W praktyce, nie trzeba klasyfikować swojego problemu jako AI czy ML już na starcie.

A oto inny powód dlaczego osoba tak praktyczna jak ja, może z tym żyć: z punktu widzenia stosowanego procesu, nie ma potrzeby klasyfikowania problemu jako AI/ML/DL zanim zaczniemy działać. Spróbujcie wszystkich algorytmów jakich się da i przesuwajcie się w stronę tego, który daje coraz lepsze rezultaty. Jeśli ML bez DL jest błędnym podejściem, szybko się o tym dowiecie i skorygujecie kurs. Zazwyczaj najlepiej jest spróbować najprostszej opcji, nawet jeśli podejrzewacie, że nie zadziała. Potrzeba tylko kilku minut. (Tak naprawdę czasem chodzi o 2–5 linijek kodu. Nawet jeśli nie używacie pakietów i implementujecie od zera, jest to proste. Jeśli zapomnieliście formuły na regresję, moi przyjaciele z uniwersytetu nagrali o tym chwytliwą piosenkę — więc będzie z Wami na dłużej). Jako miły bonus, jeśli okaże się, że proste podejście przynosi pozytywne rezultaty, to będziecie mieli rozwiązanie, którym łatwiej zarządzać na produkcji. Powodzenia, radości tworzenia, i niech najlepszy algorytm wygra!

--

--

Cassie Kozyrkov

Head of Decision Intelligence, Google. Hello (multilingual) world! This account is for translated versions of my English language articles. twitter.com/quaesita