Czy AI to tylko moda?

Trzy powody myślenia, że Sztuczna Inteligencja to chwilowe szaleństwo

Cassie Kozyrkov
6 min readFeb 20, 2020

Tłumaczył Sebastian Proba na podstawie oryginału Cassie Kozyrkov (edytował Dawid Ostrowski)

Za każdym razem, kiedy jakiś geniusz wetknie AI tam, gdzie nie trzeba, cały świat przewraca oczami i dopisuje na tablicy wyników punkt po stronie drużyny „AI-to-tylko-moda”.

Jeśli twój słownik definiuje AI jako magię albo roboty (albo magiczne roboty) to oczywiście będziesz zawiedziony, kiedy nie dostarczy lekarstwa na wszystkie dolegliwości. Popatrzmy na trzy najczęstsze zarzuty używając prostych, zrozumiałych dla każdego przykładów.

Nie czytaj tej definicji, to nie jest dla ciebie dobre.

Zarzut #1: “AI to strata czasu”

Szanowany deweloper zapytał mnie kiedyś z kamienną twarzą „Czy AI może wiedzieć, że Kanada to kraj?”

Nie tak szybko, kowboju. Pomyślmy przez chwilę skąd ty wiesz, że Kanada to kraj. Ktoś ci przekazał ten fakt kiedy byłeś mały, zapamiętałeś i teraz wyszukujesz informację w pamięci.

Tymczasem w Kanadzie

Możemy napisać kod, który robi to bez AI — zapisać informację w tabeli, a kiedy ktoś zapyta o Kanadę, program sprawdzi to słowo i zwróci odpowiedź. Do czego tu potrzebne AI?

No właśnie, do niczego.

Jeśli zakładasz, że AI to magia, będziesz próbował używać jej do wszystkiego. A kiedy twoi szefowie dowiedzą się jak wiele wysiłku włożyłeś w stworzenie skomplikowanego rozwiązania do prostego problemu, to trudno będzie ich winić za myślenie, że AI to tylko moda i bzdura.

Jak uniknąć pułapki #1

Jeśli możesz rozwiązać problem bez użycia AI, to nie używaj AI. Serio, nie ma znaczenia, co mówi ci zespół marketingowy mojego pracodawcy.

AI jest jak lekarstwo — może zmienić życie tym, którzy go potrzebują ale dla wszystkich innych traktowanie jej jako przekąski, wrzucanej na ząb z nudów, nie jest wskazane.

Nie używaj AI aby rozwiązywać problemy, dla których znasz już reguły. Szczególnie dotyczy to kwestii definiowanych regułami tworzonymi przez ludzi. Przykłady: jak zamieniamy dolary na centy? Czy znaczek z peleryną superbohatera jest na damskiej czy męskiej toalecie? Jak robić wcięcia w kodzie C++? Jaki jest podatek handlowy na Hawajach? W której klasie wagowej boksu mogę rywalizować? Czy powinnam zakładać kominiarkę do banku?(Zdjęcie: Danielle Spires)

Wybierz swoje zastosowanie i przemyśl je dokładnie zanim zaczniesz zbierać dane albo zatrudniać wymiataczy z doktoratami. Jeśli czujesz potrzebę, żeby gdzieś zastosować AI — gdziekolwiek! — tylko dlatego, że twoi przyjaciele to robią, skazujesz się na porażkę.

Jeśli możesz sprawić że zadziała bez AI, tym lepiej.

Zamiast tego podejdź do ważnego dla ciebie tematu i jeśli możesz go wdrożyć bez AI, to tym lepiej.

Zarzut #2: “AI nie działa”

Kanado — jeszcze z tobą nie skończyłam.

Moja najlepsza przyjaciółka jest Kanadyjką i sugerowała mi dodanie tego obrazka do artykułu. Myślę, że chyba jej zimno.

W naszym dążeniu do stwierdzenia czy AI może wiedzieć, że Kanada to kraj, ustaliliśmy, że komputer może przechowywać i wyciągać taką informację bez żadnych szmerów-bajerów AI. Nasz przyjaciel deweloper chce więc trochę podkręcić swoje pytanie: „Czy maszyna może się tego wszystkiego nauczyć samodzielnie?”

Moment, moment — co rozumiesz przez „nauczyć się” i „samodzielnie”? Te słowa znaczą co innego dla różnych ludzi. Odpowiedzmy na taką wersję: „Czy możemy oczekiwać od maszyny wyciągnięcia pewnego wniosku, że Kanada to kraj, jeśli nigdy wcześniej nie miała dostępu do słowa Kanada?”

Hej ludzie-nie-potrafiący-czytać-chińskiego, czy 香蕉 to kraj? A co z 英国? Nie, nie szukajcie gdzieś odpowiedzi, to jest oszukiwanie. Musicie się tego wszystkiego nauczyć samodzielnie, pamiętacie?

Jeśli nie macie dodatkowej informacji to jak w ogóle moglibyście znać odpowiedź? Podobnie zdrowy rozsądek powinien skłonić was do podejrzewania, że AI nie może nauczyć się czegoś, jeśli nie ma informacji, z których można się nauczyć. I mielibyście rację.

Jeśli ciekawi cię ten obrazek i masz ochotę wiedzieć więcej o tym jak algorytmy zmieniają wzorce w przepisy, zajrzyj tutaj.

W AI chodzi o wyłapywanie wzorców z informacji i używanie tych wzorców do automatycznego tworzenia przepisów. Tak, przepisów jak te kuchenne tyle, że nie do gotowania ale na zamianę twojego następnego wejścia (Kanada) w wyjście (kraj). Postawmy więc pytanie: jak komputer mógłby użyć właściwych wzorców, jeśli nigdy wcześniej nie widział danego słowa?

Jeśli nie ma się z czego uczyć, nauka jest niemożliwa.

Nawet jeśli mamy jakieś dane, nasz algorytm może wyciągnąć niepoprawne wzorce i efektem będzie głupi przepis. Wyobraźmy sobie nasze dane do nauki: Afryka Południowa-kraj, hipopotam-zwierzę, żaba-zwierzę, Federacja Rosyjska-kraj, Stany Zjednoczone-kraj, kot-zwierzę, Zjednoczone Królestwo-kraj, szop-zwierzę, Korea Południowa-kraj, Nowa Zelandia-kraj, motyl-zwierzę, żyrafa-zwierzę.

Zanim jeszcze skończyłeś czytać pierwszą parę, twój algorytm AI już zdążył przetrawić całość. Przetrawił, beknął z satysfakcją i zaprasza cię do wprowadzenia jakiegoś rzeczownika. Jakieś pomysły co zrobi, kiedy podasz Kanadę?

W tych danych są dwa rzucające się w oczy wzorce. Jeden to fakt, że wszystkie kraje pisane są z dużych liter. Jeśli to jest podstawa dla przepisu AI na ugotowanie odpowiedzi, to „Kanada” będzie sklasyfikowana poprawnie jako kraj, ale „kanada” już nie.

Ale co jeśli nasz przepis zostanie oparty na innym wzorcu?

Czy to jest Kanada? (source: wikimedia)

Zauważyłeś, że wszystkie kraje mają nazwy złożone z dwóch słów, podczas gdy zwierzęta są pojedynczymi słowami? Cóż, twój algorytm zauważył. Mówi więc, że Kanada to w oczywisty sposób zwierzę. O kurcze.

Jak uniknąć pułapki #2

Tak, uczenie maszynowe nie działa… jeśli maszyna nie ma z czego się uczyć. AI nie jest dla ludzi, którzy nie mogą zdobyć odpowiednich danych. Jeśli chcesz aby twoje rozwiązanie działało dobrze dla wszystkich krajów, twój zbiór danych nie może zawierać tylko tych o dwuczłonowych nazwach.

Bzdury wchodzą, bzdury wychodzą.

Ważne żeby nie stracić tu zdrowego rozsądku. Podstawy uczenia się i nauczania, które stosują się do ludzi, stosują się również do AI. Zbiory danych to podręczniki, a ty jesteś nauczycielem. Jeśli dasz uczniom podręczniki pełne bzdur, możesz się spodziewać, że nauczą się bzdur.

Zarzut #3: “AI nie jest godna zaufania”

Jeśli AI to nie magiczne roboty, to czym jest? To po prostu narzędzie pozwalające pisać kod dla zadań, które bardzo trudno jest wyrazić w postaci instrukcji.

Pytanie dlaczego dobry programista miałby mieć trudność w daniu komputerowi instrukcji? Czy nie na tym właśnie polega jego zawód? Jasne, ale niektóre zadania wymagają ekstremalnie skomplikowanych instrukcji. Jeśli są one zbyt skomplikowane, żeby ludzki umysł mógł je ogarnąć, nie będziesz w stanie ich wymyślić… chyba, że możesz przekazać zadanie w innej formie.

AI pozwala ci wyrażać swoje oczekiwania poprzez przykłady (dane) zamiast poprzez bezpośrednie instrukcje. Oznacza to, że masz szansę na zautomatyzowanie zadań, dla których nie możesz napisać instrukcji.

Proste rozwiązania nie działają dla zadań wymagających skomplikowanych rozwiązań. Zatem AI przychodzi na ratunek z — niespodzianka! — skomplikowanymi rozwiązaniami.

Oznacza to również, że kiedy dla jednego z tych generujących ból głowy zadań algorytm AI przedestylowuje wzorce w kod, powinieneś się spodziewać plątaniny skomplikowanych instrukcji. Kiedy przeczytasz taki wymyślony dla ciebie przepis… jest on nieczytelny.

Wielu ludzi reaguje alergicznie na tajemniczość i dwuznaczność: „Pozbądź się tego! Ma być proste albo tego nie chcę! Nie mogę temu ufać!”

Życzenie sobie, żeby złożone rzeczy były proste nie uczyni ich prostymi.

Wygląda na to, że utknąłeś z dwoma kiepskimi opcjami: przeżyć życie nie rozwiązując nic poza najprostszymi problemami albo wznieść się ponad nisko wiszące owoce, ale zrezygnować z zaufania. Całe szczęście jest jeszcze jeden sposób.

Wyobraź sobie wybór między dwoma statkami kosmicznymi. Statek kosmiczny numer 1 dostajesz z dokładnymi równaniami opisującymi sposób jego działania, jednak nikt nigdy nie widział go lecącego w kosmos. Natomiast jak lata statek kosmiczny numer 2 to jedna wielka niewiadoma. Przeszedł on za to intensywne testy i ma za sobą setki udanych lotów, dokładnie takich, na jaki sam się wybierasz. Który statek byś wybrał?

Jak uniknąć pułapki #3

Potrzebujemy lepszej podstawy do zaufania tym maszynom niż czytanie niezrozumiałego kodu. Na szczęście jest coś takiego: testowanie.

Nie musisz rozumieć jak coś działa, żeby sprawdzić czy naprawdę działa.

Właściwe testowanie nie jest czymś trywialnym, ale jest o wiele łatwiejsze niż próby wyciągnięcia sensu z czegoś tak ogromnego, że wywołuje zawroty głowy. Jest to również podejście, które często praktykujemy — na przykład w medycynie. Czy masz pojęcie jak działa tabletka na ból głowy? Nauka też nie ma. Powodem, dla którego ufamy takiemu rozwiązaniu, jest fakt dokładnego sprawdzenia, że to rzeczywiście działa. (Tutaj znajdziesz moją głębszą dyskusję na temat testowania jako podstawy zaufania.)

Jeśli jesteś zadowolony z rozwiązywania tylko łatwych problemów to możesz po prostu przeczekać całe to AI.

AI to nie moda, to sposób na postęp

Problemy przyszłości będą się tylko robić coraz trudniejsze. Jak już zautomatyzujesz to co proste, będziesz chciał się zabrać za większe wyzwania. Jak tylko sięgniesz poza nisko rosnące owoce, trafisz na zadania, których nie rozwiążesz starymi trikami albo brutalną siłą czystej wyobraźni. Zdasz sobie sprawę, że możesz jedynie zakomunikować czego chcesz poprzez przykłady, nie instrukcje… Witaj w AI.

--

--

Cassie Kozyrkov

Head of Decision Intelligence, Google. Hello (multilingual) world! This account is for translated versions of my English language articles. twitter.com/quaesita