Nowy paradygmat programowania


14-05-2017 15:52:34

Sztuczna inteligencja to typ oprogramowania. Jego cechy funkcjonalne w pełni uzasadniają nazwę. Zmieni ono świat nauki i techniki, zmieni też kształt ustrojów społeczno-politycznych i sposób życia ludzi.

Sztuczna inteligencja (AI) to również dziedzina nauki, która po 60 latach badań matematycznych i eksperymentów ze sztucznymi sieciami neuronowymi, wchodzi do użytku. Zaczyna się czas zastosowań praktycznych. Obecnie oprogramowanie, które zwykliśmy nazywać inteligentnym, rzadziej sztuczną inteligencją (AI), to oprogramowanie zawierające w swej konstrukcji moduły statystyczne, najczęściej w postaci sztucznych sieci neuronowych. Moduły te nazywane są słabą albo wąską sztuczną inteligencją (Weak AI/Narrow AI). Maszyny z jej elementami są powszechnym użytku. Wraz ze wzrostem ich liczby następuje proces integracji, co rodzi nową jakość. Ujawnia się ona w rozwiązaniach Big Data oraz systemach ekspertowych. Dysponujemy już maszynami, które wykazują cechy „myślenia”.

Specjaliści wiedzą, że wiek XX przeżył już co najmniej dwa wybuchy nadziei, że oto będziemy mogli skonstruować myślące maszyny, a potem okazywało się, że przejście do praktyki wymagało techniki i technologii, którymi jeszcze nie dysponowaliśmy. Tym razem jest inaczej. Mamy już narzędzia do realizacji oraz pierwsze udane produkty komercyjne.

Najważniejszym osiągnięciem, które zmieniło wszystko, jest pozytywna weryfikacja tezy, że nowy paradygmat programowania pozwoli lepiej modelować „myślenie”. I jeśli dotychczasowy nazwiemy algorytmicznym, to nowy należałoby nazwać statystycznym. Inspiracją i pierwowzorem były biologiczne sieci neuronowe. Zaobserwowaliśmy, że są to maszyny statystyczne, które w oparciu o doświadczenie budują model rzeczywistości: wzorzec budowany ze wzorców elementarnych. W największym uproszczeniu, istotą paradygmatu statystycznego jest idea i metoda konstruowania sieci, które będą w stanie budować i stale modyfikować swój algorytm na podstawie doświadczenia czyli w wyniku „uczenia”. W procesie tym sieci budują wzorce pojęć. „Materiałem edukacyjnym” tych sieci są wielkie zbiory danych, a istotą konstruowania jest prawidłowe zdefiniowanie celu edukacji. W oparciu o statystyczny paradygmat programowania opracowano m.in. sieci przetwarzające strumienie audio na tekst. To tylko jeden z bardzo wielu przykładów. Można powiedzieć, że algorytm buduje się sam metodą prób i błędów. Konstrukcja tak stworzonego algorytmu jest nieznana. Dlatego metody badania/weryfikacji jakości tego typu konstrukcji są takie same, jak metody ich budowy – statystyczne. Sprawność/jakość programowania w oparciu o ten nowy paradygmat możemy ocenić sami, używając działających komercyjnie sieci neuronowych, np. dyktując smartfonowi tekst SMS-a. O powodzeniu konkretnego celu konstrukcyjnego decyduje umiejętność uczenia maszynowego. Produkt programowania statystycznego to maszyna statystyczna, której algorytmu postępowania nie znamy z założenia. Co więcej, statyczny algorytm w tej maszynie nie istnieje. Jest to maszyna omylna, a jej jakość oceniamy poprzez stopę błędów: tym niższą im lepszy będzie proces uczenia. Metod uczenia jest obecnie wiele. Jesteśmy na początku drogi, a uczenie maszynowe stanie się głównym zadaniem inżynierów wszystkich dziedzin.

Drugim, ważnym osiągnięciem jest zdolność budowy sztucznych sieci neuronowych. Ich modelowanie jest na bardzo początkowym poziomie rozwoju, więc wymaga olbrzymich mocy obliczeniowych. Obecnie warstwę sprzętową tych sieci stanowią procesory graficzne ogólnego przeznaczenia (GPGPU), które są podstawowym modułem konstrukcyjnym superkomputerów, służącym do modelowania złożonych sieci neuronowych. Można przyjąć, że efektem obecnych badań i prac konstrukcyjnych złożonych sieci neuronowych (Deep Neural Network, DNN) będą nowe konstrukcje: zarówno sieci jaki i procesorów o architekturze i konstrukcji przystosowanej do modelowania i sprawnego uczenia DNN. Z komunikatów, m.in. Google, wiemy, że prowadzone są pracę nad rozwojem procesorów tensorowych (TPU). Z napływających informacji możemy przypuszczać, że następna generacja komputerów będzie oparta na platformach sprzętowych, które będą miały architekturę całkowicie odmienną od obecnie stosowanej von Neumanna. Być może zmiana bazy sprzętowej w większym stopniu przyczyni się do przyspieszenia rozwoju DNN niż sam wzrost mocy obliczeniowej maszyn.

Wiele raportów specjalistycznych łączy te dwa opisane osiągnięcia w jedno. Wskazuje się,  że istotą obecnego przełomu jest opracowanie metod uczenia DNN, określanych jako „Deep Learning”. Termin ten dobrze odzwierciedla  podwójną naturę tego przełomu: opanowanie modelowania pierwszej generacji złożonych, wielowarstwowych, sztucznych sieci neuronowych (DNN) oraz opanowania pierwszych skutecznych metod ich uczenia.

Trzecim, równie ważnym co poprzednie, czynnikiem umożliwiającym rozwój nowego typu oprogramowania są stale rosnące bazy danych. Ich wielkość od dziesięcioleci przyrasta w postępie niemal geometrycznym. To materiał produkcyjny do uczenia sieci. Są to dane o najróżniejszych formatach i naturze, treściach komplementarnych i sprzecznych itd. Powstają m.in. jako produkt uboczny procesów cyfryzacji, jako archiwa danych historycznych i bazy wiedzy. Ich wykorzystanie do pozyskiwania nowej wiedzy i uczenia sztucznych sieci neuronowych to fakty, które bardzo szybko przeobrażają dotychczasowe kierunki i tempo cyfryzacji.

Powyższy opis uprawnia do postawienia tezy, że przełom już się stał. Na horyzoncie, w perspektywie jednego lub dwóch pokoleń, widać „myślące” maszyny w powszechnym użytku. Dużo ważniejsze jest jednak określenie, co jest za horyzontem? Mamy świadomość, że ten nowy wynalazek zmieni całość organizacji życia społeczno-gospodarczego. Cyfryzacja nauczyła nas, że tempo zmian może być tak szybkie, że jako ludzie będziemy mieli fundamentalne kłopoty z dostosowaniem się. Wygranymi nadchodzącej rewolucji będą te społeczeństwa, które najlepiej zrozumieją nowe możliwości oraz najlepiej opracują i wdrożą niezbędne zmiany systemowe.

Dlatego postawienie prognoz, opracowanie konstruktywnej wizji przyszłości i szybkie rozpoczęcie działań dostosowawczych jest ważniejsze niż kiedykolwiek.

dr inż. Jarosław Tworóg, wiceprezes Krajowej Izby Gospodarczej Elektroniki i Telekomunikacji

Komentuje Waldemar Rukść

eNOT.pl - Portal Naczelnej Organizacji Technicznej | eNOT.pl