Nowe technologie to tytuł dyskusji panelowej moderowanej przez prof. dr. hab. inż. Jana Szmidta – Honorowego Przewodniczącego KRASP-u podczas V Światowego Zjazdu Inżynierów Polskich (V SZIP), organizowanego wraz z XXVII Kongresem Techików Polskich (XXVII KTP) przez Federację Stowarzyszeń Naukowo-Technicznych NOT (FSNT-NOT) wspólnie z partnerami, na Politechnice Śląskiej w Gliwicach (23–25.06.2022) – patrz. PT 7/22.
Obecne są w nauce, edukacji, biznesie, administracji, transporcie, medycynie i wielu innych dziedzinach. Algorytmy matematyczne z gigantycznymi zbiorami danychcoraz powszechniejzastępują człowieka w jego umiejętnościach, rozumowaniu, uczeniu się, planowaniu czy kreatywności. Pojawia się niepokój o to, czy sztuczna inteligencja (SI) nie zdetronizuje z czasem człowieka?
Do debaty zaproszeni zostali: prof. Tadeusz Burczyński, dyrektor Instytutu Podstawowych Problemów Techniki Polskiej Akademii Nauk, kierownik Zakładu Inteligencji Obliczeniowej w tym instytucie, prof. Paweł Kasprowski, zastępca kierownika Katedry Informatyki na Wydziale Automatyki, Elektroniki i Informatyki Politechniki Śląskiej, koordynator uczelniany obszaru badawczego SI i przetwarzanie danych, prof. Tomasz Szapiro, były rektor SGH, członek Prezydium Rady Głównej Nauki i Szkolnictwa Wyższego i Prezydium Konferencji Rektorów Akademickich Szkół Polskich oraz Paweł Jakubik, dyrektor Transformacji Cyfrowej w firmie Microsoft.
Panel był podzielony na 4 części. W każdej z nich koncentrowano się na poszukiwaniu odpowiedzi na pytania postawioneprzez moderatora, w tym: co rozumiemy pod podjęciem sztucznej inteligencji, jaka jest jej rola w kształceniu od przedszkola do studenta i w przygotowaniu do życia w świecie zdominowanym przez SI, a także w aspekcie rozwojuprzemysłu 4.0. W tym kontekście analizie poddawano mechanizmy, stan obecny, przyszłośći rynek pracy. Ostatni blok dyskusyjny poświęcony był blaskom i cieniom sztucznej inteligencji, prowadzonym badaniom, zastosowaniu jej w praktyce oraz konfrontacji z etyką iprawem. W ożywionej dyskusji głos zabierali nie tylko prelegenci, ale także uczestnicylicznie zgromadzeni w auli Politechniki Śląskiej w Gliwicach.
Co rozumiemy pod pojęciem SI
Jest to dziedzina wiedzy z pogranicza informatyki, matematyki, logiki, neurologii, automatyki a nawet filozofii, obejmująca tworzenie komputerowych systemównaśladujących ludzką inteligencjęoraz programów symulujących inteligentnezachowania.Sztuczną inteligencję definiuje się najczęściej jako połączeniealgorytmów matematycznych z ogromnymi zbiorami danych, ich szybkim i wielokrotnym przetwarzaniem.W oparciu o określone wzorce i cechy tych danych system komputerowy sam się uczy i dokonuje własnych analiz,wyjaśniali eksperci.
Tylko taki system można uznać za inteligentny, kiedy sam się uczy – uważa prof. Paweł Kasprowski.– Jeśli natomiast informatyk wspólnie z lekarzem opracują go do diagnozowania chorób, na podstawie wskazanych w tym programie objawów, to takie rozwiązanie w tej definicji się nie mieści. W sytuacji kiedy np. na podstawie zdjęcia rentgenowskiego system sam tego dokona, to wtedy spełnia to kryterium.
Termin sztuczna inteligencja jest mocno nadużywany w dzisiejszych czasach. Często słyszymy o inteligentnych żelazkach, tosterach, odkurzaczach. Moim zdaniem, to nie są inteligentne urządzenia, bo zostały dokładnie zaprogramowane przez informatyków, uzupełnia prof. Kasprowski. Tutaj inteligencją wykazał się projektant, a nie SI.Uczenie maszynowe, które korzysta m.in. z sieci neuronowych, a także statystyk i badań pozwala komputerowi na opracowanie własnych analiz i dopiero wtedy mamy do czynienia ze sztuczną inteligencją.
Według prof. Tomasza Szapiro, SI nie powinna być postrzegana wyłącznie jako źródło postępu. W myśl definicji wyjściowej z 1956r., sztuczna inteligencja jest nauką i inżynierią, tworzenia inteligentnych rzeczy. Takie definiowanie wynikało z fascynacji komputerami. Wielki postęp w algorytmach przy przetwarzaniu danych doprowadził do zastosowań, które nazwano sztuczną inteligencją.Były różne nadzieje dotyczące tego obszaru, ale historia pokazuje, że po pierwszym okresie entuzjazmu, nastąpił zastój. To odżyło znacznie później, kiedy opracowano podłączenia sieci neuronowych i rozwinęły się ewolucyjnealgorytmy. Myślę, że teraz będzie podobnie.Kiedy obserwujemy bardzo duże zainteresowanie i zastosowanie SI w różnych dziedzinach, czasemjedna cecha może spowodować, że osiągniemy pewien pułap i dalej już nie ruszymy.
Prostymi przykładami uczenia się maszynowego i stosowania ML (machine learning),które jako część SI pozwala systemom samodoskonalić się i podejmować próby oryginalnych rozwiązań są np. np. wyszukiwarki on-line, podpowiadanie użytkownikowi prostych rozwiązań, rozpoznawanie obrazów, czy filtrowanie spamów w sieci internetowej. We wszystkich działaniach uczenie maszynowe jest bardzo ważne, natomiast ciągle otwarte jest pytanie,czy inteligentny system to rozumie. Nie znamy jeszcze odpowiedzi na to pytanie, które jest wyzwaniem przed którym nadal stoją inżynierowie i uczeni.
SI w kształceniu studentów
Przygotowanie do życia w świecie zdominowanym przez sztuczną inteligencję jest pewnego rodzaju rewolucją, jeśli chodzi o sposób kształcenia uczniów i studentów. -Możemy się spodziewać, że kiedyś SI zastąpi nauczycieli akademickich, co jest dla nas trochę przerażające, podkreślali paneliści, dodając, że do pewnego stopnia już tak się dzieje. Systemy sztucznej inteligencji rekomendują bowiem uczniom czego mają się uczyć, ale pocieszające jest to, że te treści nadal tworzą ludzie.
Niektóre uczelnie za granicą, wykorzystują inteligentne systemy np.do analizowania reakcji studentówi sprawdzania czy są skupieni na wykładach. Jeśli ich uwaga jest rozproszona, wykładowca dostaje sygnał, że zaczyna „przynudzać”, dlatego studenci tracą zainteresowanie.Sztuczna inteligencja ma swoje dobre i złe strony. Z czasem przekonany się jak te systemy oddziałują na procesy edukacji uczniów i studentów.
Na razie, trudno mieć absolutne przekonanie, że sztuczna inteligencjazawsze wiąże się zsukcesem.- Jest 5 kryteriów, które nakazują, żeby to sprawdzić. – zalecał prof. Tadeusz Burczyński. – Pierwszym jest weryfikacja praktyczna, drugim systemowa, bo żaden algorytm nie działa sam, tylko jest częścią określonegosystemu informatycznego. Trzecimempiryczna,bo są pewne bazy, w których można te algorytmy przetestować. Czwartym kryterium jest weryfikacja matematyczna, a ostatnim społeczna. Życie pokazuje, że w tej dziedzinie zdarzają się poważne nadużycia. Mieliśmy ostatnio przykład z Pegasusem, zastosowanym z pewnością, wbrew intencjom twórców systemu. Jeżeli wierzymy w sukces SI i chcemy, żeby młodzi ludzie mogli sobie z nią radzić, to musimy ich w tych 5 wymiarach dobrze przygotować zarównopojęciowo, jak i programowo.Najważniejsze, żeby to czego ich uczymy przydało się im w praktyce i mogli to zweryfikować empirycznie w nieprawdopodobnie zmieniającym się świecie.
Trudno przewidzieć jaki scenariusz kreśli nam życie na najbliższych kilka dekad, ale jedno jest pewno od dynamicznego rozwoju techniki i technologii nie ma już odwrotu i to musi być uwzględnione w programach edukacji najmłodszych i kształceniu studentów, konkludowali eksperci.
Za analizę i tworzenie baz danych są odpowiedzialni inżynierowie big data, ale nie ma w Polsce systemu certyfikacji dla tej grupy zawodowej. To poważny błąd, podkreślali uczestnicy panelu.Zanim absolwent budownictwa będzie mógł zbudować most, musi zdobyć wiele uprawnień. Podobnie jest z absolwentem studiów medycznych, natomiast inżynierami danych zostają ludzie, którzy nawet nie muszą skończyć informatyki. Be wątpienia powinni być objęci certyfikacją, dokładnie znać ograniczenia algorytmów i posiadać wiedzę jak działają i jak na to wpływają różne parametry. To oni tworzą bowiem systemy, które są coraz częściej używane np. do obsługi szpitali,ośrodków zdrowia, publicznych form transportu, elektrowni i wielu innych dziedzin.To wszystko jest ważne. Narzędzia są bardzo dobre, ale w rękach niewykwalifikowanej osoby mogą doprowadzić dopoważnych problemów. Trzeba zapobiec niebezpieczeństwu, aby sztuczna inteligencja nie mogła robić złych rzeczy, bo stracimy nad nią kontrolę.
SI i Przemysł 4.0 – mechanizmy
Przemysłu 4.0 otworzył firmom produkcyjnym ogrom możliwości w zakresie stosowania systemów informatycznych wykorzystywanych do optymalizacji produkcji, umożliwiającej współpracę ludzi i robotów, analitykę danych.Informacje wsparte algorytmami sztucznej inteligencji, czy uczenia maszynowego, pozwalają znacząco zwiększać efektywność i przewagi biznesowe na różnych polach.
Sztuczna inteligencjaprzyczyniła się do ewolucji metod pracy, tworząc nowe relacje między ludźmi a maszynami, zwiększając znacząco wydajność przedsiębiorstw– wskazywał w debacie Paweł Jakubik, dyrektor Transformacji Cyfrowej w firmie Microsoft. -Motorem napędowym czwartej rewolucji przemysłowej są dane. To dzięki nim przedsiębiorstwa działające w różnych sektorach są w stanie lepiej reagować na zmiany zachodzące na rynku oraz tworzyć nowe modele produktów czy usług.Dla przykładu,firma CCC zaczyna stosować algorytm, który jak zacznie padać deszcz, a my zamówimy buty przeciwdeszczowe, to w ciągu 90 min. te buty będziemy mieli przed domem. To rozwiązanie budzi respekt na świecie. Taki przykładów można przytaczać dużo więcej.
Paneliści zwracali uwagę, że systemy wspierające procesy produkcyjne, kontrolne i analityczne w przemyśle stają się niezbędne, aby skutecznie konkurować na globalnym rynku. Sztuczna inteligencja kusi polskie przedsiębiorstwa, ale inflacja i kryzys nie sprzyjają takim inwestycjom.Przedsiębiorcy boją się ryzyka.Niemniej jednak od SI nie ma już odwrotu. Rynek będzie ewoluował w tym kierunku. W wielu europejskich krajach cyfryzacja i automatyzacja produkcji jest na bardzo wysokim poziomie.
W ożywioną dyskusję na ten temat włączało się aktywnie wiele osób przysłuchujących się debacie. Z sali padały przykłady jak z Przemysłem 4.0 radzą sobie inne kraje. Na przykład w Niemczech, żeby rozwijać Przemysł 4.0 musi być pełna automatyzacja i cyfryzacja produkcji. Osiągnęli już w tym zakresie poziom 75%, a my zaledwie kilkanaście procent.
Blaski i cienie
W końcowej części dyskusji panelowej prelegenci skoncentrowali się na podsumowaniu roli SI w życiu społecznym i gospodarczym, ale także na zagrożeniach oraz problemach etycznych i prawnych, które się z tym wiążą. Dla przykładu, jeżeli autonomiczny pojazd spowoduje wypadek i ktoś zginie, kto za to odpowiada? Prawo właściwie tej sprawy nie reguluje. Takich przykładów można przytoczyć dużo więcej, dlatego jest to wyzwanie dla prawodawców. Kolejny, to są problemy etyczne. Systemy SI są też stosowane w armii, jest broń, która sama wybiera dokąd rakieta będzie leciała i kto od niej zginie. Człowiek praktycznie już o tym nie decyduje tylko system. Jak mamy się w tym odnaleźć i dostosować do tych zmian. Jest nadzieja, że z czasem poznany odpowiedzi na te wszystkie pytania.
W ocenie prof. Jana Szmidta, sztuczna inteligencja osiągnie swój realny wymiar, kiedy społeczeństwo zaakceptuje to co my im proponujemy. Mówię tu nie tylko o naukowcach, ale również inżynierach, informatykach i przedsiębiorcach, tych którzy się tym zajmują. Wymuszamy pewne potrzeby, które gigantycznie się mnożą. Jedno jest pewne, nie możemy się już obyć bez tych technologii.
Na zakończenie prof. Tomasz Szapiro przyznał, że miał wiele wątpliwości co do tytułu sesji –„Czy sztuczna inteligencja może zdetronizować człowieka?”, ale uznał, że tylko człowiek może zdetronizować człowieka. Sztuczna inteligencja nie ma takiej mocy i miejmy nadzieję, że do tego jeszcze długo nie dojdzie.
Jolanta Czudak