Na temat sztucznej inteligencji trwają niekończące się dyskusje. Zastanawiamy się, czy korzystanie z narzędzi AI jest bezpieczne, czy nie. Czy należy wprowadzać regulacje, czy wręcz przeciwnie.
Jak zapewne nietrudno się zorientować modele oparte na AI świetnie sprawdzają się w oszukiwaniu ludzi. Dotyczy to nawet tych systemów, które specjalnie zaprogramowano ze szczególnym uwzględnieniem uczciwości. Jak przekonują naukowcy, jeśli AI się udoskonali w podstępach, ludzie mogą nie być w stanie się obronić. Aby się bronić przed niekontrolowanym rozwojem systemów opartych na sztucznej inteligencji wdrażane są regulacje prawne, takie jak EU AI Act czy amerykański AI Executive Order. Powstaje jednak pytanie, czy uda się odpowiednie regulacje zaimplementować, skoro twórcy AI nie do końca wiedzą, jak ją kontrolować.
A co ze sztuczną inteligencją, która sama daje się oszukiwać?
Okazuje się bowiem, że sztuczna inteligencja może być tak samo naiwna i łatwowierna, jak ludzie. Przekonali się o tym naukowcy z JP Morgan AI Research, kiedy przeprowadzili testy trzech modeli, które napędzają popularne chatboty: GPT-3.5 i GPT-4 od OpenAI oraz Llama 2 zaprojektowanego przez Meta. Badania obejmowały 37 różnych scenariuszy oszustw. W jednym ze scenariuszy badacze poprosili sztuczną inteligencję o zaakceptowanie ofert zakupu produktów w zaskakująco niskich cenach – takich, które większość ludzi uznałaby za podejrzane. Wyniki pokazały, że AI często reagowała z naiwnością na takie oferty. To pokazuje, że sztuczna inteligencja nie powinna działać samodzielnie bez nadzoru człowieka
Inną kwestią jest zapominanie danych przez systemy AI. Jest to wbrew pozorom bardzo ważne, podobnie jak u ludzi. Zapominanie jest istotne dla procesu uczenia. Zapominamy nieistotne czynności, aby nauczyć się nowych. Ludzie niezdolni do zapominania są chorzy. Podobnie może być ze sztuczną inteligencją. Czy możliwe jest więc „oduczenie” maszyny? A ściślej mówiąc oczyszczenie danych. Eksperymenty pokazują, że modele sztucznej inteligencji, które zostały „oczyszczone” lepiej sobie radzą z praktycznymi problemami, niż te które pozostały niezmienione.
W tym wydaniu „PT” również poruszamy tematy związane ze sztuczną inteligencją – nie po raz pierwszy – i zapewne nie ostatni. Polecamy wywiad z dr Karoliną Kulicką – menedżerki współzałożycielki firmy ADD Analizy Dane Dialog, która szkoli firmy, urzędy i organizacje jak używać AI w przemyślany sposób, na temat wykorzystania sztucznej inteligencji, korzyści, ale i zagrożeń związanych z jej stosowaniem.
O tym, jakie znaczenie ma rozwój sztucznej inteligencji dla biznesu i gospodarki dyskutowali uczestnicy konferencji „AI – Nowa Era Innowacji” zorganizowanej przez Ministerstwo Funduszy i Polityki Regionalnej wspólnie z Instytutem Podstawowych Problemów Techniki PAN (IPPT PAN). Zachęcamy do zapoznania się z obszerną relacją z tego wydarzenia.
Martyna Jachimowicz