Miesięcznik Federacji Stowarzyszeń Naukowo-Technicznych NOT

Zagłosuj w 31. edycji plebiscytu Złoty Inżynier !!!

Baner poziomy

Wirtualni laureaci w realu!

Czy można było oczekiwać, że wygrywające konkursy fotograficzne zdjęcia pstryknęła sztuczna inteligencja? I że wygrała konkurs na „Osobowość Roku”, o publikowaniu tekstów w znanym dzienniku nie wspominając?

W lutym australijskie studio Absolutely AI pochwaliło się pierwszą na świecie grafiką stworzoną za pomocą generatora sztucznej inteligencji AI, która umożliwia maszynom uczenie się na podstawie doświadczeń, dostosowywanie się do nowych informacji i wykonywanie zadań podobnych do ludzkich. Inaczej mówiąc, nagrodzona praca jest efektem programu, który stworzył ją  analizując wcześniej miliony zdjęć dostępnych w Internecie!

Kreatywny kwiecień!

O ile dokonania agencji zajmującej się wykorzystywaniem systemów uczenia maszynowego do pracy graficznej są znane nielicznym, to Sony World Photography Award zaliczany jest do prestiżowych konkursów fotograficznych. W jego 16. edycji o nagrody ubiegało się ponad 415 tys. fotografii z przeszło 200 krajów i terytoriów. W lutym ogłoszono, że w kategorii „Kreatywność” zwyciężyła fotografia niemieckiego artysty Borisa Eldagssena „Pseudomnesia”/”The Electricia”: zapadający w pamięć czarno-biały portret dwóch kobiet z różnych pokoleń, przywodzący na myśl wizualny język portretów rodzinnych z lat 40. XX wieku. Autor odmówił  przyjęcia nagrody, bo do konkursu przesłał zdjęcie wygenerowane przez sztuczną inteligencję w celu sprowokowania dyskusji na temat przyszłości branży fotograficznej. – Zgłosiłem się niczym bezczelna małpa, aby dowiedzieć się, czy konkursy są przygotowane do tego, aby mogły brać w nich udział grafiki AI. Nie są. My, świat fotografii, potrzebujemy otwartej dyskusji. Dyskusji o tym, co chcemy uznać za fotografię, a co nie. Czy parasol fotograficzny jest wystarczająco duży, by zaprosić do niego zdjęcia AI – czy też byłby to błąd? Odmawiając przyznania nagrody mam nadzieję przyspieszyć tę debatę.

Psuedomnezja to klasyczne greckie określenie pseudopamięci – fałszywej, takiej jak fałszywe wspomnienie wydarzeń, które nigdy nie miały miejsca. Posługując się wizualnym językiem lat 40. Boris Eldagsen tworzy z pomocą generatorów obrazów AI swoje obrazy jako fałszywe wspomnienia z przeszłości, która nigdy nie istniała i której nikt nie sfotografował. Po prostu, zostały one wymyślone przez język i ponownie zredagowane kilkadziesiąt razy za pomocą generatorów obrazów AI. I w ten sposób fotografia zastąpiła malarstwo w reprodukcji rzeczywistości. Czy sztuczna inteligencja zastąpi fotografię? A dziennikarzy?

W połowie kwietnia na portalu Wyborcza.biz ukazał się artykuł „Elon Musk vs OpenAI: Wyścig do stworzenia nowego interfejsu człowiek-komputer”, podpisany przez Bolesława Breczko, ale – do czego się przyznał  – stworzony przez ChatGPT. – To był jednorazowy społecznym eksperyment – zaznaczył w rozmowie z portalem Wirtualnemedia.pl. – Nie chciałem nikogo wprowadzać w błąd, oszukać. Uważam, że teksty pisane przez AI powinny być wyraźnie oznaczane. Tylko w ten sposób mogłem sprawdzić, czy ktoś rozpozna, że materiał nie jest stworzony przez człowieka. A Sebastian Ogórek, szef Wyborcza.biz, podkreślił, że publikację tekstu autorstwa AI redakcja traktuje „stricte eksperymentalnie”, jako sprawdzenie umiejętności sztucznej inteligencji na jej obecnym poziomie. – Chcieliśmy zweryfikować, czy rzeczywiście jest tak dobra, rewolucyjna i jednak niebezpieczna, jak się powszechnie uważa. Wcześniej mieliśmy też tekst dotyczący pisania przez ChatGPT kodu programistycznego – aplikacja działa, sam z niej korzystam. Po tym materiale nasi czytelnicy sugerowali, że AI może być też zagrożeniem dla naszej pracy. Chcieliśmy to więc sprawdzić.

Niemal równolegle redakcje Dziennika Bałtyckiego i Głosu Pomorza w organizowanym co roku plebiscycie mającym na celu uhonorowanie „osób, które w minionym roku odniosły sukcesy, zasłużyły się dla lokalnej społeczności lub angażowały się w działania charytatywne”, tytuł „Osobowości Roku 2022″ w kategorii „Biznes” w powiecie lęborskim przyznały Agacie Bąk. Problem w tym, że ona nie istnieje, albowiem została wykreowana przez AI i Martynę Regent (na zdjęciu z prawej, obok Agaty Bąk), społeczniczkę z Gdyni, członkinię Sieci Obywatelskiej Watchdog Polska.

Na stronie Watchdoga napisała, że w styczniu dostała nominację do nagrody w plebiscycie Polska Press „Osobowość Roku”, za działania w ramach stowarzyszeniu Miasto Wspólne w Gdyni, ale – podobnie jak kilkadziesiąt osób w całym kraju – wycofała swoją kandydaturę. Postanowiła jednak sprawdzić, na ile kapituła konkursu weryfikuje zgłoszonych kandydatów i czy w plebiscycie ma szansę fikcyjna postać. Stworzyła więc Agatę Bąk, wykładowczynię i badaczkę sztucznej inteligencji z ponad 10-letnim doświadczeniem w branży, koordynatorkę zespołu badawczego „Invisible Women in AI”. – Nie istnieje, więc nie ma żadnych osiągnięć i nie jest znana lokalnej społeczności. W Internecie nie pojawiły się żadne materiały, które mogłyby potwierdzić jej osiągnięcia. Istniała jedynie w wysłanym zgłoszeniu. Mimo to na podany numer telefonu został przesłany dyplom z gratulacjami Kapituły Redakcji „Dziennika Bałtyckiego”. Nikt z kapituły nie zweryfikował też fikcyjnej kandydatki na żadnym etapie plebiscytu. W rezultacie 26 kwietnia odebrałam w imieniu Agaty statuetkę.

Wydawnictwo Polska Press zdecydowało o odebraniu tytułu fikcyjnej osobie i zapowiada weryfikację regulaminów pod kątem zmian technologicznych.

A Universal Music Group, jedna z największych wytwórni fonograficznych na świece, zaapelowała do serwisów streamingowych, takich jak Spotify i Apple Music o zablokowanie dostępu do utworów muzycznych powstałych dzięki programom korzystającym z AI. Bo w sieci już można słuchać takie piosenki, jak np. Heart on My Sleeve, której wokale brzmią jakby zostały zaśpiewane przez Kanadyjczyków: Drake i the Weeknd.

Ojciec: Alan Turing

Jednym z najpopularniejszych narzędzi bazujących na sztucznej inteligencji jest ChatGPT, który pozwala tworzyć artykuły, wspomaga badaczy czy media. Opracowany przez OpenAI, amerykańskie laboratorium badawcze specjalizujące się w dziedzinie sztucznej inteligencji, program komputerowy chatbot, którego zadaniem jest prowadzenie konwersacji z udziałem komputera, replikując zachowania ludzkie, np. automatyzując odpowiedzi na powtarzalne pytania, wykorzystuje model Generative pre-trained transformer (GPT) i odpowiada użytkownikowi. Opracowano go na podstawie dużych zbiorów danych, aby mógł prowadzić rozmowę i angażować się w różne tematy: od ogólnych po określone obszary wiedzy. Nazwa „chatterbot” została po raz pierwszy użyta w 1994 r. przez Amerykanina – Michaela Mauldina, twórcę Verbota nieistniejącego programu chatbota do opisania interfejsów konwersacyjnych i wynalazcę wyszukiwarki internetowej Lycos. Warto jednak dodać, że powstanie chatbotów zainspirował Alan Turing, który w 1950 r. zaproponował test inteligencji (Test Turinga), mający pośrednio udowodnić inteligentne zdolności maszyny dzięki skutecznemu udawaniu człowieka w rozmowie poprzez terminal tekstowy!

Pierwszy model GPT OpenAI  przedstawiło w 2018 r., a w listopadzie 2022 r. – prototyp ChatGPT, który w ciągu zaledwie 5 dni zyskał ponad 1 mln użytkowników (w marcu br. domenę openai.com odwiedziło 2,43 mln polskich internautów, o 0,6 mln więcej niż miesiąc wcześniej).

14 marca br. firma OpenAI zaprezentowała GPT-4, który z bardzo dobrym wynikiem może… zdać egzamin prawniczy i udzielać poprawniejszych odpowiedzi niż jego poprzednie wersje.

Czy już strach się bać?

Nie dziwi więc, że kilkanaście dni później the Future of Life Institute (FLI), amerykańska organizacja non-profit analizująca zagrożenia dla ludzkości, szczególnie ze strony nowoczesnych systemów sztucznej inteligencji, opublikowała w internecie list otwarty, wzywając do natychmiastowego wstrzymania prac nad kolejnymi, jeszcze bardziej zaawansowanymi programami AI niż właśnie udostępniony. Bo mogą one stanowić m.in. ogromne zagrożenie dla społeczeństw i całej ludzkości. Dlatego ich rozwój powinien podlegać bardzo ścisłemu nadzorowi, a tak się nie dzieje. Pod apelem podpisały się tysiące osób ze świata nauki i biznesu, m.in. Elon Musk i Steve Wozniak (współzałożyciel Apple’a).

W 2022 r. sektor AI osiągnął ok. 120 mld USD przychodów, ale eksperci twierdzą, że jej rozwój jest jeszcze na wczesnym etapie i średnioroczne tempo wzrostu utrzyma się do końca dekady na poziomie przekraczającym 38%. A w 2030 r. rynek ten będzie wyceniany na niemal 1,6 bln USD.

Jak wykorzystać tę szansę na rozwój biznesu i nauki, ale też jakie zagrożenia może nieść tak dynamiczny rozwój sztucznej inteligencji i jak się przed nimi ustrzec rozmawiano podczas konferencji „#AIChallenger. Biznes, nauka i społeczeństwo w świecie sztucznej inteligencji”, która w kwietniu odbyła się na Wydziale Humanistycznym Uniwersytetu Śląskiego w Katowicach. Przedstawione propozycje rekomendacji, a skierowane głównie do środowiska akademickiego, opracował zespół naukowców współorganizatora wydarzenia: Śląskiego Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych Cyber Science – konsorcjum naukowo-dydaktycznego utworzonego przez Uniwersytet Śląski, Naukową i Akademicką Sieć Komputerową – Państwowy Instytut Badawczy NASK, Uniwersytet Ekonomiczny w Katowicach i Politechnikę Śląską.

Naukowcy z Cyber Science „generatory treści” typu ChatGPT zdefiniowali jako aplikację, która jest w stanie, po zadaniu jej odpowiednich kryteriów, samodzielnie wygenerować tekst czy obraz mogące sprawiać wrażenie stworzonych przez człowieka. I, jak informuje PAP, podkreślili, że uczelnie powinny gwarantować otwartość naukową i dydaktyczną na nowoczesne narzędzia informatyczne, bo: swoboda w korzystaniu z różnych narzędzi informatycznych, w tym takich jak generatory treści, wpisuje się w otwartość naukową nauki i dydaktyki. Ale jednocześnie powinny zalecać krytyczne podejście do źródeł internetowych, a także do wyników uzyskanych przez generatory treści, uwzględniając ryzyko ich stronniczości, podatności na wadliwość źródeł czy błędy w odpowiedziach: wykorzystujący generatory treści ponosi osobiście odpowiedzialność za dane opublikowane, a wcześniej wygenerowane przez generator. Postulują też konieczność przeciwdziałania nadużyciom wykorzystania w pracy naukowej, dydaktycznej czy też w zakresie zaliczania wiedzy przez studentów narzędzi typu generator treści w sposób sprzeczny z przepisami prawa, przepisami wewnętrznymi uczelni oraz zasadami etycznymi oraz niniejszymi wytycznymi.

Warto przeczytać artykuł Jarka Gryza, profesora informatyki i filozofii na York University w Toronto, Nadchodzą sztuczni inteligenci? (Gazeta Wyborcza, 29.04.-1.05.), który zaczyna od konstatacji, że prawie wszyscy amerykańscy uczniowie odrabiają już lekcje z pomocą sztucznej inteligencji. Następnie przytacza opinię entuzjastów AI, że tak jak kalkulator uwolnił nas od konieczności liczenia, tak ChatGPT uwolni nas od konieczności pisania oraz wypowiedź Daniela Hermana, nauczyciela w szkole średniej w Berkley: To, co GPT potrafi wykreować, jest lepsze niż znakomita większość tego, co widzi w klasie przeciętny nauczyciel czy profesor. A od siebie dodaje: W istocie najlepszym dowodem na uczniowskie ściąganie od maszyny jest jakość wypracowań.

Niestety, ten interesujący artykuł, w którym autor przytacza efekty badań dotyczące wiarygodności ocenianej publikacji, deprecjonuje jego zakończenie: ChatGPT jest już dostępny od kilku miesięcy, ale nie trafiłem dotąd na żadną informację o przyłapaniu kogokolwiek na publikacji artykułu napisanego przez maszynę. Nie wierzę, że nikt nie próbował. Bo, jak już wiemy, ta pointa nie jest prawdziwa. Przynajmniej w Polsce!

Jerzy Bojanowicz

Wykorzystałem informacje dostępne w internecie

Wirtualni laureaci w realu