Nasza Loteria NaM - pasek na kartach artykułów

Prof. Ryszard Tadeusiewicz: ChatGPT nie zwalnia ludzi z myślenia. Sztuczna inteligencja będzie nami sterowała, jeśli się na to zgodzimy

Bartosz Dybała
Bartosz Dybała
- Niebezpieczeństwo korzystania z popularnego programu ChatGPT, który wykazuje cechy sztucznej inteligencji, nie polega na tym, że z komputera czy smartfona wyjdzie demon, który nas zaatakuje, bo dialog, nawet najbardziej gorący, do fizycznego zagrożenia nie prowadzi. Niebezpieczne jest natomiast bezkrytyczne przyjęcie odpowiedzi ChatGPT jako własnych opinii czy wytycznych do działania. Wtedy nie my będziemy korzystać ze sztucznej inteligencji, tylko to ona będzie nami sterowała - przekonuje w rozmowie z nami profesor Ryszard Tadeusiewicz, informatyk i popularyzator nauki z Akademii Górniczo-Hutniczej w Krakowie.

Dużą popularność wśród internautów zyskał program ChatGPT, który wykazuje cechy sztucznej inteligencji. Jakiś czas temu nasz dziennikarz porozmawiał z Chatem o Krakowie. Okazuje się, że na temat miasta oraz jego problemów program wie całkiem sporo. Fajna zabawa, ale niektórzy ostrzegają, że korzystanie z niego może być niebezpieczne. Co nam grozi?

Niebezpieczeństwo nie polega na tym, że z komputera czy smartfona wyjdzie demon, który zaatakuje użytkownika programu, bo dialog, nawet najbardziej gorący, do fizycznego zagrożenia nie prowadzi. Niebezpieczne jest natomiast bezkrytyczne przyjęcie odpowiedzi ChatGPT jako własnych opinii czy wytycznych do działania. Program może sprawiać wrażenie, że zwalnia człowieka od obowiązku myślenia, a bezmyślność jest wszak taka słodka! Gdy przestaniemy samodzielnie myśleć, nie my będziemy korzystać ze sztucznej inteligencji, tylko to ona będzie nami sterowała: jak marionetkami na sznurku. Ale podkreślam: to się stanie, jeśli my sami się na to zgodzimy.

ChatGPT dostarcza tekstów, które są gotowe, by ich od razu użyć. Od tego już krótka droga do zwolnienia społeczeństwa od trudów samodzielnego pozyskiwania wiedzy, tworzenia, kreowania...

Pół biedy, jeśli dziennikarz, tworząc felieton, wplecie tam fragmenty "gotowca", pozyskanego w drodze dobrze ukierunkowanego dialogu z ChatGPT. Będzie to nieuczciwe w stosunku do innych dziennikarzy, trudzących się osobiście, i w stosunku do czytelników, którzy przyjmą "sieczkę informacyjną" automatycznie zmieloną z milionów opracowań, do których ChatGPT miał dostęp. Natomiast fatalnie będzie, jeśli uczeń, zamiast tworzyć własne wypracowanie, przedstawi nauczycielowi wynik konwersacji z ChatGPT. Po pierwsze w ten sposób sam nie zdobędzie żadnej wiedzy oraz nie rozwinie własnej mądrości, a po drugie nauczy się nieuczciwości, którą potem będzie wykorzystywał w stosunkach z innymi ludźmi.

Przed dalszym rozwojem programu ostrzega nawet Elon Musk, który sam inwestuje w nowoczesne technologie. Dlaczego świat tak bardzo obawia się sztucznej inteligencji?

Elon Musk cechuje się tym, że lubi wywoływać pewien ferment intelektualny, "wrzucając" rozmaite opinie i trochę z nimi szarżując. To wielki innowator, który sam sztuczną inteligencję wykorzystuje gdzie może i jak może, natomiast lubi być na ustach wszystkich i tak właśnie działa też w przypadku ChatGPT. Tymczasem w dyskusji na temat tego programu zapominamy o jednym: jako społeczeństwo w większości już teraz na co dzień korzystamy ze sztucznej inteligencji. Tylko na ogół ludzie nie zdają sobie z tego sprawy. Mało kto wie, ile rozwiązań, opartych na sztucznej inteligencji, jest w zwykłym smartfonie, nie mówiąc o sterowaniu ruchem lotniczym czy kolejowym, wspomaganiu lekarzy w zakresie diagnostyki i terapii, zrobotyzowanym przemyśle czy elektronicznym handlu. Sztucznej inteligencji dookoła nas jest coraz więcej i jest nam z tym dobrze, ponieważ używanie narzędzi inteligentnych jest wygodniejsze, a osiągany efekt jest lepszy.

Skąd się zatem biorą obawy?

Po pierwsze różne fobie, dotyczące sztucznej inteligencji, "nakręcili" pisarze i filmowcy. Straszenie publiczności jest sposobem osiągania sukcesu - jeśli nie artystycznego, to komercyjnego. Skoro można straszyć rekinami, dinozaurami, kosmitami - to można i robotami. Ale te fantazje nie mają nic wspólnego z rzeczywistością! Po drugie ludzi przeraża perspektywa, że maszyny staną się inteligentniejsze od nich. To akurat nieuchronnie nastąpi, bo wszelkie mierniki inteligencji pozostają u ludzi (średnio) na tym samym poziomie, podczas gdy wskaźniki inteligencji maszyn rosną nieprzerwanie. Ta płasko przebiegająca linia ludzkiego intelektu i silnie rosnąca krzywa sprawności algorytmicznej komputerów muszą się przeciąć. Jeszcze nie dziś, jeszcze nie jutro, ale za kilkanaście czy kilkadziesiąt lat do tego przecięcia w końcu dojdzie.

I co wtedy?

Moim zdaniem nic złego. Maszyny będą za nas rozwiązywały problemy, których my rozwiązać nie potrafimy. Będzie nam z tym wygodnie, podobnie jak wygodny jest fakt, że maszyny są od nas mocniejsze (dźwig podnosi więcej niż atleta na olimpiadzie) i szybsze (samochód wyprzedzi sprintera).

A czy maszyny nie zechcą zniszczyć ludzkości?

A po co miałyby to robić? Nie konkurujemy z nimi o dostęp do żywności, bo one jej nie potrzebują. Nie zabieramy im mieszkań, bo one bytują w cyberprzestrzeni. Nie rywalizujemy o stanowiska, bo maszynom jest obojętne, z kim i na jakiej zasadzie współpracują. U podstaw wszelkich komputerów i systemów elektronicznych jest logika. Jaki miałby być logiczny powód niszczenia przez komputery ludzi?

W ostatnich miesiącach świat codziennie żyje tym, co dzieje się na wojennym froncie, na którym Ukraina próbuje odeprzeć ataki wroga. ChatGPT mógłby jej w tym pomóc?

W żadnym z konfliktów zbrojnych sztuczna inteligencja nie odegrała zasadniczej roli. Owszem: jej algorytmy pozwalają na budowę rakiet i dronów manewrujących, a także bojowych robotów. Ale wyobrażenie, że w warunkach jednego z wielu starć armii na Ukrainie dowódca zamiast kierować atakiem czy obroną będzie prowadził dialog z ChatGPT, żeby się dowiedzieć, co robić - nadaje się wyłącznie jako temat komedii filmowej na granicy absurdu. Zwłaszcza, że program, znający całą historię ludzkich zmagań, może mu podpowiadać taktykę, opartą na analizie wojen punickich…

emisja bez ograniczeń wiekowych
Wideo

Archeologiczna Wiosna Biskupin (Żnin)

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na X!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na X!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Materiał oryginalny: Prof. Ryszard Tadeusiewicz: ChatGPT nie zwalnia ludzi z myślenia. Sztuczna inteligencja będzie nami sterowała, jeśli się na to zgodzimy - Gazeta Krakowska

Wróć na krakow.naszemiasto.pl Nasze Miasto