Nasza Loteria NaM - pasek na kartach artykułów

Prof. Piotr Buła o AI: Sztuczna inteligencja może stać się niebezpieczną cyberbronią, zarówno informacyjną, jak i w klasycznym rozumieniu

Marek Długopolski
Marek Długopolski
Prof. PIOTR BUŁA: - Możemy, jako społeczeństwo, utracić kontrolę nad sztuczną inteligencją, która obecna jest przecież w mniejszym lub większym stopniu we wszystkich dziedzinach naszego życia
Prof. PIOTR BUŁA: - Możemy, jako społeczeństwo, utracić kontrolę nad sztuczną inteligencją, która obecna jest przecież w mniejszym lub większym stopniu we wszystkich dziedzinach naszego życia 123rf
– Brak ram etycznych i prawnych może sprawić, że algorytmy jeszcze bardziej niż dotychczas, będą wpływać na nasze wybory i decyzje, albo jeszcze intensywniej niż obecnie służyć jako narzędzie dezinformacji – podkreśla prof. UEK dr hab. dr h.c. PIOTR BUŁA, prorektor ds. współpracy Uniwersytetu Ekonomicznego w Krakowie, kierownik Katedry Zarządzania Międzynarodowego UEK
Prof. PIOTR BUŁA: - Niestety, manipulowanie informacjami czy też fabrykowanie treści, to powszechne już zjawisko. Manipulowane i fabrykowane bywają nie
Prof. PIOTR BUŁA: - Niestety, manipulowanie informacjami czy też fabrykowanie treści, to powszechne już zjawisko. Manipulowane i fabrykowane bywają nie tylko pojedyncze wpisy, newsy czy teksty publikowane w sieci, ale także całe kanały komunikacji internetowej, np. profile w mediach społecznościowych Anna Kaczmarz

- Twórcy sztucznej inteligencji chcą być Bogiem?

- Nie wydaje mi się, żeby było to właściwe podejście. Choć i w tej sferze ludzkiego życia, a więc w sferze duchowej, sztuczna inteligencja zagościła już jakiś czas temu. Z jednej strony od dawna istnieje możliwość spowiedzi przez Internet, słyszy się także o wykorzystaniu czatów w kontaktach duchownych z wiernymi. Z drugiej jednak strony - kościoły dostrzegają już problemy etyczne, jakie niesie ze sobą sztuczna inteligencja. W styczniu przedstawiciele trzech wielkich religii - judaizmu, chrześcijaństwa i islamu - wspólnie z liderami technologii cyfrowych, przyjęli dokument o nazwie „Rzymskie wezwanie dla etyki sztucznej inteligencji”. To kolejna platforma dialogu na rzecz humanitarnego rozwoju AI

.

- Elon Musk powiedział niegdyś, że sztuczna inteligencja jest bardziej niebezpieczna niż bomba atomowa? Tutaj już nie ma mowy o humanitarnym rozwoju.
- To prawda. Kilka miesięcy temu Elon Musk rzeczywiście wystosował list otwarty, w którym zgłoszony został postulat, aby na jakiś czas wstrzymać prace rozwojowe nad AI. Chodzi o wypracowanie i wdrożenie w tym czasie narzędzi, które mogłyby uchronić nas przed negatywnymi skutkami nieuregulowanego rozwoju sztucznej inteligencji. Oczywistym jest, że w kwestiach tych będą musiały się wypowiedzieć poszczególne państwa i/lub organizacje międzynarodowe.

- Widać już tego efekty?
- Unia Europejska już od jakiegoś czasu szuka rozwiązań prawnych w tym zakresie, przygotowywany jest m.in. AI Act. Jednak póki co słyszymy tylko o blokadzie ChatGPT-4 - chatbota opracowanego przez OpenAI, którego założycielami byli w 2015 roku Elon Musk i Sam Altman - wprowadzonej w niektórych europejskich państwach, np. we Włoszech. W USA trwają dyskusje na ten temat. Nie słyszy się, aby podobne dyskusje toczyły się w krajach azjatyckich, włączając w to Chiny, które stosują w tym zakresie własną politykę.

- Czy takie rozwiązania są potrzebne?
- Myślę, że uregulowania dotyczące rozwoju AI są niezbędne i powinny być rozpatrywane w skali globalnej.

- Jeśli tego nie uczynimy to coś nam grozi?

- Możemy, jako społeczeństwo, utracić kontrolę nad sztuczną inteligencją, która obecna jest przecież w mniejszym lub większym stopniu we wszystkich dziedzinach naszego życia. Brak ram etycznych i prawnych może spowodować, że algorytmy jeszcze bardziej niż dotychczas będą wpływać na nasze wybory i decyzje, albo jeszcze intensywniej niż obecnie służyć jako narzędzie dezinformacji. Mogą stać się bardzo użyteczną, ale i niezwykle niebezpieczną cyberbronią, zarówno informacyjną, jak i w klasycznym rozumieniu (automacja środków bojowych). AI może także nasilić cyberprzestępczość oraz spowodować utratę prywatności.

- „Technologia sztucznej inteligencji może mieć katastrofalny wpływ na ludzkość” – to równie pesymistyczna wizja świata z AI, a podzielił się nią niegdyś Stephen Hawking.
- Stephen Hawking ostrzegał świat właśnie przed niekontrolowanym, zwłaszcza z punktu widzenia wartości etycznych, rozwojem AI. Sformułował on, wspólnie z innymi badaczami, katalog 23 zasad - zwany „Zasadami z Asimolar” - które mają nas, jako ludzkość, chronić przed „złą” sztuczną inteligencją.

- O czym mówią owe zasady?
- Podkreślono w nich np., że celem badań nad AI powinno być to, by stworzyć taką sztuczną inteligencją, która będzie pożyteczna dla człowieka, a jednocześnie systemy te muszą zostać zaprojektowane i wykorzystywane w sposób zgodny z prawem, wolnością, godnością i kulturową różnorodnością ludzi. Superinteligencja zaś powinna być rozwijana w ten sposób, aby służyła powszechnie akceptowanym ideałom etycznym i z korzyścią dla całej ludzkości, a nie wyłącznie dla jednego państwa czy organizacji. Wśród tych zasad znalazła się także przestroga - aby unikać wyścigu zbrojeń związanego z budową broni autonomicznej.

- Niestety, wydaje się jednak, że świat AI zmierza w zupełnie innym kierunku?
- Badania nad superinteligencją są na razie w fazie badań koncepcyjnych. Dlatego już teraz musimy podjąć takie działania, które będą nas w stanie zabezpieczyć przed tym, o czym ostrzegają nas sami twórcy AI.

- Czy w świecie wszechobecnej superinteligencji będzie jeszcze miejsce na człowieka i jego prywatność?
- Jeśli nie posłuchamy rad tych, którzy tworzą lub badają sztuczną inteligencję - innowatorów, naukowców, badaczy, etyków, prawników i specjalistów z wielu innych dziedzin - będzie go coraz mniej.

- Czy w ten sposób może powstać idealne społeczeństwo – bez wad, bez nienawiści, wojen. Czy wręcz odwrotnie wzrosną nierówności społeczno-ekonomiczne, narodzą się nowe konflikty?
- Przychyliłbym się raczej do tej drugiej opcji. Nierówności społeczne i ekonomiczne wzrosną. Wzrośnie także ryzyko kolejnych konfliktów, które mogą być znacznie bardziej „totalne”.

Prof. PIOTR BUŁA: - Badania nad superinteligencją są na razie w fazie badań koncepcyjnych. Dlatego już teraz musimy podjąć takie działania, które będą
Prof. PIOTR BUŁA: - Badania nad superinteligencją są na razie w fazie badań koncepcyjnych. Dlatego już teraz musimy podjąć takie działania, które będą nas w stanie zabezpieczyć przed tym, o czym ostrzegają nas sami twórcy AI 123rf

- Sztuczna inteligencja może już kłamać i oszukiwać? Może więc i w tym będzie lepsza od tej wrodzonej?
- W przypadku sztucznej inteligencji wszystko zależy od danych, w jakie zostanie ona „wyposażona”. Im są one obszerniejsze, bardziej precyzyjne i bardziej aktualne, tym ryzyko, że jako jej użytkownicy zostaniemy wprowadzeni w błąd, będzie mniejsze. Ludzie kłamią zwykle intencjonalnie, a tego sztuczna inteligencja na razie nie potrafi. Z drugiej jednak strony AI może być wykorzystywana przez ludzi, aby np. kłamstwa rozpowszechniać i kreować rzeczywistość, która nie istnieje. Takie zjawiska już obserwujemy, choćby w Internecie.

- AI to również nowe, niesamowite możliwości oszustw!
- Niestety, manipulowanie informacjami czy też fabrykowanie treści, to powszechne już zjawisko. Manipulowane i fabrykowane bywają nie tylko pojedyncze wpisy, newsy czy teksty publikowane w sieci, ale także całe kanały komunikacji internetowej, np. profile w mediach społecznościowych. To bardzo obszerny i skomplikowany problem, na szczęście coraz częściej obecny w debacie publicznej. Zjawisku fake news’ów czy dezinformacji należy bezwzględnie przeciwdziałać, choć jest to zadanie „przynależne” raczej dostawcom rozwiązań, właścicielom platform czy serwisów oraz regulatorom rynku, a także… organom ścigania. Każdy z nas powinien więc „uwrażliwić się” na ten problem znacznie bardziej i z dystansem podchodzić do treści, z którymi się styka. Podobnie zresztą powinniśmy zacząć podchodzić do zjawiska automatyzacji w tym obszarze. Znaczącą rolę mogą tu odegrać choćby organizacje pozarządowe – różnego rodzaju inicjatywy, platformy współpracy czy fundacje, których celem jest edukowanie społeczeństwa w tej dziedzinie.

- Sztuczna inteligencja jest zdolna do generowania „płynnych nieprawd”?
- Tak. Zmanipulować można w zasadzie już wszystko: teksty, obrazy, głos, wizerunek, tożsamość…

- Co to jest OpenAI?
- To jedno z amerykańskich laboratoriów badawczych specjalizujących się w dziedzinie sztucznej inteligencji, które funkcjonuje od roku 2015. Powołane zostało do życia przez grupę inwestorów, wśród nich m.in. przez wspominanego już wcześniej Elona Muska. Funkcjonowanie OpenAI wspiera także biznes, np. Microsoft. ChatGPT, GPT-4 czy Dall-E 2 to rozwiązania oparte na sztucznej inteligencji, powstałe właśnie w laboratoriach OpenAI.

- Czy inne ośrodki badawcze też opracowują jakieś rozwiązania podobne do OpenAI?
- Na świecie istnieje wiele ośrodków prowadzących badania nad sztuczną inteligencją. Wymieńmy choćby Google, Microsoft, Meta, DeepMind, Amazon, Baidu czy Anthropic. Opracowują one bardzo różne rozwiązania. Poczynając od rozwiązań typu asystent głosowy czy inteligentny asystent osobisty, jak np. Asystent od Google, SIRI od Apple, czy Alexa od Amazona - przy okazji nie wszyscy wiedzą, że prototyp Alexy został opracowany w Polsce, w ośrodku Amazona w Gdańsku - aż po roboty humanoidalne powstające na przykład w laboratoriach Hanson Robotics z Hongkongu. To w tym ośrodku narodziła się też Sophia – robot, który wygląda jak kobieta, ma wzrok, słuch, potrafi rozmawiać na różne tematy. Europejskie laboratoria badawcze pracują z kolei nad robotem humanoidalnym typu open source o nazwie iCub.

- ChatGPT od OpenAI to gwiazda współczesnego internetu. Co nam to uświadamia?
- ChatGPT to rzeczywiście gwiazda. Powstał z końcem listopada 2022 roku i niemal natychmiast stał się dostępny w zasadzie globalnie. Obecnie jest jednym z najbardziej zaawansowanych i szeroko dostępnych rozwiązań, które dostarczają nam interaktywnych odpowiedzi na zadawane pytania. Korzystają z niego przedstawiciele różnych profesji, ale także… uczniowie czy studenci. Ma jeszcze wiele wad, ale to kwestia czasu, aż zostaną udoskonalone. Wszyscy pamiętamy sprzed lat pierwsze, inteligentne systemy nawigacyjne – także były niedoskonale, ale jednocześnie były przydatne kierowcom. Te wykorzystywane obecnie są znacznie bardziej zaawansowane - wykorzystują mowę, „wymieniają” informacje z użytkownikami.

- Google ma z kolei chatbota o nazwie LaMDA. To przyszłość wyszukiwania?
- Dostawcy rozwiązań rywalizują ze sobą, co jest oczywiste. Generator treści ChatGPT to produkt OpenAI, Google testuje Barda, chatbota do konwersacji ze sztuczną inteligencją, napędzanego przez LaMDA. Elon Musk buduje własny zespół do opracowania rywala dla ChatGPT. Bezsprzeczny jest jednak sukces rynkowy ChatGPT, który w krótkim czasie zyskał miliony użytkowników. Czy chatboty konwersacyjne zastąpią wyszukiwarki? Tego nie wiem. Zobaczymy, w którym kierunku rozwój tych rozwiązań podąży i jak zostaną one przyjęte przez użytkowników.

- Dojdziemy do sytuacji, w której boty – bez pośrednictwa człowieka - będą rozmawiać z sobą, by osiągnąć negocjacyjny sukces?
- Być może, choć pewnie warunkiem będzie wypracowanie przez laboratoria wspólnych standardów, które taką komunikację mogłyby umożliwić, a to pewnie nie będzie takie łatwe. Podobnie jak w przypadku systemów operacyjnych czy choćby ładowarek do telefonów czy komputerów. Dopiero całkiem niedawno przecież Unia Europejska przyjęła wspólny standard w zakresie ładowarek. Producenci i dostawcy rozwiązań zawsze będą brali pod uwagę aspekt biznesowy, finansowy.

Prof. PIOTR BUŁA: - Stephen Hawking ostrzegał świat przed niekontrolowanym, zwłaszcza z punktu widzenia wartości etycznych, rozwojem AI. Sformułował
Prof. PIOTR BUŁA: - Stephen Hawking ostrzegał świat przed niekontrolowanym, zwłaszcza z punktu widzenia wartości etycznych, rozwojem AI. Sformułował on, wspólnie z innymi badaczami, katalog 23 zasad - zwany „Zasadami z Asimolar” - które mają nas, jako ludzkość, chronić przed „złą” sztuczną inteligencją Anna Kaczmarz

- Dlaczego łatwiej nauczyć maszynę „obcych języków” niż samemu się ich nauczyć? Co ogranicza wrodzoną inteligencję, czy to jest jednocześnie atut AI?
- Sztuczna inteligencja generuje teksty bazując na danych, które zostaną jej dostarczone. W oparciu o ten zasób - słowa, zwroty - jest w stanie „stworzyć” tekst czy wykonać tłumaczenie. Generatory treści czy też chatboty konwersacyjne są ich rozwinięciem – zaprojektowano je właśnie do prowadzenia konwersacji. Człowiek przyswaja języki obce poprzez systematyczne doskonalenie umiejętności: budowanie i rozwijanie zasobu słownictwa, zapamiętywanie konstrukcji językowych, uczenie się reguł gramatycznych, itp. Niektórzy z nas mają większe zdolności czy predyspozycje, aby opanować obcy język, inni mniejsze. Wiele zależy także od wieku - młodsi zwykle łatwiej oswajają język inny niż ojczysty - a także od otoczenia, w którym przyswajamy sobie dany język; to dlatego właśnie część z nas uczy się obcych języków w krajach, w których ich się używa. To zawsze jest jednak proces, który u jednych trwa krócej, u innych dłużej. Tych barier nie ma sztuczna inteligencja. Nie oznacza to jednak, że wyeliminuje ona pracę np. tłumaczy, choć może ją znacznie usprawnić i ułatwić. Nie zawsze bowiem AI będzie w stanie uchwycić kontekst wypowiedzi czy przygotować tłumaczenie tekstu literackiego.

- Robiąc zakupy w internecie stajemy się niewolnikami coraz inteligentniejszych algorytmów? Niedługo właściwie nie będzie biznesu bez AI – kto zrozumiał to teraz, już wygrał?
- To prawda. Niewolnikami, a może nawet bardziej ofiarami. Bierze się to stąd, że znacząca część handlu przeniosła się do sieci, a ze sklepów internetowych czy platform sprzedażowych korzysta zdecydowana większość z nas. Do cyberprzestrzeni przenosi się także spora część usług. Nic więc dziwnego, że marketing internetowy stał się powszechnie wykorzystywanym narzędziem dla większości biznesów.

Dane o użytkownikach Internetu czy mediów społecznościowych, gromadzone w bazach danych i analizowane przez coraz bardziej zaawansowane algorytmy, są wykorzystywane w kampaniach reklamowych czy w sprzedaży, ponieważ umożliwiają bardzo precyzyjne dotarcie do grup docelowych. Dzięki temu kontakt z klientem staje się także coraz bardziej spersonalizowany. Z punktu widzenia biznesu rzeczywiście prawdą jest, że te podmioty, które dostrzegają potencjał narzędzi opartych o AI, będą mogły łatwiej osiągnąć przewagę konkurencyjną. Z drugiej jednak strony użytkownicy sieci stają się „dostawcami” tych danych dla sztucznej inteligencji. Tylko część z nich jest tego świadoma. Ale to już zupełnie inne zagadnienie.

„Management, Organisations and Artificial Intelligence. Where Theory Meets Practice”, monografia prof. Piotra Buły i dr Bartosza Niedzielskiego została
„Management, Organisations and Artificial Intelligence. Where Theory Meets Practice”, monografia prof. Piotra Buły i dr Bartosza Niedzielskiego została opublikowana w prestiżowym Routledge Studies Innovation, Organization and Technology. Dzieło to zostało również przetłumaczone na język chiński! Archiwum

- W tym miejscu warto zwrócić uwagę na monografię „Management, Organisations and Artificial Intelligence. Where Theory Meets Practice", opublikowaną w prestiżowym Routledge Studies Innovation, Organization and Technology. Skąd pomysł na jej stworzenie?
- Książkę przygotowaliśmy wspólnie z dr Bartoszem Niedzielskim. Powstawała w latach 2019-2021, a wydana została w roku 2022. Wtedy jeszcze problematyka AI nie była aż tak szeroko dyskutowana publicznie, jak ma to miejsce obecnie. Nie ukrywamy więc, że mamy dużą satysfakcję, że przynajmniej w pewnym zakresie, choć trochę przyczyniliśmy się być może do ożywienia dyskusji na temat AI. Pomysł jej napisania i wydania narodził się podczas dyskusji naukowych prowadzonych w ramach Katedra Zarządzania Międzynarodowego Uniwersytetu Ekonomicznego w Krakowie, w której obaj na co dzień pracujemy. To monografia, która łączy w sobie cechy publikacji naukowej z opracowaniem o walorach bardzo praktycznych i użytecznych dla czytelników. Dotyczy najogólniej rzecz ujmując problematyki zarządzania organizacjami w epoce dynamicznego rozwoju sztucznej inteligencji.

- Monografia została bardzo dobrze przyjęta. Niedługo mamy ujrzeć jej chińskie wydanie?
- Książka rzeczywiście została dobrze przyjęta zarówno w świecie nauki, jak i przez otoczenie biznesowe, z czego obaj z dr Bartoszem Niedzielskim bardzo się cieszymy. W języku chińskim zostanie wydana we współpracy z jednym z tamtejszych Uniwersytetów. To ostatnie wydanie zostanie wzbogacona o studia przypadków dotyczące wykorzystania AI w realiach chińskich – za tę część pracy odpowiada prof. Mengxi Yang. Wydawcą będzie wydawnictwo Tsinghua University Press. Prace redakcyjne i wydawnicze zostały już ukończone – wkrótce książka w chińskiej wersji językowej powinna ukazać się na rynku.

- Chiny są jednym z liderów rozwoju sztucznej inteligencji.
- Tym bardziej wydanie książki przeznaczonej na tamtejszy rynek czytelniczy, jest dla nas powodem do satysfakcji.

- Skąd tak duże nią zainteresowanie?
- Zawdzięczamy je tematyce, którą w niej poruszamy - oczywiście związanej ze sztuczną inteligencją i zarządzaniem - ale także temu, że została napisana językiem „przyjaznym” dla wielu grup odbiorców. To także wynik dość dobrze, jak sądzę, dobranych i aktualnych treści – zwłaszcza w ostatnich miesiącach problematyka AI jest szeroko obecna w środkach masowego przekazu, dzięki czemu zaczyna skutecznie przebijać się do świadomości masowej.

emisja bez ograniczeń wiekowych
Wideo

Strefa Biznesu: Uwaga na chińskie platformy zakupowe

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera
Wróć na krakow.naszemiasto.pl Nasze Miasto