Czy sztuczna inteligencja śni o ludzkiej empatii?

dr inż. Jacek Kotarbiński
dr inż. Jacek Kotarbiński
kotarbinski.com

Felieton - dr inż. Jacek Kotarbiński

Czy sztuczna inteligencja śni o ludzkiej empatii?

Gdy kupujemy wędlinę czy wypłacamy pieniądze z bankomatu, rzadko zastanawiamy się, skąd one pochodzą. Wielu z nas widzi w tym procesie coś na kształt magicznych zaklęć uwalnianych przez maszyny. Równie mało interesuje nas, jakie koszty społeczne i środowiskowe niesie za sobą nasz współczesny styl życia.
Podobna nieświadomość klientów i użytkowników przewija się przez historię przemysłu i gospodarki. Pierwsze eksperymenty z elektrycznością, przeprowadzane przez takich pionierów jak Benjamin Franklin czy Nikola Tesla, były pełne niebezpieczeństw. Często prowadziły do wypadków zagrażających życiu samych badaczy. W dziedzinach takich jak mechanika, farmacja czy biologia ryzyko najczęściej spoczywało na wynalazcy, który osobiście ponosił konsekwencje swoich odkryć. Gospodarka i ekonomia cyfrowa nie jest inna pod tym względem, tyle tylko że najczęściej nie zdajemy sobie z tego sprawy. 

Przychody z rynku sztucznej inteligencji (AI) w najbliższych latach będą rosły o 72 procent rocznie i w 2027 roku sięgną 420 mld dolarów – prognozuje w opublikowanym w styczniu 2024 raporcie bank UBS. Wcześniej przewidywano, że przychody z AI sięgną 300 mld dolarów w 2027 roku. Prognozuje się, że wartość rynku AI wzrośnie z 2,2 mld dolarów w 2022 roku do 225 mld dolarów w 2027 roku. 

Gdy tworzymy nowy prompt, rzadko zastanawiamy się nad technologią, która za tym stoi. Podobnie jest, gdy włączamy światło, uruchamiamy komputer, podróżujemy samolotem czy samochodem. Nasza niewiedza o tych procesach nie oznacza, że są efektem magii. Marije Meerman w filmie „The Cost of AI” z 2003 roku, wyprodukowanym przez VPRO, używa metafory, opisującej technologię AI jako „mocarną chmurę obliczeniową z potu, krwi i metalu”. To przypomnienie, że AI nie powstaje w próżni. AI sama z siebie nie tworzy niczego nowego; jest jedynie odzwierciedleniem już istniejących danych. Cena jednego chipa to 10 000 USD, a do wytrenowania jednego modelu AI firma może potrzebować aż 25 000 takich chipów. Moc obliczeniowa potrzebna do tego procesu podwaja się co pół roku. Chociaż wyniki pracy AI mogą wydawać się magiczne, to w rzeczywistości są wynikiem skomplikowanych, ale w pełni materialnych procesów.

„Niewidoczni” to pracownicy, którzy pełnią kluczową funkcję w procesie trenowania sztucznej inteligencji, czy górnicy z chińskich kopalni piasku krzemowego, kluczowego składnika do produkcji chipów. W ekonomii cyfrowej są zmianą w paradygmacie historii wynalazczości, gdzie kiedyś ryzyko i odpowiedzialność ponosił bezpośrednio twórca lub jego zespół. Dziś to osoby często zatrudnione przez firmy outsourcingowe. Ujgurski górnik czy jeden z „niewidocznych” nie wrzuci karteczki z prośbą o pomoc do uszytej przez siebie koszuli, podobnie jak czynią to azjatyckie szwaczki.

Joseph Weizenbaum (1923–2008), nazywany ojcem chrzestnym sztucznej inteligencji, ostrzegał: „Niebezpieczeństwo AI nie polega na tym, że maszyny zaczną myśleć, jak ludzie, ale że ludzie zaczną myśleć jak maszyny”. Uzupełnię jego słowa o szczególną myśl Stephena Kinga, który stwierdził kiedyś, że nie ma problemu w tym, jeżeli oglądamy film z perspektywy oczu bestii. Problem zaczyna się wtedy, kiedy zaczyna nas fascynować, jak bestia zabija.
Tworząc kolejny prompt do generowania tekstu, obrazu, dźwięku czy filmu, pamiętaj o tych słowach.

dr inż. Jacek Kotarbiński
Kotarbinski.com