Umjetna inteligencija, doduše, može već optimirati radne procese u znanosti, tehnici i medicini, ali opasnost se krije ondje gdje se odgovornost za vlastite postupke prenese na robote ili algoritme, upozorio je njemački teolog. On smatra da je razumljiva želja za smanjenjem ljudskih grešaka matematički savršenim odlukama, ali je podsjetio da je čovjek više od skupine različitih podataka.
„Ako se slijepo vjeruje samo matematički egzaktnim proračunima, ljudsko dostojanstvo i moral više nemaju nikakvu ulogu i postoji opasnost da nestane potreba za razumnim i demokratskim raspravama“, upozorio je Nass, svećenik i teolog koji predaje na Kölnskoj visokoj katoličkoj teološkoj školi (Kölner Hochschule für Katholische Theologie – KHKT).
Za razliku od umjetne inteligencije, čovjek raspolaže dušom i sposoban je za „iskrene ljudske susrete“, dodao je. Kako ne bi bilo ugroženo odgovorno ophođenje s umjetnom inteligencijom, Nass smatra potrebnom etičku izobrazbu u znanosti i tehnici o predodžbi čovjeka, shvaćanju vrijednosti, odgovornosti, slobodi i svijesti o opasnostima.
„Međutim, premalo bi bilo osloniti se samo na etiku, jer uvijek ima ljudi koji se služe umjetnom inteligencijom i razvijaju je u cilju postizanja profita i moći“, rekao je, zahtijevajući poput pape Franje jasna pravila i sankcije u ophođenju s umjetnom inteligencijom.
Kad bi ljudi slijepo vjerovali umjetnoj inteligenciji u važnim odlukama, primjerice u vjerskim pitanjima ili u slučaju sadašnjeg rata u Ukrajini, time bi otvorili vrata za despotski režim u kojemu bi ljudi bili potlačeni i gdje bi svi morali imati isto mišljenje. Tada bi bilo na kocki ono „što shvaćamo pod pojmovima ljudskosti, odgovornosti, demokracije, dostojanstva i slobode“, pojasnio je Nass.
Za njega je između ostaloga dvojbeno korištenje humanoidnih robota u njezi. Oni su „torzo kojega pokreće stroj“, bez pravog suosjećanja. Smatra razumljivima objašnjenja o novim područjima primjene robota, ali roboti u domovima za nemoćne i u ophođenju sa starijim ljudima mogu pokazati samo „tobožnje osjećaje“. „Kad se izvuče utičnica, sve prestaje“, slikovito je objasnio.
Nass vidi opasnost i u uporabi umjetne inteligencije kod autonomnog oružja, koje „samo donosi ‘odluke’ kamo će letjeti, bez ljudskog sudjelovanja“. Rezultat toga su ratni zločini za koje nitko ne bi preuzeo odgovornost. Nass stoga zahtijeva zabranu takvog oružja.
Više smisla vidi pak u korištenju umjetne inteligencije u slučaju chatbota „ChatGPT“ kod prevođenja ili traganja za idejama. On sam koristi se umjetnom inteligencijom u znanstvenom radu, primjerice pri pretraživanju chatrooma u potrazi za temama poput utjehe, vječnosti, opraštanja ili smisla života. Umjetna inteligencija pritom predstavlja potporu u istraživanju, ali rješenja za teologiju i pastoral mora donijeti ljudska inteligencija, zaključio je, objavio je u srijedu 17. svibnja Kathpress.