0

Razvoj veštačke inteligencije i njena (moguća) pretnja za čovečanstvo poslednjih meseci nesumljivo je "tema svih tema" u naučnim krugovima, ali i šire. I dok s jedne strane ima onih kojima se AI za sada čini miroljubivo, mogu se čuti i broji apeli i upozorenja da se sa razvojem veštačke inteligencije uspori, piše eKapija 

Tu su i oni treći, koji predlažu dramatičnije poteze – momentalno gašenje, ako treba i uz pretnju nuklearnim napadom!

Najglasniji među njima je Eliezer Judkovski, američki filozof i jedan od osnivača Instituta za istraživanje veštačke inteligencije MIRI, koji smatra da nedavno potpisan moratorijum na razvoj sistema veštačke inteligencije nije dovoljan, i da bi predstojeći koraci morali biti znatno drastičniji, pominjući i nuklearne napade.

Judkovski je u tekstu "Pauza u razvoju veštačke inteligencije nije dovoljna. Moramo sve to da ugasimo" objavljenom u časopisu Tajm, naveo da svet mora biti voljan da uništi GPU klastere koji obučavaju veštačku inteligenciju vazdušnim napadima, kao i da preti nuklearnim napadima onim zemljama koje ne prestanu da istražuju novu tehnologiju.

Ovaj čovek, koji u ovoj oblasti nikako nije neuki šarlatan – mada nema formalnog srednjeg ni višeg obrazovanja – pozvao je svet da bude izričit da se u "međunarodnoj diplomatiji scenarija za sprečavanje smaka sveta usled delovanja AI smatraju prioritetom u odnosu na izbegavanje opšte nuklearne razmene", kao i "da savezničke nuklearne zemlje budu spremne da rizikuju nuklearnu razmenu ako je to ono što je potrebno da bi se smanjio rizik od velikih obuka AI."

Tek kada je suočen sa javnim kritikama zbog zagovaranja nuklearnog obračuna kako bi se pod svaku cenu zaustavila veštačka inteligencija, Judkovski, je na Tviteru poručio da njegov članak ne sugeriše nuklearne udare.

– Moj članak u Tajmu nije sugerisao nuklearne udare na zemlje koje odbijaju da potpišu globalni sporazum protiv velikih obuka AI. Rečeno je da, ako zemlja koja nije potpisnica gradi centar podataka koji bi mogao da ubije sve na Zemlji, trebalo bi da budete spremni da preventivno uništite taj centar podataka – napisao je na Tviteru.

Judkovski je u tekstu i dramatično upozorio da je "verovatan rezultat suočavanja čovečanstva sa suprotstavljenom nadljudskom inteligencijom potpuni gubitak".

– Da biste vizuelizovali neprijateljsku nadljudsku veštačku inteligenciju, nemojte zamišljati beživotnog mislioca koji ima knjiško znanje, koji je zarobljen na internetu i šalje zlonamerne mejlove. Zamislite čitavu vanzemaljsku civilizaciju, koja razmišlja milionima puta brže od ljudi. Dovoljno inteligentna AI neće dugo ostati ograničena na računare – naveo je u članku.

Treba istaći da Judkovski nije usamljen u tezi da je brzi razvoj veštačke inteligencije opasan po čovečanstvo. Nedavno su ključne ličnosti u oblasti razvoja veštačke inteligencije potpisale otvoreno pismo u kojem zagovaraju obustavljanje obuke moćnih sistema AI na najmanje šest meseci, upravo zbog straha od pretnje čovečanstvu.

Među onima koji navode da je trka za razvoj sistema veštačke inteligencije izmakla kontroli su i vlasnik Tvitera Ilon Mask, suosnivač Epla Stiv Voznijak, kao i istraživači u DipMajndu.

Facebook komentari

guest
0 Komentara
Inline Feedbacks
Pogledaj sve komentare
0
Ostavi komentar na vestx
Choose A Format
Personality quiz
Series of questions that intends to reveal something about the personality
Trivia quiz
Series of questions with right and wrong answers that intends to check knowledge
Poll
Voting to make decisions or determine opinions
Story
Formatted Text with Embeds and Visuals
List
The Classic Internet Listicles
Countdown
The Classic Internet Countdowns
Open List
Submit your own item and vote up for the best submission
Ranked List
Upvote or downvote to decide the best list item
Meme
Upload your own images to make custom memes
Video
Youtube and Vimeo Embeds
Audio
Soundcloud or Mixcloud Embeds
Image
Photo or GIF
Gif
GIF format
Send this to a friend