Root Nationlajmlajme ITIsh-kreu i Google e krahasoi inteligjencën artificiale me armët bërthamore

Ish-kreu i Google e krahasoi inteligjencën artificiale me armët bërthamore

-

Ish-CEO i Google, Eric Schmidt e krahasoi inteligjencën artificiale (AI) me armët bërthamore dhe bëri thirrje për një regjim parandalues, të ngjashëm me shkatërrimin e sigurt të ndërsjellë, që i mban kombet më të fuqishme të botës të shkatërrojnë njëri-tjetrin.

Ish-kreu i Google e krahasoi inteligjencën artificiale me armët bërthamore

Schmidt foli për rreziqet e inteligjencës artificiale në Forumin e Sigurisë në Aspen më 22 korrik gjatë një diskutimi mbi sigurinë kombëtare dhe AI. Kur u pyet për vlerën e moralit në teknologji, Schmidt shpjegoi se ai vetë ishte naiv për fuqinë e informacionit në ditët e para të Google. Ai më pas bëri thirrje që teknologjia të përputhet më mirë me etikën dhe moralin e njerëzve të cilëve u shërbejnë, dhe bëri një krahasim të çuditshëm midis inteligjencës artificiale dhe armëve bërthamore.

Schmidt foli për të ardhmen e afërt, në të cilën Kina dhe Shtetet e Bashkuara duhet të përfundojnë një marrëveshje për inteligjencën artificiale. "Në vitet '50 dhe '60, ne përfunduam duke krijuar një botë ku kishte një rregull "pa befasi" për testimin bërthamor dhe si rezultat, ato u ndaluan," tha Schmidt. “Ky është një shembull i ekuilibrit të besimit apo mungesës së besimit, ky është rregulli i “pa surpriza”. Jam shumë i shqetësuar që pikpamja e SHBA-së për Kinën si të korruptuar apo komuniste apo çfarëdo tjetër, dhe pikëpamja e Kinës për Amerikën si humbëse... do t'i lejojë njerëzit të thonë, "O Zot, ata po bëjnë diçka" dhe më pas do fillojë diçka e pakuptueshme... .

AI dhe mësimi i makinerive është një teknologji magjepsëse dhe shpesh e keqkuptuar. Ai në thelb nuk është aq i zgjuar sa mendojnë njerëzit. Mund të krijojë vepra arti të nivelit kryevepër, të mundë njerëzit në Starcraft II dhe të bëjë telefonata rudimentare për përdoruesit. Megjithatë, përpjekjet për ta bërë atë të kryejë detyra më të vështira, të tilla si drejtimi i një makine në një qytet të madh, nuk kanë qenë të suksesshme.

Schmidt flet për një të ardhme të afërt imagjinare në të cilën Kina dhe SHBA do të shqetësohen për çështjet e sigurisë, gjë që do t'i detyrojë ata të hyjnë në një lloj traktati për të frenuar AI. Ai kujtoi vitet 1950 dhe 60, kur diplomacia zhvilloi një sërë kontrollesh rreth armëve më vdekjeprurëse në planet. Por u desh një dekadë shpërthimesh bërthamore dhe, më e rëndësishmja, shkatërrimi i Hiroshimës dhe Nagasakit, që paqja të vinte përpara përfundimit të Traktatit të Ndalimit të Testeve Bërthamore, SALT II dhe legjislacionit të tjerë historik.

Dy qytete japoneze të shkatërruara nga Amerika në fund të Luftës së Dytë Botërore morën jetën e dhjetëra mijëra njerëzve dhe dëshmuan para botës tmerrin e përjetshëm të armëve bërthamore. Pastaj qeveritë e Rusisë dhe Kinës nxituan të blinin armë. Mënyra se si ne jetojmë me mundësinë që këto armë do të përdoren është ajo që njihet si Shkatërrimi i Siguruar i ndërsjellë (MAD), një teori parandaluese që siguron që nëse një vend lëshon një armë bërthamore, është e mundur që çdo vend tjetër. Ne nuk përdorim armët më shkatërruese në planet për shkak të mundësisë që ajo të shkatërrojë të paktën qytetërimin në mbarë botën.

Pavarësisht komenteve shumëngjyrëshe të Schmidt, ne nuk duam ose nuk kemi nevojë për MAD për AI. Së pari, AI nuk e ka provuar ende fuqinë e saj shkatërruese në krahasim me armët bërthamore. Por njerëzit në pushtet i frikësohen kësaj teknologjie të re, dhe zakonisht për arsye të gabuara. Njerëzit madje kanë propozuar t'i dorëzohet kontrolli i armëve bërthamore tek një inteligjencë artificiale, duke besuar se do të ishte një arbitër më i mirë për përdorimin e tij sesa një njeri.

Ish-kreu i Google e krahasoi AI me armët bërthamore

Problemi me inteligjencën artificiale nuk është se ajo ka fuqinë potencialisht shkatërruese të një arme bërthamore. Çështja është se inteligjenca artificiale është po aq e mirë sa njerëzit që e kanë zhvilluar dhe se ajo mbart vlerat e krijuesve të saj. Inteligjenca artificiale vuan nga problemi klasik "plehrat brenda, mbeturinat jashtë": algoritmet raciste krijojnë robotë racistë dhe e gjithë AI mbart paragjykimet e krijuesve të saj.

Demis Hassabis, CEO i DeepMind, kompania që trajnoi AI që mund lojtarët e Starcraft II, duket se e kupton këtë më mirë se Schmidt. Në një intervistë të korrikut në podkastin e Lex Friedman, Friedman e pyeti Hassabis se si mund të kontrollohet një teknologji aq e fuqishme sa AI dhe si mund të shmanget vetë Hassabis të korruptohet nga kjo fuqi.

Përgjigja e Khasabis ka të bëjë me veten e tij. "Inteligjenca artificiale është një ide shumë e madhe," tha ai. “Është e rëndësishme se kush e krijon AI, nga cilat kultura vijnë dhe cilat janë vlerat e tyre. Sistemet e AI do të mësojnë vetë... por sistemi do të mbetet i ngulitur me kulturën dhe vlerat e autorëve të sistemit."

Inteligjenca artificiale është një reflektim i autorit të saj. Nuk mund të rrafshojë me tokë një qytet me një shpërthim 1,2 megaton. Përveç nëse një person ia mëson këtë.

Ju mund ta ndihmoni Ukrainën të luftojë kundër pushtuesve rusë. Mënyra më e mirë për ta bërë këtë është të dhuroni fonde për Forcat e Armatosura të Ukrainës përmes Savelife ose përmes faqes zyrtare NBU.

Lexoni gjithashtu:

Burimives
Regjistrohu
Njoftoni për
mysafir

0 Comments
Shqyrtime të ngulitura
Shiko të gjitha komentet