Root NationStattiAnalizaGjashtë urdhërimet e inteligjencës artificiale

Gjashtë urdhërimet e inteligjencës artificiale

-

Vitet në vijim do të shënohen nga zhvillimi i shpejtë i teknologjive të inteligjencës artificiale. Ndoshta është e nevojshme të futen korniza të përcaktuara qartë për krijimin dhe përdorimin e AI? A mjaftojnë 6 muaj përvojë për të rregulluar një teknologji që nuk ka dalë ende nga laboratori? Kjo pyetje po vjen gjithnjë e më shumë nga goja e ekspertëve dhe gazetarëve kur bëhet fjalë për inteligjencën artificiale. Zërat dhe thirrjet për të marrë masa për rregullimin e inteligjencës artificiale - si në nivelin e përdoruesit ashtu edhe në nivelin e zhvillimit të projektit - po dëgjohen gjithnjë e më shpesh. Historia e thirrjeve të tilla filloi shumë kohë më parë.

Prania e kudondodhur e inteligjencës artificiale në hapësirën dixhitale dhe, mbi të gjitha, e modeleve të afta për të krijuar përmbajtje që nuk do të ndryshojnë nga ajo e krijuar nga njerëzit, ngjall emocione shumë të ndryshme. Nga njëra anë, ne kemi një grup entuziastësh që e shohin të ardhmen në AI dhe, megjithë aftësitë e saj relativisht të kufizuara (sepse AI nuk mendon, dhe shpesh thjesht merr informacion nga interneti), nuk kanë frikë t'i besojnë asaj shumë detyra. . Në anën tjetër të barrikadës është një grup që shpreh skepticizmin dhe shqetësimin e tij për tendencat aktuale në zhvillimin e inteligjencës artificiale.

Postulati i AI

Ura ndërmjet dy grupeve janë studiuesit e inteligjencës artificiale, të cilët, nga njëra anë, citojnë shembuj të shumtë se si inteligjenca artificiale ka ndikuar pozitivisht në realitetin përreth. Në të njëjtën kohë, ata e kuptojnë se është shumë herët për të pushuar mbi dafinat e tyre dhe një kërcim i madh teknologjik sjell shumë sfida dhe përgjegjësi të madhe. Një shembull i qartë i këtij qëndrimi është një grup ndërkombëtar studiuesish të inteligjencës artificiale dhe të mësimit të makinerive të udhëhequr nga Dr. Ozlem Garibay nga Universiteti i Floridës Qendrore. Publikimi me 47 faqe, i shkruar nga 26 shkencëtarë nga e gjithë bota, identifikon dhe përshkruan gjashtë sfida që institucionet kërkimore, kompanitë dhe korporatat duhet të adresojnë për t'i bërë modelet e tyre (dhe softuerin që i përdor) të sigurta.

Po, kjo është një punë serioze shkencore me shpjegime të rëndësishme për të kuptuar të ardhmen e inteligjencës artificiale. Kush është i interesuar, mundet në mënyrë të pavarur lexoni këtë raport shkencor dhe nxirrni përfundimet tuaja. Me fjalë të thjeshta, shkencëtarët kanë identifikuar 6 urdhërime të inteligjencës artificiale. Të gjitha zhvillimet dhe veprimet e AI duhet të jenë në përputhje me to në mënyrë që të jetë e sigurt për njerëzit dhe botën.

Postulati i AI

Në artikullin tim, të shkruar pikërisht mbi bazën e kësaj pune shkencore, do të përpiqem të formuloj postulatet kryesore, ligjet sipas të cilave duhet të ekzistojë dhe zhvillohet inteligjenca artificiale. Po, ky është interpretimi im pothuajse i lirë i përfundimeve të shkencëtarëve në lidhje me zhvillimin e inteligjencës artificiale dhe një përpjekje për t'i paraqitur ato, si të thuash, një version biblik. Por kështu desha t'ju prezantoj me këtë punë shkencore të shkencëtarëve të respektuar.

Gjithashtu interesante: Ndërtimi i AI: Kush po udhëheq garën?

Ligji i parë: Mirëqenia e njeriut

Postulati i parë i studiuesve është fokusimi i punës së inteligjencës artificiale në mirëqenien njerëzore. Për shkak të mungesës së “vlerave njerëzore, sensit të përbashkët dhe etikës”, inteligjenca artificiale mund të veprojë në një mënyrë që do të çojë në një përkeqësim të ndjeshëm të mirëqenies njerëzore. Problemet mund të jenë rezultat i aftësive mbinjerëzore të AI (për shembull, sa lehtë AI i mund njerëzit - dhe jo vetëm në shah), por edhe fakti që AI nuk mendon vetë, dhe për këtë arsye nuk është në gjendje të "filtrojë" paragjykimet ose gabime të dukshme.

AI Postulat

- Reklama -

Studiuesit vërejnë se besimi i tepërt në teknologjitë e inteligjencës artificiale mund të ndikojë negativisht në mirëqenien e njerëzve. Një shoqëri që ka pak kuptim se si funksionojnë në të vërtetë algoritmet e inteligjencës artificiale, priret t'i besojë së tepërmi, ose, përkundrazi, ka një qëndrim negativ ndaj përmbajtjes së krijuar nga një model i caktuar, në veçanti, chatbots. Duke marrë parasysh këta dhe faktorë të tjerë, ekipi i Garibay bën thirrje për vendosjen e mirëqenies njerëzore në qendër të ndërveprimeve të ardhshme të AI-njeriut.

Lexoni gjithashtu: ChatGPT: një udhëzues i thjeshtë përdoruesi

Ligji i dytë: Përgjegjësia

Përgjegjësia është një term që vazhdon të shfaqet në botën e AI në kontekstin e asaj për të cilën ne përdorim mësimin e makinerive dhe se si zhvillohen dhe trajnohen saktësisht modelet dhe algoritmet e AI. Ekipi ndërkombëtar thekson se projektimi, zhvillimi dhe zbatimi i inteligjencës artificiale duhet të bëhet ekskluzivisht me qëllime të mira.

AI Postulat

Sipas tyre, përgjegjësia duhet të konsiderohet jo vetëm në një kontekst teknik, por edhe në një kontekst ligjor dhe etik. Teknologjia duhet të konsiderohet jo vetëm nga pikëpamja e efektivitetit të saj, por edhe në kontekstin e përdorimit të saj.

"Me prezantimin e teknikave të avancuara të mësimit të makinerive, bëhet gjithnjë e më e rëndësishme të kuptohet se si është marrë një vendim dhe kush është përgjegjës për të” – shkruajnë studiuesit.

Ligji i tretë: Konfidencialiteti

Privatësia është një temë që hyn në bumerang në çdo diskurs rreth teknologjisë. Sidomos kur çdo gjë diskutohet në rrjetet sociale. Megjithatë, kjo është jashtëzakonisht e rëndësishme për inteligjencën artificiale, sepse ajo nuk ekziston pa një bazë të dhënash. Dhe çfarë janë bazat e të dhënave?

Shkencëtarët i përshkruajnë ato si "një abstraksion i blloqeve bazë të ndërtimit që përbëjnë mënyrën se si ne e shohim botën". Këto blloqe janë zakonisht vlera të zakonshme: ngjyra, forma, tekstura, distanca, koha. Ndërsa inteligjenca artificiale e ngushtë e fokusuar në një qëllim të vetëm, siç është shkalla në të cilën hapet qepalla me një intensitet të caktuar drite, përdor të dhëna objektive të disponueshme publikisht, AI në aplikacione më të gjera (këtu, për shembull, modelet tekst-në-imazh si Midjourney, ose modele gjuhësore si ChatGPT ) mund të përdorin të dhëna rreth dhe të krijuara nga njerëzit. Duhet të përmenden edhe artikujt në shtyp, librat, ilustrimet dhe fotografitë e publikuara në internet. Algoritmet e inteligjencës artificiale kanë akses në gjithçka, sepse ne vetë ua kemi dhënë atyre. Përndryshe, ai nuk do të dijë asgjë dhe nuk do të japë përgjigje për asnjë pyetje.

AI Postulat

Të dhënat e përdoruesit prekin rrënjësisht si njerëzit për të cilët mblidhen këto të dhëna, ashtu edhe njerëzit në sistemin ku do të zbatohen algoritmet e inteligjencës artificiale.

Prandaj, sfida e tretë lidhet me një kuptim të gjerë të privatësisë dhe sigurimin e të drejtave të tilla si e drejta për të qëndruar vetëm, e drejta për të kufizuar aksesin tek vetja, e drejta për fshehtësinë e jetës ose biznesit të dikujt, e drejta për të kontrolluar personale informacioni, pra e drejta për të mbrojtur personalitetin, individualitetin dhe dinjitetin e dikujt. E gjithë kjo duhet të shkruhet në algoritme, përndryshe privatësia thjesht nuk do të ekzistojë, dhe algoritmet e AI mund të përdoren në skema mashtruese, si dhe në vepra penale.

Lexoni gjithashtu: 7 mënyrat më interesante për të përdorur ChatGPT

Ligji i katërt: Struktura e projektit

Inteligjenca artificiale mund të jetë jashtëzakonisht e thjeshtë dhe me një qëllim të vetëm, por në rastin e modeleve më të mëdha me një natyrë të gjerë dhe me shumë detyra, problemi nuk është vetëm privatësia e të dhënave, por edhe struktura e dizajnit.

Për shembull, GPT-4, modeli më i fundit i inteligjencës artificiale i OpenAI, pavarësisht nga madhësia dhe ndikimi i tij në botën e AI (dhe më gjerë), nuk ka dokumentacion plotësisht publik. Kjo do të thotë, ne nuk kemi një kuptim se cilat janë qëllimet përfundimtare për zhvilluesit, çfarë duan të marrin në rezultatin përfundimtar. Prandaj, ne nuk mund të vlerësojmë plotësisht rreziqet që lidhen me përdorimin e këtij modeli të AI. GPT-3, nga ana tjetër, i trajnuar mbi të dhënat nga forumi 4chan, është një model me të cilin definitivisht nuk dëshironi të ndërveproni. Forumi 4chan është një nga fenomenet më interesante në internet. Ky është një shembull i anarkisë absolute, totale, e cila në praktikë nuk kufizohet nga asnjë kornizë. Këtu u krijuan grupe hakerash si Anonymous ose LulzSec. Është burimi i shumë prej memeve më të njohura, një vend për të diskutuar tema të diskutueshme dhe për të publikuar opinione edhe më të diskutueshme. Edhe pse imazhi në gjuhën angleze vë në dukje se "deri më tani është e ligjshme", kjo është disi e diskutueshme, duke pasur parasysh se 4chan angazhohet herë pas here me media, duke përfshirë përmbajtje raciste, naziste dhe seksiste.

AI Postulat

- Reklama -

Ekipi i profesor Garibay dëshiron që çdo model i inteligjencës artificiale të funksionojë brenda një kuadri të përcaktuar qartë. Jo vetëm për shkak të mirëqenies së personit me të cilin ndërvepron AI, por edhe për shkak të aftësisë për të vlerësuar rreziqet që lidhen me përdorimin e modelit. Struktura e çdo projekti duhet të përfshijë respektimin e nevojave, vlerave dhe dëshirave të grupeve të ndryshme kulturore dhe palëve të interesuara. Procesi i krijimit, trajnimit dhe rregullimit të inteligjencës artificiale duhet të përqendrohet në mirëqenien njerëzore, dhe produkti përfundimtar - modeli i AI - duhet të fokusohet në rritjen dhe përmirësimin e produktivitetit të vetë komunitetit njerëzor. Modelet ku rreziqet nuk mund të identifikohen duhet të kenë akses të kufizuar ose të kontrolluar. Ato nuk duhet të jenë kërcënim për njerëzimin, por përkundrazi, të kontribuojnë në zhvillimin e njeriut dhe shoqërisë në tërësi.

Lexoni gjithashtu: Twitter në duart e Elon Musk – kërcënim apo “përmirësim”?

Ligji i Pestë: Qeverisja dhe Mbikëqyrja e Pavarur

Algoritmet e inteligjencës artificiale fjalë për fjalë ndryshuan botën në vetëm një vit. Bard nga Google dhe Bing jep premierë nga Microsoft ndikoi ndjeshëm aksionet e të dy gjigantëve në bursë. Meqë ra fjala, ato kontribuan pikërisht në rritjen e aksioneve të këtyre kompanive, edhe në sfondin e aksioneve Apple. ChatGPT ka filluar të përdoret në mënyrë aktive nga nxënësit e shkollave, ata komunikojnë me të, e shqyrtojnë atë dhe bëjnë pyetje. Gjëja më e rëndësishme është që ai të ketë aftësinë për të vetë-mësuar, korrigjuar gabimet e tij. Inteligjenca artificiale madje ka filluar të funksionojë në qeveritë e disa vendeve. Ky është rasti i kryeministrit të Rumanisë, Nicolae Chuca punësoi një virtual një asistent që do ta informojë për nevojat e shoqërisë. Kjo do të thotë, inteligjenca artificiale luan një rol gjithnjë e më të rëndësishëm në jetën tonë.

AI

Duke pasur parasysh ndërvarësinë gjithnjë në rritje midis inteligjencës artificiale, njerëzve dhe mjedisit, shkencëtarët e konsiderojnë të nevojshme krijimin e organeve qeverisëse dhe mbikëqyrjen e pavarur të zhvillimit të saj. Këto organe do të kontrollojnë të gjithë ciklin jetësor të inteligjencës artificiale: nga ideja tek zhvillimi dhe zbatimi. Autoritetet do të përcaktojnë siç duhet modele të ndryshme të AI dhe do të marrin në konsideratë rastet që lidhen me inteligjencën artificiale dhe subjektet e jetës shoqërore. Domethënë, inteligjenca artificiale mund të bëhet objekt i çështjeve gjyqësore, si dhe i padive. Edhe pse, natyrisht, jo ai personalisht, por zhvilluesit e tij.

Lexoni gjithashtu: Gjithçka rreth Neuralink: Fillimi i çmendurisë Cyberpunk?

Ligji i gjashtë: Ndërveprimi i njeriut dhe inteligjencës artificiale

Në programet e inteligjencës artificiale, të gjithë mund të gjejnë diçka për veten e tyre: gjenerojnë tekst, zbulojnë përmbajtje në imazhe, përgjigjen pyetjeve, gjenerojnë imazhe, njohin njerëzit në foto, analizojnë të dhënat. Këto përdorime të shumta nuk janë vetëm një shqetësim për njerëzit që përpiqen të përshtatin inteligjencën artificiale me standardet ligjore dhe etike. Shumë kanë frikë se do të zhvendosen nga tregu i punës nga modelet e AI. Sepse algoritmet e inteligjencës artificiale do të jenë në gjendje të bëjnë të njëjtën gjë më shpejt, më lirë dhe ndoshta edhe më mirë se një person. Në të njëjtën kohë, ka njerëz që mbështeten në AI në punën e tyre, d.m.th., inteligjenca artificiale është tashmë një asistent i domosdoshëm për ta sot.

AI

Por nga studimet e referuara nga shkencëtarët, është e qartë se zëvendësimi i njerëzve me fuqi punëtore artificiale të lirë është ende shumë larg. Pavarësisht kësaj, ata tashmë po këmbëngulin në nevojën për të vendosur një hierarki strikte të ndërveprimit midis njerëzve dhe inteligjencës artificiale. Sipas mendimit të tyre, njerëzit duhet të vendosen mbi inteligjencën artificiale. Inteligjenca artificiale duhet të krijohet duke respektuar aftësitë njohëse të një personi, duke marrë parasysh emocionet e tij, ndërveprimet sociale, idetë, planifikimin dhe ndërveprimin me objektet. Kjo do të thotë, në të gjitha situatat, është personi që duhet të qëndrojë mbi inteligjencën artificiale, të kontrollojë sjelljen dhe përmbajtjen e krijuar nga modeli dhe të jetë përgjegjës për të. Me fjalë të thjeshta, edhe AI ​​më i avancuar duhet t'i bindet një personi dhe të mos shkojë përtej asaj që lejohet, në mënyrë që të mos dëmtojë krijuesin e saj.

Lexoni gjithashtu: Si Ukraina përdor dhe përshtat Starlink gjatë kohës së luftës

konkluzione

Po, dikush do të thotë se shkencëtarët nuk treguan asgjë të rëndësishme dhe të re në raportin e tyre. Të gjithë kanë folur për këtë për një kohë të gjatë. Por tashmë tani është e nevojshme të vendoset AI në disa kornizë ligjesh. Arritja për GPT-4 është si të kapësh një thikë verbërisht. Ata na fshehin informacionin kryesor. Të gjitha zhvillimet në inteligjencën artificiale, dhe në veçanti projekti ChatGPT nga Open AI, shpesh më kujtojnë rritjen e një fëmije të vogël. Ndonjëherë duket se ky është një fëmijë me origjinë aliene. Po, një alien, por ai është ende një fëmijë që mëson, bën gabime, ndonjëherë sillet në mënyrë të papërshtatshme, nervozohet, debaton me prindërit e tij. Edhe pse rritet dhe zhvillohet shumë shpejt.

AI

Njerëzimi mund të mos vazhdojë me zhvillimin e tij dhe gjërat mund të dalin jashtë kontrollit. Ndaj njerëzimi tashmë duhet të kuptojë pse po i zhvillojmë të gjitha këto, të njohë qëllimet përfundimtare, të jemi “prindër të përgjegjshëm”, sepse në të kundërtën “fëmija” thjesht mund të shkatërrojë “prindërit”.

Lexoni gjithashtu: 

Yuri Svitlyk
Yuri Svitlyk
Djali i maleve Karpate, gjeni i panjohur i matematikës, "avokat"Microsoft, altruist praktik, majtas-djathtas
- Reklama -
Regjistrohu
Njoftoni për
mysafir

0 Comments
Shqyrtime të ngulitura
Shiko të gjitha komentet