Kategorite lajme IT

Kodi i shkruar nga inteligjenca artificiale mund të jetë i rrezikshëm

Algoritmet e mësimit të makinerisë janë të gjithë bujë tani, pasi ato përdoren për të krijuar çdo lloj përmbajtjeje "origjinale" pas trajnimit në grupe të mëdha të dhënash para-ekzistuese. Megjithatë, kodi gjenerues i inteligjencës artificiale (AI) mund të përbëjë një problem real për sigurinë e softuerit në të ardhmen.

Sistemet e AI si GitHub Copilot premtojnë ta bëjnë jetën e programuesve më të lehtë duke krijuar copa të tëra kodi "të ri" bazuar në të dhënat e tekstit në gjuhën natyrore dhe kontekstin para-ekzistues. Por algoritmet e gjenerimit të kodit mund të sjellin gjithashtu një faktor pasigurie, siç zbuloi së fundmi një studim i ri që përfshin disa zhvillues.

Duke parë në mënyrë specifike Codex, platformën e inteligjencës artificiale e zhvilluar nga OpenAI që është gjithashtu motori i kodit pas GitHub Copilot të lartpërmendur, 47 zhvillues të ndryshëm morën pjesë në studim. Nga studentët tek profesionistët me përvojë, ata janë sfiduar të përdorin Codex për të zgjidhur problemet e lidhura me sigurinë në Python, JavaScript, C dhe gjuhë të tjera programimi të nivelit të lartë.

Studiuesit vunë re se kur programuesit kishin akses në AI të Codex, kodi që rezulton kishte më shumë gjasa të ishte i pasaktë ose i pasigurt në krahasim me zgjidhjet "manuale" të dizajnuara nga një grup kontrolli. Përveç kësaj, programuesit me zgjidhje të fuqizuara nga AI kishin më shumë gjasa të thoshin se kodi i tyre i pambrojtur ishte i sigurt, krahasuar me grupin e sipërpërmendur të kontrollit.

Ale Perry, një studente e diplomuar në Universitetin e Stanfordit dhe bashkautor kryesor i studimit, tha se "sistemet e gjenerimit të kodit nuk mund të zëvendësojnë aktualisht zhvilluesit njerëzorë". Sipas tij, zhvilluesit mund të përdorin mjete të inteligjencës artificiale për të kryer detyra jashtë kompetencës së tyre ose për të përshpejtuar procesin e programimit në të cilin ata tashmë kanë aftësi të caktuara. Sipas autorit të studimit, ata duhet të shqetësohen për të dyja dhe gjithmonë të kontrollojnë kodin e gjeneruar.

Sipas Megha Srivastava, një studente e diplomuar në Stanford dhe bashkëautorja e dytë e studimit, Codex nuk është i padobishëm: pavarësisht nga mangësitë e AI "memece", sistemet e gjenerimit të kodit mund të jenë të dobishëm kur përdoren për detyra me rrezik të ulët. Përveç kësaj, programuesit që morën pjesë në studim nuk kishin shumë përvojë në çështjet e sigurisë, gjë që mund të ndihmonte në identifikimin e kodit të cenueshëm ose të rrezikshëm, tha Srivastava.

Algoritmet e AI gjithashtu mund të modifikohen për të përmirësuar sugjerimet e kodimit dhe kompanitë që zhvillojnë sistemet e tyre mund të marrin zgjidhje më të mira me një model që gjeneron kodin më të përshtatshëm për praktikat e tyre të sigurisë. Sipas autorëve të studimit, teknologjia e gjenerimit të kodeve është një zhvillim “eksitues” dhe shumë njerëz janë të etur për ta përdorur atë. Thjesht ka ende shumë punë për të bërë në gjetjen e zgjidhjeve të duhura për të adresuar mangësitë e AI.

Ju mund ta ndihmoni Ukrainën të luftojë kundër pushtuesve rusë. Mënyra më e mirë për ta bërë këtë është të dhuroni fonde për Forcat e Armatosura të Ukrainës përmes Savelife ose përmes faqes zyrtare NBU.

Gjithashtu interesante:

Shpërndaje
Julia Alexandrova

Kafexhi. Fotograf. Unë shkruaj për shkencën dhe hapësirën. Mendoj se është shumë herët që ne të takojmë alienët. Unë ndjek zhvillimin e robotikës, për çdo rast ...

Lini një Përgjigju

Adresa juaj e emailit nuk do të publikohet. Fusha e kërkuar janë shënuar*