Root Nationlajmlajme ITMicrosoft njoftoi një zgjidhje mbrojtëse të AI bazuar në GPT-4 Security Copilot

Microsoft njoftoi një zgjidhje mbrojtëse të AI bazuar në GPT-4 Security Copilot

-

Sistemet e inteligjencës artificiale (AI) tashmë po përdoren për të krijuar grafikë, chatbot dhe madje edhe për të kontrolluar shtëpitë inteligjente. Kompania Microsoft i besoi AI një nga sferat më të rëndësishme të jetës moderne – mbrojtjen kundër kërcënimeve kibernetike. Mjeti Copilot i Sigurisë ju lejon të njihni një sulm kibernetik edhe kur nuk ka shenja të dukshme dhe ndihmon në eliminimin e tij.

Në situatat kur siguria e kompjuterit tuaj rrezikohet për ndonjë arsye, Security Copilot do t'ju ndihmojë të përcaktoni se çfarë ndodhi, çfarë të bëni dhe si të parandaloni që incidente të ngjashme t'u ndodhin të tjerëve. Kompania prezantoi një zgjidhje të re të bazuar në modelin GPT-4 - Security Copilot ndihmon klientët e korporatave të merren me kërcënimet.

Microsoft Kopilot i Sigurisë

Deri më tani, mjeti është i disponueshëm vetëm për klientët e korporatave. I njëjti model i gjuhës së madhe që fuqizon aplikacione si Bing Chat është prapa Security Copilot. Megjithatë, në këtë rast po flasim për një opsion të trajnuar posaçërisht për materialet dhe terminologjinë e përdorur nga profesionistët e IT. Përveç kësaj, Microsoft tashmë ka lidhur Copilot me mjetet e tjera të sigurisë. Kompania premton se me kalimin e kohës do të jetë në gjendje të përdorë zgjidhje softuerike të palëve të treta.

Ndërsa shumica e aplikacioneve me porosi të bazuara në GPT-4 u trajnuan në grupe të dhënash disi të vjetruara, Security Copilot fiton informacione të reja në kohë reale duke studiuar fjalë për fjalë triliona sinjale kërcënimi që Microsoft merr çdo ditë. Ky është avantazhi i modelit - Siguria Copilot mund të njohë sinjalet e fshehura edhe para se fakti i një sulmi të bëhet i dukshëm. Falë kësaj, mjeti mund të përdoret për të njohur dhe eliminuar në kohë kërcënimet.

Microsoft Kopilot i Sigurisë

Në të njëjtën kohë, u bë e qartë shumë kohë më parë se në AI si ChatGPT, Bing Chat ose Google Bard, mund të ndodhin "halucinacione", gjatë të cilave si bazë për "arsyetim" përdoren fakte krejtësisht jo të besueshme. Në fushën e sigurisë, kjo mund të bëhet një fenomen shumë i rrezikshëm. NË Microsoft kanë konfirmuar tashmë se Copilot i Sigurisë "jo gjithmonë i bën gjërat siç duhet". Për fat të mirë, në rastin e produktit Microsoft ofrohet një mekanizëm reagimi i përdoruesit, i cili ju lejon të jepni përgjigje gjithnjë e më të rëndësishme.

Ende Microsoft nuk raportoi se çfarë mund të ndodhë kur AI mbrojtëse përplaset me AI me qëllim të keq, si ai i krijuar për të sulmuar përdoruesit dhe bizneset. Në çdo rast, kompania tha se klientët e ndërmarrjeve tashmë mund të testojnë Security Copilot në një segment të vogël të përdoruesve të tyre. Nëse eksperimenti është i suksesshëm, ndoshta do të jetë në gjendje të ndihmojë përdoruesit e zakonshëm në të ardhmen.

Gjithashtu interesante:

Burimimicrosoft
Regjistrohu
Njoftoni për
mysafir

0 Comments
Shqyrtime të ngulitura
Shiko të gjitha komentet