Onlayn ictimai-siyasi qəzet
Süni intellekt terrorçulara bioloji silah yaradılmasında kömək edə bilər. “Bloomberg” yazır ki, bunu biokimyaçı və BMT-nin keçmiş silah müfəttişi Rokko Kasaqrande deyib. O, süni intellektin (AI) terrorçulara bioloji agentləri müəyyən etməsinə və bioloji silah yaratmasına kömək edə biləcəyini söyləyib.
Ekspert Ağ Ev rəsmilərinə neyron şəbəkələrinin terrorçulara bioloji agentləri müəyyən etməyə kömək edə biləcəyi barədə narahatlığını bildirib. Onun sözlərinə görə, bu, biosilahların yaradılması və yayılması riskini artırır.
“Hər terrorçunun öz balaca alimi olsa necə?” - Kasaqrande bildirib. Belə bir təhlükə nə dərəcədə ciddidir? Xüsusən də süni intellekt terrorçuların xidmətində olanda. Bu, həm də o deməkdir ki, nüvə dövlətlərində nüvə başlıqlarına nəzarət çətinləşə bilər?
Qeyd edək ki, Kasaqrande 2023-cü ildə potensial ölümcül virus yaratmaq üçün inqrediyentləri olan kiçik bir qutu ilə Ağ Evə girib. Bu komponentlər süni intellektlə işləyən chatbot tərəfindən təmin edilib. Bu nümayişin məqsədi zərər vermək deyil, ABŞ rəsmilərinin diqqətini yeni təhlükəyə - süni intellektdən istifadə etməklə bioloji silahların yaradılmasına yönəltmək olub. Casagrande, ChatGPT kimi süni intellektlə işləyən alətlərin terrorçulara təhlükəli viruslar yaratmağa necə kömək edə biləcəyini izah edərək, bu təhdidlərə tez reaksiya vermənin vacibliyini vurğulayıb. Təqdimatdan sonra süni intellektlə yaradılan bioloji silahlarla bağlı narahatlıqlar milli təhlükəsizlik orqanları arasında yayılıb. Müxtəlif qurumların nümayəndələri ABŞ-ın süni intellektlə yaradılmış bu cür silahların yaranmasına hazır olmadığını anlayaraq nümayişlər tələb ediblər. Süni intellekt imkanları əhəmiyyətli dərəcədə artaraq bioloji silahların ev laboratoriyaları kimi qeyri-ənənəvi şəraitdə hazırlanması potensialını yaradıb və qlobal təhlükəsizliyə ciddi təhlükə yaradıb.
Süni intellekt, sintetik biologiyada irəliləyişlərlə birləşərək, bioloji silahları tez və ucuz şəkildə yaratmağa imkan verir. DNT çapı kimi texnologiyalar ənənəvi laboratoriya infrastrukturuna ehtiyac olmadan belə silahların yaradılmasını asanlaşdırır. Süni intellekt modelləri virusların və toksinlərin manipulyasiyası haqqında məlumat verə bilər, sui-istifadənin qarşısını almaq üçün nəzarət və tənzimləmə ehtiyacını artırır. Bu təhdidlərə cavab olaraq, Bayden administrasiyası diqqətini süni intellektin yaratdığı bioloji təhlükəyə yönəldir. Böyük süni intellekt şirkətləri 2023-cü ilin iyul ayına qədər süni intellektlə bağlı riskləri qiymətləndirməyi öhdələrinə götürüblər və bu, oktyabr ayında genişmiqyaslı icra sərəncamının verilməsinə səbəb olub. Fərman biotəhlükəsizlik sahəsində süni intellekt alətlərinə nəzarətin artırılmasını və süni intellekt üzrə təhlükəsizlik institutunun yaradılmasını nəzərdə tuturdu. Bununla belə, tənqidçilər iddia edirlər ki, bu tədbirlər şirkətlərin könüllü riayət etməsinə çox böyük etibar edir və uyğunluğu təmin etmək üçün kifayət qədər effektiv deyil. Süni intellektin ən yaxşı şəkildə necə tənzimlənməsi və onun bioloji silah yaratmaq potensialı ilə bağlı müzakirələr davam edir. Bəziləri süni intellekt alətlərinə daha sərt nəzarətin tərəfdarı olsa da, digərləri laboratoriyaların və materialların tənzimlənməsinin vacibliyini vurğulayır. Alimlər tədqiqat və innovasiyaları təkmilləşdirmək üçün süni intellektdən məsuliyyətlə istifadə etməyin vacibliyini vurğulayırlar. Süni intellektin potensial faydaları və riskləri arasındakı gərginlik, biologiyanın hərbi məqsədlər üçün istifadəsi ilə bağlı narahatlıqlar da daxil olmaqla, siyasi müzakirələrdə əsas mövzu olaraq qalır. Süni intellektin bioloji silah yaratmaq potensialı qlobal təhlükəsizliyə ciddi təhlükə yaradır. Texnoloji tərəqqi əhəmiyyətli faydalar təmin etsə də, sui-istifadənin qarşısını almaq üçün güclü nəzarət və beynəlxalq əməkdaşlıq tələb edir. İnnovasiya və təhlükəsizlik arasındakı tarazlıq biotexnologiyada süni intellektin gələcəyini istiqamətləndirmək üçün kritik rol oynayacaq. Qlobal birlik bəşəriyyəti yaranan təhlükələrdən qorumaq üçün süni intellektdən məsul istifadəni təmin etmək üçün ayıq-sayıq qalmalıdır.
Elvin Abbasov
“Azərbaycan İnformasiya və Kommunikasiya Texnologiyaları Sənayesi Assosiasiyası”nın (AİKTSA) İdarə Heyətinin sədri, ekspert Elvin Abbasov mövzu ilə bağlı “Yeni Müsavat”a deyib ki, onlayn süni intellektlər, ChatGPT, “Mikcrosoft”un Copiloft kimi süni intellektləri terror aktlarında, silah düzəltmədə, insan öldürmədə köməklik etmirlər: “Amma proqramistlər öz əldə etdikləri baza vasitəsilə süni intellektin emalını edə bilərlər. Burada əsas məqam ondan ibarətdir ki, süni intellektin istifadə dairələri beynəlxalq platformalarda Copilot, "Microsoft"un Copilotu, “Google”un Gemy, Open İA-nın ChatGPT-si kimi süni intellektlər etik normalarla işləyir, virus yazmaq, silah düzəltmək, atom bombası düzəltmək və bunun kimi digər zərərli məlumatları vermirlər. Onlar açıqlamalarında qeyd edirlər ki, bu kimi məlumatları verə bilmirlər. Amma proqramistlər özləri baza generasiya edib o bazaya süni intellekti qoşaraq özləri üçün publik olmayan, süni intellekt modellərindən istifadə edə bilərlər. Əgər onların əlində geniş məlumat bazası varsa, onlar bu tip məlumatları əldə etmək üçün süni intellektdən yardım ala bilərlər. Burada əsas məsələnin mahiyyətinə baxılmalıdır. Süni intellekt modeli ilə bağlı artıq analoji təcrübə çoxdur. Hər yerdə, hər kənddə var. Burada əsas olan məlumat bazasıdır, yəni “Big Data”lardır. “Big Data” əlçatan olandan sonra süni intellekt modelləri ilə istənilən bir terror aktında, müharibələrdə istifadə etmək üçün hər hansı bir zərərli silah yaratmaq olar. Bunun üçün isə baza lazımdır. Bəs bu terroristlər üçün əlçatandırmı, bununla bağlı bizdə məlumat yoxdur".
Afaq MİRAYİQ,
“Yeni Müsavat”
10 Noyabr 2024
03:17
09 Noyabr 2024
ŞƏRHLƏRŞƏRH YAZ