Onlayn ictimai-siyasi qəzet
Bəşər əhlinin həyatını yaxşılaşdıracağı gözlənilən süni intellekt (AI) texnologiyalarının inkişafı başqa cür düşünən insanlarda narahatlıq doğurmağa başlayıb. Onlar diqqəti AI-nin yaratdığı təhlükələrə cəlb etməyə çalışırlar.
Bir neçə gün öncə “Həyatın gələcəyi institutu” (ingiliscədə - FLI) texnoloji korporasiyalara və hökumətlərə ünvanlanmış məktub dərc edib. Qurum super süni intellektin (ASI) gələcək inkişafının qadağan edilməsini tələb edir. Adi süni intellekt sistemləri insan beynini təqlid etmək üçün nəzərdə tutulsa da, ASI artıq insan zəkasını üstələyən sistemlər üçün istifadə olunur. Belə sistemlər hələ hazırlanmayıb, lakin onların yaranma perspektivi insanları narahat etməyə başlayır.
Ona görə də FLI insanın idrak qabiliyyətlərini (dərin süni intellekt və ya super süni intellekt adlanır) üstələyə bilən süni intellekt sistemlərinin inkişafının potensial təhlükələri barədə xəbərdarlıq edir və bu cür tədqiqatları dayandırmağa çağırır.
Bundan ötrü qurum xüsusi bəyanat yayıb və imzatoplama kampaniyası başladıb. Bəyanatı imzalayan min nəfər arasında Sasseks hersoqu, şahzadə Harri və onun həyat yoldaşı Meqan da var. Onlar kompüter alimləri, iqtisadçılar və siyasətçilər ilə birlikdə ASİ-nin inkişafının potensial təhlükələri haqqında danışıblar.
FLI məktubunda deyilir: "Biz super intellektin inkişafına qadağa qoyulmasına çağırırıq, bunun təhlükəsiz və nəzarətli şəkildə həyata keçirilə biləcəyinə dair geniş elmi konsensus əldə olunmayana və güclü ictimai dəstək olana qədər ləğv edilməməlidir".
Bəyanatı imzalayanların narahatlığı əsassız deyil. “Maşın üsyanı”nın ən ekstremal ssenariləri istisna olmaqla, AI sistemləri gələcəkdə dünyanı ciddi şəkildə dəyişə bilər. Onlar ilk növbədə milli kontekstdə fəlakətli ola biləcək əmək bazarına təsir edəcəklər. Süni intellektlə işləyən maşınların geniş yayılması ilə mənfəət və sənaye səmərəliliyini artacaq və nəticədə işsizlər ordusu yaranacaq. FLI qorxur ki, işsizlik və bunun nəticəsində yaranan sosial problemlər (əsasən də cinayətkarlıq) son nəticədə bütün sosial təbəqələrin marginallaşmasına səbəb olacaq.
AI-nin qeyri-sabitliyi də narahatlıq doğurur. Ən sadələşdirilmiş formada belə sistemlərin iş prinsipi riyazi ehtimala əsaslanır. Kütləvi verilənlər bazalarından istifadə edərək süni intellekt nümunələri və müəyyən simvolların istifadə tezliyini, məsələn, mətni emal edərkən öyrənir. Belə mürəkkəb sistem “qara qutu” fenomeni yaradır ki, burada tərtibatçılar özləri cavabın necə dəqiq yarandığını və ya mexanizmlər və maşınlar vəziyyətində müəyyən bir hərəkətlə bağlı qərarların necə qəbul edildiyini bilmirlər. ASI vəziyyətində problemin miqyasını təsəvvür etmək olar. Neyron şəbəkələrinin “dəli olması” və müəyyən edilmiş qaydalara zidd hərəkət etməsi və ya mənasız cavablar verməsi ilə bağlı məlum hallar var.
Bunu nəzərə alsaq, FLI kimi qeyri-kommersiya təşkilatlarının süni zəkanın inkişafını ləngitməyə çalışması təəccüblü deyil. 2023-cü ilin mart ayında bu tədqiqat institutu “Nəhəng süni intellekt təcrübələrinin dayandırılması: açıq məktub” başlıqlı məktub dərc edərək, süni intellektin gələcək inkişafının altı aylıq dondurulmasını tələb edib. O zaman bütün böyük korporasiyalar daha təkmil, güclü və “daha ağıllı” model yaratmağa can atırdılar. Məktubu Hökumətin Effektivliyi Departamentinin keçmiş rəhbəri və sahibkar İlon Mask, həmçinin süni intellekt laboratoriyasının baş direktorları Konnor Ley (EleutherAI-nin həmtəsisçisi) və İmad Mostak (Stability AI-nın keçmiş həmtəsisçi) imzalayıblar.
Tərtibatçıların özləri süni intellekt tərəfindən yarana biləcək potensial təhlükələr barədə xəbərdarlıq etdikdə, siyasətçilərin və qeyri-kommersiya təşkilatlarının onlara qoşulması təəccüblü deyil. Yalnız ümid etmək olar ki, onların narahatlıqlarına və şərhlərinə AI sistemlərinin yaradılmasına cavabdeh olan böyük korporasiyalar bu sahədə qazanc əldə etmək və “qabaqcıl” titul əldə etməyə davam etməkdənsə, onlara diqqət yetirəcəklər.
İndilikdə süni zəka bir çox ölkələrdə o qədər də təhlükəli sayılmır, hətta minlərlə adamın işinə yarayır. Məsələn, süni intellektin köməyi ilə yazılan analitik məqalələr politoloq və jurnalistlərin işini çox asanlaşdırır. Bu vasitə ilə hər hansı proses və olay barədə dolğun məlumatlar, dəqiq təsbitlər əldə etmək olur. Artıq bir redaksiyaya bir neçə icmalçı lazım deyil, AI işlədən bir nəfər bəsdir.
Ancaq super süni intellektin inkişafının təhlükələri barədə deyilənləri qəribçiliyə salmaq olmaz. Bir iş də var ki, nə qədər həyəcan təbili çalınsa da, sürətlə silahlanma məsələsində olduğu kimi, bir çox dövlətlər öz aralarında ASI əldə etmək üçün yarışacaq, gözlənilən təhlükələrin real vəziyyətə gətirəcəklər. Beləcə, irəli zəkalılıq onsuz da gerizəkalıların çoxluq etdiyi cəmiyyətləri tamamilə məhv edəcək.
Araz Altaylı, Musavat.com
25 Oktyabr 2025
ŞƏRHLƏRŞƏRH YAZ