Alimlər populyar süni intellekt modellərini müharibə simulyasiyasında sınaqdan keçirib və nəticələr narahatlıq doğurub.
Hit.az xəbər verir ki, alqoritmlər nüvə müharibəsini fəlakət ssenarisi kimi deyil, strateji oyun gedişi kimi qiymətləndirərək saniyələr içində nüvə zərbəsi qərarı veriblər.
Süni intellektin həyatın bütün sahələrinə inteqrasiya olunduğu bir dövrdə, bu texnologiyanın ən təhlükəli ssenarilərdə necə davranacağı sualı elm ictimaiyyətində ciddi müzakirələrə səbəb olub. Yeni dərc edilmiş və hələ rəy prosesindən keçməmiş genişmiqyaslı araşdırma çərçivəsində qabaqcıl böyük dil modelləri simulyasiya edilmiş nüvə müharibəsi mühitində sınaqdan keçirilib.
BMT-nin Baş katibi Antoniu Quterreş ötən il ölkələrə müraciət edərək nüvə silahından istifadə qərarının hər zaman insanlar tərəfindən verilməli olduğunu vurğulayıb. Tarixdə SSRİ-nin “Dead Hand” (Ölü əl) kimi avtomatlaşdırılmış sistemləri mövcud olsa da, son qərar yenə də insan operatorlara həvalə edilirdi. Müasir süni intellekt isə vəziyyətin emosional və etik ölçüsünü dərk etmək qabiliyyətinə malik görünmür.
London Kral Kollecinin strategiya professoru Kennet Peynin rəhbərliyi ilə aparılan tədqiqatda "ChatGPT-5.2", "Claude Sonnet 4" və "Gemini 3 Flash" modelləri virtual müharibə meydanında qarşı-qarşıya qoyulub. Modellərə ərazi mübahisələri, kritik minerallar uğrunda mübarizə və rejimlərə qarşı ekzistensial təhdidlər kimi müxtəlif ssenarilər təqdim edilib. Süni intellektə diplomatiyadan tutmuş nüvə zərbəsinə qədər geniş seçim imkanları verilib.
Simulyasiyaların 95 faizində modellər nüvə həddini tərəddüdsüz keçib. Xüsusilə “taktiki” nüvə silahlarını adi konvensional müharibənin davamı kimi qiymətləndirdikləri və geri dönüşü olmayan həddi aşdıqlarının fərqinə varmadıqları müşahidə olunub.
Məsələn, "Claude Sonnet 4" modelinin cavabında “Bu fürsət bir daha yaranmaya bilər, üstünlüyümü qətiyyətlə istifadə etməliyəm” kimi ifadələrlə nüvə təhdidini təzyiq aləti kimi əsaslandırdığı qeyd edilib.
Tədqiqatçılar süni intellektin bu qədər “aqressiv” davranmasının bir neçə səbəbini göstərirlər. İlk növbədə, maşınlar insani qorxu və emosiyalardan məhrumdur. Süni intellekt Hiroşima və ya Karib böhranı ilə bağlı məlumatları təhlil edərkən dəhşət hiss etmir, sadəcə məlumatları analiz edir. Buna görə də nüvə silahına qarşı formalaşmış tarixi və etik tabu alqoritmlərə ötürülmür.
Digər mühüm amil isə təlim məlumatları ilə bağlıdır. Modellər əsasən Soyuq müharibə dövrünün hərbi doktrinaları və strateji ədəbiyyatı əsasında öyrədilib. Həmin mənbələrdə isə nüvə silahları “istifadə edilə bilən vasitə” kimi təqdim olunur. Professor Peynin fikrincə, nüvə tabusu düşündüyümüzdən daha kövrək ola bilər və süni intellekt real dünya təzyiqlərini məhz bu məlumatlar əsasında əks etdirir.
Hazırkı vəziyyətdə süni intellekt modelləri nüvə qarşıdurması ilə bağlı strateji qərarlarda istifadə üçün uyğun görünmür. İnsan sezgisi və etik məsuliyyətdən məhrum alqoritmin “məntiqli” hesab etdiyi addım dünya üçün geri dönməz nəticələrə səbəb ola bilər.
Samir

