Süni zəka və hərbi əməliyyat: Kompüterlər nə edə bilər?

2020/07/9-11170851601.jpg
Oxunub: 9528     16:12     27 İyul 2020    
Bütün süni zəkalar eyni deyil. Süni zəka anlayışı dedikdə müxtəlif metod və tətbiqlərin geniş spektri başa süşülür. Bu metod və tətbiqlərdən bəziləri - məsələn, şəkillərin tanınması - çox yaxşı işləyir. Lakin digər süni zəka tətbiqləri, xüsusən də proqnozlaşdırmaya yönəlmiş tətbiqlər gözləntilərə uyğun gəlmədi.

Hazır olmamışdan əvvəl süni zəkanı sınamaq əsgərlər arasında uyğunsuzluğa, səhv proqnozlara və sistemə daxil olmaq üçün istifadəçilər tərəfindən strateji manipulyasiyalara səbəb ola bilər. Hərbi satınalma məmurları ağıllı alıcı olmaq üçün əsas süni zəka biliklərinə yiyələnməli və süni zəkanın vaxtından əvvəl ortaya çıxarılmamasını təmin etməlidirlər.


Süni zəkanın gözləntilərini idarə edin

Süni zəka son 20 il ərzində əhəmiyyətli dərəcədə yaxşılaşıb, lakin hələ də alqoritmlərin edə biləcəyi dəqiq sərhədlər mövcuddur. Süni zəka mühakimə və ya proqnozlardan daha çox təsnifləşdirmə və təsnifatla əlaqəli vəzifələrin öhdəsindən daha yaxşı gəlir. Princeton Universitetinin dosenti Arvind Narayan son kateqoriyaya aid edilən proqramları “Süni zəkanən ilan yağı” adlandırır. Süni zəka şəkil tanınması, tərcümə və yeni məzmun yaratmaq kimi məsələlərdə xüsusilə güclüdür (məsələn, Deepfakes və ya Generative Pretrained Transformer-2 (GPT-2) kimi süni şəkildə hazırlanmış mətn). Bunlar dəqiq müəyyən məqsədə malik olan və nəticənin düzgünlüyünə praktiki olaraq şübhə doğurmayan dar vəzifələrdir. Süni zəka bu cür tətbiqlər üçün ən yaxşısıdır.

Süni zəka daha çox spam filtrasiyası və nifrət nitqlərinin aşkarlanması kimi avtomatlaşdırılmış mühakimə ilə əlaqəli vəzifələrlə daha çox mübarizə aparır. Bu məsələlər subyektiv hökmü nəzərdə tutur və qəbul edilmiş qərarın düzgünlüyünə dair fikir ayrılıqları həmişə olacaq. Ən çətini, xüsusilə sosial nəticələr üçün proqnozlaşdırma vəzifəsidir. Narayanan iddia edir ki, süni zəka hazırda xətti reqressiyadan bir qədər yaxşı işləyir. Məsələn, Julia Dessel və Hani Farid residivizmi proqnozlaşdırmaq üçün istifadə olunan proqramın cinayət ədalət mühakiməsi sahəsində təcrübəsi olmayan insanlardan daha yaxşı işləmədiyini göstərdi. Əlavə olaraq, süni zəka məhdud məlumatlar olduqda və ya öyrəndiyi məlumatlar və real dünyadan gələn məlumatlar bənzəmirsə daha pis işləyəcək. Bundan əlavə, əvvəlcədən bilikləri dərin öyrənmə modellərinə inteqrasiya etmək hələ çox çətindir.

İndiyə qədər süni zəka belə bir intensiv təbliğat yaşamayıb. 2019-cu ildə 2500-dən çox rəhbər arasında keçirilən Massaçusets Texnologiya İnstitutunun sorğusu göstərdi ki, süni zəkaya sərmayə qoyan şirkətlərin 65 faizi hələ son üç ildə ondan heç bir fayda görməyib. Professor Erik Brinolfsson bunu “Süni zəkanın məhsuldarlığının paradoksu” adlandırır. Bənzər bir dinamika, əvvəllər küçələrdə sürülməsi proqnozlaşdırılan tam avtonom avtomobillərdə müşahidə olunur. Bu heç bir süni zəkanın işləməyəcəyini və ya süni zəkanın heç vaxt işləməyəcəyini nəzərdə tutmur. Süni zəka bir çox tətbiq üçün əladır, ancaq hər problemi həll edə biləcək bir vasitə deyil.


Siyasətçilər, mühəndislər və analitiklər süni zəka ilə bağlı daha real gözləntiləri inkişaf etdirməlidirlər. Əks halda nəticədə başqa bir “Süni zəka qışı” ola bilər. Süni zəka qışı əvvəllər 1970-90-cı illərdə baş vermişdi, çünki yüksək gözləntilər yerinə yetirilmədiyi zaman tədqiqatların maliyyələşdirilməsi tükənmişdi. Narahatverici məqam texnologiyaların açıq-aydın işləməməsi deyil, onların nəyə qadir olduqları barədə yanlış illüziya verənlərdədir. Bunu mühakimə etmək çətindir. Proqnozlaşdırılan bir proqramın bir tankın işləməsindən daha yaxşı olub-olmadığı və proqramın işləyib-işləmədiyini qiymətləndirməyin nəticəsi çox qeyri-müəyyəndir. Üstəlik, avtonom sistemlərin yoxlanılması və təsdiqlənməsi üçün hələ formal metodlar mövcud deyil, bu da proqramların qaydalara uyğun olaraq fəaliyyət göstərdiyini qiymətləndirməyi daha da çətinləşdirir. Bu, satınalma və yerləşdirilməni xüsusilə çətinləşdirəcək.

Süni zəkanın vaxtından əvvəl tətbiqi riskləri

Süni zəka tətbiqlərinin vaxtından əvvəl həyata keçirilməsi hərbçilər üçün çoxlu risk, o cümlədən uyğunsuzluq, qeyri-dəqiqlik və strateji manipulyasiya yaradır

Birinci risk ondan ibarətdir ki, süni zəka yanlış təhlükəsizlik hissi yarada və özündən məmnun olmağa gətirib çıxara bilər. Maşınlar daha çox məsuliyyət götürdükcə, insanın iştirakı daha çox idarəetmə səviyyəsinə keçəcək. Əgər maşınlar kifayət qədər səmərəli işləmirsə və ya səhvlərə yol verirsə, bu, insanların cəlb olunmasının azalması səbəbindən aşkarlanmaya bilərdi. Nümunələrdən biri duyğuların aşkarlanması və ya niyyətin tanınması üçün proqram təminatına aiddir. Hazırda Avropa İttifaqı sərhəd nəzarətində istifadə üçün süni zəkaya əsaslanan yalan detektorları hazırlayır. Problem ondadır ki, emosiyaları aşkarlayan süni zəka psixologiyada köhnəlmiş işə əsaslanır və bu, dünyanın dörd bir tərəfindəki insanların hamısının eyni şəkildə ifadə etdikləri duyğuların altı elementar növünün olduğunu göstərir. Ancaq bu fikir onun lehinədir, bu günə qədər edilən ən böyük metod tədqiqi, duyğuların ifadəsinin mədəniyyət, insanlar və hətta vəziyyətlər arasında dəyişdiyini göstərir. Eyni üz ifadəsi fərqli duyğuların nəticəsi ola bilər və şərh üçün kontekst tələb edir. Beləliklə, bu parsel (başlıq) səhvdir. Mütəxəssislər, xüsusən rəngli insanlarda istifadə edildikdə, duyğu tanıma proqramının düzgünlüyünü çox tənqid etdilər. Əlbətdə ki, bu, ölkəyə girişinə icazə verilməyən və ya saxtakarlıqla ittihamı ilə saxlanılan insanlar üçün problemdir. Lakin istifadəçilər də riskə məruz qalırlar. Onlar proqramın vəd edildiyi kimi işlədiyinə inansalar, sayıqlığı aşağı sala və vəziyyəti əksinə düşündüklərindən daha az tənqidi qiymətləndirə apara bilərdilər. Təhlükələr radarın altında uça bilər.


İkinci risk, maşınların yanlış tövsiyələr verə bilməsidir. Buna bir nümunə, hərbi işə qəbul üçün süni zəka istifadəsidir. ABŞ-da namizədlər ABŞ Dəniz Qüvvələrinin xüsusi əməliyyatlarına uyğun olub-olmadığını qiymətləndirmək üçün süni zəkadan istifadə edən bir proqramla sınaqdan keçirilir. Duyğuların tanınması halında olduğu kimi bunun üçün də elmi əsas çox zəifdir. Lakin maşının müəyyən etdiyi xüsusiyyətlər ölçmək istədiyi həqiqi xüsusiyyətlərə uyğun gəlmir. Problem ondan ibarətdir ki, maşınlar həmişə qiymətləndirmək istədikləri real xüsusiyyətlərə çıxış əldə edə bilmirlər və qiymətləndirməyə təsir edən obyektlərin yalnız aralıq təbəqəsini tez-tez qiymətləndirirlər. Məsələn, standart testlər tələbələrin öyrənmə səviyyəsini ölçmək məqsədi daşıyır, lakin praktikada sosial-iqtisadi vəziyyət kimi bir çox digər dəyişənləri də ölçür. Bənzər mülki işəgötürmə proqramı məhdud müvəffəqiyyətlə sınaqdan keçirildi - bir halda, alqoritm “Jared” olaraq adlandırılmanın və lakros oynamağın mühüm iş göstəriciləri olduğunu aşkar etdi. Aydındır ki, bu keyfiyyətlər özlüyündə işin effektivliyindən xəbər vermir və çox güman ki, gender və sosial-iqtisadi statusun dolayı göstəricisidir. Belə sistemlərdən istifadə, xüsusən də az təmsil olunan qruplardan gəlirsə, Silahlı Qüvvələrdən güclü namizədləri istisna etmək riski ilə bağlıdır.

Üçüncü risk, əsgərlərin müsbət maşın təsdiqi üçün suboptimal davranışla məşğul ola bilməsidir. Hal-hazırda hazırlanan bir çox süni zəka proqramları rəqibdən istifadə etmək üçün deyil, hərbi kadrları idarə etmək üçün nəzərdə tutulub. Buna misal olaraq, genişlənmiş və virtual reallıqdan istifadə edən əsgərlərə təlim verən ABŞ Silahlı Qüvvələrinin vahid vizual gücləndirilmə sistemini göstərmək olar. Bu, əsgərlərin göz və əl hərəkətlərini, eləcə də səsini izləyir və davranış məlumatları ilə birlikdə bu biometriklər “fərdi insanlarda zəif yerləri müəyyənləşdirmək” üçün nəzərdə tutulub. Daha bir nümunə ABŞ Müdafiə Təhlükəsizlik Xidmətinin “etimadına xəyanət etmiş” və gələcəkdə bunu kimin edə biləcəyini proqnozlaşdıran və bununla da məxfiliyi pozan işçilərin aşkarlanması layihəsidir.

Süni zəka mütəxəssisləri strateji təsnifat adlı bir prosesi ortaya qoymaqla, burada insanların maşın vasitəsilə daha yaxşı təsnifat əldə etmək üçün davranışlarını dəyişdirməyə çalışırlar. Məsələn, tələbələr kolleclərə qəbul şanslarını yaxşılaşdırmaq üçün qiymətlərini artırmaq üçün çalışdıqda bu zərərli deyil. Bununla birlikdə, tez-tez insanlar davranışlarını maşının təsdiqlədiyi şəkildə dəyişdirirlər, lakin bu heç də müsbət effekt vermir (məsələn, insanlar kredit ballarını artırmaq üçün çoxsaylı kredit xətləri açdıqda). Əsgərlər daha yaxından müşahidə edildikcə, süni zəka tərəfindən hazırlanan ölçülərə görə qiymətləndiriləcək və mühakimə olunacaqlar. Lakin əsgərin effektivliyinin qiymətləndirilməsi mürəkkəb şəraitdə baş verir, konteksti tələb edir və subyektiv xarakter daşıyır. Süni zəka bu xüsusiyyətlərdən üçü ilə mübarizə aparır ki, bu da onun dəqiqliyini şübhə altına alır. Nəticədə, əsgərlər əməliyyat, təhlükəsizlik, hüquqi və ya etik nöqteyi-nəzərdən alt-üst ola biləcək potensial qeyri-adekvat göstəricilərə cavab vermək üçün davranışlarını dəyişdirə bilərlər.


Süni zəka ümumiyyətlə sahə ola bilər?

Burada təsvir olunan problemləri asanlıqla aradan qaldırmaq olmaz. Süni səkanın hərbi satınalmalara daxil edilməsi xüsusilə çətin olacaq. Burada, xüsusilə süni zəka üçün bir neçə risk faktoru var.

Birincisi, süni zəka ətrafında yaradılan intensiv təbliğat kömək etmir. Kütləvi informasiya vasitələrində müsbət narrativlər süniz zəka ideyasının artıq müvəffəq olduğu düşüncəsini formalaşdırmağa kömək edir. Geniş ictimaiyyət ekspertlərdən daha sürətli irəliləyiş gözləyir. 2019-cu il ictimai rəy sorğusu göstərdi ki, Amerika ictimaiyyəti hesab edir ki, 10 il ərzində yüksək səviyyəli maşın zəkasının inkişaf etdirilməsi üçün 54 faizlik ehtimal var, 2018-ci ilin qlobal ictimai rəy sorğusu isə göstərirdi ki, geniş ictimaiyyət 50 faizlik yüksək səviyyəli maşın zəkasının 2039-cu ildə inkişaf ehtimalını proqnozlaşdırır. Digər tərəfdən, robot texnikası üzrə ekspertlər 50 faiz ehtimalı yalnız 2065-ci ildə, maşın öyrənmə üzrə ekspertlər isə 2061-ci il üçün proqnozlaşdırırlar. Beləliklə, ictimaiyyət süni zəkanın əldə etdiyi tərəqqini yenidən qiymətləndirir. Əlbəttə ki, geniş ictimaiyyət silah sistemləri almır, lakin bu, hərbi satınalma sahəsində qərar qəbul edən şəxslərin süni zəkanın necə işlədiyi haqda aydın təsəvvürlərinin olmasını göstərir.

İkincisi, geosiyasi iqlim getdikcə gərginləşdikcə “süni zəka uğrunda silah yarışı” haqqında söhbətlər müzakirələr artdı. Rəqiblərindən geri qaldıqları üçün narahat olan ölkələr, texnologiya tam inkişaf etmədən, hərtərəfli sınaqdan keçirilmədən və qiymətləndirilmədən öncə özlərində süni zəkanı mümkün qədər tez tətbiq etmək təzyiqini hiss edə bilər.

Üçüncüsü, Silikon vadisi Aİ-nin ümumi konsepsiyasına təsir edən həddindən artıq bədbinliyə meyllidir. “Bunu düzəltməyincə saxtalaşdırmaq” - texnologiya həqiqətən inkişaf etməmişdən xeyli əvvəl maliyyə əldə etmək üçün maraqlı və cazibədar yeni bir texnologiya vəd etmək nadir deyil. Bu təbliğatın daha çox edilməsinə və yalan vədlərə səbəb olur. İnkişaf planlaşdırıldığından daha az uğurlu olacağı təqdirdə, məhsulların avtonom olaraq satılması, insanlar tərəfindən işlədildiyi zaman “fauxtomation” adlanan bir təcrübə deyil. Əgər inkişaf planlaşdırıldığından daha az uğurlu olarsa, məhsul bazarının insanlar tərəfindən faktiki olaraq idarə edildikdə avtonom olacağı istisna edilmir - təcrübə “fauxtomation” adlanır.


Başqa bir nəticəsi, maşını real dünyada işləyə bilməsi üçün təkmilləşdirmək əvəzinə, bəzi insanlar maşının işləməsinə icazə vermək üçün həqiqi dünyanı dəyişdirməyə tələsirlər. Buna misal olaraq, avtonom nəqliyyat vasitələrinin tərəfdarlarının mövcud infrastrukturu dəyişdirmək və adi avtomobillər, velosipedlər və piyadalar tərəfindən istifadə olunmayan məkanlar yaratmaq barədə çağırışlarıdır, beləliklə avtonom avtomobillər daha proqnozlaşdırıla bilən şəraitdə hərəkət edə bilər. Bu, texnologiyaların əslində olmadığı zaman və ya yalnız sadələşdirilmiş şərtlər altında işlədikləri kimi bir illüziya yaradır.

Süni zəkanın hərbi satınalmaları üçün təlimatlar

Hal-hazırda süni zəka dar, xüsusi tətbiqlərdən üstündür, lakin xüsusilə sosial kontekstləri mühakimə edərkən və proqnozlaşdırarkən real dünya mürəkkəbliyi ilə mübarizə aparır. Texnologiyanın hazır olana qədər yerləşdirilməsi yanlış təhlükəsizlik hissi, maşınların yanlış tövsiyələri və qeyri-optimal hərbi davranışa səbəb ola bilər. Bu, süni zəkanın tamamilə nöqsanlı olduğu demək deyil. Bir çox süni zəka çox perspektivlidir. Bununla birlikdə, süni zəkanın müəyyən tətbiqlərində hələ də ciddi nöqsanlar var. Mütəxəssislər süni zəka üçün hansı tətbiqlərin ən uyğun olduğunu diqqətlə nəzərdən keçirməlidirlər və siyasətə istiqamət verənlər süni zəkanın inkişaf etdirilməmişdən əvvəl yerləşdirilməsinə tələsməməlidirlər.

Bu risklərin qarşısını almaq üçün hərbi satınalmalar üç qaydaya uyğun olmalıdır.

Birincisi, süni zəka naminə süni zəkanı inkişaf etdirməyin. Süni zəka bir çox faydalı istifadəyə malikdir, lakin o hər dərdə dəva olan bir dərman deyil. İlk növbədə problemi dəqiq müəyyənləşdirmək və yalnız bundan sonra süni zəkanın bu problemin potensial həlli ola biləcəyini düşünmək vacibdir. Süni zəka müəyyən bir məqsəd üçün tətbiq edilməli, lakin öz məqsədləri üçün istifadə edilməməlidir. Perspektivli süni zəkadan istifadə nümunələrinə məlumatların emalı mərkəzlərinin enerji istehlakının optimallaşdırılması, elektromaqnit spektrinin idarə edilməsi, sahə şəraitində tanımadığı dillərin tərcüməsi və minaların aşkarlanması daxildir.


İkincisi, hərbçilər ağıllı alıcı kimi çıxış etmək üçün texnologiyanın dərin anlayışına malik olan süni zəka mütəxəssislərini işə götürməlidir. Bu xarici işçi heyəti, daxili təlim, texniki bacarıqların əldə edilməsi və ya kadr prosesinin, hətta tam islahatı üçün kadr stimullaşdırma proqramları ola bilər. Texniki biliklərin olmaması yaxşı sənədləşdirilib.

Bu, ciddi bir problemdir, çünki hərbi bürokratiyalar süni zəka qabiliyyətinin ciddi bir çatışmazlığı səbəbindən lazımi texniki biliklərə sahib deyillər. Üstəlik, əslində bu texniki biliklərə sahib olan insanlar çox vaxt bacarıqlarına görə mükafatlandırılmır, dominant təşkilatçılıq mədəniyyətindən kənarda qalır və karyera irəliləmələrində tanınmazlıqlar ilə üzləşirlər. Hər kəsin süni zəka mühəndisli olması lazımsızdır (və qeyri-realdır), lakin (Michael Horowitz və Lauren Kahn kimi) qərar qəbul edən şəxslərin əsas prinsipləri və potensial məhdudiyyətləri başa düşmələrini təmin etmək üçün müdafiə işçiləri süni zəka savadının daha yüksək səviyyəsinə çatmalıdırlar. Bu biliklər, hətta sistemin potensial problemləri aşkar etmək və süni zəkanın konkret tətbiqinin bu işi yerinə yetirmək üçün düzgün vasitə olub-olmadığını həll etmək üçün şirkət daxilində işlənib hazırlanmadığı halda da vacibdir.

Nəhayət, avtonom sistemlərin yoxlanılması və təsdiqlənməsi üçün alternativ üsulların inkişafına sərmayə qoymaq lazımdır.

Düşünülmüş, tənqidi və əsaslandırılmış satınalmalar sayəsində hərbçilər süni zəkanın vaxtından əvvəl tətbiqindən və lazımsız riskdən qaça bilərlər. Süni zəka çox faydalı ola bilər, lakin bu, böyük məqsədlərə nail olmaq üçün yalnız bir vasitədir.

Dəyanət Ağalarlı
Ordu.az

© Materiallardan istifadə edərkən hiperlinklə istinad olunmalıdır


Teqlər: Süni-zəka   Kompüter   Hərbi-silahlanma  


Süni zəka və hərbi əməliyyat: Kompüterlər nə edə bilər?

2020/07/9-11170851601.jpg
Oxunub: 9529     16:12     27 İyul 2020    
Bütün süni zəkalar eyni deyil. Süni zəka anlayışı dedikdə müxtəlif metod və tətbiqlərin geniş spektri başa süşülür. Bu metod və tətbiqlərdən bəziləri - məsələn, şəkillərin tanınması - çox yaxşı işləyir. Lakin digər süni zəka tətbiqləri, xüsusən də proqnozlaşdırmaya yönəlmiş tətbiqlər gözləntilərə uyğun gəlmədi.

Hazır olmamışdan əvvəl süni zəkanı sınamaq əsgərlər arasında uyğunsuzluğa, səhv proqnozlara və sistemə daxil olmaq üçün istifadəçilər tərəfindən strateji manipulyasiyalara səbəb ola bilər. Hərbi satınalma məmurları ağıllı alıcı olmaq üçün əsas süni zəka biliklərinə yiyələnməli və süni zəkanın vaxtından əvvəl ortaya çıxarılmamasını təmin etməlidirlər.


Süni zəkanın gözləntilərini idarə edin

Süni zəka son 20 il ərzində əhəmiyyətli dərəcədə yaxşılaşıb, lakin hələ də alqoritmlərin edə biləcəyi dəqiq sərhədlər mövcuddur. Süni zəka mühakimə və ya proqnozlardan daha çox təsnifləşdirmə və təsnifatla əlaqəli vəzifələrin öhdəsindən daha yaxşı gəlir. Princeton Universitetinin dosenti Arvind Narayan son kateqoriyaya aid edilən proqramları “Süni zəkanən ilan yağı” adlandırır. Süni zəka şəkil tanınması, tərcümə və yeni məzmun yaratmaq kimi məsələlərdə xüsusilə güclüdür (məsələn, Deepfakes və ya Generative Pretrained Transformer-2 (GPT-2) kimi süni şəkildə hazırlanmış mətn). Bunlar dəqiq müəyyən məqsədə malik olan və nəticənin düzgünlüyünə praktiki olaraq şübhə doğurmayan dar vəzifələrdir. Süni zəka bu cür tətbiqlər üçün ən yaxşısıdır.

Süni zəka daha çox spam filtrasiyası və nifrət nitqlərinin aşkarlanması kimi avtomatlaşdırılmış mühakimə ilə əlaqəli vəzifələrlə daha çox mübarizə aparır. Bu məsələlər subyektiv hökmü nəzərdə tutur və qəbul edilmiş qərarın düzgünlüyünə dair fikir ayrılıqları həmişə olacaq. Ən çətini, xüsusilə sosial nəticələr üçün proqnozlaşdırma vəzifəsidir. Narayanan iddia edir ki, süni zəka hazırda xətti reqressiyadan bir qədər yaxşı işləyir. Məsələn, Julia Dessel və Hani Farid residivizmi proqnozlaşdırmaq üçün istifadə olunan proqramın cinayət ədalət mühakiməsi sahəsində təcrübəsi olmayan insanlardan daha yaxşı işləmədiyini göstərdi. Əlavə olaraq, süni zəka məhdud məlumatlar olduqda və ya öyrəndiyi məlumatlar və real dünyadan gələn məlumatlar bənzəmirsə daha pis işləyəcək. Bundan əlavə, əvvəlcədən bilikləri dərin öyrənmə modellərinə inteqrasiya etmək hələ çox çətindir.

İndiyə qədər süni zəka belə bir intensiv təbliğat yaşamayıb. 2019-cu ildə 2500-dən çox rəhbər arasında keçirilən Massaçusets Texnologiya İnstitutunun sorğusu göstərdi ki, süni zəkaya sərmayə qoyan şirkətlərin 65 faizi hələ son üç ildə ondan heç bir fayda görməyib. Professor Erik Brinolfsson bunu “Süni zəkanın məhsuldarlığının paradoksu” adlandırır. Bənzər bir dinamika, əvvəllər küçələrdə sürülməsi proqnozlaşdırılan tam avtonom avtomobillərdə müşahidə olunur. Bu heç bir süni zəkanın işləməyəcəyini və ya süni zəkanın heç vaxt işləməyəcəyini nəzərdə tutmur. Süni zəka bir çox tətbiq üçün əladır, ancaq hər problemi həll edə biləcək bir vasitə deyil.


Siyasətçilər, mühəndislər və analitiklər süni zəka ilə bağlı daha real gözləntiləri inkişaf etdirməlidirlər. Əks halda nəticədə başqa bir “Süni zəka qışı” ola bilər. Süni zəka qışı əvvəllər 1970-90-cı illərdə baş vermişdi, çünki yüksək gözləntilər yerinə yetirilmədiyi zaman tədqiqatların maliyyələşdirilməsi tükənmişdi. Narahatverici məqam texnologiyaların açıq-aydın işləməməsi deyil, onların nəyə qadir olduqları barədə yanlış illüziya verənlərdədir. Bunu mühakimə etmək çətindir. Proqnozlaşdırılan bir proqramın bir tankın işləməsindən daha yaxşı olub-olmadığı və proqramın işləyib-işləmədiyini qiymətləndirməyin nəticəsi çox qeyri-müəyyəndir. Üstəlik, avtonom sistemlərin yoxlanılması və təsdiqlənməsi üçün hələ formal metodlar mövcud deyil, bu da proqramların qaydalara uyğun olaraq fəaliyyət göstərdiyini qiymətləndirməyi daha da çətinləşdirir. Bu, satınalma və yerləşdirilməni xüsusilə çətinləşdirəcək.

Süni zəkanın vaxtından əvvəl tətbiqi riskləri

Süni zəka tətbiqlərinin vaxtından əvvəl həyata keçirilməsi hərbçilər üçün çoxlu risk, o cümlədən uyğunsuzluq, qeyri-dəqiqlik və strateji manipulyasiya yaradır

Birinci risk ondan ibarətdir ki, süni zəka yanlış təhlükəsizlik hissi yarada və özündən məmnun olmağa gətirib çıxara bilər. Maşınlar daha çox məsuliyyət götürdükcə, insanın iştirakı daha çox idarəetmə səviyyəsinə keçəcək. Əgər maşınlar kifayət qədər səmərəli işləmirsə və ya səhvlərə yol verirsə, bu, insanların cəlb olunmasının azalması səbəbindən aşkarlanmaya bilərdi. Nümunələrdən biri duyğuların aşkarlanması və ya niyyətin tanınması üçün proqram təminatına aiddir. Hazırda Avropa İttifaqı sərhəd nəzarətində istifadə üçün süni zəkaya əsaslanan yalan detektorları hazırlayır. Problem ondadır ki, emosiyaları aşkarlayan süni zəka psixologiyada köhnəlmiş işə əsaslanır və bu, dünyanın dörd bir tərəfindəki insanların hamısının eyni şəkildə ifadə etdikləri duyğuların altı elementar növünün olduğunu göstərir. Ancaq bu fikir onun lehinədir, bu günə qədər edilən ən böyük metod tədqiqi, duyğuların ifadəsinin mədəniyyət, insanlar və hətta vəziyyətlər arasında dəyişdiyini göstərir. Eyni üz ifadəsi fərqli duyğuların nəticəsi ola bilər və şərh üçün kontekst tələb edir. Beləliklə, bu parsel (başlıq) səhvdir. Mütəxəssislər, xüsusən rəngli insanlarda istifadə edildikdə, duyğu tanıma proqramının düzgünlüyünü çox tənqid etdilər. Əlbətdə ki, bu, ölkəyə girişinə icazə verilməyən və ya saxtakarlıqla ittihamı ilə saxlanılan insanlar üçün problemdir. Lakin istifadəçilər də riskə məruz qalırlar. Onlar proqramın vəd edildiyi kimi işlədiyinə inansalar, sayıqlığı aşağı sala və vəziyyəti əksinə düşündüklərindən daha az tənqidi qiymətləndirə apara bilərdilər. Təhlükələr radarın altında uça bilər.


İkinci risk, maşınların yanlış tövsiyələr verə bilməsidir. Buna bir nümunə, hərbi işə qəbul üçün süni zəka istifadəsidir. ABŞ-da namizədlər ABŞ Dəniz Qüvvələrinin xüsusi əməliyyatlarına uyğun olub-olmadığını qiymətləndirmək üçün süni zəkadan istifadə edən bir proqramla sınaqdan keçirilir. Duyğuların tanınması halında olduğu kimi bunun üçün də elmi əsas çox zəifdir. Lakin maşının müəyyən etdiyi xüsusiyyətlər ölçmək istədiyi həqiqi xüsusiyyətlərə uyğun gəlmir. Problem ondan ibarətdir ki, maşınlar həmişə qiymətləndirmək istədikləri real xüsusiyyətlərə çıxış əldə edə bilmirlər və qiymətləndirməyə təsir edən obyektlərin yalnız aralıq təbəqəsini tez-tez qiymətləndirirlər. Məsələn, standart testlər tələbələrin öyrənmə səviyyəsini ölçmək məqsədi daşıyır, lakin praktikada sosial-iqtisadi vəziyyət kimi bir çox digər dəyişənləri də ölçür. Bənzər mülki işəgötürmə proqramı məhdud müvəffəqiyyətlə sınaqdan keçirildi - bir halda, alqoritm “Jared” olaraq adlandırılmanın və lakros oynamağın mühüm iş göstəriciləri olduğunu aşkar etdi. Aydındır ki, bu keyfiyyətlər özlüyündə işin effektivliyindən xəbər vermir və çox güman ki, gender və sosial-iqtisadi statusun dolayı göstəricisidir. Belə sistemlərdən istifadə, xüsusən də az təmsil olunan qruplardan gəlirsə, Silahlı Qüvvələrdən güclü namizədləri istisna etmək riski ilə bağlıdır.

Üçüncü risk, əsgərlərin müsbət maşın təsdiqi üçün suboptimal davranışla məşğul ola bilməsidir. Hal-hazırda hazırlanan bir çox süni zəka proqramları rəqibdən istifadə etmək üçün deyil, hərbi kadrları idarə etmək üçün nəzərdə tutulub. Buna misal olaraq, genişlənmiş və virtual reallıqdan istifadə edən əsgərlərə təlim verən ABŞ Silahlı Qüvvələrinin vahid vizual gücləndirilmə sistemini göstərmək olar. Bu, əsgərlərin göz və əl hərəkətlərini, eləcə də səsini izləyir və davranış məlumatları ilə birlikdə bu biometriklər “fərdi insanlarda zəif yerləri müəyyənləşdirmək” üçün nəzərdə tutulub. Daha bir nümunə ABŞ Müdafiə Təhlükəsizlik Xidmətinin “etimadına xəyanət etmiş” və gələcəkdə bunu kimin edə biləcəyini proqnozlaşdıran və bununla da məxfiliyi pozan işçilərin aşkarlanması layihəsidir.

Süni zəka mütəxəssisləri strateji təsnifat adlı bir prosesi ortaya qoymaqla, burada insanların maşın vasitəsilə daha yaxşı təsnifat əldə etmək üçün davranışlarını dəyişdirməyə çalışırlar. Məsələn, tələbələr kolleclərə qəbul şanslarını yaxşılaşdırmaq üçün qiymətlərini artırmaq üçün çalışdıqda bu zərərli deyil. Bununla birlikdə, tez-tez insanlar davranışlarını maşının təsdiqlədiyi şəkildə dəyişdirirlər, lakin bu heç də müsbət effekt vermir (məsələn, insanlar kredit ballarını artırmaq üçün çoxsaylı kredit xətləri açdıqda). Əsgərlər daha yaxından müşahidə edildikcə, süni zəka tərəfindən hazırlanan ölçülərə görə qiymətləndiriləcək və mühakimə olunacaqlar. Lakin əsgərin effektivliyinin qiymətləndirilməsi mürəkkəb şəraitdə baş verir, konteksti tələb edir və subyektiv xarakter daşıyır. Süni zəka bu xüsusiyyətlərdən üçü ilə mübarizə aparır ki, bu da onun dəqiqliyini şübhə altına alır. Nəticədə, əsgərlər əməliyyat, təhlükəsizlik, hüquqi və ya etik nöqteyi-nəzərdən alt-üst ola biləcək potensial qeyri-adekvat göstəricilərə cavab vermək üçün davranışlarını dəyişdirə bilərlər.


Süni zəka ümumiyyətlə sahə ola bilər?

Burada təsvir olunan problemləri asanlıqla aradan qaldırmaq olmaz. Süni səkanın hərbi satınalmalara daxil edilməsi xüsusilə çətin olacaq. Burada, xüsusilə süni zəka üçün bir neçə risk faktoru var.

Birincisi, süni zəka ətrafında yaradılan intensiv təbliğat kömək etmir. Kütləvi informasiya vasitələrində müsbət narrativlər süniz zəka ideyasının artıq müvəffəq olduğu düşüncəsini formalaşdırmağa kömək edir. Geniş ictimaiyyət ekspertlərdən daha sürətli irəliləyiş gözləyir. 2019-cu il ictimai rəy sorğusu göstərdi ki, Amerika ictimaiyyəti hesab edir ki, 10 il ərzində yüksək səviyyəli maşın zəkasının inkişaf etdirilməsi üçün 54 faizlik ehtimal var, 2018-ci ilin qlobal ictimai rəy sorğusu isə göstərirdi ki, geniş ictimaiyyət 50 faizlik yüksək səviyyəli maşın zəkasının 2039-cu ildə inkişaf ehtimalını proqnozlaşdırır. Digər tərəfdən, robot texnikası üzrə ekspertlər 50 faiz ehtimalı yalnız 2065-ci ildə, maşın öyrənmə üzrə ekspertlər isə 2061-ci il üçün proqnozlaşdırırlar. Beləliklə, ictimaiyyət süni zəkanın əldə etdiyi tərəqqini yenidən qiymətləndirir. Əlbəttə ki, geniş ictimaiyyət silah sistemləri almır, lakin bu, hərbi satınalma sahəsində qərar qəbul edən şəxslərin süni zəkanın necə işlədiyi haqda aydın təsəvvürlərinin olmasını göstərir.

İkincisi, geosiyasi iqlim getdikcə gərginləşdikcə “süni zəka uğrunda silah yarışı” haqqında söhbətlər müzakirələr artdı. Rəqiblərindən geri qaldıqları üçün narahat olan ölkələr, texnologiya tam inkişaf etmədən, hərtərəfli sınaqdan keçirilmədən və qiymətləndirilmədən öncə özlərində süni zəkanı mümkün qədər tez tətbiq etmək təzyiqini hiss edə bilər.

Üçüncüsü, Silikon vadisi Aİ-nin ümumi konsepsiyasına təsir edən həddindən artıq bədbinliyə meyllidir. “Bunu düzəltməyincə saxtalaşdırmaq” - texnologiya həqiqətən inkişaf etməmişdən xeyli əvvəl maliyyə əldə etmək üçün maraqlı və cazibədar yeni bir texnologiya vəd etmək nadir deyil. Bu təbliğatın daha çox edilməsinə və yalan vədlərə səbəb olur. İnkişaf planlaşdırıldığından daha az uğurlu olacağı təqdirdə, məhsulların avtonom olaraq satılması, insanlar tərəfindən işlədildiyi zaman “fauxtomation” adlanan bir təcrübə deyil. Əgər inkişaf planlaşdırıldığından daha az uğurlu olarsa, məhsul bazarının insanlar tərəfindən faktiki olaraq idarə edildikdə avtonom olacağı istisna edilmir - təcrübə “fauxtomation” adlanır.


Başqa bir nəticəsi, maşını real dünyada işləyə bilməsi üçün təkmilləşdirmək əvəzinə, bəzi insanlar maşının işləməsinə icazə vermək üçün həqiqi dünyanı dəyişdirməyə tələsirlər. Buna misal olaraq, avtonom nəqliyyat vasitələrinin tərəfdarlarının mövcud infrastrukturu dəyişdirmək və adi avtomobillər, velosipedlər və piyadalar tərəfindən istifadə olunmayan məkanlar yaratmaq barədə çağırışlarıdır, beləliklə avtonom avtomobillər daha proqnozlaşdırıla bilən şəraitdə hərəkət edə bilər. Bu, texnologiyaların əslində olmadığı zaman və ya yalnız sadələşdirilmiş şərtlər altında işlədikləri kimi bir illüziya yaradır.

Süni zəkanın hərbi satınalmaları üçün təlimatlar

Hal-hazırda süni zəka dar, xüsusi tətbiqlərdən üstündür, lakin xüsusilə sosial kontekstləri mühakimə edərkən və proqnozlaşdırarkən real dünya mürəkkəbliyi ilə mübarizə aparır. Texnologiyanın hazır olana qədər yerləşdirilməsi yanlış təhlükəsizlik hissi, maşınların yanlış tövsiyələri və qeyri-optimal hərbi davranışa səbəb ola bilər. Bu, süni zəkanın tamamilə nöqsanlı olduğu demək deyil. Bir çox süni zəka çox perspektivlidir. Bununla birlikdə, süni zəkanın müəyyən tətbiqlərində hələ də ciddi nöqsanlar var. Mütəxəssislər süni zəka üçün hansı tətbiqlərin ən uyğun olduğunu diqqətlə nəzərdən keçirməlidirlər və siyasətə istiqamət verənlər süni zəkanın inkişaf etdirilməmişdən əvvəl yerləşdirilməsinə tələsməməlidirlər.

Bu risklərin qarşısını almaq üçün hərbi satınalmalar üç qaydaya uyğun olmalıdır.

Birincisi, süni zəka naminə süni zəkanı inkişaf etdirməyin. Süni zəka bir çox faydalı istifadəyə malikdir, lakin o hər dərdə dəva olan bir dərman deyil. İlk növbədə problemi dəqiq müəyyənləşdirmək və yalnız bundan sonra süni zəkanın bu problemin potensial həlli ola biləcəyini düşünmək vacibdir. Süni zəka müəyyən bir məqsəd üçün tətbiq edilməli, lakin öz məqsədləri üçün istifadə edilməməlidir. Perspektivli süni zəkadan istifadə nümunələrinə məlumatların emalı mərkəzlərinin enerji istehlakının optimallaşdırılması, elektromaqnit spektrinin idarə edilməsi, sahə şəraitində tanımadığı dillərin tərcüməsi və minaların aşkarlanması daxildir.


İkincisi, hərbçilər ağıllı alıcı kimi çıxış etmək üçün texnologiyanın dərin anlayışına malik olan süni zəka mütəxəssislərini işə götürməlidir. Bu xarici işçi heyəti, daxili təlim, texniki bacarıqların əldə edilməsi və ya kadr prosesinin, hətta tam islahatı üçün kadr stimullaşdırma proqramları ola bilər. Texniki biliklərin olmaması yaxşı sənədləşdirilib.

Bu, ciddi bir problemdir, çünki hərbi bürokratiyalar süni zəka qabiliyyətinin ciddi bir çatışmazlığı səbəbindən lazımi texniki biliklərə sahib deyillər. Üstəlik, əslində bu texniki biliklərə sahib olan insanlar çox vaxt bacarıqlarına görə mükafatlandırılmır, dominant təşkilatçılıq mədəniyyətindən kənarda qalır və karyera irəliləmələrində tanınmazlıqlar ilə üzləşirlər. Hər kəsin süni zəka mühəndisli olması lazımsızdır (və qeyri-realdır), lakin (Michael Horowitz və Lauren Kahn kimi) qərar qəbul edən şəxslərin əsas prinsipləri və potensial məhdudiyyətləri başa düşmələrini təmin etmək üçün müdafiə işçiləri süni zəka savadının daha yüksək səviyyəsinə çatmalıdırlar. Bu biliklər, hətta sistemin potensial problemləri aşkar etmək və süni zəkanın konkret tətbiqinin bu işi yerinə yetirmək üçün düzgün vasitə olub-olmadığını həll etmək üçün şirkət daxilində işlənib hazırlanmadığı halda da vacibdir.

Nəhayət, avtonom sistemlərin yoxlanılması və təsdiqlənməsi üçün alternativ üsulların inkişafına sərmayə qoymaq lazımdır.

Düşünülmüş, tənqidi və əsaslandırılmış satınalmalar sayəsində hərbçilər süni zəkanın vaxtından əvvəl tətbiqindən və lazımsız riskdən qaça bilərlər. Süni zəka çox faydalı ola bilər, lakin bu, böyük məqsədlərə nail olmaq üçün yalnız bir vasitədir.

Dəyanət Ağalarlı
Ordu.az

© Materiallardan istifadə edərkən hiperlinklə istinad olunmalıdır


Teqlər: Süni-zəka   Kompüter   Hərbi-silahlanma