top of page
Post: Blog2_Post

Qurğular və Qəzalar

Səudiyyə Ərəbistanında "360 dərəcə" adı ilə bilinən attraksionun qırılması nəticəsində insanlar ölümlə üz-üzə qalıblar. Bu Dünyada baş verən yeganə belə hadisə deyil. Bəs by hadisələr niyə baş verir? Gəlin bir az bundan danışaq.

#AI risklərindən bəhs edəndə hər zaman #avtomatlaşdırılmış ( #automated ) sistemlərin ümumi problemindən - yəni qeyri-müəyyənlik və nəzarətin itirilməsindən bəhs edirəm. Hətta ən qorxduğum qorxu filminin "5 Nights at Freddy's" olduğunu da qeyd etmişəm.


AI based LunaPark by GPT
AI based LunaPark by GPT

Texnologiya inkişaf etdikcə daha çox proseslər avtomatlaşır və insanların işini sürətləndirir. Bu sürət və rahatlıq özü ilə bərabər gözdən qaçan xətalar da gətirir.

Sual verilə bilər ki, insan əsaslı çalışan proseslər hər zaman doğrumu çalışır? Bu risk sadəcə avtomatlaşdırılmış sistemlər üçün mü keçərlidir?

Xeyr. Hətta bəzi işləri avtomatlaşdırmaq bizi #humanerror yəni #insanxətası problemindən qoruyur. Ancaq bu sistemlərin özünəməxsus başqa problemləri var.

1) #Depreciation #Deffect. Xüsusilə fiziki cihazlar zamanla yeyilir, həmçinin ən xırda bir problem ağırlıq mərkəzini dəyişə və bu cür cihazların nəzərdə tutulan yükü daşıya bilməməsinə səbəb ola bilər.

Həll yolu: İlkin və periodik #Validasiya edilməsi, eyni zamanda təhlükəli vəziyyət əleyhinə müəyyən #trigger yəni #qıcıq siqnallardan istifadə edilməsi: məsələn, əgər hansısa detalda problem yaranıbsa, sistem işə düşməsin, və s.

2) #Overreliance və #AutomationBias. İstifadəçiyə öz-özünə işləyən mexanizm verəndə, adətən onda "bu sistem insandan ağıllıdır" təəssüratı yarana bilər. Məsələn, bir çox hallarda istifadəçilər #SüniZəka əsaslı qərarlara özlərindən daha çox etibar edirlər. Halbuki, #botlar da ən az insanlar qədər xəta edir, #hallisünasiya görür, yanlış məlumat verir.

Həll yolu: #UseTest və #Disclaimer. İnsanların təmin olunmuş sistemdən necə istifadə etdiyini periodik validasiyalarda yoxlamaq və istifadəyə verilən alətin edə biləcəyi xətalarla bağlı onları təlimatlandırmaq zəruridir. Məsələn, attraksionlardan məsul şəxs bilməlidir ki, kəmərləri yoxlamaq lazımdır, bir dəfəyə nə qədər adam minə bilər, müəyyən müddətdən bir cihazı nəzərdən keçirmək və müəyyən testlər etməklə təhlükəsizliyi artıra bilər və s.

3) #OptimismBias. İnsanlar adətən pis hadisələrin onların da başına gələ bilmə ehtimalına yetəri qədər real yanaşmırlar. Çox zaman onların başına gəlməyəcəyini düşünürlər. Buna görə də həyatda ehtiyatsızlığa yol verirlər, məsələn, "nə ola bilər ki" deyib nəzərdə tutulan sürət həddini aşırlar, təhlükəli əyləncələrə üz tuturlar və bununla #həyatirisk faizinin artdığını anlamırlar.

Həll yolu: Mümkün qədər bizə #return gətirməyən #risk faktorlarını azaltmaq, xüsusilə həyatımızla, sağlamlığımızla ehtiyatlı olmaq.

4) #DiffusionOfResponsibility. Modelin, cihazın, hər hansı bir alətin #lifecycle yəni #həyatyolu müddətində müxtəlif mərhələlər var: a) ideya və dizayn, b) qurulma, c) validasiya və test, d) audit yoxlamasıç e) istifadə, f) monitorinq, g) davamlı təminat. Burada hər kəsin fərqli rolu var və hər kəs öz mərhələsindəki risklərə cavabdehdir. Bəzən çox insanın iştirakı əməkdaşların həmkarlarının səriştəsinə arxayın olaraq öz işinə məsuliyyəti azaltması ilə nəticələ bilir.

Bu hissədə riskin 3 müdafiə xəttini xatırlamaq önəmlidir:

1) ilk müdafiə xətti həm developerlər, həm də istifadəçilərdir. Modeli qururakən də, istifadə edərkən də bizə şübhəli gələn, narahatlıq doğuran, ürəyimizdə xal qoyan hər məqama toxunmaq önəmlidir. Bu gün gözardı edilən bir yanlış sabah itirilən vəsaitə, fürsətlərə, ən pisi isə insan həyatına başa gələ bilər.

2) ikinci xətt #RisklərinİdarəEdilməsi komandasıdır. Buraya #MRM komandası və Model Validasiyası mütəxəssisləri daxildir. Hər bir detalın yoxlanması, müxtəlif ssenarilərlə qurulan sistemin doğruluğunu dəyərləndirmək bu komandanın üzərinə düşür. İlk xəttə olduğu kimi burada da şübhə yaradan bütün məqamlar sorğulanır və aydınlaşdırılmayan detallar hesabatda yer alır. Bu komandanın işinin məqsədi Məhsul Sahibi və Şirkət Hissədarlarına potensial riskləri və baş vermə ehtimallarını bildirməklə, onların qərarvermə prosesini şəffaf etmək və gözlənilməz hallardan qaçmağa kömək etməkdir. Xüsusilə proqram təminatları yaradıldıqda #QA və #InfoSec komandası bu prosesə daxil olurlar.

3) üçüncü xətt isə #Audit komandasıdır. Validasiyadan sonra modelin, yaxud alətin tətbiqində, qurulmasında hər hansısa xəta, yalnışlıq, uyğunsuzluq audit yoxlamasından keçir. Həm alətin, həm validasiyanın doğruluğu və tamlığı təsdiqini tapır.

Bu 3 xətt riski yox etmir, onu mümkün qədər azaldır.

Prosesdə bu qədər çox mərhələ və insan olması yaxşıdır. Lakin bu da öz növbəsində insanların məsuliyyəti başqasında görməsinə səbəb ola bilir. Hər kəs düşünür ki, onun gözündən nəsə qaçsa da, eybi yoxdur, növbəti mərhələdə başqa biri tərəfindən aşkarlana bilər. İstifadəçi validatora, validator model qurucularına, model qurucuları validatorlara arxalanarsa, öz məsuliyyətlərini dırk etməmələri problem yaradar.

Bu bir növ təhlükəsizlik kəmərinin sürət həddini aşmağa motivasiya yaradaraq daha çox qəzaya səbəb olmasına bənzəyir. Halbuki əlavə tədbirlər, digər tədbirlər təkbaşına yetərli deyil deyə nəzərdə tutulur və bunlar hamısı bir arada edildikdə həqiqətən risk minimuma enir.


Sadalanan problemlər sistemlərin xəta verməsi ilə nəticələnə bilir. Unutmaq olmaz ki, həm insanlar, həm də robotlar səhv edə bilir, çünki robotları da insanlar düzəldir. Yəni nəticə etibarilə xəta riski olan sistemin məhsulu da xəta riski daşıyır. Buna görə həm insan əməyi, həm də avtomatlaşmış sistemin nəticələri yoxlamaya ehtiyac duyur.

 
 
 

Comments


Digər

©2021 by Challengers Deep.

bottom of page