Süni intellekt və etika problemləri

Bir neçə il bundan əvvəl müasir dünyamızın İlon Mask, Stiven Hokinq kimi ən ağıllı adamlarından ibarət bir qrup alim süni intellektlə bağlı araşdırmalar zamanı nəzərə alınması vacib olan 23 prinsipdən ibarət siyahı imzalayıblar. Məqsəd rəqəmsal texnologiyalarla əlaqəli kəşflərdə prosesin təhlükəsizlik, məhsuldarlıq amilləri ilə yanaşı, ən əsası mənəvi, etik tərəflərinə də riayət olunmaqdan ibarətdir.

 

Niyə əsasən mənəvi? Fikir vermisinizsə, getdikcə yüksək texnologiyalarla işləyən daha çox elm adamı, filosof, dizayner və mühəndislər (Gerd Leonqard, Yuval Noy Harari, Mitio Kaku, Kris Skinner və s.) süni intellektin insan tarixinin sonu ola biləcəyinə dair həyəcan təbili çalırlar. Elə həmin Hokinq ömrünün son illərində deyirdi ki, süni intellekt və ya robotlaşma homo sapiensin sonunu yaxınlaşdırır. Di gəl ki, heç kim bu sahədəki araşdırma və kəşflərinə ara vermək niyyətində də deyil. İndi tez-tez Hollivudun ən parlaq məhsullarından olan “Terminator” filmindən misallar gətirməyə başlayıblar. Yəni, qabaqcıl texnologiyalar insan üçün yeni üfüqlər açmaqla yanaşı, həm də təhlükəli, özü də çox təhlükəli ola bilər.

 

 

Texnologiya kabusu

 

 

Sözügedən siyahı 2017-ci ildə “Beneficial Al” konfransında tərtib olunub və imzalanıb. Robot texnologiyası, fizika, fəlsəfə, iqtisadiyyat və digər sahələri təmsil edən elm adamlarını maraqlandıran əsas problemlər süni intellektin təhlükəsizlik, iqtisadiyyat və insan məşğulluğu kimi proseslərə təsir etməsi ilə bağlıdır. Bu barədə çox yazmışıq: 2030-cu ilədək ABŞ-da hazırda işlək olan peşələrin təqribən 47%-i öz aktuallığını itirəcək. Ona görə yox ki, kiməsə lazım olmayacaq. Sadəcə bu sahələrdə insanı robotlar əvəzləyəcək, yaxud peşələrin bir qismi robot texnologiyasının kütləvi tətbiqi nəticəsində səhnədən sıxışdırılıb çıxarılacaq. Yuval Noy Harari özünün sonuncu - “XXI əsr üçün 21 dərs” kitabında problemə tarixi nöqteyi-nəzərdən yanaşaraq yazır: “Ola bilsin ki, XXI əsrdə populist inqilablar əvvəlkitək insanları istismar edən iqtisadi elitalara deyil, insan əməyinə ehtiyac duymayan iqtisadi elitalara qarşı yönələcək”. Yəni, cəmi 15-20 il bundan qabaq çox işləməyindən, az istirahət etməyindən şikayətlənən, daha çox istirahət günləri tələb edən insan bir azdan işsiz qalmağından danışacaq.

 

Gəlin unutmayaq, dünyanın “altını üstünə çevirən” bolşevik inqilabı niyə baş vermişdi?

 

“Beneficial Al 2017”də hazırlanan siyahıya iştirakçıların ən azı 90%-nin imza atması tələb olunurdu. Müzakirələr nəticəsində super zəkaya dair araşdırmaları əhatə edən 23 prinsipdən ibarət anlaşma hazırlandı və imzalandı. Siyahıya imza atanların sayı kifayət qədər idi. Təsəvvür edin: 1000-dək süni intellekt ixtiraçısı və 1500 nəfərə yaxın robot texnologiyaları ilə bu və ya digər formada əlaqəli olan sahələrin təmsilçiləri, o cümlədən “Tesla”nın memarı İlon Mask və məşhur kosmoloq Stiven Hokinq. Ekspertlərin fikrincə, bəndlərdən bəzilərinə, əsasən də  şirkətlərin ixtiralarının şəffaflığına dair prinsipə heç də hamı əməl etməyəcək. Ancaq siyahının bütövlükdə razılaşdırılması “Skynet”in, yaxud robotların mümkün qiyamının qarşısının alınması və ya ləngidilməsinə öz töhfələrini verə biləcək.

 

İndi isə keçək bilavasitə prinsiplərə:

 

1. Süni intellekt sahəsindəki araşdırmaların məqsədi nəzarətsiz super zəka deyil, cəmiyyət üçün xeyirli olacaq alətin hazırlanması olmalıdır;

 

2. Maliyyə süni intellektin istehsalı ilə yanaşı, onun istifadəsinə dair məlumatverici sferalara da yatırılmalıdır. Bunun nəticəsində insanlar informatika, iqtisadiyyat, hüquq, etika və cəmiyyətşünaslığa dair suallara cavab tapa biləcəklər;

 

Söhbət hansı suallardan gedir? Məsələn, necə etmək olar ki, süni intellekt onların qarşısında qoyulmuş vəzifələri təhlükəsiz həyata keçirsin? Yaxud, necə təminat vermək olar ki, süni intellektin mexanizminə neqativ ünsürlər tərəfindən müdaxilələr olmayacaq? Daha bir sual: tutaq ki, süni intellekt bir sıra peşələri insanın əlindən alır və nəticədə məhsuldarlıq artır, maliyyə itkiləri azalır. Bəs onda hansı tədbirləri görmək lazımdır ki, insan resurslarının mühafizəsini təmin edə bilsin? Belə bir sual mövzumuz kontekstində xüsusilə maraqlıdır: süni intellektin hansı hüquqi və etik statusu olacaq?

 

3. Tədqiqatçıların və siyasətçilərin konstruktiv və bərabərhüquqlu əməkdaşlığını təşkil etmək lazımdır;

 

4. İxtiraçıların cəmiyyətində tam şəffaflıq və aşkarlığa riayət olunmalıdır;

 

5. Süni intellekt ixtiraçılarının özlərinin arasında yüksək əməkdaşlıq mühiti olmalıdır ki, təhlükəsizlik standartlarının pozulması hallarının qarşısı vaxtında alınsın.

 

 

Məsələnin mənəvi tərəfi

 

 

İnsan fəaliyyətinin bir sıra sahələrində süni intellektin uğurla tətbiqi gələcəkdə robotla münasibətlərimizin hüquqi-etik yönlərini aktuallaşdıracaq. Proqnozlaşdırılır ki, hüququn ali məktəblərdə tədrisi və hüquqla bağlı peşələrdə də bəzi dəyişikliklər olacaq. Məsələn, 2017-ci ildən etibarən Rusiyanın bir sıra iri banklarında hüquqşünas vəzifəsini hazır alqoritmlər əvəzləyir. Bu, hüquqşünasın iş yerini itirməsi deməkdir. Digər tərəfdən, onun üçün gözəl perspektiv açılır: insanla robotların ünsiyyətinin intensivləşməsi ortaya ciddi münaqişələr çıxaracaq. Axı ola bilməz ki, həmişə sülh olsun! Bax, bu səbəbdən sabah süni intellektlə münasibətlər üzrə ixtisaslaşmış etik hüquqşünasların olacağı istisna deyil. Aşağıdakı prinsiplər qrupunda məhz belə problemlər əhatə olunur. Beləliklə:

 

6. Süni intellekt sistemləri elə lahiyələşdirilməlidirlər ki, onların məqsəd və davranışları ümumbəşəri dəyərlərə zidd olmasın;

 

7. Süni intellekt insan ləyaqəti idealları, haqları və azadlıqları, habelə rəngarənglik mədəniyyəti ilə ahəngdə işləməlidir;

 

8. Süni intellektlə iş zamanı insanların real və təsəvvür olunan azadlıqları məhdudlaşdırılmamalıdır;

 

9. İnsan hər zaman seçimində azad olmalıdır: bu işi özü etsin, yaxud süni intellektə tapşırsın;

 

10. Süni intellektin fəaliyyəti bəşəriyyətin ziyanına deyil, xeyrinə xidmət etməlidir;

 

11. Hamı süni intellektlə bağlı muxtar silah növlərinin istehsalından qaçmalıdır;

 

12. Texnologiyalar dünyada yaşayan maksimum sayda insanlar üçün yararlı olmalıdır;

 

13. Hər bir şəxs süni intellektin tətbiqi nəticəsində yaranmış iqtisadi imkanlardan istifadə edə bilməlidir;

 

14. Süni intellekt sistemlərinin istismarı ərzində təhlükəsiz və yararlı olacağına təminat verilməlidir;

 

15. Əgər robot texnikası hər hansı zərərə səbəb olubsa, dərhal bunun səbəbləri öyrənilməlidir;

 

16. Məhkəmə işlərinə istənilən müdaxilə sanksiyalaşdırılmalıdır və sonradan mütəxəssislər tərəfindən analiz edilməlidir;

 

17. Süni intellektin hazırlanması və ya tətbiqi zamanı bilərəkdən vurulan zərərin məsuliyyətini mühəndislər və ixtiraçılar daşıyır;

 

18. İnsan istifadə etdiyi robota dair bütün məlumatlardan xəbərdar olmalıdır.

 

 

Robotun əvvəli, bizim sonumuz?

 

 

İxtiraçıların 23 bənddən ibarət anlaşmalarının son 5 prinsipi “uzunmüddətli məsələlər”ə həsr olunub. Süni intellektlə maraqlanan və pessimist ssenariləri müdafiə edən elm adamları, ixtiraçı və mühəndislər, futuroloqlar bu qənaətdədirlər ki, sadə dillə desək, robotlar bizim sonumuza çıxacaqlar. İ.Mask hətta belə bir müqayisə edir: “İndi bizlər üçün evdə saxladığımız heyvanlar nədirlərsə, insanlar da gələcəkdə robotlar üçün eyni statusda ola bilərlər”. M.Kaku hesab edir ki, hazırda ən ağıllı robotun beyni həşərat beyni gücündədir. Nə vaxt ki, süni intellekt meymun ağlında oldu (ehtimal olunur ki, təqribən 100 ilə), həmin zaman insan üçün real təhlükəyə çevriləcək. Bu mövzuda Hollivudda yüzlərlə kino çəkilib və biz qabaqlar onlara sanki cizgi filmitək baxırdıqsa, rejissorlar getdikcə daha inandırıcı təəssürat yaratmağa başlayıblar. Ümumiyyətlə, bəzi ekspertlər hesab edir ki, gələcəyin mənzərəsini ən real çəkən şəxslər də məhz fantastik filmlərə ssenari yazan şəxslər və rejissorlardır. İsveçrəli futuroloq G.Leonqardın fikrincə, süni intellekt inkişaf etdikcə insan öz simasını itirmiş olur və bu, qeyri-təbiidir.

 

Mühəndis və ixtiraçıların imzaladıqları siyahıda təbii ki, bu problemdən də yan keçilmir:

 

19. Biz süni intellektin maksimum imkanlarını dəqiq hesablamalıyıq ki, resursların qeyri-rasional istifadəsinin qarşısını ala bilək;

 

20. Süni intellektin inkişafı intensiv xarakter alacağından texnologiyalar nəzarət altında olmalıdır ki, əks və arzuolunmaz reaksiyalar baş verməsin;

 

21. İrimiqyaslı risklər elə dəqiqliklə hesablanmalıdır ki, mümkün zərərin həddini minimuma endirmək mümkün olsun;

 

22. Özünü inkişaf etdirə və istehsal edə bilən texnologiyalar xüsusilə nəzarət altında olmalıdırlar;

 

23. Super zəka ayrı-ayrı qurumlara və ya dövlətə deyil, bütün bəşəriyyətə xidmət etməlidir.

 

 

 

Rüstəm QARAXANLI

 



16.08.2019 | 10:21