Süni intellekt etikası

Vikipediya, azad ensiklopediya
Naviqasiyaya keçin Axtarışa keçin

Süni intellekt etikası — robotlar və digər süni şəkildə ağıllı canlılar üçün xarakterik olan texnologiya etikasının bir hissəsi. Süni əqli varlıqların dizaynı, qurulması, istifadəsi və müalicəsi, süni əxlaqi agentlərin (IMA) əxlaqi davranışına aid maşın etikası məsələlərini həll edən ümumiyyətlə roboetika bölünür.

Robotların etikası[redaktə | mənbəni redaktə et]

"Robot etikası" termini (və ya "roboetika") insanların robotları və digər süni şəkildə yaradılan ağıllı varlıqları necə tərtib etməsi, qurması, istifadəsi və idarə etmələrinin mənəvi məsələlərinə aiddir. [1] Süni şəkildə yaradılan ağıllı varlıqların insanların ziyanına və mənafeyinə necə istifadə olunacağından bəhs edir.

Robot hüquqları[redaktə | mənbəni redaktə et]

"Robot Hüquqları", insanların maşınları qarşısında insan hüquqları və ya heyvanlara bənzər bir mənəvi öhdəliklərə sahib olmaları lazım olan bir anlayışdır.[2] Mövcud olmaq və öz missiyasını yerinə yetirmək hüququ kimi robotların hüquqlarının insan hüquqlarının cəmiyyət qarşısında insan öhdəlikləri ilə əlaqələndirilməsi ilə bir insana xidmət etmək vəzifəsi ilə əlaqələndirilə biləcəyinə dair bir təklif var.[3] Bunlara həyat və azadlıq hüququ, fikir və ifadə azadlığı, habelə qanun qarşısında bərabərlik də daxil ola bilər.[4] Bu məsələ Gələcək İnstitutu [5]İngiltərə Ticarət və Sənaye Departamenti tərəfindən həll edilmişdir. [6]

Mütəxəssislərin yaxın gələcəkdə və ya yalnız uzaq gələcəkdə konkret və detallı qanunların tələb olunacağına dair ümumi bir fikri yoxdur. [6] Qlenn MakGi, kifayət qədər humanoid robotların 2020-ci ilə qədər görünə biləcəyini bildirir. [7] Reymond Kurzveyl bunun 2029-cu ilə qədər olacağına inanır. [8] 2007-ci ildə başqa bir alim qrupu, hər hansı bir yetərincə inkişaf etmiş bir sistemin yaranmasından ən azı 50 il keçməsini təklif etdi. [9]

2003-cü il Lobner Mükafat Yarışması Qaydaları robotların öz hüquqlarına sahib olma ehtimalını təmin etdi.

2017-ci ilin oktyabr ayında android Sofiya Səudiyyə Ərəbistanında "fəxri" vətəndaşlıq aldı, baxmayaraq ki, bəzi müşahidəçilər bunu mənalı hüquqi tanınma deyil, reklam hərəkəti hesab etdilər. [10] Bəziləri bu jestə insan hüquqlarının və qanunun aliliyinin açıq təhqir olunması kimi baxdılar. [11]

Sentitizm fəlsəfəsi, bütün insanlara, xüsusən də insanlara və əksər heyvanlara mənəvi mülahizələr hüququ verir. Süni və ya yad ağıllı varlıqlar həssaslığının dəlillərini göstərirlərsə, bu fəlsəfə hesab edir ki, onlara şəfqət və hüquqlar göstərilməlidir.

Coanna Brayson, tələb edən bir mühitin yaradılmasının qarşısı alınacağını və özü də etik olmayan, bunun həm agentlərinə, həm də insan cəmiyyətinə bir yük olacağını müdafiə etdi[12].

İnsan ləyaqətinə təhlükə[redaktə | mənbəni redaktə et]

Cozef Vayzenbaum 1976-cı ildə süni intellekt texnologiyasından hörmət və qayğı tələb edən vəzifələrdə insanları əvəz etmək üçün istifadə edilməməsi lazım olduğunu iddia etdi:

  • İşçilərin müştəri dəstəyi (Sİ texnologiyası bu gün telefon sistemlərində interaktiv səs cavabları üçün istifadə olunur)
  • Terapevt (1970-ci illərdə Kennet Kolbi tərəfindən təklif olundu)
  • Yaşlılar üçün tibb bacısı (Pamela MakKordakın beşinci nəsil kitabında söylədiyi kimi)
  • Əsgər
  • Hakim
  • Polis işçisi

Vayzenbaum izah edir ki, bu vəzifələrdə olan insanlardan həqiqi bir mərhəmət hissi tələb edirik. Maşınlar onları əvəz etsə, özgələşəcəyik, köhnələcəyik və məyus olacağıq. Süni intellekt, bu şəkildə istifadə edilərsə, insan ləyaqətinə təhlükə yaradır. Vayzenbaum, maşınların bu mövqeləri tutma ehtimalını nəzərdən keçirməyimizi, özümüzü kompüter kimi düşünməyimizdən irəli gələn "insan ruhunun atrofiyasını" yaşadığımızı iddia edir.[13]

Pamela MakKordak, qadınlar və azlıqlar haqqında danışarkən, "Mən qərəzsiz bir kompüterlə bir şans istərdim" deyərək, heç bir şəxsi maraqları olmayan avtomatik hakimlər və polislərə üstünlük verəcəyimiz şərtlərə işarə etdi. [13] Bununla birlikdə, Kaplan və Henleyn, süni intellekt sistemlərinin, onları öyrətmək üçün istifadə edilən məlumatlara görə ağıllı olduqlarını vurğulayırlar, çünki bunlar əslində əyri yaxınlaşan maşınlardan başqa bir şey deyildir: dəstək üçün süni intellektdən istifadə Keçmiş qərarlar müəyyən qruplara qarşı qərəzli olduqda məhkəmə qərarları çox problemli ola bilər, çünki bu qərarlar rəsmiləşdirilərək gücləndirilir, bu da onları müəyyənləşdirməyi və onlarla əlaqəni daha da çətinləşdirir. [14] Sİ qurucusu Con Makkarti, Vayzenbaumun tənqidinin mənəvi cəhətlərinə etiraz edir. O yazır: "Mənəviyyat əxlaqsız və qeyri-müəyyən olduqda, avtoritar zorakılığı təşviq edir."

Bill Hibbard [15] yazır ki, "insan ləyaqəti varlığın təbiəti ilə bağlı cahilliyimizi aradan qaldırmağa çalışmağımızı tələb edir. Bunun üçün Sİ tələb olunur."

İstinadlar[redaktə | mənbəni redaktə et]

  1. Veruggio, Gianmarco. The Roboethics Roadmap. Scuola di Robotica. 2007.
  2. Woody Evans. Posthuman Rights: Dimensions of Transhuman Worlds. 12 (Teknokultura). 2015.
  3. Yurii Sheliazhenko. Artificial Personal Autonomy and Concept of Robot Rights. European journal of law and political sciences. 2017.
  4. The American Heritage Dictionary of the English Language, Fourth Edition
  5. "Robots could demand legal rights". BBC News. 2006-12-21. 2019-10-15 tarixində arxivləşdirilib. İstifadə tarixi: 2010-01-03.
  6. 6,0 6,1 Henderson, Mark. "Human rights for robots? We're getting carried away". The Times Online. The Times of London. 2007-04-24. 2008-05-17 tarixində arxivləşdirilib. İstifadə tarixi: 2010-05-02.
  7. McGee, Glenn. "A Robot Code of Ethics". The Scientist. 2020-09-06 tarixində arxivləşdirilib. İstifadə tarixi: 2020-06-29.
  8. Ray Kurzweil. The Singularity is Near. Penguin Books. 2005. ISBN 978-0-670-03384-3.
  9. The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper,
  10. "Saudi Arabia bestows citizenship on a robot named Sophia". 2017-10-28 tarixində arxivləşdirilib. İstifadə tarixi: 2020-06-29.
  11. Vincent, James. "Pretending to give a robot citizenship helps no one". The Verge. 2017-10-30. 2019-08-03 tarixində arxivləşdirilib. İstifadə tarixi: 2020-06-29.
  12. Close engagements with artificial companions : key social, psychological, ethical and design issues. Amsterdam: John Benjamins Pub. Co. 2010. ISBN 978-9027249944.
  13. 13,0 13,1 Joseph Weizenbaum, quoted in Joseph Weizenbaum, quoted in McCorduck, 2004, pp. 356, 374–376
  14. "Kaplan Andreas; Michael Haenlein (2018) Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1)". 2018-11-21 tarixində arxivləşdirilib. İstifadə tarixi: 2019-10-10.
  15. Hibbard, Bill (2014): "Ethical Artificial Intelligence".

Xarici keçidlər[redaktə | mənbəni redaktə et]