تعریف
اخلاقي مصنوعي ذهانت د مصنوعي ذهانت سیسټمونو پراختیا او پلي کولو ته اشاره کوي چې انصاف، حساب ورکونې، شفافیت او بشري حقونو ته لومړیتوب ورکوي. دا د زیان کمولو او د ټولنیزو ارزښتونو سره د مصنوعي ذهانت په سمون تمرکز کوي.
هدف
موخه دا ده چې ډاډ ترلاسه شي چې مصنوعي ذهانت خلکو ته په مساوي ډول ګټه رسوي او تبعیض یا ناامنه کړنې نه تقویه کوي. اخلاقي چوکاټونه د مصنوعي ذهانت مسؤلانه استعمال لارښوونه کوي.
اهمیت
- په مصنوعي ذهانت (AI) ټیکنالوژیو کې د خلکو باور رامینځته کوي.
- د زیان رسوونکو یا تبعیضي پایلو مخه نیسي.
- د قوانینو او اخلاقي نورمونو اطاعت ډاډمن کوي.
- د انصاف، مسؤل مصنوعي ذهانت او حکومتدارۍ سره یو ځای کیږي.
څنګه کار کوي
- اخلاقي لارښوونې او اصول تعریف کړئ.
- د زیان یا تعصب خطرونه وپیژنئ.
- د انصاف او شفافیت تدابیر پلي کړئ.
- په دوامداره توګه د مصنوعي ذهانت سیسټمونو څارنه او پلټنه وکړئ.
- د مصنوعي ذهانت د پرمختګ سره سم پالیسۍ تازه کړئ.
مثالونه (حقیقي نړۍ)
- د اروپايي ټولنې د مصنوعي ذهانت قانون: د مصنوعي ذهانت کارول د اخلاقي خوندیتوب تدابیرو سره تنظیموي.
- د ګوګل مصنوعي ذهانت اصول: د اخلاقي مصنوعي ذهانت لپاره د شرکتونو لارښوونې.
- د مصنوعي ذهانت په برخه کې ملګرتیا: د څو اړخیزو ډلو لخوا مسؤل مصنوعي ذهانت ته وده ورکول.
حوالې / نور لوستل
- د OECD AI اصول.
- د NIST AI د خطر مدیریت چوکاټ.
- جوبین، اې. او نور. "د مصنوعي ذهانت د اخلاقو لارښوونو نړیوال منظره." طبیعت.
- د اخلاقي مصنوعي ذهانت اهمیت / عادلانه مصنوعي ذهانت