تعریف
مسؤل مصنوعي ذهانت د مصنوعي ذهانت سیسټمونو ډیزاین، پراختیا او ځای پرځای کولو ته اشاره کوي چې اخلاقي، شفاف، عادلانه او حساب ورکوونکي وي. دا د خطرونو کمولو او ټولنیزو ګټو اعظمي کولو باندې ټینګار کوي.
هدف
موخه دا ده چې ډاډ ترلاسه شي چې مصنوعي ذهانت د بشري حقونو، خوندیتوب او انصاف سره سمون لري. د مصنوعي ذهانت مسؤلانه کړنې سازمانونو ته د باور وړ مصنوعي ذهانت په ځای پر ځای کولو کې لارښوونه کوي.
اهمیت
- د مصنوعي ذهانت په خپلولو کې باور رامینځته کوي.
- د زیان رسوونکو یا تبعیضي اغیزو مخه نیسي.
- د مقرراتو اطاعت ډاډمن کوي.
- روڼتیا او حساب ورکونې ته وده ورکوي.
څنګه کار کوي
- اخلاقي اصول او لارښوونې تعریف کړئ.
- د مصنوعي ذهانت د ژوند په اوږدو کې خطرونه وارزوئ.
- د انصاف ازموینې او تعصب پلټنو په څیر محافظتي تدابیر پلي کړئ.
- په دوامداره توګه د ځای پر ځای شوي سیسټمونو څارنه وکړئ.
- د عملونو مستند کول او شریکانو ته یې رسول.
مثالونه (حقیقي نړۍ)
- د مایکروسافټ مسؤل مصنوعي ذهانت معیار.
- د ګوګل مصنوعي ذهانت اصول.
- د OECD AI اصول چې په ټوله نړۍ کې د حکومتونو لخوا منل شوي دي.
حوالې / نور لوستل
- د OECD AI اصول.
- د NIST AI د خطر مدیریت چوکاټ.
- جوبین، اې. او نور. "د مصنوعي ذهانت د اخلاقو لارښوونو نړیوال منظره." طبیعت.
- مسؤل AI څه شی دی؟