زمان مطالعه: 2 دقیقه
اتحادیه اروپا دستورالعملهای جدیدی را درباره توسعه هوش مصنوعی(AI) اخلاقی منتشر کرده است.
به گزارش ایتنا از رایورز به نقل از ورج، هدف این قواعد، چارهجویی برای مسائل مبهم و پراکندهای است که با تلفیق AI در بخشهایی مانند سلامت، آموزش، و تکنولوژی مصرفی بر جامعه تاثیر میگذارند.
از این رو، به عنوان مثال، اگر یک سیستم AI در آینده سرطان را در شما تشخیص دهد، دستورالعملهای اتحادیه اروپا این هدف را دنبال خواهند کرد که در چند مورد اطمینان حاصل شود: اینکه نرمافزار آن در قبال نژاد یا جنسیت شما بیطرفی را رعایت میکند، اینکه مخالفتهای یک انسان پزشک را لغو نخواهد کرد، و اینکه این امکان را برای بیمار فراهم بیاورد که بیماری تشخیص داده شده برایش توضیح داده شود.
با این تفاصیل مشخص میشود که هدف این دستورالعملها جلوگیری از رفتار جنونآمیز AI و قرار گرفتن آن در مسیری نظاممند است.
به منظور کمک به این هدف، اتحادیه اروپا گروهی از 52 کارشناس را گرد هم آورد که به هفت الزام رسیدند که به نظر آنها سیستمهای AI آینده باید منطبق بر آنها باشند. این الزامات از این قرارند:
– قدرت و ایمنی فنی: AI باید امن و دقیق باشد، و نباید به راحتی با حملات بیرونی قابل دستکاری باشد؛ همچنین باید در حدی معقولانه قابل اتکا باشد.
– محرمانگی و حاکمیت دادهها: دادههای شخصی گردآوری شده توسط سیستمهای AI باید امن و خصوصی باشند. این دادهها نباید توسط دیگران قابل دسترسی باشند، و نباید به آسانی قابل سرقت باشند.
– شفافیت: دادهها و الگوریتمهای مورد استفاده برای ایجاد یک سیستم AI باید قابل دسترسی باشند، و تصمیمات اتخاذ شده توسط نرمافزار باید «توسط انسانها درک و ردگیری شود.» به عبارت دیگر، اپراتورها باید بتوانند تصمیماتی که سیستمهای AI آنها اتخاذ میکنند را توضیح دهند.
– پذیرش تنوع انسانها، عدم تبعیض، و منصفانه بودن: سرویسهای ارائه شده توسط AI باید برای برای همه قابل دسترسی باشد، فارغ از سن، نژاد و مشخصههای دیگر.
– سلامت محیطی و اجتماعی: سیستمهای AI باید از نظر اکولوژیکی مسئولیتپذیر باشند و «تغییر اجتماعی مثبت را ارتقاء دهند.»
– قابلیت حسابرسی: سیستمهای AI باید قابل حسابرسی و ممیزی بوده و تحت پوشش حفاظتهای موجود ارائه شده توسط نهادهای نظارتی باشند. اثرات منفی سیستمها باید از قبل مورد اذعان قرار گرفته و گزارش شوند.
روشن است که حداقل برخی از این الزامات، از طریق نظارت دولتی قابل آزمایش هستند. مثلا اشتراکگذاری دادههای استفاده شده برای آموزش سیستمهای AI دولتی میتواند راه خوبی برای مبارزه با الگوریتمهای جهتدار(فاقد بیطرفی) باشد.
گفتنی است این دستورالعملها قانونا الزامآور نیستند، ولی میتواند به هرگونه شکلدهی قوانین تنظیم شده توسط اتحادیه اروپا در آینده کمک کنند.
به گزارش ایتنا از رایورز به نقل از ورج، هدف این قواعد، چارهجویی برای مسائل مبهم و پراکندهای است که با تلفیق AI در بخشهایی مانند سلامت، آموزش، و تکنولوژی مصرفی بر جامعه تاثیر میگذارند.
از این رو، به عنوان مثال، اگر یک سیستم AI در آینده سرطان را در شما تشخیص دهد، دستورالعملهای اتحادیه اروپا این هدف را دنبال خواهند کرد که در چند مورد اطمینان حاصل شود: اینکه نرمافزار آن در قبال نژاد یا جنسیت شما بیطرفی را رعایت میکند، اینکه مخالفتهای یک انسان پزشک را لغو نخواهد کرد، و اینکه این امکان را برای بیمار فراهم بیاورد که بیماری تشخیص داده شده برایش توضیح داده شود.
با این تفاصیل مشخص میشود که هدف این دستورالعملها جلوگیری از رفتار جنونآمیز AI و قرار گرفتن آن در مسیری نظاممند است.
– قدرت و ایمنی فنی: AI باید امن و دقیق باشد، و نباید به راحتی با حملات بیرونی قابل دستکاری باشد؛ همچنین باید در حدی معقولانه قابل اتکا باشد.
– محرمانگی و حاکمیت دادهها: دادههای شخصی گردآوری شده توسط سیستمهای AI باید امن و خصوصی باشند. این دادهها نباید توسط دیگران قابل دسترسی باشند، و نباید به آسانی قابل سرقت باشند.
– شفافیت: دادهها و الگوریتمهای مورد استفاده برای ایجاد یک سیستم AI باید قابل دسترسی باشند، و تصمیمات اتخاذ شده توسط نرمافزار باید «توسط انسانها درک و ردگیری شود.» به عبارت دیگر، اپراتورها باید بتوانند تصمیماتی که سیستمهای AI آنها اتخاذ میکنند را توضیح دهند.
– پذیرش تنوع انسانها، عدم تبعیض، و منصفانه بودن: سرویسهای ارائه شده توسط AI باید برای برای همه قابل دسترسی باشد، فارغ از سن، نژاد و مشخصههای دیگر.
– سلامت محیطی و اجتماعی: سیستمهای AI باید از نظر اکولوژیکی مسئولیتپذیر باشند و «تغییر اجتماعی مثبت را ارتقاء دهند.»
– قابلیت حسابرسی: سیستمهای AI باید قابل حسابرسی و ممیزی بوده و تحت پوشش حفاظتهای موجود ارائه شده توسط نهادهای نظارتی باشند. اثرات منفی سیستمها باید از قبل مورد اذعان قرار گرفته و گزارش شوند.
روشن است که حداقل برخی از این الزامات، از طریق نظارت دولتی قابل آزمایش هستند. مثلا اشتراکگذاری دادههای استفاده شده برای آموزش سیستمهای AI دولتی میتواند راه خوبی برای مبارزه با الگوریتمهای جهتدار(فاقد بیطرفی) باشد.
گفتنی است این دستورالعملها قانونا الزامآور نیستند، ولی میتواند به هرگونه شکلدهی قوانین تنظیم شده توسط اتحادیه اروپا در آینده کمک کنند.