گاردین: جهان آمادگی همگام شدن با هوش مصنوعی را ندارد
به گزارش خبر ICT از ایتنا، کارشناسان توضیح دادند که این “نیاز دولتها به سیستمهای ایمنی را افزایش میدهد که در صورت رسیدن محصولات به سطوح خاصی از ظرفیت، منجر به اقدامات نظارتی شود.”
در مقالهای با عنوان «مدیریت خطرات شدید هوش مصنوعی در میان پیشرفتهای سریع»، کارشناسان افزایش بودجه برای نهادهای تازه تأسیس مانند مؤسسههای ایمنی هوش مصنوعی در بریتانیا و ایالات متحده را توصیه کردند.
آنها همچنین توصیه کردند شرکتهای فناوری را مجبور به انجام بررسیهای دقیقتر ریسکها و محدود کردن استفاده از سیستمهای هوش مصنوعی مستقل در نقشهای کلیدی اجتماعی کنند.
اگرچه سیستمهای هوش مصنوعی پیشرفته میتوانند به درمان بیماریها و ارتقای استانداردهای زندگی کمک کنند. اما با حرکت صنعت فناوری به سمت توسعه سیستمهای خودمختار که تهدید بزرگتری هستند، خطر تخریب ثبات اجتماعی و امکان جنگ خودکار را به همراه دارند.
توسعه سیستمهای هوش مصنوعی عمومی
این گزارش نشان داد که خطراتی بالقوه مانند آسیبهای اجتماعی گسترده، استفادههای مضر و از دست دادن غیرقابل برگشت کنترل انسان بر سیستم های هوش مصنوعی انسانها را تهدید میکنند، پیشرفت بیرویه این فناوریها میتواند منجر به به حاشیه راندن یا انقراض بشریت شود.
سخنگوی دولت بریتانیا گفت: ما با ارزیابی مندرج در مقاله تحقیقاتی گروه متخصص هوش مصنوعی مخالفیم.
وی افزود: «اجلاس هوش مصنوعی در سئول این هفته نقش مهمی در تقویت میراث اجلاس بلچلی پارک خواهد داشت . تعدادی از شرکتها رهبران جهان را در مورد نحوه اجرای تعهدات در بلچلی برای اطمینان از اجرای تعهدات خود توضیح خواهند داد. ایمنی مدلهایشان.»
این مقاله تحقیقاتی در اجلاس هوش مصنوعی که سال گذشته در پارک لچلی بریتانیا برگزار شد، ارائه شد و خاطرنشان کرد: کارشناسانی مانند یووال نوح هراری، شیلا مکالریث، استاد هوش مصنوعی در دانشگاه تورنتو و … داون سانگ، استاد دانشگاه تورنتو، آنها مقاله را به روز کردند تا شامل پیشنهادات و اقدامات اولیه مورد توافق کشورها در اجلاس باشد.