هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده از کودکان
سوءاستفاده از کودکان با هوش مصنوعی هشداری می باشد که از سوی یک موسسه صادر شده است. آنها قصد دارند این موضوع در دستور کار نشست جهانی امنیت هوش مصنوعی که پاییز امسال برگزار خواهد شد قرار بگیرد.
یکی از بزرگترین خیریههای کودکان در بریتانیا از نخست وزیر این کشور ریشی سوناک خواسته است با تصاویر تعرض جنسی به کودکان که ساخته هوش مصنوعی هستند، برخورد و مقابله کند.
بریتانیا قرار است اولین نشست جهانی امنیت هوش مصنوعی را در پاییز امسال برگزار کند. بنیاد دیدبان اینترنت (ای دبلیو اف) تصاویر سوءاستفاده جنسی کودکان را از اینترنت پاک میکند. این بنیاد میگوید تصاویر ساختهشده باهوش مصنوعی رو به افزایش هستند.
تولید تصویر با هوش مصنوعی با محتوی سو استفاده از کودکان
آنها کشف کردند که خلافکارانی از سراسر جهان در حال به اشتراک گذاشتن تصاویری هستند که شباهت فوقالعادهای به عکسهای واقعی دارند.
سوزی هارگریوز، مدیر اجرایی بنیاد دیدبان اینترنت میگوید: «ما هنوز شاهد این تصاویر در ابعادی وسیع نیستیم اما برایمان بهوضوح روشن است که این تصاویر قابلیتی در اختیار خلافکاران میگذارند تا حجم بسیار بالایی از تصاویر فوقالعاده طبیعی از تعرض جنسی به کودکان تولید کنند.»
بنیاد دیدبان اینترنت !
این بنیاد اولین تصویرهای سو استفاده جنسی از کودکان که باهوش مصنوعی ساختهشدهاند را در ۲۴ ماه مه امسال ثبت کرد و آنطور که میگوید محققان تا ۳۰ ماه ژوئن توانستند ۲۹ وبسایت و هفت صفحه مجازی که در آنها آلبومهای عکس تصاویر هوش مصنوعی به اشتراک گذاشتهشده بود کشف کنند. این خیریه تعداد دقیق تصاویر را اعلام نکرد اما میگوید دهها تصویر هوش مصنوعی با تصاویر آزار جنسی واقعی ترکیبشده و در وب سایتهای غیرقانونی به اشتراک گذاشتهشدهاند.
سوناک در ماه ژوئن اعلام کرد برنامهای برای میزبانی اولین نشست جهانی برای امنیت هوش مصنوعی در بریتانیا دارد.
دولت وعده داده است متخصصان و قانونگذاران را گرد هم بیاورد تا خطرات احتمالی هوش مصنوعی را موردبررسی قرار دهند و در مورد روشهایی برای همکاری بینالمللی جهت کنترل آن بحث و گفتگو شود.
فعالیت های متخصصان بنیاد امنیت اینترنت
خیریه آی دبلیو اف نگران گسترش روند تولید تصویرها با کمک هوش مصنوعی است. هرچند تعداد تصویرهای کشفشده همچنان در مقایسه با دیگر اشکال سوءاستفاده میزان جزئی را تشکیل میدهد.
در سال ۲۰۲۲ آی دبلیو اف ۲۵۰ هزار وبسایت که دارای تصاویر سو استفاده جنسی از کودکان بود را ثبت و تلاش کرد آنها را غیرقابلدسترس کند.
تحلیلگران آی دبلیو اف همچنین گفتگوهایی در فروم های خلافکاران پیدا کردند. در آن گفتگوها توصیهها و آموزشهایی درباره اینکه چطور واقعیترین تصاویر از سو استفاده جنسی کودکان تهیه کنند به اشتراک گذاشتهشده بود.
آنها درحالیکه بیشتر تصاویر تولیدشده باهوش مصنوعی در ساختار خود مقررات سختگیرانهای دارند تا مانع استفاده مصرفکنندگان همراه با کلمات و جملههای ممنوعه شوند. ابزارهای منبع باز (اوپن سورس) وجود دارند که به شکل مجانی قابل دانلود هستند. این ابزارها اجازه هر استفادهای را به کاربر میدهند.
راههایی پیداکرده بودند که هوش مصنوعی را گول بزنند و به آن آموزش دهند چطور تصویر سواستفاده جنسی از کودکان طراحی کند. آنها به مدلهای با منبع آزاد هوش مصنوعی (اوپن سورس) دست پیداکرده و موانع ایمنی داخل آن را از بین برده بودند. کارشناسان هشدار میدهند که این تصاویر میتوانند آسیبهای جدی وارد کنند.
متخصصان په می گویند
پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به این برنامه دفاع میکند. او به بیبیسی میگوید از زمانی که کدهای برنامه را به شکل آزاد منتشر کردند صدها پروژه دانشگاهی جدید و چندین و چند کسب و کار پررونق از آن زاده شدهاند. همین دستاوردها میتواند تصمیم او و همکارانش را توجیه کند و ادامه میدهد متوقف کردن تحقیق و توسعه پروژهها راهحل درستی نیست.
او میگوید: «ما باید این واقعیت را بپذیریم که این روند توسعه جهانی است. اینکه آن را در این برهه زمانی متوقف کنیم جلوی توسعه این تکنولوژی را در کشورهای دیگر جهان و جوامعی که دموکراتیک نیستند را نخواهد گرفت. ما باید گامهای فکر شدهای برای قانونمند کردن این پیشرفت که با سرعت زیادی به جلو حرکت میکند، پیدا کنیم.»
استیبلیتی ای آی، که در ضمن بودجه توسعه و ساخت مدلها را هم تأمین کرد یکی از اصلیترین شرکتهای تولیدکننده نسخههای جدیدتر استیبل دیفیوژن است. استیبل ای آی حاضر به مصاحبه با ما نشد. اما قبلاً اعلام کرده است استفاده غیرقانونی از همه نسخههایش برای تولید تصاویر غیراخلاقی را منع میکند.