سوءاستفاده از کودکان با هوش مصنوعی

     تاریخ آخرین ویرایش :   31 تیر 1402       7 بازدید
این مطلب را در شبکه های اجتماعی خود به اشتراک بگذارید
زمان مطالعه: 4 دقیقه

هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده از کودکان

سوءاستفاده از کودکان با هوش مصنوعی هشداری می باشد که از سوی یک موسسه صادر شده است. آنها قصد دارند این موضوع در دستور کار نشست جهانی امنیت هوش مصنوعی که پاییز امسال برگزار خواهد شد قرار بگیرد.

سرویس اخبار ارتباطات و فناوری اطلاعات– بنیاد دیدبان اینترنت (آی دبلیو اف) می‌خواهد برخورد با این موضوع در دستور کار نشست جهانی امنیت هوش مصنوعی که پاییز امسال برگزار خواهد شد قرار بگیرد.

یکی از بزرگ‌ترین خیریه‌های کودکان در بریتانیا از نخست وزیر این کشور ریشی سوناک خواسته است با تصاویر تعرض جنسی به کودکان که ساخته هوش مصنوعی هستند، برخورد و مقابله کند.

بریتانیا قرار است اولین نشست جهانی امنیت هوش مصنوعی را در پاییز امسال برگزار کند. بنیاد دیدبان اینترنت (ای دبلیو اف) تصاویر سوءاستفاده جنسی کودکان را از اینترنت پاک می‌کند. این بنیاد می‌گوید تصاویر ساخته‌شده باهوش مصنوعی رو به افزایش هستند.

مطالب پیشنهادی  خودروهای هیدروژنی یا الکتریکی ؟ آینده در کنار کدام تکنولوژی خواهد بود

تولید تصویر با هوش مصنوعی با محتوی سو استفاده از کودکان

بنیاد دیدبان اینترنت از ماه گذشته شاهد تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان بوده است.

آنها کشف کردند که خلافکارانی از سراسر جهان در حال به اشتراک گذاشتن تصاویری هستند که شباهت فوق‌العاده‌ای به عکس‌های واقعی دارند.

سوزی هارگریوز، مدیر اجرایی بنیاد دیدبان اینترنت می‌گوید: «ما هنوز شاهد این تصاویر در ابعادی وسیع نیستیم اما برایمان به‌وضوح روشن است که این تصاویر قابلیتی در اختیار خلاف‌کاران می‌گذارند تا حجم بسیار بالایی از تصاویر فوق‌العاده طبیعی از تعرض جنسی به کودکان تولید کنند.»

مطالب پیشنهادی  بهترین مشاغل در اروپا در سال ۲۰۲۴ کدام ها هستند؟

بنیاد دیدبان اینترنت !

بنیاد دیدبان اینترنت یکی از سه سازمان خیریه در جهان است که مجوز رسمی برای جستجو محتوی سوءاستفاده جنسی کودکان در اینترنت دارند.

این بنیاد اولین تصویرهای سو استفاده جنسی از کودکان که باهوش مصنوعی ساخته‌شده‌اند را در ۲۴ ماه مه امسال ثبت کرد و آن‌طور که می‌گوید محققان تا ۳۰ ماه ژوئن توانستند ۲۹ وب‌سایت و هفت صفحه مجازی که در آن‌ها آلبوم‌های عکس تصاویر هوش مصنوعی به اشتراک گذاشته‌شده بود کشف کنند. این خیریه تعداد دقیق تصاویر را اعلام نکرد اما می‌گوید ده‌ها تصویر هوش مصنوعی با تصاویر آزار جنسی واقعی ترکیب‌شده‌ و در وب سایت‌های غیرقانونی به اشتراک گذاشته‌شده‌اند.

هارگریوز می‌گوید: «ما الآن فرصت مناسبی داریم تا از این تکنولوژی جدید پیشی بگیریم. قوانینی باید مسئله سو استفاده جنسی از کودکان باهوش مصنوعی را در نظر بگیرند و جلوگیری از شیوع این تهدید جدید را جز هدف‌های خود قرار دهند.»

سوناک در ماه ژوئن اعلام کرد برنامه‌ای برای میزبانی اولین نشست جهانی برای امنیت هوش مصنوعی در بریتانیا دارد.

دولت وعده داده است متخصصان و قانون‌گذاران را گرد هم بیاورد تا خطرات احتمالی هوش مصنوعی را موردبررسی قرار دهند و در مورد روش‌هایی برای همکاری بین‌المللی جهت کنترل آن بحث و گفتگو شود.

مطالب پیشنهادی  نتایج امنیتی گسترش هوش مصنوعی و افزایش حملات سایبری

فعالیت های متخصصان بنیاد امنیت اینترنت

متخصصان بنیاد امنیت اینترنت به‌عنوان بخشی از فعالیت‌هایشان ترندهایی که در تولید و انتشار تصاویر آزار جنسی کودکان رخ می‌دهد را بررسی می‌کنند. یکی از ترندهای اخیر، گسترش تصویرهایی است که اصطلاحاً تصاویر سو استفاده «خود تولیدشده» نامیده می‌شوند. برای تولید این تصاویر،مجرم کودکی را ترغیب می‌کند تا برایش عکس یا ویدئوهایی از خود بفرستد.

خیریه آی دبلیو اف نگران گسترش روند تولید تصویرها با کمک هوش مصنوعی است. هرچند تعداد تصویرهای کشف‌شده همچنان در مقایسه با دیگر اشکال سوءاستفاده میزان جزئی را تشکیل می‌دهد.

در سال ۲۰۲۲ آی دبلیو اف ۲۵۰ هزار وب‌سایت که دارای تصاویر سو استفاده جنسی از کودکان بود را ثبت و تلاش کرد آن‌ها را غیرقابل‌دسترس کند.

تحلیلگران آی دبلیو اف همچنین گفتگوهایی در فروم های خلاف‌کاران پیدا کردند.  در آن‌ گفتگوها توصیه‌ها و آموزش‌هایی درباره اینکه چطور واقعی‌ترین تصاویر از سو استفاده جنسی کودکان تهیه کنند به اشتراک گذاشته‌شده بود.

آن‌ها درحالی‌که بیشتر تصاویر تولیدشده باهوش مصنوعی در ساختار خود مقررات سخت‌گیرانه‌ای دارند تا مانع استفاده مصرف‌کنندگان همراه با کلمات و جمله‌های ممنوعه شوند. ابزارهای منبع باز (اوپن سورس) وجود دارند که به شکل مجانی قابل دانلود هستند. این ابزارها  اجازه هر استفاده‌ای را به کاربر می‌دهند.

راه‌هایی پیداکرده بودند که هوش مصنوعی را گول بزنند و به آن آموزش دهند چطور تصویر سواستفاده جنسی از کودکان طراحی کند. آن‌ها به مدل‌های با منبع آزاد هوش مصنوعی (اوپن سورس) دست پیداکرده و موانع ایمنی داخل آن را از بین برده بودند. کارشناسان هشدار می‌دهند که این تصاویر می‌توانند آسیب‌های جدی وارد کنند.

مطالب پیشنهادی  جلوگیری از جعل عکس‌ توسط هوش مصنوعی

متخصصان په می گویند

دکتر مایکل بورک در مورد آزارگران جنسی و آزارگران جنسی کودکان در خدمات مارشال‌های ایالات‌متحده ( از نهادهای انتظامی) کار می‌کند. این متخصص می‌گوید: «هیچ شکی ندارم که هوش مصنوعی تمایل به آزار جنسی کودکان را بالا خواهد برد. این انحراف شدت خواهد گرفت و آسیب‌ها و خطرهای جدی‌تری برای کودکان در سراسر جهان ایجاد خواهد شد.»

پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به این برنامه دفاع می‌کند. او به بی‌بی‌سی می‌گوید از زمانی که کدهای برنامه را به شکل آزاد منتشر کردند صدها پروژه دانشگاهی جدید و چندین و چند کسب و کار پررونق از آن زاده شده‌اند.  همین دستاوردها می‌تواند تصمیم او و همکارانش را توجیه کند و ادامه می‌دهد متوقف کردن تحقیق و توسعه پروژه‌ها راه‌حل درستی نیست.

او می‌گوید: «ما باید این واقعیت را بپذیریم که این روند توسعه جهانی است. اینکه آن را در این برهه زمانی متوقف کنیم جلوی توسعه این تکنولوژی را در کشورهای دیگر جهان و جوامعی که دموکراتیک نیستند را نخواهد گرفت. ما باید گام‌های فکر شده‌ای برای قانون‌مند کردن این پیشرفت که با سرعت زیادی به جلو حرکت می‌کند، پیدا کنیم.»

استیبلیتی ای آی، که در ضمن بودجه توسعه و ساخت مدل‌ها را هم تأمین کرد یکی از اصلی‌ترین شرکت‌های تولیدکننده نسخه‌های جدیدتر استیبل دیفیوژن است. استیبل ای آی حاضر به مصاحبه با ما نشد. اما قبلاً اعلام کرده است استفاده غیرقانونی از همه نسخه‌هایش برای تولید تصاویر غیراخلاقی را منع می‌کند.

سردبیر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

خبر بعدی

سریع ترین ابررایانه جهان رونمایی شد

ش تیر 31 , 1402
سریع ترین ابررایانه جهان
//

شاید برای شما جالب باشد