مقابله اپل با سو استفاده جنسی از کودکان ؛ اسکن تصاویر کاربران برای پورنوگرافی کودکان

اپل به تازگی از اقدامات امنیتی خود برای کودکان در iOS و iPadOS رونمایی کرده است. از جمله اقدامات اپل عبارتند از اسکن کردن تصاویر، محو کردن تصاویر در آیمسیج، تشخیص مطالب مربوط به سو استفاده جنسی از کودکان در آیکلاد و اطلاعات به روز شده برای سیری و جستجو.

به گفته اپل این ویژگی‌ها در زمان عرضه فقط در ایالات متحده آمریکا در دسترس خواهند بود. با این حال انتظار می‌رود در آینده نزدیک، در مناطق بیشتری گسترش یابد. اپل می‌گوید که حفاظت از کودکان یک مسئولیت مهم است.

همچنین بخوانید:

ویژگی‌های برنامه مسیج

اپل می‌گوید وقتی یک کودک عضو iCloud Family است و یک تصویر جنسی را دریافت یا ارسال می‌کند، یک پیام هشدار دریافت خواهد کرد که این یک تصویر حساس است. اگر کودک انتخاب کرد که با این حال تصویر نمایش داده شود، پنجره دیگری ظاهر می‌گردد که توضیح می‌دهد چرا این عکس حساس است.

در این لحظه والدین تعریف شده در iCloud Family، یک اعلان دریافت می‌کنند و همچنین لینکی برای راهنمایی‌های بیشتر برای آن‌ها ارسال می‌گردد.

به گفته اپل این ویژگی با استفاده از یادگیری ماشینی کار می‌کند و تجزیه و تحلیل اینکه یک تصویر جنسی است یا خیر در خود دستگاه صورت می‌گیرد. اپل تاکید کرده که آیمسیج دارای رمز گذاری سرتاسری است و اپل به هیچ پیام و یا عکسی دسترسی ندارد.

اسکن تصاویر برای سو استفاده جنسی از کودکان

سو استفاده جنسی از کودکان

به گفته اپل آیکلاد قادر به تشخیص تصاویر سو استفاده جنسی از کودکان است. اپل می‌گوید که در صورتی که این قبیل تصاویر در آیکلاد ذخیره شوند، می‌تواند آن‌ها را به مرکز ملی کودکان گم و استثمار شده گزارش دهد. این مرکز یک سازمان غیر انتفاعی است که با مجری‌های قانون در ایالات متحده آمریکا کار می‌کند.

اپل می‌گوید که تمامی این پروسه روی دستگاه کاربر انجام می‌شود و در صورت مشاهده تخلف، ممکن است که گزارش گردد.

قبل از اینکه تصویر روی آیکلاد آپلود شود، با هش‌های غیرقابل خواندن تصاویر سو استفاده جنسی از کودکان مطابق داده می‌شود. اگر تطابقی پیدا شود، چیزی ایجاد می‌شود که اپل آن را «ووچر ایمنی رمزنگاری» می‌نامد. اگر سیستم از آستانه تعریف شده گذر کند، بازبینی در سیستم صورت می‌گیرد.

اپل معتقد است که سیستم آن‌ها بسیار دقیق است و مزایای قابل توجهی را در زمینه حریم خصوصی نسبت به سایر تکنیک‌های موجود دارد. این سیستم یک روش موثر برای شناسایی سو استفاده جنسی از کودکان، و در عین حال محافظت از حریم خصوصی کاربران است.

به عنوان بخشی از فرآیند، کاربر نمی‌تواند از آن چیزی که برای یافتن تصاویر سو استفاده جنسی از کودکان برای تطبیق استفاده می‌شود، متوجه گردد. این کار برای جلوگیری از سو استفاده‌های احتمالی است.

سیری و جستجو

اپل همچنین برای محافظت از کودکان تغییراتی را در جستجو و سیری داده است. اکنون سیری می‌تواند به کاربران برای گزارش سو استفاده جنسی از کودکان کمک نماید. این دستیار صوتی دسترسی به منابع مربوطه و آموزش تهیه گزارش را فراهم می‌کند. اگر کاربران هر چیزی را که مربوط به سو استفاده جنسی از کودکان است را جستجو نمایند، سیستم عامل مداخله می‌کند. به گفته اپل، سیستم عامل به کاربر توضیح می‌دهد که علاقه به این موضوعات مضر و مشکل آفرین است و منابعی را نیز برای این مسئله ارائه می‌دهد.

از طريق اپل
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.