قانون پیشنهادی اتحادیه اروپا جهت بررسی اطلاعات کاربران برای موارد سو استفاده جنسی از کودکان

زمانی که اپل اعلام کرد که قصد دارد آیفون کاربران را برای یافتن موارد آزار جنسی کودکان (CSAM) اسکن کند، جنجال‌های زیادی راه انداخته شد. برنامه‌های اپل بعد از واکنش شدید، به حالت تعلیق درآمدند اما اکنون کمسیسون کروپا قانونی را برای مبارزه با سو استفاده جنسی از کودکان به صورت آنلاین پیشنهاد کرده است. این می‌تواند سازنده آیفون را مجبور کند تا ویژگی‌های مد نظر خود را دوباره به برنامه برگرداند اما این بار جنجالی چندانی به پا نمی‌شود چون طبق قانون اتحادیه اروپا است!

چرا اپل برنامه تشخیص سو استفاده جنسی از کودکان خود را کنار گذاشت؟

اپل حوالی شهریور ماه سال گذشته اعلام کرد که به طور موقت برنامه‌های شناسایی موارد سو استفاده جنسی از کودکان را به حالت تعلیق درمی‌آورد و بازنگری در رویکرد آن زمان خواهد برد. از آن زمان ما چیزی از اهداف این کمپانی نشنیده‌ایم، اگرچه قطعا اپل هنوز روی این مسئله کار می‌کند.

ارائه دهندگان فضای ذخیره سازی ابری معمولا محتوای سو استفاده جنسی از کودکان (CASM) را شناسایی می‌کنند و موارد شناخته شده را به سازمان‌های مجری قانون گزارش می‌دهند. اپل قصد داشتن به شناسایی CASM با تمرکز بر حریم خصوصی کاربر نزدیک شود. برنامه ریزی شده بود که از یک پایگاه داده روی دستگاه خود کاربر با هش‌های تصاویر CASM استفاده شود تا مشخص گردد تصاویر شما هیچ مطابقتی با موارد سو استفاده جنسی از کودکان ندارد. اگر مورد منطبقی یافت می‌شود، به صورت دستی بررسی و در صورت تایید آن، به مجریان قانون گزارش می‌گردید. همچنین بخوانید: طرح مفهومی iPadOS 16 با تغییرات اساسی در مولتی تسکینگ آیپد .

حامیان حریم خصوصی، کارشناسان امنیت سایبری، سازمان‌های حقوق بشری و کاربران اپل در پلتفرم‌های رسانه‌های اجتماعی مشکلات آشکار روش این کمپانی را شرح دادند. اولا همیشه احتمال اینکه تشخیص اشتباه رخ دهد وجود دارد و این مسئله می‌تواند اعتبار یک فرد را از بین ببرد. اپل این نگرانی را برطرف کرد و حداقل ۳۰ مورد منطبق باید در دستگاه شناسایی شوند تا به بررسی دستی برسد. با این حال این مسئله می‌تواند با تلاش‌های عمدی و ارسال محتوای مربوطه به گوشی مقصد، باعث بدنامی فرد گیرنده شود.

چندین فرد برجسته از جمله ادوارد اسنودن، تاکید کردند که دولت‌ها و سازمان‌های مجری قانون می‌توانند از تصاویر برای یافتن موارد سیاسی و موارد دیگر استفاده کنند. علاوه بر این همین جستجوی مبتنی بر هش در دستگاه را می‌توان در iMessage نیز اعمال نمود.

مسیر پیش رو

طبق گزارش تازه، اتحادیه اروپا قانون جدیدی را برای نظارت بر شرکت‌های فناوری بزرگ در هفته پیش رو اعلام خواهد کرد. این قانون از کمپانی‌ها می‌خواهد که دستگاه‌های کاربران را برای یافتن موارد سو استفاده جنسی از کودکان یا همان CSAM اسکن کنند. اگر این قانون لازم الاجرا شود، اپل راه سختی را برای پیاده سازی آن بدون برافروختن مجدد جنجال دارد.

تنها در سال ۲۰۲۱، ۸۵ میلیون تصویر و ویدیو از آزار جنسی خودکار وجود داشته و موراد بسیار دیگری که گزارش نکرده است. شیوع ویروس کرونا این مسئله را تشدید کرده و گزارش‌های تایید شده آزار جنسی کودکان در سال ۲۰۲۱، نسبت به سال گذشته ۶۴ درصد افزایش یافته است. این مسئله نشان می‌دهد که سیستم‌های فعلی مبتنی بر تشخیص و گزارش داوطلبانه برای محافظت از کودکان کافی نیست. این مسئله تنها در یک پلتفرم وجود ندارد و تقریبا ۹۵ درصد از کل گزارشات مربوط به سو استفاده جنسی از کودکان در سال ۲۰۲۰، از یک شرکت بود. همچنین بخوانید: قالب‌های آیفون ۱۴ برآمدگی بزرگ دوربین را نشان می‌دهند .

چالش اپل در این میان اعتماد کاربران و تضمین حریم خصوصی و از سوی دیگر ایجاد اصطلاحا «درب پشتی» در پروتکل‌های رمز گزاری شده برای سازمان‌های اجرایی است. ایلوا یوهانسون، کمیسر اتحادیه اروپا در امور داخلی گفته که: سو استفاده کنندگان پشت رمز گذاری سراسری پنهان می‌شوند. استفاده از آن آسان است اما شکستن آن تقریبا غیر ممکن می‌باشد و تحقیقات و تعقیب جرایم را برای مجریان قانون دشوار می‌نماید.

از طريق Politico
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.