زمانی که اپل اعلام کرد که قصد دارد آیفون کاربران را برای یافتن موارد آزار جنسی کودکان (CSAM) اسکن کند، جنجالهای زیادی راه انداخته شد. برنامههای اپل بعد از واکنش شدید، به حالت تعلیق درآمدند اما اکنون کمسیسون کروپا قانونی را برای مبارزه با سو استفاده جنسی از کودکان به صورت آنلاین پیشنهاد کرده است. این میتواند سازنده آیفون را مجبور کند تا ویژگیهای مد نظر خود را دوباره به برنامه برگرداند اما این بار جنجالی چندانی به پا نمیشود چون طبق قانون اتحادیه اروپا است!
چرا اپل برنامه تشخیص سو استفاده جنسی از کودکان خود را کنار گذاشت؟
اپل حوالی شهریور ماه سال گذشته اعلام کرد که به طور موقت برنامههای شناسایی موارد سو استفاده جنسی از کودکان را به حالت تعلیق درمیآورد و بازنگری در رویکرد آن زمان خواهد برد. از آن زمان ما چیزی از اهداف این کمپانی نشنیدهایم، اگرچه قطعا اپل هنوز روی این مسئله کار میکند.
ارائه دهندگان فضای ذخیره سازی ابری معمولا محتوای سو استفاده جنسی از کودکان (CASM) را شناسایی میکنند و موارد شناخته شده را به سازمانهای مجری قانون گزارش میدهند. اپل قصد داشتن به شناسایی CASM با تمرکز بر حریم خصوصی کاربر نزدیک شود. برنامه ریزی شده بود که از یک پایگاه داده روی دستگاه خود کاربر با هشهای تصاویر CASM استفاده شود تا مشخص گردد تصاویر شما هیچ مطابقتی با موارد سو استفاده جنسی از کودکان ندارد. اگر مورد منطبقی یافت میشود، به صورت دستی بررسی و در صورت تایید آن، به مجریان قانون گزارش میگردید. همچنین بخوانید: طرح مفهومی iPadOS 16 با تغییرات اساسی در مولتی تسکینگ آیپد .
حامیان حریم خصوصی، کارشناسان امنیت سایبری، سازمانهای حقوق بشری و کاربران اپل در پلتفرمهای رسانههای اجتماعی مشکلات آشکار روش این کمپانی را شرح دادند. اولا همیشه احتمال اینکه تشخیص اشتباه رخ دهد وجود دارد و این مسئله میتواند اعتبار یک فرد را از بین ببرد. اپل این نگرانی را برطرف کرد و حداقل ۳۰ مورد منطبق باید در دستگاه شناسایی شوند تا به بررسی دستی برسد. با این حال این مسئله میتواند با تلاشهای عمدی و ارسال محتوای مربوطه به گوشی مقصد، باعث بدنامی فرد گیرنده شود.
چندین فرد برجسته از جمله ادوارد اسنودن، تاکید کردند که دولتها و سازمانهای مجری قانون میتوانند از تصاویر برای یافتن موارد سیاسی و موارد دیگر استفاده کنند. علاوه بر این همین جستجوی مبتنی بر هش در دستگاه را میتوان در iMessage نیز اعمال نمود.
مسیر پیش رو
طبق گزارش تازه، اتحادیه اروپا قانون جدیدی را برای نظارت بر شرکتهای فناوری بزرگ در هفته پیش رو اعلام خواهد کرد. این قانون از کمپانیها میخواهد که دستگاههای کاربران را برای یافتن موارد سو استفاده جنسی از کودکان یا همان CSAM اسکن کنند. اگر این قانون لازم الاجرا شود، اپل راه سختی را برای پیاده سازی آن بدون برافروختن مجدد جنجال دارد.
تنها در سال ۲۰۲۱، ۸۵ میلیون تصویر و ویدیو از آزار جنسی خودکار وجود داشته و موراد بسیار دیگری که گزارش نکرده است. شیوع ویروس کرونا این مسئله را تشدید کرده و گزارشهای تایید شده آزار جنسی کودکان در سال ۲۰۲۱، نسبت به سال گذشته ۶۴ درصد افزایش یافته است. این مسئله نشان میدهد که سیستمهای فعلی مبتنی بر تشخیص و گزارش داوطلبانه برای محافظت از کودکان کافی نیست. این مسئله تنها در یک پلتفرم وجود ندارد و تقریبا ۹۵ درصد از کل گزارشات مربوط به سو استفاده جنسی از کودکان در سال ۲۰۲۰، از یک شرکت بود. همچنین بخوانید: قالبهای آیفون ۱۴ برآمدگی بزرگ دوربین را نشان میدهند .
چالش اپل در این میان اعتماد کاربران و تضمین حریم خصوصی و از سوی دیگر ایجاد اصطلاحا «درب پشتی» در پروتکلهای رمز گزاری شده برای سازمانهای اجرایی است. ایلوا یوهانسون، کمیسر اتحادیه اروپا در امور داخلی گفته که: سو استفاده کنندگان پشت رمز گذاری سراسری پنهان میشوند. استفاده از آن آسان است اما شکستن آن تقریبا غیر ممکن میباشد و تحقیقات و تعقیب جرایم را برای مجریان قانون دشوار مینماید.