Perlindungan Anak | آبل تضع نظام لحماية الطفل من الإساءءة الجنسية

Apple company
آيفون وحماية الطفل

في خبر من شركة آبل أعلنت عن تفاصيل نظام يتيح رصد مواد متعلقة بالإساءة الجنسية للأطفال (CSAM) ضمن أجهزة آيفون والتي يملكها أمريكيون.

وقبل تخزين أي صورة على نظام iCloud Photos، سوف تتيح التقنية الجديدة البحث عن المواد المتعلقة بالإساءة الجنسية للأطفال (CSAM).

وأوضحت شركة آبل إنه في حالة رصد تطابق معين، فإن مراجعاً بشرياً سوف يُقيِّم المحتوى، ثم يبلغ عنه سلطات إنفاذ القانون، إن لزم الأمر.

النظام والتجسس

ولكن هناك خشية من الإفراط في إستخدام هذه التقنية للخصوصية، إذ يمكن أن يشمل فحص أجهزة الأيفون بحثاً عن محتوى محظور أو حتى خطاب سياسي, حيث يساور الخبراء قلق بشأن استخدام النظام من قبل الحكومات الدكتاتورية للتجسس على مواطنيها.

وفي نفس السياق أوضحت شركة آبل إن نسخاً جديدة من نظام التشغيل (iOS) ونظام تشغيل أجهزة أيباد أو إس (IPadOS)‏ – المقرر إطلاقهما في وقت لاحق هذه السنة.

سوف تكون مزودة “بتطبيقات جديدة للتشفير للحدّ من انتشار المواد المتعلقة بالإساءة الجنسية للأطفال (CSAM) على الإنترنت، مع أخذ الخصوصية بعين الاعتبار”.

حماية الطفل

ويعمل النظام من خلال مقارنة الصور مع البيانات المعروفة للإساءة الجنسية للأطفال التي جمعها المركز الوطني للأطفال المفقودين والمستغلين في الولايات المتحدة، إضافة إلى منظمات أخرى معنية بسلامة الأطفال.

حيث هذه الصور ترجمت إلى “رموز”، وهي رموز رقمية يمكن أن تكون “متطابقة” مع صورة مخزنة على جهاز آبل, وتقول الشركة أيضا إن التكنولوجيا أيضاً سترصد نسخاً معدلة لكنها مماثلة لصور أصلية.

الدقة والإحترافية

وأوضحت شركة آبل إن “قبل تخزين الصورة في iCloud Photos، تُجرى عملية مطابقة لتلك الصورة مقارنة برموز المواد المتعلقة بالإساءة الجنسية للأطفال المعروفة”, حيث ادعت الشركة أن هذا النظام “عالي الدقة ويضمن نسبة خطأ بأقل من واحد في التريليون سنوياً”.

وقالت شركة آبل إنها سوف تراجع يدويا كل تقرير للتأكد من وجود تطابق. عندها يمكن لها أن تتخذ خطوات معينة لتعطيل حساب المستخدم وإبلاغ السلطات.

وتضيف الشركة أن التكنولوجيا الجديدة تقدم مزايا “مهمة” من الخصوصية مقارنة بالتقنيات الموجودة, لأن شركة آبل تتعلم من صور المستخدمين إذا كانت عندهم مجموعة من المواد المتعلقة بالإساءة الجنسية للأطفال (CSAM) في حسابهم.

ماذا عن الخصوصية

ولكن يبدو أن بعض خبراء الخصوصية أعربوا عن مخاوفهم, حيث قال ماثيو جرين، الباحث الأمني في جامعة جونز هوبكينز، “بغض النظر عن ماهية خطط آبل بعيدة المدى، فإنها أرسلت إشارة واضحة جداً.

وأنه من الآمان بناء أنظمة تفحص أجهزة المستخدمين فيما يخص المحتوى المحظور”, واختتم حديثه بالقول: “سواء كانوا على صواب أو خطأ فيما يخص هذه النقطة، فإن الأمر لا يكاد يهم, هذا سيوف يحطم السد, وسوف تطلب الحكومات ذلك من الجميع”.

المصدر: Egypt14

Apple company
child protection system

In news, Apple announced the details of a system that allows monitoring of child sexual abuse material (CSAM) on iPhones owned by Americans.

Before any photo is stored in iCloud Photos, the new technology will allow you to search for material related to child sexual abuse (CSAM).

Apple said that if a match is detected, a human reviewer will evaluate the content and then report it to law enforcement, if necessary.

system and espionage

But there is a fear that this technology will be overused for privacy, as it could include scanning iPhones for prohibited content or even political speech, as experts worry about the system being used by dictatorial governments to spy on their citizens.

In the same context, Apple announced that new versions of its operating system (iOS) and the operating system for iPadOS devices - which are scheduled to be launched later this year.

It will be equipped with “new applications of encryption to limit the spread of CSAM material on the Internet, with privacy in mind.”

child protection

The system works by comparing images with known child sexual abuse data collected by the National Center for Missing and Exploited Children in the United States, as well as other child safety organizations.

These images have been translated into "codes", which are digital codes that can be "identical" to an image stored on an Apple device.

Accuracy and professionalism

"Before storing the photo in iCloud Photos, a matching process is performed against that image against known CSAB material codes," Apple said in a statement.

Apple said it will manually review each report to ensure a match. It can then take certain steps to disable the user's account and report it to the authorities.

The company adds that the new technology offers "significant" privacy advantages over existing technologies, because Apple learns from users' photos if they have a collection of CSAM-related material in their account.

What about privacy

But some privacy experts seem to have expressed concerns. “No matter what Apple's long-term plans are, it sent a very clear signal," said Matthew Green, a security researcher at Johns Hopkins University.

And that it is safe to build systems that scan users’ devices for prohibited content,” he concluded by saying: “Whether they are right or wrong on this point, it hardly matters, this will break the dam, and governments will demand it from everyone.”

Source: Egypt14

Post a Comment

2 Comments