![]() |
الذكاء الإصطناعي والجريمة |
يمكن إلى مفهوم الذكاء الاصطناعي الذي يبحث عن بيانات الجريمة أن يتنبأ في موقع الجرائم في وقتنا الحالي تصل إلى 90 في المائة. ولكن هناك مخاوف تحيط في عملية التحيّز التي قد تقع فيها تلك الانظمة الحديثة.
في فيلم النجم الأمريكي توم كروز “تقرير
الأقلية Minority Report” لجأ علماء إلى أشخاص لديهم قدرات ذهنية خارقة
وقاموا بعمل ارتباط بين أدمغتهم وبين عشرات الأجهزة التي أمدتهم بصور ومعلومات حول
مشتبه بهم ومواقف وأحداث مختلفة ليتمكنوا من خلالها من توقع جرائم القتل قبل وقوعها.
ومر على إنتاج هذا الفيلم نحو 20 عاماً,
واليوم أضحت الفكرة الخيالية واقعاً، إذ تمكن برنامج للذكاء الاصطناعي من التنبؤ بموقع
ومعدل الجريمة عبر مدينة شيكاغو قبل أسبوع بدقة تصل إلى 90%.
نتائج مذهلة
ابتكر ايشانو تشاتوبادياي الاستاذ المساعد
في كلية الدراسات الحيوية في جامعة شيكاغو وزملاؤه نموذجاً للذكاء الاصطناعي يقوم بتحليل
بيانات الجريمة في مدينة شيكاغو بولاية إلينوي للفترة ما بين 2014 و2016، ثم توقع مستويات
الجريمة في الأسابيع التي تلت فترة تغذية البرنامج بالبيانات والمعلومات.
المذهل أن الذكاء الاصطناعي توقع احتمالية
حدوث جرائم معيّنة في جميع أنحاء المدينة، والتي تمّ تقسيمها إلى مربعات بعرض حوالي
300 متر ، قبل أسبوع من وقوعها بدقة تصل إلى 90%. كما تم تدريبه واختباره على بيانات
7 مدن أمريكية رئيسية أخرى، ليفاجأ العلماء بمستوى مماثل من الأداء، بحسب ما نشر موقع
new scientist المتخصص.
كانت الجهود السابقة لاستخدام أنظمة الذكاء
الاصطناعي للتنبؤ بالجريمة مثيرة للجدل لأنها يمكن أن تُبقي على نسبة من التحيز العنصري.
وفي السنوات الأخيرة، اختبرت إدارة شرطة شيكاغو خوارزمية أنشأت قائمة بالأشخاص الذين
يُعتبرون الأكثر عرضة لخطر التورط في إطلاق النار، إما كضحايا أو كجناة.
التعلم الآلي
تم الاحتفاظ بسرية تفاصيل الخوارزمية والقائمة
في البداية، ولكن عندما تم إصدار القائمة أخيراً، اتضح أن 56% من الرجال السود في المدينة
الذين تتراوح أعمارهم بين 20 و 29 عاماً قد ظهروا فيها.قياسات متحيزة؟
يقر تشاتوبادياي بأن البيانات التي يستخدمها
نموذجه ستكون متحيزة أيضاً، لكنه يقول إنه تم بذل جهود للحد من تأثير التحيز، وأن الذكاء
الاصطناعي لا يحدد المشتبه بهم،
بل المواقع المحتملة للجريمة فقط، مشيراً
إلى أنه لن يرتكب الخطأ الوارد في فيلم توم كروز: “إنه ليس تقرير الأقلية”, موارد الجهات
القائمة على تطبيق القانون محدودة في النهاية.
لذلك أنت تريد استخدام تلك الموارد على
النحو الأمثل. سيكون من الرائع أن تعرف أين ستحدث جرائم القتل دون انفاق الوقت والجهد
والموارد لمعرفة ذلك”.
ويثير التقدم في التعلم الآلي والذكاء الاصطناعي
اهتمام الحكومات التي ترغب في استخدام أجهزة الأمن لهذه الأدوات التنبؤية لردع الجريمة.
صحيح أن الجهود المبكرة للتنبؤ بالجريمة كانت مثيرة للجدل، إلا أنها لا تأخذ في الاعتبار
التحيزات المنهجية في إنفاذ الشرطة للقانون وعلاقتها المعقدة مع الجريمة والمجتمع.
إستفادة المجتمع
استخدم الباحثون أيضاً البيانات للبحث عن
المجالات التي يؤثر فيها التحيز البشري على عمل الشرطة. إذ قاموا بتحليل عدد الاعتقالات
في أعقاب الجرائم في أحياء مختلفة من شيكاغو ذات مستويات اجتماعية واقتصادية مختلفة.
أظهر هذا التحليل أن الجرائم في المناطق
الأكثر ثراء نتج عنها اعتقالات أكثر مما كان عليه الأمر في المناطق الفقيرة، مما يشير
إلى التحيز في استجابة الشرطة للإنذارات والبلاغات.
ولم يخف لورنس شيرمان من مركز كامبريدج
لأحد أفرع الشركة المتخصصة بالمملكة المتحدة من أن “يكون الأمر (ربما) انعكاسًا للتمييز
المتعمد من قبل الشرطة في مناطق معينة”.
ويقول تشاتوبادياي إنه يمكن استخدام تنبؤات
الذكاء الاصطناعي بشكل أكثر أمانًا كمصدر للمعلومات لمتخذي القرار على أعلى المستويات.
بدلاً من استخدام موارد الأجهزة الأمنية
بشكل مباشر، مشيراً إلى أنه أتاح البيانات والخوارزمية المستخدمة في الدراسة للجميع
حتى يتمكن باحثون آخرون من التحقيق في النتائج وتطوير العمل.
المصدر: Egypt14
![]() |
Artificial intelligence |
AI looking for crime data can predict the location of crimes today up to 90 percent. However, there are concerns surrounding the process of bias that these modern systems may fall into.
In the American star Tom Cruise movie, “Minority Report,” scientists resorted to people with supernatural abilities and made a link between their brains and dozens of devices that provided them with images and information about suspects, different situations and events so that they could predict the murders before they occurred.
The film has been in production for nearly 20 years, and today the fantasy has become a reality, as an artificial intelligence program was able to predict the location and rate of crime across the city of Chicago a week ago with an accuracy of up to 90%.
Amazing results
Ishanu Chattopadyye, an assistant professor in the School of Biological Studies at the University of Chicago, and his colleagues created an AI model that analyzes crime data in Chicago, Illinois, for the period 2014-2016, then predicts crime levels in the weeks after the data-fed period.
Amazingly, the AI predicted the probability of certain crimes occurring across the city, which were divided into squares about 300 meters wide, a week before they happened with 90% accuracy. It was also trained and tested on data from 7 other major US cities, to the surprise of scientists with a similar level of performance, according to what was published by the specialized website New Scientist.
Previous efforts to use AI systems to predict crime have been controversial because they can maintain racial bias. In recent years, the Chicago Police Department has tested an algorithm that created a list of people considered most at risk of being involved in a shooting, either as victims or as perpetrators.
machine learning
Details of the algorithm and list were initially kept secret, but when the list was finally released, it turned out that 56 percent of black men in the city between the ages of 20 and 29 showed up in it. Biased measurements?
Chattopadhyay acknowledges that the data his model uses will also be biased, but says that efforts have been made to reduce the impact of bias, and that AI does not identify suspects.
Only potential crime locations, noting that he wouldn't make the Tom Cruise mistake: "It's not a minority report," law enforcement's resources are ultimately limited.
So you want to use those resources optimally. It would be great to know where the murders are going to happen without spending time, effort and resources to find out."
Advances in machine learning and artificial intelligence are intriguing governments that want security services to use these predictive tools to deter crime. While early efforts to predict crime were controversial, they fail to take into account the systemic biases in police enforcement of the law and its complex relationship with crime and society.
benefit society
The researchers also used the data to look for areas in which human bias affects police work. They analyzed the number of arrests following crimes in different neighborhoods of Chicago with different socioeconomic levels.
This analysis showed that crimes in richer areas resulted in more arrests than in poorer areas, indicating bias in police response to alerts and reports.
Lawrence Sherman of the UK subsidiary Cambridge Center made no secret of the fact that "it is (possibly) a reflection of deliberate police discrimination in certain areas".
Chattopadhyay says AI predictions can be used more safely as a source of information for decision makers at the highest levels.
Rather than using the security services’ resources directly, he said he made the data and algorithm used in the study available to everyone so that other researchers could investigate the results and develop the work.
Source: Egypt14
2 Comments
موفق دائما
ReplyDeleteشكرا لك وبارك الله فيك
Delete