"هوش مصنوعی" در پیشگیری از جرم چه کاربردهایی دارد؟
یکی از حوزههای کاربردی "هوش مصنوعی" در علوم جنائی از طریق پیشگیری جرم و دستگیری مظنونین تا مراقبتهای پس از خروج از زندان است که در این مطلب به ابعاد مختلف آن پرداخته شده است.
به گزارش خبرنگار قضائی خبرگزاری تسنیم؛ کرسی نظریهپردازی "کاربرد هوش مصنوعی در پیشگیری از جرم" به همت پژوهشکده حقوقی شهر دانش و با ارائه مهرنوش ابوذری، عضو هیئت علمی دانشکده حقوق و علوم سیاسی دانشگاه تهران، برگزار شد.
بهزاد لک، عضو هیئت علمی دانشگاه علوم انتظامی امین، محمد فرجیها، عضو هیئت علمی دانشگاه تربیت مدرس و بهرام بیات، عضو هیئت علمی دانشگاه عالی دفاع ملی، ناقدان این کرسی بودند. در این نشست به کاربردهای هوش مصنوعی در فضای حقوقی پرداخته و گفته شد؛ یکی از حوزههای کاربردی هوش مصنوعی در علوم جنائی از طریق پیشگیری جرم و دستگیری مظنونین تا مراقبتهای پس از خروج از زندان است.
در آغاز این کرسی راضیه صابری که دبیری علمی جلسه را به عهده داشت، سؤال تحقیق را به این صورت مطرح کرد؛ "کاربرد هوش مصنوعی در پیشگیری از جرم چیست و استفاده از آن، چه منافع و مضراتی به همراه دارد؟"
نگاهی به کاربردهای هوش مصنوعی در فضای حقوقی
مهرنوش ابوذری، ارائهدهنده موضوع با بیان اینکه هوش مصنوعی به عنوان یک تکنولوژی که در صدد شبیهسازی هوش طبیعی انسان و جانشینی و دستیاری هوش انسان و حذف محدودیتهای بشری است، اظهار کرد: فارغ از اینکه هوش مصنوعی در چه بخشهایی مورد استفاده قرار گیرد، پیامدهای آن میتواند سطوح مختلف از اجرای ساده وظایف گرفته تا تصمیمگیریهای سریع و پیچیده را تحت تأثیر قرار دهد.
وی افزود: در عصر پیشرفت بسیار سریع هوش مصنوعی و فناوری رباتیک، بیتوجهی به فرصتها و چالشهای این حوزه جامعه را با مسائلی پیشبینی نشده روبرو خواهد کرد. لذا کشورهای پیشرو در این حوزه تلاش میکنند ضمن پذیرش و تلاش در توسعه آن، در زمینه قانونهای حاکم بر طراحی، ساخت، تجاریسازی و مسائل اجتماعی، اخلاقی و امنیتی آن نیز پیشتاز باشند.
این عضو هیئت علمی دانشگاه تهران در ادامه به کاربردهای هوش مصنوعی در فضای حقوقی پرداخت و طی آن اظهار کرد: یکی از حوزههای کاربردی هوش مصنوعی در علوم جنائی از طریق پیشبینی جرم، پیشگیری و دستگیری مظنونین تا صلاحیتسنجی جهت اعمال و اجرای نهادهای ارفاقی و مراقبتهای پس از خروج از زندان است که در این موضوع بررسی میشود. هوش مصنوعی میتواند در شناسایی و حذف زمینههای جرم و شناسایی علتهای بزهکاری کمک کند. دادهکاوی و تحلیل دادهها، عملکرد شبکه عصبی، یادگیری ماشین، سامانههای خبره، پردازش زبان طبیعی و ... میتوانند در تصمیمات مربوط به پیشگیری از جرم مؤثر باشند.
وظیفه قوای عمومی در قبال بزهکاری فقط مجازات کردن نیست
وی تأکید کرد: وظیفه دولت و قوای عمومی در قبال مسأله بزهکاری و ناامنی، صرفاً مجازات کردن مجرمان نیست؛ بلکه دولتها موظفند در چارچوب اصل حاکمیت قانون و اصول ناظر بر منصفانه بودن رسیدگیها و صیانت از شهروندان، اقدامات به موقع جلوگیری از ورود صدمه و آسیب به افراد انجام دهند. و دیگر نمیتوان با این تصور ساده که ترس از مجازات مانع از ورود صدمات به جامعه میشود، به مقابله با آنها پرداخت، بلکه مقابله با آنها مستلزم اتخاذ روشهایی است که نه تنها ارتکاب جرایم قریبالوقوع توسط مجرمین احتمالی را غیرممکن سازد، بلکه در صورت وقوع، مانع ادامه ضرر بیشتر شود.
این عضو هیئت علمی دانشگاه تهران تأکید کرد: البته لازم است به طور قانونمند و عادلانه از وقوع و استمرار جرایم جلوگیری کرده و از ایراد خسارات غیرقابل جبران به اعضای جامعه ممانعت آورد. دادههایی که از سیستمهای نظارتی، دوربینهای کنترلی یا امنیتی به دست میآید، همه قابلیت جمعآوری داشته و میتوانند مورد تحلیل واقع شوند. از این دادها معنا استخراج شده و براساس آن برنامهریزی انجام میشود. با استفاده از این فناوری میتوان زمینههای خطر را شناسایی کرده و احتمال وقوع جرم را پیشبینی کرد.
کارآمدی استفاده از الگوریتمهای پیشبینی رفتار در تصمیمگیریهای قضائی
ابوذری در ادامه به تأثیر هوش مصنوعی در دادهکاوی تحقیقات جنایی و تجزیه و تحلیل هوشمند جرم پرداخت و گفت: جرم در تحلیلها و تحقیقات جنایی براساس سه متغیر فضا و زمان جرم، دادههای بزهکاری و سوابق پیادهسازی شده است. هر یک از دادههای مشخصات طبیعی رفتار، ویژگیهای صحنه جرم، الگوی رفتاری جرم، مشخصات مجرم از حیث سن، جنس، نژاد و ... و ایجاد ارتباط بین دادهها میتواند منجر به ارتباط و همبستگی آنها با هم شده و در نهایت منجر به شکلگیری نرمافزارها و سیستمهای تحقیق جغرافیایی شود که احتمال وقوع جرم و یا مکانی که بزهدیده بعدی در یک جرم سریالی وجود خواهد داشت را پیشبینی کند. این امر در عملکرد پلیس و تصمیمگیری در برنامههای تأمین امنیت مهم خواهد بود. البته پیشبینی از جرایم احتمالی و رفتارهای آینده مجرمین پرخطر، صرفاً بهمنظور پیشگیری از وقوع جرم خواهد بود و دستگیری افراد و مجازات آنها، پیش از آنکه جرمی واقع شود، براساس قواعد حقوق کیفری مورد منع جدی قرار گرفته است.
وی ادامه داد: همچنین استفاده از الگوریتمهای پیشبینی رفتار افراد میتواند در تصمیمگیری مقام قضائی کارآمد باشد که بر اساس الگوهای ارزیابی ریسک و خطر عمل میکنند و درجه خطرناکی فرد را وزندهی و ارزیابی میکند. هوش مصنوعی با پیشبینی رفتار مرتکبین جهت اعمال نهادهای ارفاقی مانند آزادی مشروط، تعلیق و غیره میتواند بسیار کارآمد باشد. همچنین در قرارهای تأمین کیفری که بر اساس درجه خطرناکی متهم و تضمین حضور وی در دادرسی است، کاربرد خواهد داشت.
چالشهای استفاده از هوش مصنوعی
وی در ادامه به چالشها و نگرانیهای موجود در زمینه استفاده از هوش مصنوعی اشاره کرد و گفت: دو چالش اصلی، مربوط به نقض حریم خصوصی و نقض دادههای شخصی افراد است که مبادا استفاده از این حجم کلان دادهها، منجر به نقض حریم شهروندان و اعمالنفوذ بر آنها شود. گرچه روزبهروز هوش مصنوعی پیشرفتهتر میشود و میتواند از یادگیری ماشین و یادگیری عمیق بیشتر بهره ببرد، حتی خودش تصمیم بگیرد چطور تحلیل کرده و رفتار کند، اما کماکان از دادههای انسانی و جامعه تأثیر میگیرد و این نگرانی وجود دارد که تحت تأثیر سوءگیریها و تعصبات انسانها در مورد مسائل مختلف قرار نگیرد.
ابوذری گفت: مهم است که از کاربردهای هوش مصنوعی در عملیات نظامی و تروریستی استفاده نشده و منجر به ظهور رباتهای تروریست و رباتهای سربازی نشود که بدون ملاحظات اخلاقی و انسانی دست به هر عمل خطرناکی میزنند. همچنین این یک نگرانی کلی است که هوش مصنوعی منجر به بیکاری و حذف انسانها و مشاغل انسانی نشود. در استفاده از این فناوری باید اخلاقیات رعایت شود. استفاده از هوش مصنوعی باید همراه با رعایت حقوق اساسی مردم، امنیت، معیشت و صیانت از شهروندان باشد. سیستمهای کنترلی و نظارتی نباید منجر به کنترل و سلطهگری بر شهروندان شوند. استفاده از این فناوری برای دولتهای نیازمند چارچوبی است که در جهت افزایش اعتماد عمومی، بهبود سطح زندگی مردم، افزایش، تسهیل و بهبود خدمات دولتها بر مردم تعریف میشود. لذا استفاده از آن نباید منجر به نقض حریم خصوصی و یا حقوق اساسی و بنیادین انسان شود.
تصویب قوانین مربوط به هوش مصنوعی
ابوذری در ادامه به روند مقررهگذاری در باب هوش مصنوعی طی چند سال اخیر اشاره کرد و گفت: با توجه به این نگرانیها، کشورهای پیشرو در این زمینه به ایجاد قوانین و وضع قوانین حداقلی در تبیین رویکرد خود و چارچوب استفاده از این فناوری کردهاند که آغاز این تلاشها را از سال 2016 در اتحادیه اروپا و ایالات متحده آمریکا میتوان ملاحظه کرد. در نهایت تبلور این مقررهگذاری به سال 2021 در قانون هوش مصنوعی توسط اتحادیه اروپا بازمیگردد. این مقرره در دوازده عنوان و 85 ماده و با رویکردی ریسکبنیان تنظیم شده است که تلاش کرده با تفکیک کاربردهای هوش مصنوعی در قالب موارد با خطر غیرقابل پذیرش مانند استفاده در سیستمهای شناسایی بیومتریک از راه دور، ایجاد سیستم رتبهبندی اجتماعی شهروندان (ممنوعیت این موارد)، پرخطر (رعایت قواعد تعیینشده با ضمانت اجرا) و کم خطر قواعدی در این زمینه ایجاد کند.
وی افزود: بهکارگیری هوش مصنوعی در علوم مختلف که منجر به تصمیمگیری در مورد آزادیها و حریم شهروندان میشود، باید تعادلی میان منافع استفاده از این فناوری و حمایت از ارزشهای بنیادین بشری ایجاد شود؛ یعنی مرکزیت و محور انسان قرار گیرد. لازم هست دو اصل در استفاده از هوش مصنوعی مورد توجه قرار بگیرد، نخست؛ این اصل نباید منجر به ایجاد سلطه و حاکمیت دولتها بر مردم و ایجاد دولتهای خودمحور شود و دوم؛ استفاده از هوش مصنوعی نباید باعث حاکمیت خود هوش مصنوعی بر انسان بهویژه در گونههای تکاملیافتهتر آن در دهههای بعدی شود.
برای رعایت حقوق شهروندی در حوزه هوش مصنوعی نیازمند انصاف و شفافیت هستیم
در ادامه دکتر بهزاد لک، ناقد اول کرسی در سخنانی پس از اشاره به تاریخچه مفهوم هوش مصنوعی بیان کرد: اصل هوش مصنوعی، کار با داده است. مشکلی که در بحث داده وجود دارد، این است که دادهکاوها معتقد هستند که 70 درصد کار دادهکاوی و استفاده از الگوریتمهای شبکه عصبی، 70 درصد زمان یک دادهکاو را میگیرد. یادگیری ماشین، یادگیری شبکه عصبی، شبکه عصبی مصنوعی، پردازش زبان طبیعی و ... از مفاهیمی هستند که در بحث هوش مصنوعی میتوانیم به آنها بپردازیم. بحث حریم خصوصی یا بحث اخلاق در استفاده از هوش مصنوعی بسیار مهم است و ما برای اینکه بتوانیم حقوق اساسی شهروندان را در این حوزه رعایت کنیم، باید مؤلفههایی همچون انصاف، پاسخگویی و شفافیت را در نظر بگیریم. این بحث نباید حق برخورداری از فرآیند قانونی، فرض بیگناهی و آزادی بیان را نقض کند. در بحث پاسخگویی نیز باید فرهنگ پاسخگویی در سطح یک سازمان ایجاد شود. بحث شفافیت یا داشتن داشبورد مدیریتی نیز باید بهدرستی و هدفمند مدیریت شود.
لک در ادامه بیان کرد: اولین قدم برای استفاده درست دستگاههای مجری قانون از این ابزارها این است که فاصله تصمیمگیری تا اقدام به صفر نزدیک شود. استفاده کردن از این شبکه عصبی بعد از وقوع جرم هیچ فایدهای ندارد. واکنش بلادرنگ و عوامل تأثیرگذار محیطی عامل دومی است که میتواند در بحث هوشمندسازی خیلی مؤثر باشد. عامل سوم، یکپارچگی و هماهنگی بین سامانههای اطلاعاتی و مرتبط با پایگاه دادههای توزیع شده است.
وی ادامه داد: برای اینکه بتوانید یک اشراف اطلاعاتی برای پشتیبانی مکانهای دارای ریسک داشته باشید، باید یک داشبورد مدیریتی مبتنی بر تحلیلهای برخط داشته باشید. امروزه تحلیلها براساس دادههایی که قبلاً در پایگاه دادههای مختلف تولید شده است، ارائه میشود. در نتیجه، با اینکه این ابزارها و فناوریها میتوانند کمک کنند، اما خروجی آنها برای تصمیمگیری مناسب نخواهد بود.
لک بیان کرد: امروزه بحث انتقال از جرایم سنتی به سمت جرایم نوظهور مطرح است. پیشبینی و پیشگیری از این جرایم مستلزم سرمایهگذاری هر چه بیشتر روی بحث مدیریت ریسک است که دارای دو فاکتور اساسی، یعنی احتمال وقوع جرم و تأثیر جرم است. معمولاً در کارهای شبکههای عصبی و دیگر الگوریتمها مفهومی به نام "دقت" داریم. تمامی فناوریهای مبتنی بر هوش مصنوعی حکم قطعی ندارند و دقت و قابلیت اطمینان آنها 100 درصد نیست. باید یک ساختار و طبقهبندی از جرایم داشته باشیم که وقتی میخواهیم تصمیمگیری کنیم یا از این ابزارها استفاده کنیم، از الگوریتمی استفاده کنیم که دقت آن از سایر الگوریتمها بیشتر باشد. ما برای اینکه بتوانیم برنامهای برای استفاده از فناوریهای هوش مصنوعی جهت پیشگیری از جرم تنظیم کنیم، باید هر سال این برنامه را اصلاح کنیم. باید انواع جرایم سنتی، سایبری و ترکیبی را بهروزرسانی و دستهبندی کنیم و برای دستهبندی این جرایم از الگوریتمهایی با دقت بالا استفاده کنیم.
وی در ادامه تأکید کرد: نقش پلیس، نهادها، سازمانها و مردم باید مشخص شود. درست است که کاربرد هوش مصنوعی شاید بیشتر به بحث مأموریتهای پلیس، پیشبینی و پیشگیری و ردیابی جرایم و ... بازگردد، اما سازمانهای دیگر هم میتوانند نقش ایفا کنند. همچنین، همواره باید بین امنیت و حریم خصوصی تعادل ایجاد شود؛ نیازهای پلیس برای هوش مصنوعی شناسایی و بهصورت ساختارمند طبقهبندی شود؛ ابتکارات جدید یا در حال اجرای هوش مصنوعی با آگاهی نهادهای مجری قانون شناسایی شود؛ متنهای قانونی اخلاقی قابلقبول برای جمعآوری و تجزیهوتحلیل دادهها برای اجرای قانون تدوین شود؛ مطالعه در مورد جرایم نوظهور که شامل استفاده مخرب از هوش مصنوعی و رباتیک است، صورت بگیرد؛ آگاهی بیشتر از مسائل هوش مصنوعی و رباتیک از طریق بهبود آموزش و تبادل اطلاعات در پلیس توسعه پیدا کند و ... .
اعتبار علمی لازم برای پیشبینی وقوع جرم از طریق زیرساخت اطلاعاتی را نداریم
سپس محمد فرجیها، ناقد دوم کرسی به ارائه دیدگاههای خود پرداخت و طی آن گفت: همیشه وقتی بحث انتقال ساختارها، نهادها و ابزارها به بسترهای حقوقی ـ سیاسی جامعه مطرح میشود، این نگرانی وجود دارد که اگر این انتقال صورت بگیرد، آیا ما هم از آنها همان استفادهای را که الان در آلمان و آمریکا میشود، میکنیم؟ اگر قرار است در قالب کرسی نظریهپردازی چنین بحثهایی مطرح شود، پژوهشگر باید توصیفی از وضعیت حقوقی ـ سیاسی جامعه ما ارائه دهد و این چالشها را در بستر نظام حقوقی ـ سیاسی ما مورد بحث قرار دهد.
فرجیها در ادامه گفت: یکی از مهمترین چالشها در حوزه هوش مصنوعی در کنترل یا پیشبینی جرم، اعتبار دادههایی است که قرار است از طریق هوش مصنوعی آنها را تحلیل کنیم. در حال حاضر، این زیرساخت آماری و اطلاعاتی که در سازمان پلیس و دستگاه قضائی داریم، اعتبار علمی لازم را برای اینکه بتوانیم از طریق آنها جرم را پیشبینی کنیم یا از وقوع جرم پیشگیری کنیم و آن را ارزیابی کنیم، ندارد. مجموع دادههایی که در ساختار پلیس و دستگاه قضائی در قالب عناوین مجرمانه و تعداد جرایم یا پروندهها شکل گرفته است، محصول عملکرد اداری و سازمانی این نهادهاست، نه واقعیتهای مجرمانه.
وی افزود: نقد دیگری که به زیرساختهای آماری و اطلاعاتی وارد است، این است که نظام آمار و اطلاعات جنایی براساس جرمهایی است که گزارش شده و متهم در آنها شناسایی، دستگیر و محاکمه شده است. جنس بزهکاریهایی که ما به آن دسترسی نداریم، به لحاظ نوع جرم ارتکابی و نیز، شخصیت مرتکبان کاملاً متفاوت از آن بخشی است که در نوک کوه یخ هستند. بررسیها نشان میدهد به دلیل سختگیریها و رفتارهای تبعیضآمیز پلیس نسبت به جوانان و گروههای حاشیهنشین، اصطکاک و تماس بخشی از جامعه با پلیس خیلی بیشتر از سایر بخشهاست؛ بدون اینکه این افراد لزوماً آدمهای خطرناکی باشند. تبعیضآمیز بودن رفتار نظام عدالت کیفری و نظارت و کنترل شدید بر گروههای مختلف جامعه، وقتی وارد هوش مصنوعی بشود، به شکل تصنعی و غیرواقعی گروههایی از افراد جامعه را خطرناک و گروههای دیگر را بسیار کمخطر نشان میدهد.
فرجیها در ادامه گفت: در بحث پیشگیری، صرف وجود و تحلیل داده منجر به پیشگیری نمیشود. ما برای پیشگیری از جرم باید یک مبنای تئوریک داشته باشیم. تعریفی که در ادبیات پلیسی از پیشگیری وجود دارد با آن تعریفی که ما از پیشگیری در جرمشناسی داریم، بسیار متفاوت است. بخش عمدهای از اقدامات پلیس برای کنترل جرم فاقد مبنای نظری است و پلیس در راستای خواست عمومی و انتظارات مردم معمولاً اقداماتی را انجام میدهد. این اقدامات نهتنها منجر به پیشگیری از جرم نمیشود، بلکه منجر به ایجاد طبقهای از مجرمان میشود.
قوه قضائیه با فرد و مجرم مواجه است و نه با ساختارها و زیرساختها
در ادامه این نشست علمی بهرام بیات، ناقد سوم کرسی به ماهیت جرم از منظر جامعهشناسی اشاره کرد و گفت: جرم ذاتاً از منظر جامعهشناسی یک معلول است. ما هر استراتژی و راهبردی که در مورد جرم اجرا کنیم، حتی اگر بتوانیم بهطور 100 درصدی موفق باشیم، یک کار اورژانسی انجام دادهایم، نه یک کار بیمارستانی که بیماریمحور بوده و در بحث پیشگیری، سلامتمحور باشد.
وی افزود: براساس اصل 156 قانون اساسی پیشگیری از جرم برعهده قوه قضائیه است. قوه قضائیه با فرد و مجرم مواجه است و نه با ساختارها و زیرساختها و اصلاً چیزی به نام پیشگیری با محوریت فرد امکانپذیر نیست؛ بنابراین، پیشگیری باید یک مرحله عقبتر در حوزه آن ساختارها و زیرساختها انجام شود. در نتیجه، ما به یکسری الزامات احتیاج داریم که این الزامات شامل امکانات و زیرساختهای سختافزاری، ملاحظات نرمافزاری، الزامات مغزافزاری و بحث سازمانافزار است.
بیات تأکید کرد: در هوشمندسازی با خطر شکلگیری جامعه انضباطی مواجه هستیم. اگر شما با تکنولوژیهای کنترلی و انضباطی نگذارید فردی مرتکب سرقت شود، ممکن است به جای سرقت که در حالت عادی یک جرم سبکتری است، یک جرم دیگری انجام دهد؛ حتی بهرغم وجود این فکر در ذهن مجرم که احتمال دستگیریاش بالاست؛ یعنی بازدارندگی را کاهش میدهد. علاوه بر این، هوش مصنوعی به همان میزان که میتواند در دستگاههای نظارتی و کنترلی دقت ایجاد کند، میتواند در مجرمین هم یک ظرفیت ایجاد کند.
انتهای پیام/