هوش مصنوعی تهدیدی برای دموکراسی


فناوری های جدید دولت ها را به قابلیت های بی سابقه ای برای نظارت، ردگیری و زیرنظر گرفتن تک تک مردم مجهز می کنند. حتی دولت ها در دمکراسی های دارای سنت های قدرتمند حاکمیت قانون نیز خود را در معرض اغوای استفاده از این قابلیت های جدید می یابند.

به گزارش گروه رسانه های خبرگزاری تسنیم، مایکروسافت غول فناوری آمریکایی، برای ساخت سیستم های هوش مصنوعی که به طور بالقوه می توانند نظارت دولت و قابلیت های سانسور را تقویت کنند، دست به دست یک دانشگاه نظامی چینی داده است. دو سناتور آمریکایی علنا این مشارکت را محکوم کرده اند، اما چیزی که دانشگاه فناوری دفاع ملی چین از مایکروسافت می خواهد تنها نگرانی موجود نیست.

آنطور که تحقیقات من نشان می دهد، سرکوب دیجیتال فراگیر عمیقا بر رابطه بین شهروند و دولت تاثیر می گذارد. فناوری های جدید دولت ها را به قابلیت های بی سابقه ای برای نظارت، ردگیری و زیرنظر گرفتن تک تک مردم مجهز می کنند. حتی دولت ها دردمکراسی ها دارای سنت های قدرتمند حاکمیت قانون نیز خود را در معرض اغوای استفاده از این قابلیت های جدید می یابند.

افزایش اتکا بر ابزارهای هوش مصنوعی در آمریکا

سیستم های هوش مصنوعی دردنیای مدرن در همه جا وجود دارند و کارکرد تلفن های هوشمند، موتورهای جستجوی اینترنتی، دستیاران صوتی دیجیتال و پخش فیلم های نتفلیکس را عملی می کنند. خیلی از مردم متوجه نمی شوند که به لطف میزان همواره روزافزونی از داده هایی که باید مورد تجزیه و تحلیل قرار بگیرند، بهبود یافتن الگوریتم ها و پیشرفت تراشه های رایانه ای، هوش مصنوعی با چه سرعت سرسام آوری درحال گسترش است.

هر بار که اطلاعات بیشتری در دسترس قرار می گیرد و تجزیه و تحلیل آنها ساده تر می شود، دولت ها– و نه تنها دولت های تمامیت گرا – بیشتر به آنها علاقه مند می شوند. برای مثال در ایالات متحده دهه 1970 شاهد افشاگری هایی دال بر این بودیم که سازمان های دولتی – همچون اف بی آی، سیا و سازمان امنیت ملی – شبکه های نظارتی داخلی گران قیمتی را برای نظارت و آزار و اذیت مدافعان حقوق مدنی، فعالان سیاسی و گروه های آمریکاییان بومی به کار گرفته اند. این مسائل کاملا به گذشته نپیوسته اند: امروز فناوری دیجیتال، توانایی سازمان های دولتی را حتی برای نظارت های فراگیرتر بیش از پیش تقویت کرده است.

برای مثال پلیس آمریکا با اشتیاق از فناوری های هوش مصنوعی استقبال کرده است. آنها شروع به استفاده از نرم افزاری کرده اند که هدف آن پیش بینی این است که جرایم بیشتر در چه مکانی اتفاق خواهند افتاد تا تصمیم بگیرند ماموران پلیس را برای گشتزنی به این مکان ها اعزام کنند. آنها همچنین از فناوری تشخیص چهره و تجزیه و تحلیل دی ان ای در تحقیقات جنایی خود استفاده می کنند. اما تجزیه و تحلیل این سیستم ها نشان می دهد که داده هایی که این سیستم ها با آنها آموزش داده می شوند، معمولا جهت گیری دارند، مثل این نتیجه گیری نادرست که احتمال ارتکاب آفریقایی آمریکاییان به جرایم مختلف بیشتر از سایر گروه هاست.

نظارت هوش مصنوعی در سراسر جهان

در کشورهای تمامیت خواه سیستم های هوش مصنوعی را می توان مستقیما برای اعمال کنترل و نظارت داخلی به کار گرفت و سریع تر و موثرتر به نیروهای امنیت داخلی برای پردازش حجم بزرگی از داده ها – از جمله پست های شبکه های اجتماعی، پیام های متنی، ایمیل ها و تماس های تلفنی – کمک کرد. پلیس می تواند گرایش های اجتماعی را شناسایی کند و افراد مشخصی را که ممکن است تهدیدی برای رژیم به شمار روند، بر اساس اطلاعاتی که این سیستم ها به دست می آورند شناسایی کند.

هایکویژن، ییتو و سن تایم در حال به کار بردن دوربین های تشخیص چهره میدانی برای استفاده در مکان هایی نظیر سنگاپور هستند که قرار است یک برنامه نظارتی را با 110 هزار دوربین نصب شده روی تیرهای چراغ برق سراسر این شهر- کشور راه اندازی کند. زیمبابوه در حال ایجاد یک دیتابیس تصویری ملی است که می تواند برای تشخیص چهره به کارگرفته شود.

هوش مصنوعی و اطلاعات نادرست

هوش مصنوعی علاوه بر ارائه قابلیت های نظارتی که هم فراگیر و هم سود آور هستند، می تواند به حکومت های سرکوبگر کمک کند تا در اطلاعات موجود دستکاری کنند و اطلاعات نادرستی را انتشار دهند. این برنامه ها می توانند خودکار یا نیمه خودکار باشند و پیام های به شدت شخصی سازی شده ای را به کار بگیرند که به نفع – یا علیه - گروه های خاصی از مردم جهت گیری شده اند.

بعلاوه هوش مصنوعی شالوده یک فناوری را شکل می دهد که معمولا «جعل عمیق» نامیده می شود و در آن الگوریتم ها، جعلیات ویدئویی و صوتی واقع نمایانه ای را تولید می کنند. گل آلود کردن آب بین حقیقت و خیال می تواند در یک انتخابات با رقابت تنگاتنگ سودمند بیفتد، آنجا که یکی از نامزدها این توانایی را دارد که ویدئوهای جعلی تولید کند که رقیب وی را در حال انجام کارها و گفتن حرف هایی نشان می دهد که عملا رخ نداده اند.

از نظر من سیاست سازان در دمکراسی ها باید با دقت درباره خطرات سیستم های هوش مصنوعی در جوامع خودشان و بر مردمی که تحت حاکمیت رژیم های تمامیت خواه در سراسر جهان زندگی می کنند اندیشه کنند. اما این فقط کشورهای تمامیت خواه نیستند که احساس می کنند به این سمت کشیده می شوند. همچنین فقط شرکت های چینی نیستند که این فناوری ها را گسترش می دهند: بسیاری از شرکت های آمریکا از جمله مایکروسافت، اما آی بی ام، سیسکو و ترمو فیشر نیز قابلیت های پیچیده ای را در اختیار دولت های ناخوشایند قرار داده اند. سوء استفاده از هوش مصنوعی تنها به کشورهای خودکامه محدود نمی شود.
نویسنده:استیون فلدستاین (Steven Feldstein) استاد دانشکده خدمات عمومی در دانشگاه ایالتی بویس

منبع:فارس

انتهای پیام/

بازگشت به صفحه رسانه‌ها