خطر ایجاد رژیم منع اشاعه هوش مصنوعی/چالش هوشمندسازی فرآیندها در قوه قضائیه

اجتماعی به گزارش خبرگزاری تسنیم، هوش مصنوعی در سال‌های اخیر از یک مفهوم صرفاً فناورانه فراتر رفته و به عنصری اثرگذار در حکمرانی، امنیت، عدالت و حقوق شهروندی تبدیل شده است. نفوذ روزافزون این فناوری در ابعاد مختلف زندگی اجتماعی، اقتصادی و قضائی، پرسش‌ها و چالش‌های نوینی را پیش‌ِروی نظام‌های حقوقی و قضائی قرار داده است؛ پرسش‌هایی که پاسخ به آن‌ها، نیازمند نگاهی هم‌زمان واقع‌بینانه، آینده‌نگر و مبتنی بر ملاحظات حقوقی و اخلاقی است.

دستگاه قضایی، به‌عنوان یکی از ارکان اصلی تأمین عدالت و امنیت اجتماعی، ناگزیر از مواجهه فعال با فرصت‌ها و تهدیدهای ناشی از هوش مصنوعی است. از یک سو، این فناوری می‌تواند با هوشمندسازی فرآیندها، کاهش اطاله دادرسی، تسهیل دسترسی مردم به خدمات قضائی و کمک به پیشگیری و کشف جرم، کارآمدی نظام قضائی را افزایش دهد؛ و از سوی دیگر، در صورت فقدان ضوابط و زیرساخت‌های لازم، می‌تواند زمینه‌ساز نقض حریم خصوصی، جعل داده، اخلال در اصالت ادله و بروز جرایم نوظهور شود.

در همین چارچوب، در گفت‌وگویی تفصیلی با آقای بهرام حیدری، قاضی و رئیس شعبه 1053 دادگاه کیفری 2 تهران، به بررسی ابعاد مختلف ورود هوش مصنوعی به حوزه قضا و هوشمندسازی فرآیندها در سیستم قضائی پرداخته‌ایم. بخش اول این گفت‌وگو روز گذشته با عنوان «هشدار درباره سوءاستفاده از هوش مصنوعی در رقابت‌های انتخاباتی» منتشر شد که مسائلی ازجمله ملزومات و موانع هوشمندسازی در قوه قضائیه، دادرسی الکترونیک، تهدیدات فعلی هوش مصنوعی مانند نقض حریم خصوصی مورد بحث قرار گرفت.

قوانین فعلی توان پیشگیری و صیانت در برابر تهدیدات هوش مصنوعی را دارند؟ بخش دوم این مصاحبه را در ذیل می‌خوانید:

تسنیم: با شکل‌گیری سازمان هوش مصنوعی و وضع قوانین مرتبط با این حوزه، این قوانین تا چه اندازه می‌توانند در مواجهه با تهدیدها مؤثر باشند؟ به‌عنوان نمونه، قانون مصوب سال 1383 ـ اگر اشتباه نکنم ـ با توجه به شرایط فعلی، تا چه حد می‌تواند برای مرجع قضایی کارآمد باشد یا در موضوعاتی از این دست کمک‌کننده واقع شود؟

اجازه بدهید سؤال شما را با طرح یک پرسش دیگر پاسخ دهم. در حال حاضر، چت‌جی‌پی‌تی یکی از چت‌بات‌های مهم دنیا است که شاید بسیاری از افراد از آن استفاده می‌کنند؛ هرچند خود من استفاده نمی‌کنم، اما اساتید و دانشجویان از آن بهره می‌برند. این فناوری، اگر اشتباه نکنم، کمتر از سه سال است که به‌طور جدی وارد عرصه شده است. حال ببینید در همین مدت کوتاه چه میزان توسعه یافته و چه تحولات عظیمی را رقم زده است.

امروز حجم گسترده‌ای از محصولات مبتنی بر این فناوری عرضه شده و حتی فیلم‌های سینمایی با شخصیت‌هایی کاملاً مبتنی بر هوش مصنوعی در حال تولید هستند؛ بازیگرانی که به‌طور کامل با هوش مصنوعی خلق شده‌اند و از آن‌ها در فیلم‌ها و سریال‌ها استفاده می‌شود. ما به نقطه‌ای رسیده‌ایم که چنین تحولاتی به‌طور گسترده در حال وقوع است.

حال پرسش اینجاست که آیا قوانین فعلی ما توانایی پیشگیری یا صیانت در برابر این مسائل را دارند؟ فرایند تبدیل یک مسئله به قانون، ذاتاً زمان‌بر است. قانون‌گذاری در همه کشورهای دنیا به دلیل اصل تفکیک قوا، روندی تدریجی و طولانی دارد. قانون یا باید در قالب «طرح» ارائه شود یا در قالب «لایحه». قوانین حاصل از «طرح نمایندگان» معمولاً از انسجام و استحکام لازم برخوردار نیستند.

قوانینی از این جنس، معمولاً اگر در قالب «طرح» ارائه شوند، از انسجام و استحکام لازم برخوردار نیستند؛ زیرا توسط نمایندگان مجلس تهیه می‌شوند و این نمایندگان الزاماً تخصص کافی در این حوزه‌های فنی و پیچیده ندارند. همان‌طور که شما اشاره کردید، در بسیاری از کشورهای دیگر، بخش عمده زمان صرف مطالعه و تدوین لایحه می‌شود؛ اما این‌گونه نیست که یک طرح در شش ماه نوشته شود و سپس سه سال برای تصویب زمان ببرد.

در برخی موارد، روند برعکس است؛ برای مثال، در موضوعی مانند قانون حجاب، لایحه‌ای با 15 ماده ارائه شد، اما پس از ورود به مجلس، به بیش از 70 ماده افزایش یافت. این روند، در برخی موارد بدون کارشناسی کافی انجام می‌شود و گاه ملاحظات سیاسی نیز در آن دخیل است.

بحث لایحه این‌گونه است که در یک بدنه کارشناسی تدوین می‌شود. فرض کنید تعدادی از قضات دعوت می‌شوند و متن در کمیسیون‌های مختلف، از جمله کمیسیون حقوقی و قضایی یا کمیسیون‌های مرتبط، مورد بررسی و بعضاً چکش‌کاری قرار می‌گیرد و سپس آماده طرح در صحن مجلس می‌شود. در این مرحله، گاهی یک نماینده پیشنهادی مطرح می‌کند که ممکن است در ظاهر پیشنهاد خوبی باشد، اما باید توجه داشت که مجموعه قوانین، به‌ویژه قوانین مادر، از مواد به‌هم‌پیوسته‌ای تشکیل شده‌اند که مانند یک ساختمان، یک شاکله منسجم را شکل می‌دهند. اگر یکی از پایه‌های این ساختار دچار اختلال شود، کل شاکله به هم می‌ریزد و با یک تغییر ناهماهنگ، تمام کار کارشناسی‌ای که دو یا سه سال برای آن زمان صرف شده، از بین می‌رود.

قانون زمانی که وارد مرحله اجرا می‌شود، ممکن است با مشکلات اجرایی مواجه شود، اثربخشی لازم را نداشته باشد یا به‌سرعت کهنه شود و خود به ایجاد چالش‌های اجرایی جدید منجر شود. برای نمونه، قانون آیین دادرسی کیفری در سال 1392 تصویب شد، اما برای فراهم شدن سازوکارهای اجرایی، در سال 1394 به مرحله اجرا رسید. نکته قابل توجه این بود که این قانون پیش از اجرای کامل، در موضوع وکلای مورد تأیید رئیس قوه قضاییه دچار اصلاح شد؛ اصلاحی که برای ما و در سطح کشور، تبعاتی به همراه داشت و از منظر حقوق بشری، محدودیت‌هایی در حق دسترسی به وکیل ایجاد کرد. این موضوع پیامدهای دیگری نیز داشت؛ به‌گونه‌ای که برای برخی افراد آثار مثبت و برای برخی دیگر آثار منفی به دنبال داشت. همچنین، در مواردی از این شرایط برای افزایش حق‌الوکاله‌ها سوءاستفاده شد.

این قانون پس از اصلاح، قرار بود به‌صورت آزمایشی اجرا شود، اما بدون تعیین تکلیف مشخص، به قانون دائمی تبدیل شد. نمونه دیگر، قانون مجازات اسلامی مصوب 1378 است که برای چند سال متوالی تمدید شد. به‌طور کلی، فرایند قانون‌نویسی در همه حوزه‌ها کند است، اما در حوزه هوش مصنوعی، ما ناگزیر از یک رقابت جدی و مستمر هستیم.

در همین راستا، در سخنان اخیر رئیس قوه قضائیه در دیدار با فعالان حوزه هوش مصنوعی نیز بر این موضوع تأکید شد و از بخش خصوصی درخواست کمک شد تا با ورود به این عرصه، دستگاه قضائی را چه در زمینه ابزارهای فنی و چه در حوزه کارشناسی یاری کند؛ همان مواردی که شما نیز به آن اشاره کردید. همچنین، اعتقاد مقام معظم رهبری بر این است که در این علوم باید در لبه دانش قرار داشته باشیم، چرا که این حوزه از اهمیت بالایی برخوردار است. هر روزی که فرصت را از دست بدهیم، این تهدیدها به‌صورت فزاینده گسترش خواهد یافت.

یکی از تهدیدهای مهمی که در این حوزه وجود دارد، این است که کشورهایی که به فناوری هوش مصنوعی دسترسی دارند و در تولید آن پیشتاز هستند، مسیری مشابه آنچه در مورد سلاح‌های هسته‌ای طی شد را دنبال کنند؛ یعنی ابتدا خودشان این فناوری را توسعه دهند و سپس با ایجاد سازوکارهای محدودکننده، دیگران را از دسترسی به آن بازدارند. همان‌گونه که پس از تولید سلاح‌های هسته‌ای، رژیم منع اشاعه ایجاد شد تا سایر کشورها به این فناوری دسترسی نداشته باشند.

اگر ما در این مسیر عقب بمانیم، با محدودیت‌های جدی مواجه خواهیم شد. اخیراً در سازمان ملل مطالبی مطرح شده است مبنی بر ایجاد نهادی مشابه آژانس بین‌المللی انرژی اتمی، اما در حوزه هوش مصنوعی. در صورت شکل‌گیری چنین ساختارهایی، اگر ما عقب‌مانده باشیم و سهم و حق خود را تثبیت نکرده باشیم، ممکن است محدودیت‌هایی برایمان ایجاد شود؛ مشابه آنچه در چارچوب آژانس انرژی هسته‌ای و رژیم منع اشاعه رخ داد. این احتمال وجود دارد که در آینده، برای استفاده از بسیاری از فناوری‌هایی که به آن‌ها نیاز داریم، یا با محدودیت مواجه شویم یا ناچار به پرداخت هزینه‌های سنگین باشیم، صرفاً به این دلیل که این فناوری‌ها در اختیار دیگران قرار دارد.

بنابراین، هر قانونی که در حوزه هوش مصنوعی تصویب می‌کنیم، هر ساختار یا تشکیلاتی که ایجاد می‌شود و هر نوع نظارتی که اعمال می‌شود، باید از روندهای عادی و زمان‌بر خارج شود. در این مسیر، استفاده از اختیارات مقام معظم رهبری برای ایجاد قوانین و سازوکارهای لازم، به‌منظور جلوگیری از عقب‌ماندگی، امری ضروری است. یکی از پرسش‌هایی که امروز مطرح می‌شود این است که چرا قوه قضائیه یا پلیس نمی‌توانند به‌درستی از ابزارهای هوش مصنوعی در شناسایی عوامل جرم، کشف جرایم و فرایندهای شناسایی استفاده کنند.

در عین حال، هوش مصنوعی صرفاً تهدید نیست و می‌تواند فرصت‌های بسیار مهمی برای توسعه کشور فراهم کند. مسئله اصلی این است که چگونه می‌توان هم‌زمان از این فرصت‌ها بهره برد و حقوق کاربران فضای مجازی ـ که امروز به‌شدت با هوش مصنوعی درهم‌تنیده شده است ـ را حفظ کرد. در این زمینه، طرح‌هایی مانند «صیانت» مطرح شده‌اند که شاید در نحوه طرح و تبیین، دچار اشکال بوده‌اند؛ اما اصل این موضوع در همه کشورها وجود دارد و هیچ کشوری جامعه خود را بدون ضابطه رها نمی‌کند.

برای مثال، تهدیدهای موجود برای نوجوانان یکی از دغدغه‌های جدی است. چندی پیش، اگر اشتباه نکنم، در استرالیا دسترسی افراد زیر 16 سال به فضای مجازی و داشتن حساب کاربری محدود یا ممنوع شد و حتی در برخی کشورها، بحث افزایش این محدودیت تا سن 18 سال نیز مطرح است. بنابراین، اصل این سیاست‌ها مسبوق به سابقه است.

یکی دیگر از تهدیدهای مهم، جهت‌دهی افکار عمومی از طریق هوش مصنوعی است. این فناوری با بهره‌گیری از حوزه شناخت عصبی، کاربران را شناسایی می‌کند و از طریق تحلیل درک بصری و علایق مخاطبان، تشخیص می‌دهد که آن‌ها به چه محتواها و وب‌سایت‌هایی علاقه‌مند هستند. سپس محتوایی متناسب با این علایق ارائه می‌دهد و از این طریق، دیدگاه‌ها و منویات خاصی را به کاربران القا می‌کند.

در چنین شرایطی، هر اقدامی که در راستای حفظ منافع مردم و صیانت از آنان انجام شود، ممکن است به‌گونه‌ای جلوه داده شود که گویی هدف آن محدودسازی یا نقض حریم خصوصی است. این رویکرد می‌تواند نوعی مقاومت اجتماعی در مخاطبان ایجاد کند و آن‌ها را در تقابل با حاکمیت قرار دهد. اگر در این زمینه به‌درستی عمل نشود، یکی از مهم‌ترین تهدیدهای هوش مصنوعی، تأثیرات شناختی عمیقی خواهد بود که بر کاربران می‌گذارد؛ موضوعی که متأسفانه هم‌اکنون نیز با آن درگیر هستیم.

تسنیم: اگر قوانین موجود، از جمله قانون مجازات و سایر قوانین مرتبط را دسته‌بندی کنیم، به نظر شما کدام‌یک در اولویت قرار دارند که با توجه به مقوله هوش مصنوعی نیازمند به‌روزرسانی یا حتی جرم‌انگاری جدید هستند؟

در حوزه جرم‌انگاری، ما تا حدی قانون جرایم رایانه‌ای را در اختیار داریم و می‌توان بسیاری از این موارد را ذیل همان قانون پوشش داد. البته ممکن است نیاز باشد چند ماده مشخص در این زمینه به آن افزوده شود تا مسئله به‌طور مؤثرتری حل‌وفصل شود. نمی‌توان موضوعات جدیدی مانند جعل داده یا کلاهبرداری از طریق دسترسی غیرمجاز رایانه‌ای را نادیده گرفت و در این موارد امکان برخورد قانونی وجود دارد. شاید هنوز با یک بحران تمام‌عیار مواجه نباشیم، اما در حوزه دادرسی، قطعاً با چالش‌های جدی روبه‌رو هستیم و لازم است در این زمینه توجه بیشتری صورت گیرد.

دیجیتالی‌شدن و هوشمندسازی فرآیندها در قوه قضائیه با چالش جدی روبه‌روست.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

وکیل یار+ هوش مصنوعی