- تکنولوژی

هوش مصنوعی قوانین دادرسی فدرال آمریکا را ضربه فنی کرد

افزایش استفاده از هوش مصنوعی در ارائه شواهد و مستندات به دادگاه‌های فدرال آمریکا، سیستم قضایی این کشور را وادار کرده است که قوانینی را برای بررسی موارد تولیدشده با این فناوری وضع کنند تا در روند دادرسی پرونده‌ها اعمال شود.

 به نقل از رویترز، یک هیئت قضایی فدرال در آمریکا در تلاش است قوانینی را پیش‌نویس کند که بر اساس آن دادگاه‌‌ها باید درستی و موثق بودن شواهد دادرسی تولیدشده توسط هوش مصنوعی را بررسی کنند.

در جلسه استماع کمیته مشورتی قضایی ایالات متحده که برای بررسی قوانین دادرسی در حوزه هوش مصنوعی برگزار شد، دانشمندان علوم رایانه‌ای و دانشگاهیان درباره خطرات استفاده از هوش مصنوعی برای دستکاری ویدیو‌ها و تصاویر و ایجاد «جعل عمیق» که می‌تواند محاکمه‌ها را بی‌اعتبار کند، صحبت کردند.

ریچارد سالیوان، قاضی منطقه‌ای نیویورک از اعضای حاضر در این جلسه  گفت: «به نظر من اوضاع آنقدر‌ها هم که می‌گویند بحرانی نیست و قضات هم ابزار‌هایی برای مقابله با این موضوع در اختیار دارند.»

این قاضی همچنین اشاره کرده است که چطور تا کنون به طور جدی و گسترده از قضات خواسته نشده است که شواهد و مستندات تولیدشده توسط هوش مصنوعی را از پرونده‌ها حذف کنند. تنها مورد شناخته‌شده تا کنون، مربوط به یک ویدیوی ساخته‌شده با هوش مصنوعی بود که یک قاضی دادگاه ایالت واشینگتن ماه گذشته آن را در یک پرونده قتل بررسی کرد.

جان رابرتز، قاضی دیوان عالی ایالات متحده نیز در گزارش سالانه خود در ۳۱ دسامبر به مزایای بالقوه هوش مصنوعی برای طرفین دعوی و قضات اشاره کرده و گفته بود که قوه قضاییه باید کاربرد‌های مناسب آن را در دعاوی در نظر بگیرد.

 

کمیته مسئول بررسی شواهد در دادگاه‌های ایالات متحده در تلاش است تا دریابد که چگونه می‌توان از هوش مصنوعی در مراحل قانونی استفاده کرد و پیشنهاد‌ها را بررسی می‌کند. یکی از پیشنهاد‌ها این بود که به طرفین دعوی اجازه داده شود تا مدارک مشکوک به «جعل عمیق» را به چالش بکشند، اما این پیشنهاد غیرقابل اجرا اعلام شد.

پیشنهاد دیگر این بود که شواهد تولید‌شده توسط ماشین باید مانند شهادت یک کارشناس انسانی مورد موشکافی قرار بگیرد، اما با این پیشنهاد نیز مخالفت شد، چون قضات حاضر در جلسه معتقد بودند که چنین قانونی به وکلای مدافع اجازه می‌دهد هر گونه مدرک دیجیتال را بدون اینکه دلیلی برای زیر سؤال بردن آن وجود داشته باشد، به چالش بکشند که در نتیجه روند پیگرد قانونی را مختل خواهد کرد. دلیل دیگر مخالفت این بود که به دلیل غیرشفاف بودن الگوریتم‌ها، این خطر وجود دارد که حقوقدانان نتوانند شواهد تولیدشده توسط هوش مصنوعی را به چالش بکشند.

هیئت هشت نفرۀ این جلسه که مسئول تهیه پیش‌نویس اصلاحات مربوط به قوانین دادرسی فدرال بودند، در نهایت به این نتیجه رسیدند که طرفداران یک طرح پیشنهادی مرتبط با هوش مصنوعی را به هیئت تصمیم‌گیری ارائه دهند. برخی از قضات نیز این پیشنهاد را مطرح کردند که قوانین قدیمی و پیش از رونق فعلی هوش مصنوعی بازبینی شوند.

این جلسه در بحبوحه تلاش‌های گسترده دادگاه‌های فدرال و ایالتی برای رسیدگی به افزایش کاربرد هوش مصنوعی مولد و از جمله برنامه‌هایی مانند چت جی‌پی‌تی در پرونده‌های قضایی برگزار شد.