افزایش استفاده از هوش مصنوعی در ارائه شواهد و مستندات به دادگاههای فدرال آمریکا، سیستم قضایی این کشور را وادار کرده است که قوانینی را برای بررسی موارد تولیدشده با این فناوری وضع کنند تا در روند دادرسی پروندهها اعمال شود.
به نقل از رویترز، یک هیئت قضایی فدرال در آمریکا در تلاش است قوانینی را پیشنویس کند که بر اساس آن دادگاهها باید درستی و موثق بودن شواهد دادرسی تولیدشده توسط هوش مصنوعی را بررسی کنند.
در جلسه استماع کمیته مشورتی قضایی ایالات متحده که برای بررسی قوانین دادرسی در حوزه هوش مصنوعی برگزار شد، دانشمندان علوم رایانهای و دانشگاهیان درباره خطرات استفاده از هوش مصنوعی برای دستکاری ویدیوها و تصاویر و ایجاد «جعل عمیق» که میتواند محاکمهها را بیاعتبار کند، صحبت کردند.
ریچارد سالیوان، قاضی منطقهای نیویورک از اعضای حاضر در این جلسه گفت: «به نظر من اوضاع آنقدرها هم که میگویند بحرانی نیست و قضات هم ابزارهایی برای مقابله با این موضوع در اختیار دارند.»
این قاضی همچنین اشاره کرده است که چطور تا کنون به طور جدی و گسترده از قضات خواسته نشده است که شواهد و مستندات تولیدشده توسط هوش مصنوعی را از پروندهها حذف کنند. تنها مورد شناختهشده تا کنون، مربوط به یک ویدیوی ساختهشده با هوش مصنوعی بود که یک قاضی دادگاه ایالت واشینگتن ماه گذشته آن را در یک پرونده قتل بررسی کرد.
جان رابرتز، قاضی دیوان عالی ایالات متحده نیز در گزارش سالانه خود در ۳۱ دسامبر به مزایای بالقوه هوش مصنوعی برای طرفین دعوی و قضات اشاره کرده و گفته بود که قوه قضاییه باید کاربردهای مناسب آن را در دعاوی در نظر بگیرد.
کمیته مسئول بررسی شواهد در دادگاههای ایالات متحده در تلاش است تا دریابد که چگونه میتوان از هوش مصنوعی در مراحل قانونی استفاده کرد و پیشنهادها را بررسی میکند. یکی از پیشنهادها این بود که به طرفین دعوی اجازه داده شود تا مدارک مشکوک به «جعل عمیق» را به چالش بکشند، اما این پیشنهاد غیرقابل اجرا اعلام شد.
پیشنهاد دیگر این بود که شواهد تولیدشده توسط ماشین باید مانند شهادت یک کارشناس انسانی مورد موشکافی قرار بگیرد، اما با این پیشنهاد نیز مخالفت شد، چون قضات حاضر در جلسه معتقد بودند که چنین قانونی به وکلای مدافع اجازه میدهد هر گونه مدرک دیجیتال را بدون اینکه دلیلی برای زیر سؤال بردن آن وجود داشته باشد، به چالش بکشند که در نتیجه روند پیگرد قانونی را مختل خواهد کرد. دلیل دیگر مخالفت این بود که به دلیل غیرشفاف بودن الگوریتمها، این خطر وجود دارد که حقوقدانان نتوانند شواهد تولیدشده توسط هوش مصنوعی را به چالش بکشند.
هیئت هشت نفرۀ این جلسه که مسئول تهیه پیشنویس اصلاحات مربوط به قوانین دادرسی فدرال بودند، در نهایت به این نتیجه رسیدند که طرفداران یک طرح پیشنهادی مرتبط با هوش مصنوعی را به هیئت تصمیمگیری ارائه دهند. برخی از قضات نیز این پیشنهاد را مطرح کردند که قوانین قدیمی و پیش از رونق فعلی هوش مصنوعی بازبینی شوند.
این جلسه در بحبوحه تلاشهای گسترده دادگاههای فدرال و ایالتی برای رسیدگی به افزایش کاربرد هوش مصنوعی مولد و از جمله برنامههایی مانند چت جیپیتی در پروندههای قضایی برگزار شد.