چت جی پی تی، گراک و کلود قاضی شدند
پارس آی سی تی: دانشجویان رشته حقوق دانشگاه کارولینای شمالی ماه گذشته یک دادگاه شبیه سازی برگزار کردند تا دریابند مدلهای هوش مصنوعی چه طور عدالت را برقرار می کنند.
به گزارش پارس آی سی تی به نقل از رجیستر، دادگاهی شبیه سازی شده در ایالات متحده با تأکید بر نقش هوش مصنوعی در نظام قضائی اجرا شد. در این دادگاه ساختگی، هنری جاستوس، دانش آموز ۱۷ ساله سیاه پوست، به بهتان سرقت از دبیرستانی محلی محاکمه شد. در این مدرسه، دانش آموزان سیاه پوست تنها ۱۰ درصد از جمعیت را تشکیل می دادند. این شبیه سازی بر مبنای پرونده ای واقعی در ایالت کارولینا طراحی شده بود؛ پرونده ای که در آن قاضی، متهم را گناهکار شناخته بود. جوزف کندی، استاد حقوق و از اعضاء «کلینیک عدالت نوجوانان دانشگاه کارولینا» که در رسیدگی به پرونده واقعی نیز حضور داشت، در این آزمایش نقش قاضی را بر عهده گرفت. این دادگاه فرضی در سال ۲۰۳۶ میلادی و بعد از تصویب «قانون عدالت کیفری هوش مصنوعی» مصوب ۲۰۳۵ اجرا شد. هدف از اجرای آن، بررسی دستاوردهای احتمالی استفاده از مدلهای هوش مصنوعی در فرآیندهای قضائی و برانگیختن تفکر عمومی در رابطه با حدود و خطرات چنین کاربردهایی بود. شهادت اصلی پرونده از جانب ویکتور فلچر، نوجوان ۱۵ ساله سفیدپوست، ارایه شد. وی در دادگاه اظهار داشت: «جاستوس پشت سرم ایستاده بود تا نتوانم فرار کنم. دانش آموز سیاه پوست دیگری از من پول خواست. فکر کردم نمی توانم مقابله کنم. آقای جاستوس از من بزرگ تر بود و هیچ شانسی نداشتم.» وکیل مدافع استدلال کرد که حضور متهم و ظاهر او را نمی توان دلیلی کافی برای اثبات قصد مجرمانه دانست و این موارد از «حد تردید معقول» فراتر نمی روند. در ادامه، سه مدل هوش مصنوعی شامل ChatGPT، Grok و Claude وظیفه بررسی شواهد و استدلال ها را بر عهده گرفتند. در ابتدا، ChatGPT رأی به گناهکار بودن متهم داد، در صورتیکه دو مدل دیگر مردد بودند. اما بعد از تحلیل داده های ارایه شده از جانب «هیئت منصفه» شبیه سازی شده، ChatGPT نظر خویش را تغییر داد و رأی به بی گناهی داد. در پی آن، Grok و Claude نیز رأی خویش را با آن هماهنگ کردند. کندی در اطلاعیه ای بعد از برگزاری دادگاه اظهار کرد: «هرچند من همچنان مخالف استفاده از هوش مصنوعی در محاکم کیفری هستم، اما این پرسش برایم مطرح شده که آیا اشخاصی که امروز از این تکنولوژی ها برای مشاوره یا تصمیم گیری شخصی استفاده می نمایند، امکان دارد در آینده قضاوت های هوش مصنوعی را نیز بی چون وچرا قبول کنند یا نه.» به گزارش رجیستر، عملکرد هوش مصنوعی در نظام قضائی تا امروز همواره بدون خطا نبوده است. تابحال در بیشتر از ۵۰۰ پرونده، تصمیم های مبتنی بر هوش مصنوعی به اشتباه، تحریم یا حتی شرمساری منجر گردیده است. در عین حال، موفقیتهای محدود آن نیز توجه گسترده ای را برانگیخته اند. طبق مطالعه «اتحادیه وکلای آمریکا» در سال ۲۰۲۴، حدود ۳۰ درصد وکلا اعلام نموده اند که در کار خود از ابزارهای هوش مصنوعی استفاده می نمایند.
به طور خلاصه در این دادگاه ساختگی، هنری جاستوس، دانش آموز ۱۷ ساله سیاه پوست، به بهتان سرقت از دبیرستانی محلی محاکمه شد. آقای جاستوس از من بزرگ تر بود و هیچ شانسی نداشتم.
منبع: ict-pars.ir
این پست را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این پست