چهرهشناسان پلیس با استفاده از هوش مصنوعی به دنبال متهمان هستند در این میان خطر سوگیری هوش مصنوعی میتواند باعث اشتباه فاحش شود.
پاژ نیوز | موارد بالقوه مشکلساز زیادی برای استفاده از هوش مصنوعی وجود دارد و یکی از آنها استفاده تولید طرحهای شناسایی چهره متهم است.
توسعه دهندگان مستقل برنامه ای به نام “Forensic Sketch AI-rtist” ایجاد کرده اند که از متن DALL-E 2 OpenAI برای تصویربرداری از هوش مصنوعی برای ایجاد طرح های ترکیبی “فوق العاده واقعی” از مظنونان استفاده میکند.
به گفته توسعهدهندگان، آنها هنوز این برنامه را منتشر نکردهاند، اما در حال برنامهریزی برای تماس با ادارات پلیس برای داشتن دادههای ورودی برای آزمایش هستند.
این برنامه با ارائه یک الگویدریافت اطلاعات به کاربران کمک میکند که جنسیت، سن، رنگ پوست، مو، ابرو، چشم، بینی، ریش و حتی شرح فک مظنون را وارد کنند؛ پس از پر کردن این فرم تنها کاری که کاربر باید انجام دهد این است که تعداد تصاویر مورد نظر خود را انتخاب کند و روی گزینه “تولید نمایه” کلیک کند.
از آنجا، سیستم با استفاده از DALL-E OpenAI، طرح هایی را تولید می کند آیا باعث خشم فرشته عدالت نخواهد شد.
عدالت قربانی سوگیری هوش مصنوعی
به گفته متخصصان، این رویکرد ذاتاً ناقص است و با نحوه به خاطر سپردن چهرهها توسط انسان ها در تضاد است.
جنیفر لینچ از بنیاد Electronic Frontier اظهار کرد:«تحقیقات نشان داده است که انسانها چهرهها را بهطور کلنگر به یاد میآورند، نه از طریق ویژگی به ویژگی».
وی افزود: «فرایند طرحی که بر توصیف ویژگیهای فردی مانند این برنامه هوش مصنوعی متکی است، میتواند منجر به چهرهای شود که بهطور قابل توجهی متفاوت از چهره مجرم است. به خصوص اگر به طور غیرعادی متکی بر هوش مصنوعی باشد.
این حتی به پتانسیل برنامه هوش مصنوعی برای تشدید تعصبات، به ویژه تعصبات نژادی که حتی می تواند در طرح های ساخته شده توسط انسان نیز به اندازه کافی بد باشد، محدود نمیشود. در واقع شواهدی وجود دارد که DALL-E 2 OpenAI نتایج کلیشهای و آشکار نژادپرستانه و زنستیزانه را به همراه دارد.
معمولاً، این گروههای به حاشیه رانده شدهاند که در حال حاضر به دلیل سوگیریهای موجود در مجموعه دادهها، به دلیل فقدان نظارت، حتی بیشتر توسط این فناوریها به حاشیه رانده شدهاند، زیرا بازنماییهای زیادی از افراد رنگین پوست در اینترنت وجود دارد که در حال حاضر بسیار زیاد هستند.
ساشا لوچونی، محقق Hugging Face، که شرکت و جامعه آنلاین پروژههای AI منبع باز را انجام میدهد توضیح داد: ترکیب نژادپرستانه و بسیار ناعادلانه. “این مانند یک نوع تاثیر مرکب است.”
اثر نهایی این روندها زنجیرهای از تعصبات است: شاهد، پلیسی که از آنها سؤال میکند، و اکنون، یک هوش مصنوعی معیوب و متمرکز که میتواند تعصبات ذاتی خود را به مشتریان بالقوه در سراسر کشور منتشر کند.
.