سوگیری هوش مصنوعی

هراس از سوگیری‌ هوش مصنوعی با تصمیم نژادپرستانه

چهره‌شناسان پلیس با استفاده از هوش مصنوعی به دنبال متهمان هستند در این میان خطر سوگیری‌ هوش مصنوعی می‌تواند باعث اشتباه فاحش شود.

پاژ نیوز | موارد بالقوه مشکل‌ساز زیادی برای استفاده از هوش مصنوعی وجود دارد و یکی از آنها استفاده تولید طرح‌های شناسایی چهره متهم است.

توسعه دهندگان مستقل برنامه ای به نام “Forensic Sketch AI-rtist” ایجاد کرده اند که از متن DALL-E 2 OpenAI برای تصویربرداری از هوش مصنوعی برای ایجاد طرح های ترکیبی “فوق العاده واقعی” از مظنونان استفاده می‌کند.

به گفته توسعه‌دهندگان، آنها هنوز این برنامه را منتشر نکرده‌اند، اما در حال برنامه‌ریزی برای تماس با ادارات پلیس برای داشتن داده‌های ورودی برای آزمایش هستند.

 این برنامه با ارائه یک الگویدریافت اطلاعات به کاربران کمک می‌کند که جنسیت، سن، رنگ پوست، مو، ابرو، چشم، بینی، ریش و حتی شرح فک مظنون را وارد کنند؛ پس از پر کردن این فرم تنها کاری که کاربر باید انجام دهد این است که تعداد تصاویر مورد نظر خود را انتخاب کند و روی گزینه “تولید نمایه” کلیک کند.

از آنجا، سیستم با استفاده از DALL-E OpenAI، طرح هایی را تولید می کند آیا باعث خشم فرشته عدالت نخواهد شد.

عدالت قربانی سوگیری‌ هوش مصنوعی

به گفته متخصصان، این رویکرد ذاتاً ناقص است و با نحوه به خاطر سپردن چهره‌ها توسط انسان ها در تضاد است.

جنیفر لینچ از بنیاد Electronic Frontier اظهار کرد:«تحقیقات نشان داده است که انسان‌ها چهره‌ها را به‌طور کل‌نگر به یاد می‌آورند، نه از طریق ویژگی به ویژگی».

PAZH |  آیا سیاهچاله‌ فرصتی برای ملاقات با دایناسور‌ها است؟

وی افزود: «فرایند طرحی که بر توصیف ویژگی‌های فردی مانند این برنامه هوش مصنوعی متکی است، می‌تواند منجر به چهره‌ای شود که به‌طور قابل توجهی متفاوت از چهره مجرم است. به خصوص اگر به طور غیرعادی متکی بر هوش مصنوعی باشد.

 این حتی به پتانسیل برنامه هوش مصنوعی برای تشدید تعصبات، به ویژه تعصبات نژادی که حتی می تواند در طرح های ساخته شده توسط انسان نیز به اندازه کافی بد باشد، محدود نمی‌شود. در واقع شواهدی وجود دارد که DALL-E 2 OpenAI  نتایج کلیشه‌ای و آشکار نژادپرستانه و زن‌ستیزانه را به همراه دارد.

معمولاً، این گروه‌های به حاشیه رانده شده‌اند که در حال حاضر به دلیل سوگیری‌های موجود در مجموعه داده‌ها، به دلیل فقدان نظارت، حتی بیشتر توسط این فناوری‌ها به حاشیه رانده شده‌اند، زیرا بازنمایی‌های زیادی از افراد رنگین پوست در اینترنت وجود دارد که در حال حاضر بسیار زیاد هستند.

ساشا لوچونی، محقق Hugging Face، که شرکت و جامعه آنلاین پروژه‌های AI منبع باز را انجام می‌دهد توضیح داد: ترکیب نژادپرستانه و بسیار ناعادلانه. “این مانند یک نوع تاثیر مرکب است.”

اثر نهایی این روندها  زنجیره‌ای از تعصبات است: شاهد، پلیسی که از آنها سؤال می‌کند، و اکنون، یک هوش مصنوعی معیوب و متمرکز که می‌تواند تعصبات ذاتی خود را به مشتریان بالقوه در سراسر کشور منتشر کند.

.

[widget id='text-14'] [widget id='custom_html-20'] [widget id='dpt_display_post_types-12'] [widget id='text-23'] [widget id='media_gallery-9']