نظر | برای استفاده از نژادپرستی و تبعیض جنسی در فناوری استخدام به قوانینی نیاز داریم

[ad_1]

دموکراسی آمریکایی به دسترسی یکسان به کار به همه بستگی دارد. اما در واقعیت ، افراد رنگین پوست ، زنان ، معلولان و سایر گروه های حاشیه ای ، نرخ بیکاری یا کم کاری را با نرخ های نامتناسب بالایی تجربه می کنند ، به ویژه در بحبوحه اقتصادی همه گیر Covid-19. اکنون استفاده از فناوری هوش مصنوعی برای استخدام ممکن است این مشکلات را تشدید کرده و باعث تعصب بیشتر در روند استخدام شود.

در حال حاضر ، شورای شهر نیویورک در حال بحث درباره قانون جدید پیشنهادی است که ابزارهای خودکار را برای ارزیابی نامزدهای شغلی و کارمندان تنظیم می کند. در صورت انجام صحیح ، این قانون می تواند تفاوت واقعی در شهر ایجاد کند و از نظر ملی تأثیر گسترده ای داشته باشد: در غیاب مقررات فدرال ، ایالت ها و شهرها از مدل های سایر مناطق برای تنظیم فناوری های نوظهور استفاده کرده اند.

طی چند سال گذشته ، تعداد فزاینده ای از کارفرمایان استفاده از هوش مصنوعی و سایر ابزارهای خودکار را برای سرعت بخشیدن به استخدام ، صرفه جویی در هزینه و نمایش متقاضیان کار بدون تعامل حضوری آغاز کرده اند. اینها همه ویژگی هایی هستند که در طی همه گیر شدن به طور فزاینده ای جذاب می شوند. این فن آوری ها شامل صفحه نمایش هایی است که رزومه را برای یافتن کلمات کلیدی جستجو می کند ، بازی هایی که ادعا می کنند ویژگی هایی مانند سخاوت و اشتهای مخاطره آمیز را ارزیابی می کنند و حتی تجزیه و تحلیل احساسات که ادعا می کنند نشانه های صوتی و صوتی را می خوانند تا پیش بینی کنند نامزدها درگیر می شوند یا بازیکنان تیم.

در بیشتر موارد ، فروشندگان این ابزارها را برای تجزیه و تحلیل کارگرانی که از نظر کارفرمایشان موفق به نظر می رسند و اندازه گیری اینکه آیا متقاضیان کار دارای صفات مشابه هستند ، آموزش می دهند. اگر به عنوان مثال مردان لاتین یا زنان سیاه پوست به طور ناکافی در استخدام کارمندان حضور یابند ، این روش می تواند کمبود نمایندگی و شکاف های اجتماعی را بدتر کند. در یک مورد دیگر ، یک ابزار غربالگری رزومه می تواند مدارس Ivy League را در رزومه کارمندان موفق شناسایی کند و سپس رزومه ها را از کالج های سیاه یا کالج های تاریخی کاهش دهد.

در شکل فعلی ، لایحه شورا از فروشندگانی که ابزار ارزیابی خودکار می فروشند ، می خواهد آنها را از نظر تعصب و تبعیض بررسی کنند ، بررسی کنند که مثلاً ابزاری نامزدهای مرد را با نرخ بالاتری نسبت به نامزدهای زن انتخاب می کند یا خیر. همچنین از فروشندگان خواسته می شود خصوصیاتی را که ادعا می کند برای اندازه گیری متقاضیان کار استخدام کند. این روش می تواند مفید باشد: این روش چگونگی غربالگری متقاضیان شغل را روشن می کند و فروشندگان را مجبور می کند که در مورد اثرات احتمالی تبعیض آمیز فکر کنند. اما برای داشتن این قانون ، ما چندین محافظت اضافی مهم را توصیه می کنیم.

این اقدام باید از شركتها بخواهد هنگام بازرسی از فن آوری تعصب خود ، آنچه را پیدا می كنند ، به طور عمومی افشا كنند. علی رغم فشار برای محدود کردن دامنه آن ، شورای شهر باید اطمینان حاصل کند که این لایحه تبعیض را از همه لحاظ – نه تنها بر اساس نژاد یا جنسیت بلکه همچنین ناتوانی ، گرایش جنسی و سایر خصوصیات محافظت شده – برطرف می کند.

این ممیزی ها باید شرایط افرادی را که در حاشیه چند برابر هستند – به عنوان مثال ، زنان سیاه پوستی که ممکن است مورد تبعیض قرار بگیرند زیرا هم سیاه پوست هستند و هم زن. حسابرسی های مغرضانه که توسط شرکت ها انجام می شود معمولاً این کار را نمی کند.

این لایحه همچنین برای اطمینان از اینکه ابزار واقعاً آنچه را که ادعا می کنند اندازه گیری می کند و باید اطمینان حاصل کند که آنها ویژگی های مربوط به شغل را اندازه گیری می کنند ، به آزمایش اعتبار نیز نیاز دارد. چنین آزمایشی س interال می کند که آیا مثلاً تلاش داوطلبان برای منفجر کردن بادکنک در یک بازی آنلاین واقعاً اشتیاق آنها برای خطر در دنیای واقعی را نشان می دهد – و آیا ریسک پذیری برای کار ضروری است؟ همچنین با اعتبار سنجی اعتبار ، بازیگران بدی که ابزار استخدام آنها کارهای دلخواهی انجام می دهد مانند ارزیابی متقاضیان شغل به طرز متفاوتی براساس تغییرات ظریف در پس زمینه مصاحبه های ویدئویی ، از بین می رود.

علاوه بر این ، شورای شهر باید فروشندگان را ملزم کند تا قبل از غربالگری ، به داوطلبان بگویند که چگونه توسط یک ابزار خودکار غربالگری می شوند ، بنابراین نامزدها می دانند چه انتظاری دارند. به عنوان مثال ، افراد نابینا ممکن است شک نکنند که اگر نتوانند در تماس چشمی با دوربین قرار بگیرند ، مصاحبه ویدیویی آنها نمره ضعیفی کسب می کند. اگر آنها بدانند چه چیزی در حال آزمایش است ، می توانند با کارفرما درگیر شوند تا یک آزمایش عادلانه تر را انجام دهند. قانون پیشنهادی که در حال حاضر در شورای شهر وجود دارد ، شرکتها را ملزم می کند که در صورت ارزیابی با استفاده از هوش مصنوعی ، ظرف 30 روز به نامزدها هشدار دهند ، اما فقط پس از شرکت در آزمون.

سرانجام ، این لایحه باید نه تنها فروش ابزارهای خودکار استخدام در شهر نیویورک بلکه استفاده از آنها را نیز شامل شود. بدون این شرط ، فروشندگان ابزار استخدام می توانند با تعیین محل فروش در خارج از شهر ، از تعهدات این لایحه فرار کنند. شورا باید این روزنه را ببندد.

با این لایحه ، این شهر این فرصت را دارد که با اشکال جدید تبعیض شغلی مقابله کرده و به آرمان چیزی که آمریکا مخفف آن است نزدیک شود: دسترسی عادلانه تر به همه برای دسترسی به فرصت. نیویورکی های بیکار در حال تماشا هستند.

الکساندرا ریو گیونز مدیر اجرایی مرکز دموکراسی و فناوری است. هیلک شلمن گزارشگر تحقیق در مورد هوش مصنوعی و استادیار روزنامه نگاری در دانشگاه نیویورک است. جولیا استویانویچ استادیار علوم کامپیوتر و مهندسی و علوم داده است و مدیر مرکز هوش مصنوعی مسئول در دانشگاه نیویورک است.

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>