اقتصاد ایرانی: ما امروز در عصری زندگی می کنیم که نه تنها زنان در بسیاری از زمینه های زندگی اقتصادی عقب تر از مردان نگه داشته شده اند، بلکه فناوری می تواند این وضعیت را بدتر کند. زنان تنها ۱۹ درصد اعضای هیئت مدیره ها در آمریکا و اروپا را تشکیل می دهند. این شکاف جنسیتی همچنان به طور گسترده ای وجود دارد، این بر خلاف واقعیتی است که نشان می دهد زنان به طور میانگین دارای مدارک و صلاحیت های تحصیلی بالاتری نسبت به مردان طی دو دهه اخیر در بسیاری از کشورهای عضو سازمان توسعه و همکاری اقتصادی بوده اند. و دلیل اصلی این مساله تعصبات اجتماعی است.

این نابرابری جنسیتی در آستانه گسترش است آن هم با توسعه هوش مصنوعی، آن هم در شرایطی که داده هایی که برای آموزش ماشین ها استفاده می شود، غالبا متعصبانه هستند.  

با توسعه سریع هوش مصنوعی این اطلاعات متعصبانه بر پیش فرض هایی که ماشین در نظر می گیرد، تاثیر می گذارد. هر زمان که مجموعه ای از داده های انسانی داشته باشید، به طور طبیعی شامل تعصب می شود. این مساله می تواند شامل تصمیمات استخدام، آزمون های دانشجویی، تشخیص پزشکی، تایید وام شود. در واقع هر چیزی که در متن، تصویر یا صدا توصیف شود، نیاز به پردازش اطلاعات دارد و این مساله تحت تاثیر تعصبات فرهنگی، نژادی جنسیتی یا فرهنگی قرار می گیرد.

هوش مصنوعی در عمل

روشی که ماشین یاد می گیرد، به عنوان زیر مجموعه ای از هوش مصنوعی، شامل تغذیه رایانه ها با داده ها و اطلاعات است- خواه این داده ها به شکل متن، تصویر یا صدا باشد- و افزودن یک طبقه بندی به این داده ها. یک مثال می تواند این باشد که به رایانه تصویر یک زن نشان داده شود که در یک دفتر کار می کند و سپس او را یک کارمند زن دفتری نامگذاری کند.

با گذشت زمان و با تصاویر زیاد، رایانه یاد خواهد گرفت تا تصاویر مشابه را شناسایی کند و قادر خواهد بود تا این تصاویر را با تصاویر زنانی که در یک دفتر کار می کنند، مرتبط سازد. با گذشت زمان و با افزودن الگوریتم، رایانه می تواند برای چیزهایی مثل نشان دادن نامزدهای شغلی، پیش فرض هایی را ارائه کند و بیمه نامه ها را صادر کرده و یا درباره تایید وام تصمیم بگیرد.

صنعت مالی پیش از این در استفاده از سامانه های هوش مصنوعی پیشرفت کرده است. به عنوان مثال، صنعت مالی از هوش مصنوعی برای ارزیابی ریسک اعتباری قبل از صدور کارت های اعتباری استفاده کرده است تا همین طور برای اعطای وام های کوچک.

ماموریت اصلی فیلتر کردن مشتریان به منظور جلوگیری از اعطای وام و اعتبار به مشتریانی است که با خطر ورشکستگی روبرو هستند و در آینده می توانند وام های خود را بازپرداخت کنند. با استفاده از مشتریان رد صلاحیت شده و مرتبط کردن آن با مجموعه ای از قوانین، به سادگی می توان منجر به تعصبات در سیستم شود. یک قانون احتمالی می تواند این باشد: اگر مشتری یک زن مجرد باشد، آنگاه درخواست وی قبول نشود.

این همه ماجرا نیست. پلتفرم شغلی لینکدین به عنوان مثال، مساله ای را مطرح کرده است که بر اساس آن شغل هایی با پرداختی بالا برای زنانی که به دنبال فرصت های شغلی این چنینی هستند، به نمایش گذاشته نمی شود و این فرصت های شغلی تنها برای مردان به نمایش در می آید، آن هم تنها به دلیل الگوریتمی است که برای آن نوشته شده است. کاربران اولیه این سایت جستجوی شغل برای این فرصت های شغلی با درآمد بالا، عمدتا مردان در نظر گرفته شده اند، بنابر این چنین فرصت های شغلی تنها برای مردان به نمایش گذاشته می شود. در نتیجه این اقدام به سادگی موجب تقویت تعصب بیهوده علیه زنان می شود. یک تحقیق و بررسی چنین مساله مشابهی را برای گوگل پیدا کرده است.

یک تحقیق دیگر نشان می دهد تصاویری که برای آموزش نرم افزارهای تشخیص چهره استفاده می شود، بر اساس تعصبات جنسیتی است. در ۲ مجموعه تصویر استفاده شده برای اهداف تحقیقاتی که از سوی مایکروسافت و فیس بوک حمایت می شده است، مشخص شده است که پیش فرض های جنسیتی در تصاویر روز مره مثل ورزش و آشپزی به کار گرفته شده است. تصاویر مربوط به شستشو و خرید با زنان مربوط است و این در حالی است که تصاویر مربوط به مربیگری و تیراندازی با مردان پیوند داده شده است.

آزمایش برای تعصب

آموزش ماشین ها برای استفاده از داده ها همچنان با مشکلاتی روبرو خواهد شد آن هم تا زمانی که این آموزش ها منجر به اقدامات قابل پیش بینی تبعیض آمیز نشود. با این حال، با استفاده بیشتر و بیشتر از داده ها به جای تصمیم گیری های انسانی، این مساله با مشکلات بیشتری روبرو می شود. بنابر این تعصباتی که این جعبه های سیاه ایجاد می کنند باید شناسایی و درک شود. یکی از روش ها برای آزمودن تعصبات، از طریق سیستم استرس تست است. این روش توسط آنوپام داتا متخصص رایانه به نمایش گذاشته شده است، کسی که برنامه ای را طراحی کرده است تا این مساله را مورد آزمون قرار دهد که آیا در استخدام کارکنان جدید، هوش مصنوعی تعصب نشان داده است یا نه.

آموزش ماشین می تواند برای انتخاب نامزدهایی بر اساس معیارهای مختلف مثل مهارت ها و آموزش مورد استفاده قرار گیرد. این روند امتیازی را تولید می کند که نشان می دهد نامزد مورد نظر تا چه اندازه برای این فرصت شغلی مناسب است. همان طور که این مثال نشان می دهد، این امکان وجود دارد که تعصبات حذف شود. ولی این مساله مستلزم صرف تلاش و پول است و بنابر این تضمینی برای چنین اتفاقی وجود ندارد. در واقع این بیشتر محتمل است که شاهد افزایش تعصبات در کوتاه مدت باشیم آن هم در شرایطی که هوش مصنوعی می تواند این تعصبات را تقویت کند.

در بلند مدت اگر هوش مصنوعی منجر به جایگزینی ماشین به جای انسان در برخی موقعیت ها شود، سطوح بالاتر هوش هیجانی زنان ارزشمندتر خواهد شد. نیاز بیشتری به نقش هایی خواهد بود که رفتار انسان را با روش هایی درک کند که ماشین قادر به آن نیست. این نقش ها نیازمند درک زمینه های اجتماعی، همدلی و محبت دارد و در این موقعیت هاست که افراد با سطح بالاتر هوش احساسی و هیجانی کارایی فوق العاده ای خواهند داشت. بنابر این گرچه تعصبات شاید در کوتاه مدت با افزایش روبرو شود ولی در بلندمدت برابری جنسیتی همچنان فرصت دارد.

منبع : مجمع جهانی اقتصاد

منبع خبر: http://www.ireconomy.ir/fa/page/34023/%D8%AA%D8%A7%D8%AB%DB%8C%D8%B1%D8%A7%D8%AA+%D9%87%D9%88%D8%B4+%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C+%D8%A8%D8%B1+%D8%B2%D9%86%D8%AF%DA%AF%DB%8C+%D8%A7%D9%82%D8%AA%D8%B5%D8%A7%D8%AF%DB%8C+%D8%B2%D9%86%D8%A7%D9%86.html