میدانیم چون الگوریتمها با دادههای دنیای واقعی آموزش دیدهاند، حتما تحت غرضورزی خواهند بود. چون دنیای واقعی تبعیضآمیز است. هوشهای مصنوعی همانطور که الگوهای دادهها را یاد میگیرند اقدام به ذخیرهسازی تبعیض موجود در دادهها و همچنین تداوم این روند میکنند. الگوریتمهای مورد استفاده آنها اغلب محرمانهاند و شرکتها حاضر به افشای آنها نیستند.
هوشهای مصنوعی همانطور که الگوهای دادهها را یاد میگیرند اقدام به ذخیرهسازی تبعیض موجود در دادهها و همچنین تداوم این روند میکنند. الگوریتمهای مورد استفاده آنها اغلب محرمانهاند و شرکتها حاضر به افشای آنها نیستند. بر همین اساس باید قوانینی تصویب شود که الگورتیمها افشا و موارد تبعیضآمیز آنها اصلاح شوند.
در سالهایی از دهه ۸۰ متقاضیان مدرسه پزشکی سنتجورج لندن با استفاده از روشی فوقفناوری(۱) انتخاب میشدند. یک برنامه کامپیوتری که در نوع خود پیشگام محسوب میشد، میتوانست با بررسی ابتدایی رزومه افراد، عمل انتخاب اولیه ۲۰۰۰ نفر در سال را انجام دهد. این برنامه با آنالیز کردن سوابق پذیرش مدرسه، خصوصیات درخواست پذیرش موفق را یاد میگرفت و آنقدر تغییر داده شد تا نتایج تصمیمگیری آن با نتایج تیم پذیرش تطابق پیدا کرد.
هرچند این برنامه یاد گرفته بود به مواردی بیشتر از نمرهها و نشانههای پشتکار علمی بالا توجه کند. چهار سال بعد از شروع به کار برنامه، دو دکتر مدرسه پزشکی پی بردند برنامه به رد کردن متقاضیان خانم و آنهایی که اسمشان غیر اروپایی بود بدون در نظر گرفتن شایستگیهایشان علاقه بیشتری دارد. طبق تحقیق دکترها، هر سال حدود ۶۰ متقاضی بخاطر نژاد و جنسیتشان به سادگی از مصاحبه منع میشدند. برنامه تبعیض نژادی و جنسیتی را طبق دادههایی اعمال میکرد که پیشتر یاد گرفته بود. اساسا برنامه اینطور یاد گرفته بود که زنان و خارجیها به درد دکتری نمیخورند.
دانستن اینکه عملکرد یک برنامه تبعیضآمیز یا عادلانه است حتی برای متخصصان کامپیوتر نیز کار دشواری است. یکی از دلایل این امر جزییات پشت پرده طراحی الگوریتم است که عمدتا به صاحبان آن تعلق دارد و توسط ایشان پنهان نگاه داشته میشود.
سه دهه بعد، ما شاهد مشکل مشابهی هستیم، با این تفاوت که برنامههایی با تبعیض درونی در حال گسترشند و تصمیماتی میگیرند که مخاطرات بالاتری دارند. در حال حاضر محاسبات عددی هوش مصنوعی که با یادگیری ماشین انجام میشوند همهجا در حال استفادهاند، از سازمانهای دولتی تا بهداشت و سلامت، هوش مصنوعی با ارائه پیشبینیهایی بر اساس دادههای قبلی در روند تصمیمگیری یاریرسان است. آنها همانطور که الگوهای دادهها را یاد میگیرند اقدام به ذخیرهسازی تبعیض موجود در دادهها و همچنین تداوم این روند میکنند. به عنوان مثال گوگل آگهی تبلیغاتی شغلهای کم درآمد را بیشتر به زنان نشان میدهد تا مردها. تحویل بار یک روزهآمازون محلههای سیاهان را کنار گذاشته، و نرم افزاری که روی انواع مختلف دوربینهای دیجیتال کار میکند در تشخیص چهره غیر سفیدپوستان مشکل اساسی دارد. به عنوان یکی از نمونههای بارز، الگوریتمی به نام کومپاس(۲) توسط سازمانهای مجری قانون در سراسر ایالات متحده استفاده میشود که خطر ارتکاب جرم مجدد متهمان را ارزیابی میکند، و طبق تحقیق پروپابلیکا(۳) معلوم شد سیاهان را به اشتباه تقریبا دو برابر سفیدپوستان علامتگذاری میکرده است.
دانستن اینکه عملکرد یک برنامه تبعیضآمیز یا عادلانه است حتی برای متخصصان کامپیوتر نیز کار دشواری است. یکی از دلایل این امر جزییات پشت پرده طراحی الگوریتم است که عمدتا به صاحبان آن تعلق دارد و توسط ایشان پنهان نگاه داشته میشود. در بیشتر موارد پیشرفته، محاسبات عددی آنقدر پیچیدهاند که حتی سازندگان آن از عملکرد دقیق آنها مطلع نیستند. این مشکل هوش مصنوعی به اصطلاح جعبه سیاه خوانده میشود که از ناتوانی ما در نظارت بر عملکرد داخل یک الگوریتم و فهم اینکه چگونه یک تصمیم را اتخاذ میکند، ناشی میشود. اگر این مشکل حل نشود میتواند با پایدار کردن تبعیض تاریخیای که عده زیادی تلاش سختی کردند تا آن را پشت سر بگذاریم، آسیبی جدی به جوامع آینده بزند.
این نگرانیها چند سال در انجمنهای کوچکتر علوم کامپیوتر زمزمه میشد، ولی اکنون به کانون توجه این عرصه وارد شدهاند. در دو سال گذشته مقالات علمی فراوانی راجع به عدل هوش مصنوعی در این عرصه منتشر شده است. همگام با رشد آگاهی راجع به این مشکل، احساس مسئولیت فزایندهای نیز بهوجود آمده است .«آیا چیزهایی وجود دارند که ما نباید بسازیم؟» پرسشی که کیت کرافورد(۴) محقق مایکروسافت و از بنیانگذاران «موسسه هوش مصنوعی معاصر»، در دانشگاه نیویورک آن را در مصاحبهای گفت: «یادگیری ماشین سرانجام به نقطه اوج خود رسیده است. در حال حاضر ما سعی میکنیم آن را برای صدها مقصد مختلف استفاده کنیم.» ریچ کاروانا(۵) یک محقق عالی رتبه مایکروسافت در گفتگو با فیوچریسم(۶) میگوید «امکان اعمال محاسبات عددی مضر از طرف مردم وجود دارد که در کنار هم میتواند در درازمدت تاثیر بسیار مهمی روی جامعه داشته باشد… اکنون به نظر میرسد ناگهان همه آگاهی یافتهاند یک فصل مهم جدیدی آغاز شده است.»
الگوریتم من را وادار به انجامش کرد
ما الگوریتمها را برای مدت زیادی استفاده کردهایم، ولی مشکل جعبه سیاه تا حدودی بیسابقه است. الگوریتمها پیش از این بسیار سادهتر و شفافتر بودهاند. خیلی از آنها هنوز استفاده میشوند، برای مثال امتیاز دهی اعتبار بانکی فیکو(۷)، که برای هر عملکرد جدید، مقررات خاصی را دنبال کرده است.
کاروانا اضافه کرد «مردم مدتهاست برای امتیازدهی اعتبار بانکی از الگوریتمها استفاده میکنند، هرچند در آن حوزهها مقررات نسبتا شدیدی وجود دارد که در کنار استفاده این الگوریتمهای پیشبینیکننده رشد کردهاند»، این مقررات اطمینان حاصل میکنند الگوریتمهای پیشبینی برای هر امتیاز شرحی را ارائه کنند: شما رد شدهاید چون تراز وام شما بسیار بالاست، یا درآمد کمی دارید.
مقرراتی که مانع استفاده الگوریتمهای نفوذناپذیر از طرف شرکتهای امتیازدهی اعتبار بانکی میشود در حوزههای دیگر وجود ندارند، مثل نظام حقوقی یا صنعت تبلیغات. شاید ممکن نباشد بدانید چرا درخواست وام شما رد شده و یا در کاری پذیرفته نشدهاید، چراکه هیچکس به صاحب الگوریتم اجبار نمیکند در مورد چگونگی کار آن توضیح دهد. کاروانا تشریح میکند «ولی ما میدانیم چون الگوریتمها با دادههای دنیای واقعی آموزش دیدهاند، حتما تحت غرضورزی خواهند بود. چون دنیای واقعی تبعیضآمیز است.»
مشکلاتی از این قبیل نسبتا راحت مرتفع میشوند، ولی خیلی شرکتها به سادگی دنبال سختی انجام این کار نمیروند. در عوض، این ناسازگاریها را ذیل پوشش اطلاعات محرمانه پنهان میکنند.
زبان را به عنوان مثال یکی از بدیهیترین منابع تبعیض در نظر بگیرید. وقتی الگوریتمها از متن نوشته شده شروع به یادگیری میکنند، روابطی بین لغاتی را که اغلب باهم استفاده شدهاند برمیگزینند. برای مثال آنها یاد میگیرند که «مرد برای برنامهنویس کامپیوتری همان است که زن برای خانهداری» وقتی کار پیداکردن رزومه درست برای یک شغل برنامهنویسی به این الگوریتم محول میشود، بسیار محتمل است که یک متقاضی مرد نسبت به زن امتیاز بیشتری داشته باشد.
مشکلاتی از این قبیل نسبتا راحت مرتفع میشوند، ولی خیلی شرکتها به سادگی دنبال سختی انجام این کار نمیروند. در عوض، این ناسازگاریها را ذیل پوشش اطلاعات محرمانه پنهان میکنند. در بسیاری از موارد بدون دسترسی به جزییات یک الگوریتم حتی متخصصان هم نمیتوانند در مورد وجود تصمیمات تبعیضآمیز نظری بدهند.
از آنجایی که این الگوریتمها محرمانه و فرای صلاحیت قضایی تنظیمکنندگان آنها هستند، امر پیشکشیدن دعوی علیه طراحان آنها از طرف شهروندان تقریبا غیرممکن است. حتی آنهایی که در این جهت تلاش کردهاند نتوانستند به جایی برسند. در سال ۲۰۱۶ بالاترین دادگاه ایالات ویسکانسین درخواست فردی برای بازنگری در عملکرد داخلی کومپاس را رد کرد. این فرد به نام اریک ال. لومیس، بهدلیل اینکه کومپاس او را با «خطر بالا» تشخیص داده بود، به ۶سال زندان محکوم شد. این حکم تا حدی تحت تاثیر پیشبینی کومپاس بود. لومیس میگوید حق قانونی او بر روند دادرسی به دلیل اتکای قاضی به یک الگوریتم مبهم پایمال شده است. درخواست تجدید نظر نهایی او برای رسیدگی پرونده در دادگاه عالی امریکا در جون ۲۰۱۷ ناتمام ماند. از سویی دیگر، دو استاد حقوق یک سال بر تفحص از ایالتها و چگونگی روند امتیازدهی در سیستم عدالت کیفری آنها کار کردند. تنها چیزی که در تحقیقات آنها معلوم شد،باقیماندن این اطلاعات ذیل توافقات افشا نشده بود.
هرچند شرکتهای پنهانکار نمیتوانند از آزادی خود تا ابد لذت ببرند. تا ماه مارس سال جاری، اتحادیه اروپا قوانینی را تصویب خواهد کرد که شرکتها را ملزم میکند شرح عملکرد و چگونگی تصمیم گیری الگوریتمها را به مشتریان متقاضی ارائه دهند.
ایالات متحده امریکا وضع چنین قوانینی را در دستور کار خود ندارد، اما نشانههایی وجود دارد که ممکن است جریان را به سمت بهبود قانونگذاری پیش ببرد. در دسامبر ۲۰۱۷ شورای شهر نیویورک طرحی را تصویب کرد که با ایجاد یک گروه ناظر بر عملکرد الگوریتمهای استفاده شده از طرف نهادهای دولتی و مطالعه شیوههای تصمیمگیری آنها، پروسههای کاری آنها را برای عموم قابل فهم کنند.
دادرسیهای قانونی جعبه سیاه
حتی اگر قانونگذاران درگیر این مساله نشوند، یک تغییر فرهنگی بر چگونگی تولید و توسعه الگوریتمها میتواند فراگیری الگوریتمهای تبعیضآمیز را کاهش دهد. همانطور که شرکتها و برنامهنویسان بیشتری به شفافکردن و شرح دادن الگوریتمهایشان تعهد پیدا میکنند، بعضی امید دارند شرکتهایی که اینکار را انجام نمیدهند، اعلام شوند و وجهه عمومی خوب خود را از دست دهند.
اخیرا قدرت کامپیوتری در حال رشد این امکان را بهجود آورده که الگوریتمها دقیق و توجیهپذیر شوند، یک چالش فنی که برنامهنویسان سالها برای رفع آن تلاش کردهاند. مطالعات اخیر نشان میدهد امکان این وجود دارد تا مدلهای توجیهپذیری ساخته شوند که احتمال ارتکاب جرم مجدد مجرمان را پیشبینی کند و به اندازه نمونههای جعبهسیاه مثل کومپاس دقیق باشد.
در حالت ایدهآل، توسعهدهندگان باید تبعیضهای شناخته شده مانند جنسیت، نژاد، سن را از میان دادههای آموزشدهنده بردارند و شبیه سازیهای داخلی برای کنترل الگوریتمهای خود انجام دهند تا مشکلات دیگری را شناسایی کنند.
«این پژوهش موجود است، ما میدانیم چطور میتوان مدلهایی بهوجود آورد که مانند جعبه سیاه نباشند» ، سینتیا رادین (۸) استادیار علوم کامپیوتر و مهندسی برق و کامپیوتر دانشگاه دوک به فیوچریسم میگوید: «ولی مطلع کردن مردم نسبت به این مساله کار دشواری است. اگر نهادهای دولتی برای استفاده از مدلهای جعبه سیاه پولی پرداخت نکنند، کمککننده خواهد بود.اگر قاضیها برای محکوم کردن مجرمان از مدلهای جعبه سیاه استفاده نکنند، قطعا کمک کننده خواهد بود.»
بعضی دیگر روی روشهایی کار میکنند که آزمایش عدالت الگوریتمها را با یک سیستم کنترل و توازن، قبل از انتشار آنها در دنیای واقعی انجام میدهد،همانطور که یک داروی جدید باید آزمایشهای بالینی را پشت سر بگذارد.
همچنین سارا تان(۹) دانشجوی دکتری آمار دانشگاه کورنل به فیوچریسم گفت: «چیزی که اکنون در حال وقوع است، تولید سریع مدلها و به کار گرفتهشدن آنهاست. هیچ کنترل مناسبی در تمام طول پروسه روی آنها صورت نمیگیرد و هیچ الزامی برای امتحان آنها در دنیای واقعی و در یک بازه آزمایشی وجود ندارد.»
در حالت ایدهآل، توسعهدهندگان باید تبعیضهای شناخته شده مانند جنسیت، نژاد، سن را از میان دادههای آموزشدهنده بردارند و شبیه سازیهای داخلی برای کنترل الگوریتمهای خود انجام دهند تا مشکلات دیگری را شناسایی کنند.
در عین حال تا رسیدن به نقطهای که الگوریتمها قبل از انتشار به دقت آزمایش شوند، همچنان روشهایی وجود دارد که معلوم شود کدام الگوریتمها حامل تبعیض هستند.در مقاله جدیدی تان، کاروانا و همکارانشان به شرح روش جدیدی پرداختند که میتوان فهمید در زیر چتر الگوریتمهای جعبه سیاه چه میگذرد. این گروه مدلی ساختند که میتواند از یک الگوریتم جعبه سیاه مثل کومپاس تقلید کند و مانند روش امتیازدهی خطر ارتکاب جرمی آموزش ببیند که کومپاس پیشبینی میکرد.
آنها همچنین مدل دیگری طراحی کردند که بر روی اطلاعات به دست آمده از نتایج آزمایش در دنیای واقعی کار میکرد و نشان میداد که پیشبینی تمایل به ارتکاب جرم در واقع انجام گرفته است یا خیر. مقایسه دو مدل به محققان اجازه داد دقت امتیاز پیشبینی شده را بدون از بین بردن الگوریتم برآورد کنند.تفاوت نتایج به دستآمده از این مدل نشان میدهد که به چه متغیراتی مانند سن و نژاد، در هر یک از مدلها اهمیت بالاتری داده شده است. یافتههای به دست آمده با آنچه پروپابلیکا و دیگر محققان به دست آورده بودند (که کومپاس نسبت به سیاهپوستان تبعیض قائل میشود) همخوانی داشت.
از بین بردن این نوع تبعیضها میتواند فواید زیادی داشته باشد. اگر الگوریتمها به خوبی طراحی شوند، میتوانند تبعیضات اینچنینی که مدتها در زمینه عدالت جنایی، دستگیری افراد، و دیگر زمینههای جامعه وجود داشتهاند را از بین ببرند.
کاروانا میگوید: «اگر ما در این زمینه کار کنیم و تبعیضات موجود را از بین ببریم، حلقه بازخوردی مثبتی خواهیم داشت که الگوریتمها در آن به ما اجازه میدهند تبعیض را در جامعه کم و کمتر کنیم.»
متن اصلی در فیوچریسم
پینوشتها:
۱ high-tech
۲ COMPAS
۳ ProPublica
۴ Kate Crawford
۵ Rich Caruana
۶ Futurism
۷ FICO
۸ Cynthia Rudin
۹ Sarah Tan