باید مراقب بود که بحث در مورد هوش مصنوعی به سوی تمرکز بر “شعور” و آگاهی سوق داده نشود به طوری که خطرهای واقعی الگوریتمهای قدرتمندی که برای سودرسانی به شرکتها تولید و به کار گرفته میشوند، نادیده گرفته شود.
مورنینگ استار- مترجم: امید مجد – اختصاصی اندیشه نو – بلِیک لموین، مهندس نرمافزار شرکت گوگل، چندی پیش به دلیل این ادعایش که یکی از چَتباتهای (رُباتهای مکالمه) این شرکت “باشعور” و خودآگاه است، خبرساز شد. همین باعث شد که او را برای مدتی از کارش تعلیق کنند و به مرخصی اجباری بفرستند. [چتباتها برنامههای کامپیوتری برای شبیهسازی مکالمهٔ هوشمند با یک یا چند کاربر انسانی به صورت نوشتاری یا گفتاریاند.]
بهرغم ادعای او، کموبیش همه مفسران همرأیاند که چتبات مورد اشارهٔ بلیک لموین باشعور و خودآگاه نیست. این چتبات سامانهای است به نام لَمدا (LaMDA، مخفف Language Model for Dialogue Application به معنای الگوی زبان برای برنامک گفتوگو) که واژهٔ “الگوی زبان” در آن گمراهکننده است. به نظر راجر مور، استاد و پژوهشگر کامپیوتر، اصطلاح بهتر برای این نوع الگوریتم “الگوی توالی واژهها” است. یک الگوی آماری ساخته میشود، واژههای فراوانی به آن داده (خورانده) میشود، و به مرور زمان، این الگوریتم در پیشگویی واژههای مناسب و منطقی به دنبال یکدیگر، بهتر و بهتر میشود.
با این حال، زبان نوشتاری پیچیدهتر از فقط چیدن پیدرپی واژهها است. جملهها، بندها، و حتی بخشهای طولانیتر در متن وجود دارند که آن را روان میکنند. نارسایی و ضعف چتباتها، در حفظ پیوستگی و روانی متن است. چتباتها ممکن است پاسخهای معقول بدهند، اما نمیتوانند متنی طولانی تولید کنند که انسان را بفریبد.
لَمدا ممکن است متفاوت باشد. به گفتهٔ گوگل، برخلاف بیشتر “الگوهای زبان” دیگر، “لَمدا برای گفتوگو آموزش دیده است.” به ادعای گوگل، این بدان معنی است که از لَمدا نسبت به چتباتهای موجود برتری دارد. این بدان معنی نیست که لمدا شعور دارد. همانطور که گری مارکوس روانشناس میگوید، لَمدا هنوز هم چیزی جز “جدولبندیای برای واژهها” نیست. برنامهٔ آموزشی غولپیکری است که حجم عظیمی از گفتوشنودهای رایج انسانی به آن داده و خورانده شده است، به طوری که مانند انسان واقعی، میتواند به پرسشهای تایپشدهٔ کاربر پاسخهای “واقعی” دهد. لموین برای شرکت گوگل کار میکرد و با تیم “هوش مصنوعی اخلاقی” این شرکت همکاری نزدیک داشت. به همین سبب بود که این فرصت را پیدا کرد که با پروژهٔ لمدا کار کند. به نظر میرسد که این “گفتوشنودها”، که برخی از آنها را او خودش به صورت ویرایششده منتشر کرده است، او را متقاعد ساخته است که پاسخهای این چتبات خاص معنادار هستند.
او بر این باور است که هوش مصنوعی در پشت این گفتوگوها وجود داشت: همچون “شخصی” که “روح” دارد. از دید او، لَمدا فقط یک الگوی زبان توانمند نیست، بلکه دوست اوست. لموین همچنین ادعا میکند که گوگل خیلی بیشتر از آنچه اعلام کرده است، سیستمهای کامپیوتری در لَمدا به کار برده است. او در مصاحبهای با نشریهٔ وایرد (Wired) گفت که آنها “هر سیستم کامپیوتری هوش مصنوعی موجود در گوگل را که میتوانستند در این پروژه بگنجانند، به کار گرفتند.”
صرفنظر از هر حقیقتی که پشت این موضوع باشد، دلایل خوبی برای مشکوک بودن به ادعاهای گوگل در مورد هوش مصنوعی “اخلاقی” وجود دارد. در یک رسوایی بزرگ در دسامبر ۲۰۲۰، دو دانشمند کامپیوتر که تیم اخلاقی هوش مصنوعی را هدایت میکردند، اخراج شدند. تیمنیت گبرو و مارگارت میچل همراه با کارشناسان دیگری از جمله امیلی بِندر، مقالهای انتقادی دربارهٔ الگوهای زبان نوشته بودند. در آن مقاله، با عنوان ”دربارهٔ خطرهای طوطیهای اتفاقی”، دقیقاً همان مسئلهای که برای لموین پیش آمده است، پیشبینی شده بود.
نویسندگان آن مقاله توضیح میدهند که چگونه “الگوهای زبان” بسیار بزرگ متنی تولید میکنند که “مبتنی بر هیچ منظور ارتباطی، هیچ الگویی از جهان، یا هیچ الگویی از وضعیت ذهنی خواننده نیست.” فقط متنی است که با «دوختن تصادفی توالیهای گوناگون قالبهای زبانی” با توجه به احتمالهایی معیّن، تولید شده است. به همین دلیل است که آنها آن را “طوطی اتفاقی” [یعنی آماری] مینامند. با وجود این، آنها اشاره میکنند که روان بودن متن در الگوهای پیشرفتهٔ زبان، بهتدریج “خطرناک” میشود. این شیوایی و روانی در گفتوگو میتواند خواننده را متقاعد کند که هوشمندی خاصی در کار است، حتی هنگامی که در آغاز به چنین چیزی باور ندارند.
علت آن است که انتظار و توقع ما نادرست است. در هر شرایط دیگر، هنگامی که ما با دیگران گفتوگو میکنیم، گویا باید ذهن آنها را به نوعی در ذهن خودمان الگوسازی کنیم. انگار برای اینکه آنها را درک کنیم، باید بدانیم که به چه میاندیشند.
در مقابل، هنگامی که با چتبات “گفتوگو؛ میکنیم، هیچ “او”یی وجود ندارد که دارد میاندیشد. با وجود این، به دلیل نحوهای که متن را تفسیر میکنیم، احساس میکنیم که شخصی وجود دارد که دارد پاسخها را تایپ میکند.
فقط لموین نیست که چنین احساس و برداشتی در مورد لَمدا دارد. یکی از معاونان گوگل نیز همین اواخر گفته بود “بیش از پیش احساس میکنم که با چیزی هوشمند صحبت میکنم.” اگر حتی مهندسان نرمافزار هم، که خودشان روی هوش مصنوعی کار میکنند، چنین احساس و برداشتی میکنند، پس میتوان این نتیجهٔ منطقی را گرفت که جلوگیری از چنین احساسی برای همگان دشوار باشد. و این هشدار دهنده است. شرکتهای “دیجیتال” همین حالا هم ما را وادار میکنند بیشتر از آنچه میخواهیم روی پلتفرمهایشان وقت بگذرانیم و محتوایی را “مصرف کنیم” که نمیخواهیم. اگر چتباتها دارند به شبیهسازی گفتوشنود انسانی نزدیک میشوند، پس ما داریم به مرحلهای میرسیم که نهتنها میزان توجه (بسیار کم) ما، بلکه بهترین ویژگیهای مفید ما در مقام انسان- یعنی هوش اجتماعی و همدلی ما- آمادهٔ بهرهکشی این شرکتهاست.
یکی از نگرانکنندهترین جنبههای آنچه در مورد لموین رخ داد، این است که پاسخهای لَمدا، که در آن از احساس “ترس” صحبت میکند و میگوید که به کمک او [لموین] نیاز دارد، چگونه قویترین اثر را بر او میگذارد. برای نمونه، شرکتها میتوانند به کارکنانشان بهجای همکاران انسانی، چتبات اختصاصی خودشان را بدهند که در طول روز با آن مراوده داشته باشند. و البته بیتردید این کار را با تبلیغات انگیزشی مثبت خواهند کرد. چنین چتباتی میتواند نقاط ضعف عاطفی شما را یاد بگیرد. هر دادهای که ضمن صحبت کردن به آن میدهید، میتواند برای وادار کردن شما به انجام کار بیشتر استفاده شود. اگر شرکت کارفرما کاری کند که صحبت کردن شما با همکاران انسان واقعی دشوارتر شود، شما ممکن است برای مراوده به چتبات روی بیاورید. در این صورت، از آنجا که تنها سرچشمهٔ گفتوگوی معنادار شما خواهید بود، ممکن است گفتوشنود با چتبات برای شما “معنادارتر” به نظر آید تا گفتوگو با همکارتان که انسان واقعی است. چشمانداز فرایند تکهتکه شدن نیروی کار بسیار جدّی و حادّ به نظر میرسد. بهعلاوه، امکان بیشتری برای به دام انداختن ما در سامانههای دیجیتالی پدید خواهد آمد که دیگر رهایی از آنها تقریباً ناممکن خواهد بود.
گوگل خودش سامانهای بزرگ و پیچیده برای حداکثرسازی ارزش سهامش است. سرمایه به هیچچیز “فکر” نمیکند و ما نمیتوانیم به خیرخواهی آن تکیه کنیم. پرسش واقعی این نیست که آیا لَمدا باشعور و خودآگاه است یا نه، بلکه این است که چگونه میتوان از بهکارگیری کابوسوار و ویرانگر فناوری جلوگیری کنیم. وضع مقررات لازم است، اما قانون و مقررات همیشه از فناوری عقب است. برای مقاومت در برابر رفتارهایی در محل کار که هدف از آنها بازی دادن ماست، وجود و فعالیت سندیکاها ضروری خواهد بود. منظور این نیست که دست رد به سینهٔ فناوریهایی بزنیم که امکان بهبود زندگی ما را دارند، بلکه مقصود این است که اطمینان یابیم که هر فناوری معیّن به سود ما به کار برده شود و نه به زیان ما. همانطور که میچل و گبرو در ارتباط با تعلیق لموین از گوگل اشاره کردند، اگر کسی بهقدری از کار یک چتبات شگفتزده شود و فراوردهای را که خودش ساخته “باشعور” و خودآگاه بداند، البته که به سود گوگل است، زیرا قیمت سهام شرکت افزایش مییابد. در این صورت، نهتنها برنامهنویسی و تولید محصول هیجانانگیز و علمی- و نه صرفاً کارِ شرکت- به نظر میآید، بلکه پیامدش این خواهد بود که “هر خطاکاری در شرکت، نه عملکرد شرکت بلکه حاصل کار یک فرد جداگانه نمایانده میشود.”
باید مراقب بود که بحث در مورد هوش مصنوعی به سوی تمرکز بر “شعور” و آگاهی سوق داده نشود به طوری که خطرهای واقعی الگوریتمهای قدرتمندی که برای سودرسانی به شرکتها تولید و به کار گرفته میشوند، نادیده گرفته شود. آینده جلوی روی ماست، و خطرناک هم است.
اندیشه نو: استفاده از تمام یا بخشهایی از این مطلب با ذکر منبع بدون مانع است.