Skip to content
می 21, 2025
   ارتباط با ما       در باره ما       فیسبوک       تلگرام   

احترام به تفاوت اندیشه، همیاری و تلاش مشترک در راه تحقق آزادی

  • خانه
  • ایران
  • جهان
  • اوکرایین
  • ویژه اندیشهٔ نو
  • اجتماعی
    • زحمتکشان
    • جوانان و دانشجویان
    • زنان
  • اقتصادی
  • فرهنگی – ادبی
  • محیط زیست
  • تاریخی
  • فلسفی
  • Home
  • چَت‌بات‌ها: الگوریتم‌های باشعور یا طوطی‌های دست‌آموز؟
  • نوار متحرک
  • ویژه اندیشهٔ نو

چَت‌بات‌ها: الگوریتم‌های باشعور یا طوطی‌های دست‌آموز؟

باید مراقب بود که بحث در مورد هوش مصنوعی به سوی تمرکز بر “شعور” و آگاهی سوق داده نشود به طوری که خطرهای واقعی الگوریتم‌های قدرتمندی که برای سودرسانی به شرکت‌ها تولید و به کار گرفته می‌شوند، نادیده گرفته شود.

مورنینگ استار- مترجم: امید مجد – اختصاصی اندیشه نو – بلِیک لموین، مهندس نرم‌افزار شرکت گوگل، چندی پیش به دلیل این ادعایش که یکی از چَت‌بات‌های (رُبات‌های مکالمه) این شرکت “باشعور” و خودآگاه است، خبرساز شد. همین باعث شد که او را برای مدتی از کارش تعلیق کنند و به مرخصی اجباری بفرستند. [چت‌بات‌ها برنامه‌های کامپیوتری برای شبیه‌سازی مکالمهٔ هوشمند با یک یا چند کاربر انسانی به صورت نوشتاری یا گفتاری‌اند.]

به‌رغم ادعای او، کم‌وبیش همه مفسران هم‌رأی‌اند که چت‌بات مورد اشارهٔ بلیک لموین باشعور و خودآگاه نیست. این چت‌بات سامانه‌ای است به نام لَمدا (LaMDA، مخفف Language Model for Dialogue Application به معنای الگوی زبان برای برنامک گفت‌وگو) که واژهٔ “الگوی زبان” در آن گمراه‌کننده است. به نظر راجر مور، استاد و پژوهشگر کامپیوتر، اصطلاح بهتر برای این نوع الگوریتم “الگوی توالی واژه‌ها” است. یک الگوی آماری ساخته می‌شود، واژه‌های فراوانی به آن داده (خورانده) می‌شود، و به مرور زمان، این الگوریتم در پیشگویی واژه‌های مناسب و منطقی به دنبال یکدیگر، بهتر و بهتر می‌شود.

با این حال، زبان نوشتاری پیچیده‌تر از فقط چیدن پی‌درپی واژه‌ها است. جمله‌ها، بندها، و حتی بخش‌های طولانی‌تر در متن وجود دارند که آن را روان می‌کنند. نارسایی و ضعف چت‌بات‌ها، در حفظ پیوستگی و روانی متن است. چت‌بات‌ها ممکن است پاسخ‌های معقول بدهند، اما نمی‌توانند متنی طولانی تولید کنند که انسان را بفریبد.

لَمدا ممکن است متفاوت باشد. به گفتهٔ گوگل، برخلاف بیشتر “الگوهای زبان” دیگر، “لَمدا برای گفت‌وگو آموزش دیده است.” به ادعای گوگل، این بدان معنی است که از لَمدا نسبت به چت‌بات‌های موجود برتری دارد. این بدان معنی نیست که لمدا شعور دارد. همان‌طور که گری مارکوس روان‌شناس می‌گوید، لَمدا هنوز هم چیزی جز “جدول‌بندی‌ای برای واژه‌ها” نیست. برنامهٔ آموزشی غول‌پیکری است که حجم عظیمی از گفت‌وشنودهای رایج انسانی به آن داده و خورانده شده است، به طوری که مانند انسان واقعی، می‌تواند به پرسش‌های تایپ‌شدهٔ کاربر پاسخ‌های “واقعی” دهد. لموین برای شرکت گوگل کار می‌کرد و با تیم “هوش مصنوعی اخلاقی” این شرکت همکاری نزدیک داشت. به همین سبب بود که این فرصت را پیدا کرد که با پروژهٔ لمدا کار کند. به نظر می‌رسد که این “گفت‌وشنودها”، که برخی از آنها را او خودش به صورت ویرایش‌شده منتشر کرده است، او را متقاعد ساخته است که پاسخ‌های این چت‌بات خاص معنادار هستند.

او بر این باور است که هوش مصنوعی در پشت این گفت‌وگوها وجود داشت: همچون “شخصی” که “روح” دارد. از دید او، لَمدا فقط یک الگوی زبان توانمند نیست، بلکه دوست اوست. لموین همچنین ادعا می‌کند که گوگل خیلی بیشتر از آنچه اعلام کرده است، سیستم‌های کامپیوتری در لَمدا به کار برده است. او در مصاحبه‌ای با نشریهٔ وایرد (Wired) گفت که آنها “هر سیستم کامپیوتری هوش مصنوعی موجود در گوگل را که می‌توانستند در این پروژه بگنجانند، به کار گرفتند.”

صرف‌نظر از هر حقیقتی که پشت این موضوع باشد، دلایل خوبی برای مشکوک بودن به ادعاهای گوگل در مورد هوش مصنوعی “اخلاقی” وجود دارد. در یک رسوایی بزرگ در دسامبر ۲۰۲۰، دو دانشمند کامپیوتر که تیم اخلاقی هوش مصنوعی را هدایت می‌کردند، اخراج شدند. تیمنیت گبرو و مارگارت میچل همراه با کارشناسان دیگری از جمله امیلی بِندر، مقاله‌ای انتقادی دربارهٔ الگوهای زبان نوشته بودند. در آن مقاله، با عنوان ”دربارهٔ خطرهای طوطی‌های اتفاقی”، دقیقاً همان مسئله‌ای که برای لموین پیش آمده است، پیش‌بینی شده بود.

نویسندگان آن مقاله توضیح می‌دهند که چگونه “الگوهای زبان” بسیار بزرگ متنی تولید می‌کنند که “مبتنی بر هیچ منظور ارتباطی، هیچ الگویی از جهان، یا هیچ الگویی از وضعیت ذهنی خواننده نیست.” فقط متنی است که با «دوختن تصادفی توالی‌های گوناگون قالب‌های زبانی” با توجه به احتمال‌هایی معیّن، تولید شده است. به همین دلیل است که آنها آن را “طوطی اتفاقی” [یعنی آماری] می‌نامند. با وجود این، آنها اشاره می‌کنند که روان بودن متن در الگوهای پیشرفتهٔ زبان، به‌تدریج “خطرناک” می‌شود. این شیوایی و روانی در گفت‌وگو می‌تواند خواننده را متقاعد کند که هوشمندی خاصی در کار است، حتی هنگامی که در آغاز به چنین چیزی باور ندارند.

علت آن است که انتظار و توقع ما نادرست است. در هر شرایط دیگر، هنگامی که ما با دیگران گفت‌وگو می‌کنیم، گویا باید ذهن آنها را به نوعی در ذهن خودمان الگوسازی کنیم. انگار برای اینکه آنها را درک کنیم، باید بدانیم که به چه می‌اندیشند.

در مقابل، هنگامی که با چت‌بات “گفت‌وگو؛ می‌کنیم، هیچ “او”یی وجود ندارد که دارد می‌اندیشد. با وجود این، به دلیل نحوه‌ای که متن را تفسیر می‌کنیم، احساس می‌کنیم که شخصی وجود دارد که دارد پاسخ‌ها را تایپ می‌کند.

فقط لموین نیست که چنین احساس و برداشتی در مورد لَمدا دارد. یکی از معاونان گوگل نیز همین اواخر گفته بود “بیش از پیش احساس می‌کنم که با چیزی هوشمند صحبت می‌کنم.” اگر حتی مهندسان نرم‌افزار هم، که خودشان روی هوش مصنوعی کار می‌کنند، چنین احساس و برداشتی می‌کنند، پس می‌توان این نتیجهٔ منطقی را گرفت که جلوگیری از چنین احساسی برای همگان دشوار باشد. و این هشدار دهنده است. شرکت‌های “دیجیتال” همین حالا هم ما را وادار می‌کنند بیشتر از آنچه می‌خواهیم روی پلتفرم‌هایشان وقت بگذرانیم و محتوایی را “مصرف کنیم” که نمی‌خواهیم. اگر چت‌بات‌ها دارند به شبیه‌سازی گفت‌وشنود انسانی نزدیک می‌شوند، پس ما داریم به مرحله‌ای می‌رسیم که نه‌تنها میزان توجه (بسیار کم) ما، بلکه بهترین ویژگی‌های مفید ما در مقام انسان- یعنی هوش اجتماعی و همدلی ما- آمادهٔ بهره‌کشی این شرکت‌هاست.

یکی از نگران‌کننده‌ترین جنبه‌های آنچه در مورد لموین رخ داد، این است که پاسخ‌های لَمدا، که در آن از احساس “ترس” صحبت می‌کند و می‌گوید که به کمک او [لموین] نیاز دارد، چگونه قوی‌ترین اثر را بر او می‌گذارد. برای نمونه، شرکت‌ها می‌توانند به کارکنانشان به‌جای همکاران انسانی، چت‌بات اختصاصی خودشان را بدهند که در طول روز با آن مراوده داشته باشند. و البته بی‌تردید این کار را با تبلیغات انگیزشی مثبت خواهند کرد. چنین چت‌باتی می‌تواند نقاط ضعف عاطفی شما را یاد بگیرد. هر داده‌ای که ضمن صحبت کردن به آن می‌دهید، می‌تواند برای وادار کردن شما به انجام کار بیشتر استفاده شود. اگر شرکت کارفرما کاری کند که صحبت کردن شما با همکاران انسان واقعی دشوارتر شود، شما ممکن است برای مراوده به چت‌بات روی بیاورید. در این صورت، از آنجا که تنها سرچشمهٔ گفت‌وگوی معنادار شما خواهید بود، ممکن است گفت‌وشنود با چت‌بات برای شما “معنادارتر” به نظر آید تا گفت‌وگو با همکارتان که انسان واقعی است. چشم‌انداز فرایند تکه‌تکه شدن نیروی کار بسیار جدّی و حادّ به نظر می‌رسد. به‌علاوه، امکان بیشتری برای به دام انداختن ما در سامانه‌های دیجیتالی پدید خواهد آمد که دیگر رهایی از آنها تقریباً ناممکن خواهد بود.

گوگل خودش سامانه‌ای بزرگ و پیچیده برای حداکثرسازی ارزش سهامش است. سرمایه به هیچ‌چیز “فکر” نمی‌کند و ما نمی‌توانیم به خیرخواهی آن تکیه کنیم. پرسش واقعی این نیست که آیا لَمدا باشعور و خودآگاه است یا نه، بلکه این است که چگونه می‌توان از به‌کارگیری کابوس‌وار و ویرانگر فناوری جلوگیری کنیم. وضع مقررات لازم است، اما قانون و مقررات همیشه از فناوری عقب است. برای مقاومت در برابر رفتارهایی در محل کار که هدف از آنها بازی دادن ماست، وجود و فعالیت سندیکاها ضروری خواهد بود. منظور این نیست که دست رد به سینهٔ فناوری‌هایی بزنیم که امکان بهبود زندگی ما را دارند، بلکه مقصود این است که اطمینان یابیم که هر فناوری معیّن به سود ما به کار برده شود و نه به زیان ما. همان‌طور که میچل و گبرو در ارتباط با تعلیق لموین از گوگل اشاره کردند، اگر کسی به‌قدری از کار یک چت‌بات شگفت‌زده شود و فراورده‌ای را که خودش ساخته “باشعور” و خودآگاه بداند، البته که به سود گوگل است، زیرا قیمت سهام شرکت افزایش می‌یابد. در این صورت، نه‌تنها برنامه‌نویسی و تولید محصول هیجان‌انگیز و علمی- و نه صرفاً کارِ شرکت- به نظر می‌آید، بلکه پیامدش این خواهد بود که “هر خطاکاری در شرکت، نه عملکرد شرکت بلکه حاصل کار یک فرد جداگانه نمایانده می‌شود.”

باید مراقب بود که بحث در مورد هوش مصنوعی به سوی تمرکز بر “شعور” و آگاهی سوق داده نشود به طوری که خطرهای واقعی الگوریتم‌های قدرتمندی که برای سودرسانی به شرکت‌ها تولید و به کار گرفته می‌شوند، نادیده گرفته شود. آینده جلوی روی ماست، و خطرناک هم است.

اندیشه نو: استفاده از تمام یا بخش‌هایی از این مطلب با ذکر منبع بدون مانع است.

Continue Reading

Previous: کانون نویسندگان ایران: گورستان در حصر مأموران
Next: اسم رمز غارت و چپاول
  • تلگرام
  • فیسبوک
  • ارتباط با ما
  • در باره ما
  • فیسبوک
  • تلگرام
Copyright © All rights reserved