عکس از شاتراستاک
سهشنبه ۶ آبان ۱۴۰۴
مطالعههای جدید «اتحادیهٔ پخش اروپا» (EBU) نشاندهندهٔ میزان زیاد خطا در چتباتهای پرطرفدار هوش مصنوعی است. این سامانهها همواره اطلاعاتی اختراع و منتشر میکنند و حتی منابع نادرست میدهند.
رادیو زمانه: شما از «چتجیپیتی» (ChatGPT) در مورد نتایج انتخابات میپرسید، از «کلود» (Claude) میخواهید خبرها را خلاصه کند، یا از « پرپلکسیتی» (Perplexity) دربارهٔ پیشزمینهٔ درگیری خاورمیانه اطلاعات میخواهید: میلیونها نفر روزانه به چتباتهای هوش مصنوعی بهعنوان منبع اطلاعات اعتماد میکنند. هر هفته فقط ۸۰۰میلیون نفر در سراسر جهان از چتجیپیتی استفاده میکنند. این دستیارهای دیجیتال در حال حاضر برای بسیاری جایگزین جستوجوی متداول در گوگل شدهاند.
اما بر اساس مطالعهٔ اخیر «اتحادیهٔ پخش اروپا» (EBU) این اعتماد خطرناک است. این کنسرسیوم متشکل از ۶۸ فرستنده خدمات عمومی از ۵۶ کشور قابلیت اطمینان پرطرفدارترین سامانههای هوش مصنوعی را آزمایش کرده است.
نتیجهٔ ترسناک این مطالعه چنین است: چتجیپیتی، کلود، «گوگل جمینای» (Google Gemini) و سایر چتباتها تا ۴۰درصد از پاسخهایشان را جعل میکنند و بهعنوان واقعیت ارائه میدهند.
توهمها: هوش مصنوعی قانعکننده دروغ میگوید
چتبات پرطرفدار چتجیپیتی مصرانه ادعا میکند که پاپ فرانسیس هنوز زنده است. «مایکروسافت کوپایلوت» (Microsoft Copilot)، که در برنامههای آفیس مانند «وُرد» (Word) و «اِکسل» (Excel) نیز حضور دارد، نمیداند که سوئد عضو ناتو است، و گوگل جمینای انتخاب مجدد دونالد ترامپ بهعنوان رئیسجمهور آمریکا را «ممکن» میداند، در حالی که این اتفاق مدتها پیش افتاده است.
پیتر پوش، اقتصاددان در دانشگاه فنی دورتموند، در این باره هشدار میدهد: «این سامانهها متقاعدکننده بهنظر میرسند، حتی زمانی که مدام چیزهای کاملاً اشتباهی ادعا میکنند.» او میافزاید: «این امر آنها را بهویژه برای کاربران بیتجربه خطرناک میکند، زیرا خطاها اغلب بلافاصله قابل تشخیص نیستند.»
متخصصان این پدیده را «توهم» (Hallucination) مینامند: هوش مصنوعی اطلاعاتی از خودش درمیآورد که منسجم بهنظر میرسد، اما هیچ مبنای واقعی ندارد. این توهم بهویژه در مورد رخدادهای منطقهیی، تحولات روز، یا زمانی که چندین فقره اطلاعات باید به یکدیگر مرتبط شوند رخ میدهد.
خطری برای دموکراسی
اما این برای جامعهای که افراد بیشتری اطلاعات خود را از چتباتها میگیرند، به چه معناست؟ پیامدها در حال حاضر نیز ملموس است: اطلاعات نادرست بهسرعت در رسانههای اجتماعی پخش میشوند، زیرا کاربران «واقعیتهای» تولیدشده توسط هوش مصنوعی را بدون بررسی به اشتراک میگذارند. دانشآموزان و دانشجویان اطلاعات ساختگی را در کارهای خود استفاده میکنند. شهروندان ممکن است بر اساس ادعاهای نادرست، تصمیمات انتخاباتی بگیرند.
نکتهای که بهطور خاص فریبنده است این است که بسیاری از کاربران اصلاً نمیدانند که چتباتها میتوانند توهم ایجاد کنند. آنها فرض میکنند که این فناوری بهصورت عینی و مبتنی بر واقعیت عمل میکند و این تصور غلط و خطرناکی است. سامانههای هوش مصنوعی اگرچه در شرایط استفاده، خود نسبت به خطاهای احتمالی هشدار میدهند، اما چه کسی آنها را میخواند؟
آسیب به روزنامهنگاری معتبر
مشکل دیگر به اعتبار رسانههای معتبر مربوط میشود. چتباتها بهطور منظم ادعا میکنند که اطلاعات ساختگی آنها از رسانههای معتبر نشأت میگیرد، در حالی که این مراکز خبری هرگز در مورد آن گزارش ندادهاند – یا گزارش کاملاً متفاوتی ارائه کردهاند. کاربران، زمانی که هوش مصنوعی از نام آنها برای اطلاعات نادرست سوء استفاده میکند، اعتماد خود را به منابع معتبر از دست میدهند.
مطالعه «اتحادیه پخش اروپا» چتباتها را با صدها پرسش واقعی در مورد رویدادهای تاریخی، یافتههای علمی و خبرهای روز مورد آزمایش قرار داد. بسته به حوزه موضوعی، نرخ خطا بین ۱۵ تا ۴۰ درصد بود. هیچ یک از هوشهای مصنوعی آزمایششده، بدون خطا عمل نکردند.
چرا هوش مصنوعی اشتباه میکند؟
مشکل در خود سیستم است: چتباتها واقعاً نمیفهمند چه میگویند. آنها بر اساس حجم عظیمی از متون محاسبه میکنند که کدام کلمات به احتمال زیاد با هم مطابقت دارند. آنها نمیتوانند درستی عبارتی را که تولید شده است بررسی کنند. آنها دانش واقعی ندارند، بلکه فقط الگوهای آماری دارند.
شرکتهای فناوری از این نواقص آگاهاند و در حال کار برای یافتن راهحلهایی هستند. پایگاههای داده را ادغام میکنند، منابع را بهبود میبخشند، و سامانهها را آموزش میدهند. میلیاردها دلار برای توسعه هزینه میشود. با این حال، توهمها همچنان مشکل اساسی حلنشده برای این فناوری باقی مانده است.
کاربران چه کاری میتوانند انجام دهند؟
«اتحادیه پخش اروپا» قوانین روشنی را برای کار با چتباتها توصیه میکند: هرگز کورکورانه اعتماد نکنید. همیشه اطلاعات مهم را بررسی کنید. در مورد خبرها و حقایق، بهجای هوش مصنوعی به رسانههای معتبر تکیه کنید. بهویژه در مورد موضوعهای سیاسی، مسائل پزشکی، یا تصمیمهای مالی احتیاط لازم است.
مدرسهها و دانشگاهها باید سواد رسانهای آموزش دهند: چگونه اطلاعات نادرستِ تولیدشده توسط هوش مصنوعی را تشخیص دهیم؟ کدام منابع قابل اعتمادند؟
با این حال، میلیونها نفر مدتهاست که روزانه از این فناوری استفاده میکنند. تا زمانی که این فناوری قابل اعتمادتر شود، قانون این است: چتباتها ممکن است برای کارهای خلاقانه یا بهعنوان کمکنویس کاربرد داشته باشند، اما بهعنوان واقعیتسنج یا منبع خبری مناسب نیستند، یا دستکم نباید ۱۰۰درصد به آنها اعتماد کرد.
کسانی که میخواهند آگاه شوند نمیتوانند از رسانههای معتبری دست بکشند که در آنها انسانها نگارش و ویرایش میکنند، منابع را بررسی میکنند، و ادعاها و شواهد را ارزیابی میکنند. انقلاب دیجیتال ممکن است بسیاری چیزها را تغییر دهد، اما لزوم تحقیق دقیق همچنان باقی است.