Skip to content
مارس 9, 2026
   ارتباط با ما       در باره ما       فیسبوک       تلگرام   

احترام به تفاوت اندیشه، همیاری و تلاش مشترک در راه تحقق آزادی

  • خانه
  • ایران
  • جهان
  • ویژه اندیشهٔ نو
  • اجتماعی
    • زحمتکشان
    • جوانان و دانشجویان
    • زنان
  • اقتصادی
  • فرهنگی – ادبی
  • محیط زیست
  • تاریخی
  • علوم اجتماعی
  • دیدگاه‌ها
  • Home
  • «هوش مصنوعی از هر سه پاسخ، یکی را جعل می‌کند»
  • دانش و فناوری
  • نوار متحرک

«هوش مصنوعی از هر سه پاسخ، یکی را جعل می‌کند»

عکس از شاتراستاک

سه‌شنبه ۶ آبان ۱۴۰۴

مطالعه‌های جدید «اتحادیهٔ پخش اروپا» (EBU) نشان‌دهندهٔ میزان زیاد خطا در چت‌بات‌های پرطرفدار هوش مصنوعی است. این سامانه‌ها همواره اطلاعاتی اختراع و منتشر می‌کنند و حتی منابع نادرست می‌دهند.

رادیو زمانه: شما از «چت‌جی‌پی‌تی» (ChatGPT) در مورد نتایج انتخابات می‌پرسید، از «کلود» (Claude) می‌خواهید خبرها را خلاصه کند، یا از « پرپلکسیتی» (Perplexity) دربارهٔ پیش‌زمینهٔ درگیری خاورمیانه اطلاعات می‌خواهید: میلیون‌ها نفر روزانه به چت‌بات‌های هوش مصنوعی به‌عنوان منبع اطلاعات اعتماد می‌کنند. هر هفته فقط ۸۰۰میلیون نفر در سراسر جهان از چت‌جی‌پی‌تی استفاده می‌کنند. این دستیارهای دیجیتال در حال حاضر برای بسیاری جایگزین جست‌وجوی متداول در گوگل شده‌اند.

اما بر اساس مطالعهٔ اخیر «اتحادیهٔ پخش اروپا» (EBU) این اعتماد خطرناک است. این کنسرسیوم متشکل از ۶۸ فرستنده خدمات عمومی از ۵۶ کشور قابلیت اطمینان پرطرفدارترین سامانه‌های هوش مصنوعی را آزمایش کرده است.

نتیجهٔ ترسناک این مطالعه چنین است: چت‌جی‌پی‌تی، کلود، «گوگل جمینای» (Google Gemini) و سایر چت‌بات‌ها تا ۴۰درصد از پاسخ‌هایشان را جعل می‌کنند و به‌عنوان واقعیت ارائه می‌دهند.

توهم‌ها: هوش مصنوعی قانع‌کننده دروغ می‌گوید

چت‌بات پرطرفدار چت‌جی‌پی‌تی مصرانه ادعا می‌کند که پاپ فرانسیس هنوز زنده است. «مایکروسافت کوپایلوت» (Microsoft Copilot)، که در برنامه‌های آفیس مانند «وُرد» (Word) و «اِکسل» (Excel) نیز حضور دارد، نمی‌داند که سوئد عضو ناتو است، و گوگل جمینای انتخاب مجدد دونالد ترامپ به‌عنوان رئیس‌جمهور آمریکا را «ممکن» می‌داند، در حالی که این اتفاق مدت‌ها پیش افتاده است.

پیتر پوش، اقتصاددان در دانشگاه فنی دورتموند، در این‌ باره هشدار می‌دهد: «این سامانه‌ها متقاعدکننده به‌نظر می‌رسند، حتی زمانی که مدام چیزهای کاملاً اشتباهی ادعا می‌کنند.» او می‌افزاید: «این امر آنها را به‌ویژه برای کاربران بی‌تجربه خطرناک می‌کند، زیرا خطاها اغلب بلافاصله قابل تشخیص نیستند.»

متخصصان این پدیده را «توهم» (Hallucination) می‌نامند: هوش مصنوعی اطلاعاتی از خودش درمی‌آورد که منسجم به‌نظر می‌رسد، اما هیچ مبنای واقعی ندارد. این توهم به‌ویژه در مورد رخدادهای منطقه‌یی، تحولات روز، یا زمانی که چندین فقره اطلاعات باید به یکدیگر مرتبط شوند رخ می‌دهد.

خطری برای دموکراسی

اما این برای جامعه‌ای که افراد بیشتری اطلاعات خود را از چت‌بات‌ها می‌گیرند، به چه معناست؟ پیامدها در حال حاضر نیز ملموس است: اطلاعات نادرست به‌سرعت در رسانه‌های اجتماعی پخش می‌شوند، زیرا کاربران «واقعیت‌های» تولیدشده توسط هوش مصنوعی را بدون بررسی به اشتراک می‌گذارند. دانش‌آموزان و دانشجویان اطلاعات ساختگی را در کارهای خود استفاده می‌کنند. شهروندان ممکن است بر اساس ادعاهای نادرست، تصمیمات انتخاباتی بگیرند.

نکته‌ای که به‌طور خاص فریبنده است این است که بسیاری از کاربران اصلاً نمی‌دانند که چت‌بات‌ها می‌توانند توهم ایجاد کنند. آن‌ها فرض می‌کنند که این فناوری به‌صورت عینی و مبتنی بر واقعیت عمل می‌کند و این تصور غلط و خطرناکی است. سامانه‌های هوش مصنوعی اگرچه در شرایط استفاده، خود نسبت به خطاهای احتمالی هشدار می‌دهند، اما چه کسی آن‌ها را می‌خواند؟

آسیب به روزنامه‌نگاری معتبر

مشکل دیگر به اعتبار رسانه‌های معتبر مربوط می‌شود. چت‌بات‌ها به‌طور منظم ادعا می‌کنند که اطلاعات ساختگی آن‌ها از رسانه‌های معتبر نشأت می‌گیرد، در حالی که این مراکز خبری هرگز در مورد آن گزارش نداده‌اند – یا گزارش کاملاً متفاوتی ارائه کرده‌اند. کاربران، زمانی که هوش مصنوعی از نام آن‌ها برای اطلاعات نادرست سوء استفاده می‌کند، اعتماد خود را به منابع معتبر از دست می‌دهند.

مطالعه «اتحادیه پخش اروپا» چت‌بات‌ها را با صدها پرسش واقعی در مورد رویدادهای تاریخی، یافته‌های علمی و خبرهای روز مورد آزمایش قرار داد. بسته به حوزه موضوعی، نرخ خطا بین ۱۵ تا ۴۰ درصد بود. هیچ یک از هوش‌های مصنوعی آزمایش‌شده، بدون خطا عمل نکردند.

چرا هوش مصنوعی اشتباه می‌کند؟

مشکل در خود سیستم است: چت‌بات‌ها واقعاً نمی‌فهمند چه می‌گویند. آنها بر اساس حجم عظیمی از متون محاسبه می‌کنند که کدام کلمات به احتمال زیاد با هم مطابقت دارند. آنها نمی‌توانند درستی عبارتی را که تولید شده است بررسی کنند. آنها دانش واقعی ندارند، بلکه فقط الگوهای آماری دارند.

شرکت‌های فناوری از این نواقص آگاه‌اند و در حال کار برای یافتن راه‌حل‌هایی هستند. پایگاه‌های داده را ادغام می‌کنند، منابع‌ را بهبود می‌بخشند، و سامانه‌ها را آموزش می‌دهند. میلیاردها دلار برای توسعه هزینه می‌شود. با این حال، توهم‌ها همچنان مشکل اساسی حل‌نشده برای این فناوری باقی مانده‌ است.

کاربران چه کاری می‌توانند انجام دهند؟

«اتحادیه پخش اروپا» قوانین روشنی را برای کار با چت‌بات‌ها توصیه می‌کند: هرگز کورکورانه اعتماد نکنید. همیشه اطلاعات مهم را بررسی کنید. در مورد خبرها و حقایق، به‌جای هوش مصنوعی به رسانه‌های معتبر تکیه کنید. به‌ویژه در مورد موضوع‌های سیاسی، مسائل پزشکی، یا تصمیم‌های مالی احتیاط لازم است.

مدرسه‌ها و دانشگاه‌ها باید سواد رسانه‌ای آموزش دهند: چگونه اطلاعات نادرستِ تولیدشده توسط هوش مصنوعی را تشخیص دهیم؟ کدام منابع قابل اعتمادند؟

با این حال، میلیون‌ها نفر مدت‌هاست که روزانه از این فناوری استفاده می‌کنند. تا زمانی که این فناوری قابل اعتمادتر شود، قانون این است: چت‌بات‌ها ممکن است برای کارهای خلاقانه یا به‌عنوان کمک‌نویس کاربرد داشته باشند، اما به‌عنوان واقعیت‌سنج یا منبع خبری مناسب نیستند، یا دست‌کم نباید ۱۰۰درصد به آنها اعتماد کرد.

کسانی که می‌خواهند آگاه شوند نمی‌توانند از رسانه‌های معتبری دست بکشند که در آنها انسان‌ها نگارش و ویرایش می‌کنند، منابع را بررسی می‌کنند، و ادعاها و شواهد را ارزیابی می‌کنند. انقلاب دیجیتال ممکن است بسیاری چیزها را تغییر دهد، اما لزوم تحقیق دقیق همچنان باقی است.

چاپ 🖨

Continue Reading

Previous: همدستی دولت‌ها در نسل‌کشی غزه؛ گزارشگر سازمان ملل در آفریقای جنوبی سخنرانی می‌کند
Next: آیا «تولید ناخالص داخلی»، شاخص مناسبی برای اندازه‌گیری رفاه مردم است؟
  • تلگرام
  • فیسبوک
  • ارتباط با ما
  • در باره ما
  • فیسبوک
  • تلگرام
Copyright © All rights reserved