Skip to content
آوریل 18, 2026
   ارتباط با ما       در باره ما       فیسبوک       تلگرام   

احترام به تفاوت اندیشه، همیاری و تلاش مشترک در راه تحقق آزادی

  • خانه
  • ایران
  • جهان
  • ویژه اندیشهٔ نو
  • اجتماعی
    • زحمتکشان
    • جوانان و دانشجویان
    • زنان
  • اقتصادی
  • فرهنگی – ادبی
  • محیط زیست
  • تاریخی
  • علوم اجتماعی
  • دیدگاه‌ها
  • Home
  • شما دیگر مالک روایت خود نیستید
  • دانش و فناوری
  • علوم اجتماعی
  • نوار متحرک
  • ویژه اندیشهٔ نو

شما دیگر مالک روایت خود نیستید

مصاحبهٔ مهران خلیلی با یانیس واروفاکیس و نائومی کلاین.

ترجمهٔ مینا آگاه – اندیشهٔ نو

سه‌شنبه ۲۱ بهمن ۱۴۰۴

سلام و خوش آمدید.‏
من مهران خلیلی هستم. ما DIEM25 هستیم، یک جنبش سیاسی رادیکال برای اروپا. و امشب، یک پرسش ساده را مطرح ‏می‌کنیم: چه کسی تصویر شما را کنترل می‌کند؟ چه کسی داستان شما را کنترل می‌کند؟
چیزی عجیب در زندگی عمومیِ چپ دارد رخ می دهد. بسیاری از شما می‌دانید که یانیس واروفاکیسِ خودمان اخیراً هم‌زمان ‏با دو موضوع کاملاً متفاوت مواجه بوده است. از یک سو، ویدئوهای جعلی از او به‌صورت آنلاین در گردش بوده‌اند؛ نه ‏به‌عنوان حملات سیاسی، بلکه به‌گونه‌ای ساخته شده‌اند که وایرال شوند، و میلیون‌ها بار دیده شده‌اند.
از سوی دیگر، او با مزاحمت‌های پلیسی بر سر اظهارنظرهایی که دهه‌ها پیش مطرح کرده بود، روبه‌رو شده است. اینها یک ‏مسئله نیستند، اما کنار هم قرار می‌گیرند و در مجموع پرسش‌های دشوارتری را دربارهٔ اعتبار، تقلید، حافظه و قدرت مطرح ‏می‌کنند.
چه کسی حق دارد تعریف کند شما که هستید؟ چه کسی حق دارد گذشته را ویرایش کند؟ و چه کسی از نظارت و پاسخ‌گویی ‏مصون است؟ این فقط دربارهٔ چهره‌های شناخته‌شده هم نیست. هر کسی که امروز به‌طور عمومی سخن می‌گوید؛ ‏سازمان‌دهندگان، کنشگران، نویسندگان، فعالان کارزارها؛ در معرض نسخه‌هایی از این وضعیت قرار دارد؛ شاید نه در همان ‏مقیاس، اما با پیامدهای واقعی.‏
اینها پرسش‌هایی هستند که از نویسنده و روزنامه‌نگار برندهٔ جوایز، که سال‌هاست با آنها دست‌وپنجه نرم می‌کند، نائومی ‏کلاین، می‌کنم. او در کتاب اخیرش، همزاد (یا بدل) (‏Doppelganger‏)، بررسی می‌کند که هویت‌ها چگونه کپی، تحریف ‏و بازاستفاده می‌شوند، و این فرایندها چه تأثیری بر حقیقت، سیاست و زندگی عمومی می‌گذارند. پس امشب قرار است این دو ‏چشم‌انداز را کنار هم بیاوریم. نائومی سال‌هاست این پویش‌ها را تحلیل کرده و یانیس آنها را زیسته است. دربارهٔ این گفت‌وگو ‏می‌کنیم که وقتی کنترل تصویر خود را از دست می‌دهید، چه اتفاقی می‌افتد؛ اینکه وقتی نهادها می‌توانند به گذشتهٔ شما ‏بازگردند، در حالی که خودشان تا حد زیادی غیر قابل دسترسی باقی می‌مانند، این چه معنایی دارد؛ و خواهیم پرسید جنبش‌ها ‏چگونه می‌توانند شفاف سخن بگویند، مطالبه کنند و مؤثر عمل کنند، بدون آن‌که به این هیاهو بیفزایند.‏
پس امشب با ما هستند: نائومی کلاین و یانیس واروفاکیس.‏
یانیس، از شما شروع کنیم. از دیدن نسخه‌هایی از خودتان که در حال گردش بودند و شما نه آنها را می‌شناختید و نه کنترلی ‏برشان داشتید، چه حسی داشت؟
یانیس: فوق‌العاده عجیب. ممنونم، مهران.
مهران: نائومی، بودن دوباره در کنار تو در این پنل در ‏DIEM25‎‏ برایم مایهٔ افتخار و خوشحالی بسیار است.
یانیس: مهران، اجازه بده به پرسشت با نقل یک داستان کوچک اما جالب پاسخ بدهم. باید بگویم داستان؟ چیزی که دو شب ‏پیش برایم اتفاق افتاد.‏
پیام بسیار خوشایندی دریافت کردم از سوی یکی از تهیه‌کنندگان که برای بی‌بی‌سی، تلویزیون بی‌بی‌سی، کار می‌کرد.
او گفت: «یانیس، ما آن سخنرانی‌ای را که اخیراً در یوتیوب دربارهٔ مادورو و گرینلند و این‌جور چیزها ارائه دادی دیدیم و ‏دوست داریم درباره‌اش در برنامه‌مان با تو صحبت کنیم.»‏
من روی لینکی که او در آن پیام واتس‌اپ گذاشته بود کلیک کردم و با وحشت دیدم که آن شخص من نیستم. یک نسخهٔ دیپ‌فیکِ ‏هوش مصنوعی از من بود. با بدل‌های بسیار خام و ابتدایی روبه‌رو شوی یک چیز است؛ اما چیز کاملاً متفاوتی است وقتی با ‏بدل‌هایی نسبتاً پیشرفته مواجه می‌شوی، به‌ویژه وقتی کسی مثل همان تهیه‌کنندهٔ بی‌بی‌سی آن را واقعی تلقی کند که بخواهد تو را ‏به برنامه‌اش دعوت کند.‏
مجبور شدم به او بنویسم و بگویم: «رفیق، آن من نبودم! یک دیپ‌فیکِ هوش مصنوعی از من بود.»‏
خب، واقعاً شگفت‌انگیز است که این بدل‌ها با چه سرعتی در حال پیشرفت‌اند؛ تا جایی که می‌توانند سردبیران و تهیه‌کنندگان ‏باسابقه را هم دچار سردرگمی کنند. باید به تو بگویم، نائومی، که یک مورد دیگر هم بود که در آن واقعاً قانع شده بودم دارم ‏دچار فراموشیِ پیری می‌شوم؛ چون یک ویدیوی دیگر از «خودم» دیدم، و چون کاملاً مطمئن بودم که خودم هستم، چرا که ‏داشت چیزهایی می‌گفت که خودم هم ممکن بود گفته باشم. دلیل اینکه فهمیدم خودم نیستم این بود که یک پیراهن آبی پوشیده بودم ‏در برابر این پس‌زمینه اینجا. این دفتر آتن من است. و آن پیراهن آبی هرگز خانه‌ام را در جزیره ترک نکرده بود. و به این ‏شکل فهمیدم خودم نیستم. بعد کمی بیشتر تماشا کردم و ناگهان، می‌دانید، همه چیزهایی که گفته می‌شد، چیزهایی بود که ‏می‌توانستم بگویم، اما ناگهان با چیزی همراه شد که هرگز نمی‌گفتم و می‌دانید، دشمنانم می‌توانستند به‌راحتی از آن برای بدنام ‏کردن من استفاده کنند.‏
خب، بنابراین، روبه‌رو شدن با این بدل‌ها فوراً، فوراً ذهن من و مهران را درگیر کرد. ما به کتاب شما فکر کردیم، می‌دانید، ‏‏«سفر» درون آینه‌ام، اه، جهان رسانه‌ای ما، و فکر کردیم هیچ بهانه‌ای بهتر از این نیست که حالا شما را دعوت کنیم تا ‏درباره‌اش با ما صحبت کنید.‏
نائومی: خب، من همیشه خوشحال می شوم از دیدار با شماها.‏
من خیلی خوشحالم که درباره‌اش با شما صحبت می‌کنم، یانیس، چون وقتی این تصمیم عجیب را گرفتم که درباره تجربه‌ام از ‏داشتن یک همزاد (بدل) بنویسم، کسی که بسیاری، بسیاری از مردم در مقیاس وسیع فکر می‌کردند من هستم، و این یک ‏دیپ‌فیک دیجیتال نبود. این یک فرد دیگر بود. اما این احساس را داشتم که دارم نگاهی گذرا به آینده می‌اندازم. انگار این حس ‏را داشتم که به‌زودی همه‌مان در حال نبرد با بدل‌های دیجیتال‌مان خواهیم بود، چون وقتی داشتم این را تجربه می‌کردم، همان ‏زمانی بود که شروع کردیم واقعاً دیدن اینکه دیپ‌فیک‌ها بهتر و بهتر می‌شوند و چَت‌جی‌پی‌تی بیرون آمد. و بنابراین، می‌دانید، ‏من از تجربه بدلِ خودم واقعاً به‌عنوان نوعی لنز استفاده کردم تا از تصویر آینه‌ای عبور کنم و تصور کنم همه اینها به کجا ‏می‌رود. و از همین رو، می‌توان آن را پیامد منطقی «اقتصادِ توجه» دانست؛ اقتصادی که در آن، ما در بسیاری از عرصه‌ها، ‏پیش‌تر کنترل خود را از دست داده‌ایم. ‏
همان‌طور که شما تجربه‌ای به‌غایت افراطی داشته‌اید؛ جایی که صدها هزار، یا حتی میلیون‌ها نفر، در حال تماشای چیزی ‏هستند که شما نیستید.‏
و به‌ گمانم در مورد شما، این مسئله در برخی موارد انگیزه‌ای سیاسی هم دارد؛ بدیهی است که دشمنانی دارید و افرادی که ‏علاقه‌مندند اعتبار شما را تخریب کنند. اما در عین حال ــ با عرض پوزش ــ شما یک برند موفق و قابل تبدیل به درآمد نیز ‏هستید. بنابراین، وقتی همهٔ این عناصر را کنار هم می‌گذاریم، حتماً کسانی هستند که می‌گویند: «این یانیس واروفاکیس است؛ ‏فرصت پول‌سازی را از دست می‌دهد؛ در حالی که می‌توانست بی‌وقفه در حال کسب درآمد باشد.»‏
‏ من یک تجربه عجیب داشتم، یانیس، که مدت کوتاهی بعد از اینکه «همزاد» منتشر شد، چند نامه دریافت کردم و بعد کسی این ‏ایده را به من پیشنهاد داد. آنها می‌گفتند:« واقعاً باید یک بدل داشته باشی. اساساً می‌گفتند می‌توانی این همه پول دربیاوری، ‏می‌تواند یک «تو»ی مجازی وجود داشته باشد که تو را در همه این کنفرانس‌ها نمایندگی کند و تو لازم نباشد بروی». من ‏گفتم کتاب را خوانده‌اید؟ واقعاً گمان نمی‌کنم این آن شیوه‌ای باشد که بخواهیم زندگی‌هایمان را بر اساس آن پیش ببریم.‏
‏ اما در واقع یک صنعت کامل شکل گرفته که در آن سراغ چهره‌های عمومی می‌روند و می‌گویند: «ببین، می‌شود یک نسخهٔ ‏کاملاً دیگر از «تو» وجود داشته باشد که بیرون دارد به‌جای «تو» نمایندگی‌ات می‌کند و این ویدئوهای یوتیوب را می‌سازد.» ‏و برای اینکه این خط فکری را جمع‌بندی کنم و بگویم چرا چنین چیزی منطقی به نظر می‌رسد: ما عملاً از پیش کنترل ‏خودمان را از دست داده‌ایم.‏
‏ همان‌طور که می‌دانید و همان‌طور که در «تکنوفئودالیسم» نوشتید، آنها از قبل همه داده‌های ما را گرفته‌اند. از قبل هوش‌های ‏مصنوعی‌شان را با کتاب‌های ما آموزش داده‌اند. از قبل آنها را با هر چیزی که تا به حال گفته‌ایم آموزش داده‌اند. پس آن داده‌ها ‏منتظر ظهور به شکل بدل دیجیتالی بودند. و بعد از میان هوش مصنوعی عبور داده می‌شوند و ناگهان می‌بینید، شما آنجا در ‏یوتیوب هستید. این مدت‌ها در حال ساخت بوده است و همان‌طور که در هر گامِ مسیر، برای خودمان آن را توجیه کرده‌ایم، ‏‏«خب، شاید اصلاً به آن داده‌ها نیازی نداشته باشم؛ شاید هم اشکالی نداشته باشد که از کتاب‌هایمان و از کلمه‌هایمان برای ‏آموزش استفاده کرده باشند و و و…»می‌دانید، در نهایت آنها می‌آیند تا همان‌طور که شما می‌گویید، صورت ما، صدای ما، ‏پوست ما را بگیرند، و بعد شما در حال جنگ هستید. یعنی من شنیدم که شما درباره‌اش صحبت کردید و دوست دارم بیشتر از ‏شما بشنوم. تجربه تعامل با این شرکت‌های جعبه سیاه! جعبه سیاه؛ چون نمی‌توانید به گوگل زنگ بزنید و بگویید: «هی، این ‏را بردارید.» چون آنجا انسانی وجود ندارد؛ طوری ساخته شده که انسانی آنجا نباشد. پس وقتی سعی می‌کنید خودتان را پس ‏بگیرید، چه اتفاقی می‌افتد؟

یانیس: به یک دیوار آجری برخورد می کنی. تجربهٔ من این بود که به گوگل نوشتم، چون آنها مالک یوتیوب هستند و بیشتر ‏آن جعلی‌ها، نه همه‌شان، اما بیشترشان، روی یوتیوب بودند، و برای مدتی هیچ پاسخی نگرفتم، بعد وقتی بالاخره پاسخ دادند، ‏از من خواستند فرم‌های بیشتری پر کنم، بعد باز هم فرم‌های بیشتر، و بعد باز هم فرم‌های بیشتر، این آدم‌ها اگر بخواهند یک ‏ویدئو را مسدود کنند، می‌توانند این کار را در کسری از ثانیه انجام دهند، پس روشن است که مدل کسب‌وکارشان این است که ‏از تصویر شنیداری-‌دیداریِ تو استفاده کنند، چون با تأسف باید بگویم که در دو ماه گذشته، دیپ‌فیک‌های هوش مصنوعیِ من ‏بازدیدهای خیلی بیشتری از خودِ من داشتند، و این دقیقاً مدل کسب‌وکار آنهاست، این‌طوری داده‌های مردم را جمع می‌کنند تا ‏تبلیغات را هدف‌گذاری کنند و ترافیکی بسازند که چشم‌های مردم را به صفحه می‌چسباند، بنابراین برای آنها این دیپ‌فیک‌های ‏هوش مصنوعی سودآورتر از نسخهٔ واقعیِ من بودند، و در نهایت هفت، هشت روز طول کشید تا دیپ‌فیک‌های اصلی را پایین ‏بیاورند، و ظرف ۲۴، بین ۲۴ تا ۲۵ ثانیه، چون تیم من این را دقیقاً رصد می‌کرد، دقیقاً همان ویدئوها و حتی ویدئوهای ‏بیشتری در یک کانال دیگر یوتیوب ظاهر شدند، پس این وضعیت مثل یک اژدهای چند سر است، یک سر را قطع می‌کنی و ‏ده سر جدید در کسری از ثانیه رشد می‌کند، و ما می‌دانیم که این نتیجهٔ یک اشکال فنی در هیولایی به نام گوگل یا تیک‌تاک یا ‏اینستاگرام نیست، این مدل کسب‌وکار آنهاست.‏
و در نهایت، همان‌طور که می‌دانی، یادت هست، به‌خصوص بعد از ۲۰۰۸، این کمونیست‌ها نبودند که خانه‌های مردم را ‏گرفتند، بلکه وال‌استریت بود، این بانکدارها بودند که دارایی‌های اندک طبقهٔ کارگر و آن قشری را که رؤیای عضو شدن در ‏طبقهٔ مالکان را داشتند، مصادره کردند، رؤیایی که بعد از فروپاشی ۲۰۰۸ دود شد و به هوا رفت، و حالا ما حتی، فراتر از ‏داده‌ها، دیگر مالک تصویر شنیداری-ـ‌دیداریِ خودمان هم نیستیم.‏
نائومی: ببخشید که این را می‌گویم، یانیس، اما تجربهٔ تو من را یاد اصطلاح کوری دکترو۱‏ در مورد «زوال پلتفرمی‏»۲ ‏می‌اندازد، چون واقعاً چیزی که تو توصیف می‌کنی همین است، این تصور که نسخه‌ای از تو وجود دارد که آماده است برای ‏جذب بازدید، دست به هر نوع نمایش اغراق‌آمیز و «عجیب‌پردازی»۳‏ بزند، از همان بندانگشتی‌هایی که سرت را میان ‏دست‌هایت گرفته‌ای؛ نشان می‌دهد که اگر هدف فقط بیشتر دیده شدن بود، با وقف خودت به انجام همین کار، می‌توانستی ‏به‌مراتب بازدید بیشتری هم داشته باشی. اگر هدف زندگی‌ات حداکثر کردن میزان تعامل بود. و به همین دلیل است که می‌گویم ‏این نتیجهٔ منطقیِ رفتن همهٔ ما به پلتفرم‌های آنهاست، و این معامله‌های کوچکی است که با خودمان می‌کنیم، اینکه خب شاید ‏اشکالی نداشته باشد، چون مردم در نهایت به سمت کتاب‌ها می‌آیند، و فکر می‌کنیم هنوز کنترلی داریم.‏
اما واقعاً فکر می‌کنم این موضوع به عقب‌تر برمی‌گردد، اولین کتاب من که در دههٔ نود نوشتم، «بدون لوگو»، دربارهٔ خیزش ‏برندسازی شخصی بود، ایدهٔ برند سبک زندگی، و این تصور که بله، شغل‌هایمان را از دست می‌دهیم، اما قرار است همه به ‏برندهای شخصی تبدیل شویم، آن زمان این ایده مضحک بود، چون فقط اپرا یا مایکل جردن می‌توانستند برند باشند، نه یک آدم ‏معمولی، اما بعد آیفون و شبکه‌های اجتماعی آمدند و همه به یک آژانس تبلیغاتی رایگان دسترسی پیدا کردند.‏
وقتی به این فکر می‌کنم که چه کسانی دیپ‌فیک‌های تو را می‌سازند، می‌بینم خیلی‌هایشان نیت بدی ندارند، آنها فقط دارند تقلا ‏می‌کنند، نسلی که می‌داند هرگز شغلی نخواهد داشت، دوره‌هایی دیده دربارهٔ اینکه چطور زیر دست‌وپای سرمایه‌داری له نشود، ‏و به این نتیجه رسیده که پول در پولی‌سازی برند دیگران است، چون خودشان به اندازهٔ کافی این کار را نمی‌کنند، و بنابراین ‏بله، این دربارهٔ اقتصاد پلتفرمی است، اما در نهایت دربارهٔ این است که سرمایه‌داری ما را به کجا رسانده است.‏
و حالا سؤال این است، تو دربارهٔ کسانی که این کار را می‌کنند چه احساسی داری؟
یانیس: خب، من تعداد زیادی از آنها را تماشا کرده‌ام، همان‌طور که می‌توانی تصور کنی، و می‌بینم که انگیزه‌های متفاوتی ‏دارند، بعضی از آنها آشکارا فقط برای پول این کار را می‌کنند، برای بازدید، برای راه انداختن ماشین پولی‌سازی یوتیوب و ‏اینستاگرام، درصد کوچکی هم صادق‌ترند و در کانال‌هایشان می‌گویند این یک دیپ‌فیک است، می‌گویند اجازه ندارند، اما سعی ‏کرده‌اند وفادار بمانند، و معمولاً چیزهایی می‌گویند که من می‌توانستم گفته باشم، و بعد دستهٔ سوم هم هست.‏
دستهٔ سوم بدخواهانه‌ترین است، آنهایی که می‌خواهند واقعاً به من آسیب جدی بزنند، بنابراین چیزهایی را که من دربارهٔ ‏اوکراین، دربارهٔ غزه، دربارهٔ فلسطین گفته‌ام برمی‌دارند و بعد، می‌دانی، بعد از بیست جمله که کاملاً با دیدگاه‌های من و آنچه ‏من می‌گفتم سازگار است، ناگهان یک جمله وارد می‌کنند که آشکارا طرفدار پوتین است یا آشکارا ضد یهودی است، تا من را ‏به‌عنوان، می‌دانی، یک نوکر پوتین یا یک یهودی‌ستیز نشان دهند، و این برای من، شخصاً، همان‌طور که می‌توانی تصور ‏کنی، مرگبارترین استفاده از این فناوری است، اما تو به کوری دکترو اشاره کردی که اتفاقاً دوست این برنامه است و قبلاً در ‏DMT TV‏ اینجا بوده، و فرضیهٔ «اینشیتیفیکیشن» او که واقعاً جذاب است، چون خیلی فراتر می‌رود از ایدهٔ سرمایه‌داری ‏نظارتی، چون اگر به کتاب زوبوف نگاه کنی و این ایده که سرمایهٔ انحصاری از رسانه‌های اجتماعی استفاده می‌کند تا اساساً ‏الگوهای مصرف ما را بهتر و بهتر در راستای منافع فروشندگان شرکت‌های چندملیتی هدایت کند. اما نه، موضوع خیلی بدتر ‏از اینهاست، و فکر می‌کنم دکترو خیلی خوب توضیح می‌دهد که چرا خیلی بدتر است، چون البته که این کار را می‌کنند، اما ‏اگر مقایسه‌اش کنی مثلاً با شرکت‌های تبلیغاتی دههٔ ۱۹۶۰ و ۱۹۷۰ که کاملاً از نظر منافع با کوکاکولا، مک‌دونالد، بثلهِم ‏استیل، با هر شرکت سرمایه‌داری انحصاری‌ای که برایش کار می‌کردند هم‌راستا بودند، گوگل و متا این‌طوری نیستند، کاری ‏که آنها می‌کنند این است که هم ما را به‌عنوان رعیت‌هایی که وارد این دزدهای ابری می‌شویم، خب این اسمی است که من روی ‏پلتفرم‌هایشان می‌گذارم، پلتفرم‌های دیجیتالشان، به‌عنوان مصرف‌کننده و کاربر جذب می‌کنند، اما هم‌زمان شرکت‌ها را هم جذب ‏می‌کنند، می‌دانی، تولیدکنندگان، سازندگان دستگاه‌های قهوه‌ساز یا تولیدکنندگان دوچرخه‌های برقی و این‌جور چیزها، یا حتی ‏ناشران، مجلات، روزنامه‌ها، در ابتدا پول زیادی برایشان درمی‌آورند و این دقیقاً همان نکتهٔ اینشیتیفیکیشن است.‏
وقتی یک سرمایه‌دار کوچک، یک سرمایه‌دار متوسط، حتی یک سرمایه‌دار بزرگ مثل نیویورک تایمز یا واشنگتن پست، ‏برای فروش کالاهایش به آن پلتفرم وابسته می‌شود، آن‌وقت پلتفرم‌ها کاری که می‌کنند این است که شرکت تو را در ‏رتبه‌بندی‌ها، در سلسله‌مراتب دیده شدن، پایین می‌کشند و عملاً از تو باج‌ می‌گیرند؛ اگر می‌خواهی دوباره تو را بالا ببرند، ‏باید سهم بزرگ‌تری از درآمدت را به آنها بدهی، پس کل نکتهٔ اینشیتیفیکیشن این است که این دزدهای ابری، این پلتفرم‌های ‏دیجیتال، تو را جذب می‌کنند و وقتی به آنها وابسته شدی، مثال دیگرش اوبر است، درست؟ اوبر یک الگوی تبعیضِ خریدارِ ‏انحصاری دارد که در آن، به رانندگانی که تمایلی به استفاده از اپ اوبر ندارند، نرخ‌های بسیار بالاتری به ازای هر مایل یا ‏هر کیلومتر پیشنهاد می‌دهد، و وقتی آنها را جذب کرد، بعد به آنها وام می‌دهند تا ماشین بهتری بخرند تا نرخ بالاتری به ازای ‏هر مایل بگیرند، و وقتی آنها را بدهکار کردند، وقتی این رانندگان بدهکار شدند و کاملاً با پلتفرم درهم‌تنیده شدند، ناگهان یک ‏سقوط شدید در نرخ مزدشان رخ می‌دهد. این همان فرایند است.‏
نائومی: بله، بله، بله، و منظورم این است که می‌دانم می‌خواهی وارد بحث شوی، اما باشه، برمی‌گردم.‏
مهران: فقط می‌خواستم سریع با چند سؤال و نظر از چت وارد شوم و بعد دوباره میکروفن را به تو می‌دهم، نائومی، ممنون ‏که فرصت دادی.‏
سایت ‏Scary Socks‏ می گوید «هوش مصنوعی که بر پایهٔ سرقت ساخته شده کاملاً غیراخلاقی است.» و ‏Scnut‏ ‏اضافه می‌کند: «به نظر من باید سازوکاری وجود داشته باشد که بتواند مالکیت واقعی هر ویدیو را اثبات کند؛ مشابه ‏واترمارک‌هایی که برای اسکناس‌ها به کار می‌رود؛ هرچند دقیقاً نمی‌دانم این سازوکار چگونه باید عمل کند.» و پیشنهادهای ‏زیادی در این راستا هست، نوعی راه‌حل‌های فناورانه. ‏Xvale‏ دربارهٔ امضای دیجیتال صحبت می‌کند، اینکه محتوا در لحظهٔ ‏تولید قفل شود. تری می‌پرسد چگونه می‌توانیم بدون داشتن شناخت دقیق از کسانی که دست به کپی‌سازی می‌زنند، با این ‏جعل‌کنندگان مقابله کنیم؟ پس وقتی بحث را به تو برمی‌گردانم، نائومی، اگر بتوانی به بعضی از این پرسش‌ها بپردازی، و ‏همچنین تو، یانیس، و اگر اجازه بدهی از تو بپرسم، خطر همهٔ این دیپ‌فیک‌ها وهمزادسازی‌ها فقط تحریف واقعیت است یا ‏در بلندمدت ضربه‌ای به اعتبار وارد می‌کند ؟
نائومی: بله، منظورم این است که فکر می‌کنم چیزهای زیادی در جریان است، اول از همه در مورد این پرسش که آیا می‌شود ‏دیپ‌فیک‌ها را ممنوع کرد یا کاری در این باره انجام داد، البته کارهای زیادی هست که می‌توان انجام داد و انجام نمی‌شود، ‏چون این شرکت‌ها آن‌قدر قدرتمند هستند و چون دارند دولت‌ها را اداره می‌کنند، یعنی به چیزی مثل کاری که گروک۴ ا‏نجام داد ‏فکر کن، کاری که ایلان ماسک از طریق گروک انجام داد، اینکه به هوش مصنوعی‌اش اجازه داد زنان و دختران را ‏به‌صورت دیجیتال عریان کند، عملاً پورنوگرافی کودک تولید کند، اما در واقع زنان را در مقیاس وسیع تحقیر کند، درست ‏است؟ یعنی از آن به‌عنوان یک ابزار سیاسی استفاده شد، واقعاً، چیزی که یانیس توصیف می‌کند دربارهٔ اینکه دشمنان ‏سیاسی‌ات می‌آیند و حرف‌هایی را در دهانت می‌گذارند که هرگز نمی‌گفتی. خب با زنان، آنها فقط لباس‌ها را از تنشان ‏درمی‌آورند، درست است؟ و این چیزی است که اجازه داده می‌شود روی این پلتفرم‌ها اتفاق بیفتد، اگر فقط آن را ممنوع کنند یا ‏شرکت‌هایی که قوانین را رعایت نمی‌کنند را کلاً ممنوع کنند جلوگیری از این کار خیلی آسان بود. اما چیزی که ما در آن ‏زندگی می‌کنیم شورش علیه ابتدایی‌ترین و معقول‌ترین مقرراتی است که می‌توانست جلوی اینها را بگیرد، چون این شرکت‌ها ‏دارند یکدیگر را از میدان بیرون می‌رانند، می‌دانی، از چین به‌عنوان بهانه استفاده می‌کنند تا آخرین شرکت باقی‌مانده در جهان ‏باشند، اگر به حرف‌هایشان گوش بدهی، این همین را می‌گویند. سم آلتمن۵ با شور و شوق می‌گوید در نهایت ما می‌شویم ‏رعیت، و تازه می‌توانیم سهام‌دارِ اوپن‌اِی‌آی، آخرین شرکتِ روی زمین، باشیم. و این همان چیزی است که شرکت‌ها بر سر آن ‏همه چیز را قمار می‌کنند؛
شیدایی، شتاب دیوانه‌وار، سرعتی که ماسک با آن ابررایانه‌ها را در ممفیس بالا آورد، و این مسموم کردنِ کل جامعه. نمی‌دانم ‏تو این را دنبال کرده‌ای یا نه یانیس، اما او یک منطقهٔ فقیرِ سیاه‌پوست در ایالات متحده را هدف گرفت و آقای انرژی سبز، ‏بزرگ‌ترین ابررایانهٔ جهان را، که حالا سه تا از آنها برای تغذیهٔ گروک هستند، با توربین‌های عظیم گازسوز راه انداخت که ‏قرار بود موقتی باشند، عملاً نیروگاه خودش را ساخت و هوا را مسموم کرد، چون در مسابقه‌ای بود برای شکست دادن سم ‏آلتمن و شکست دادن گوگل، بنابراین آنها مقررات را نمی‌پذیرند، مسئله این نیست که ندانیم چطور باید این را تنظیم کرد، شاید ‏تو با من موافق نباشی، اما من فکر می‌کنم تنظیمگری ممکن است.، مسئله این است که ما در دلِ یک شورشِ بسیار موفق علیه ‏مقررات زندگی می‌کنیم؛ شورشی که در جریانش همهٔ ناظران محتوا (‏Content Moderator‏) را اخراج کرده‌اند. آنها ‏اصلاً نمی‌خواهند این سیستم به نفع ما کار کند؛ می‌خواهند فقط به نفع خودشان کار کند.‏
یانیس: من اصلاً با شما مخالفتی ندارم. برای اینکه مقررات‌گذاری وجود داشته باشد، باید دولتی وجود داشته باشد که تا حدی ‏از کسانی که قرار است تنظیمگری شوند، استقلال داشته باشد. در غیر این صورت، نهادهای ناظر به تصرف درمی‌آیند و آن ‏وحشتی که- می‌دانید، آن وحشتی که از چیزی بیرون می‌تراود که من آن را «سرمایهٔ ابری» می‌نامم-پدیدار می‌شود؛ این ‏ماشین‌ها که هیچ‌چیز تولید نمی‌کنند جز قدرتِ تغییر و دست‌کاری رفتار مردم.
این ماشین‌ها، بنا به ماهیتشان، به مالکانشان ظرفیتی شگفت‌انگیز می‌بخشند برای از کار انداختن دولت و از کار انداختن ‏نهادهای ناظر.‏
پس با اینکه شما کاملاً حق دارید، کاملاً حق دارید، اما واقعاً الان چقدر طول می‌کشد؟ شاید یک ساعت برای گوگل کافی باشد ‏تا راهی برای از بین بردن این هوش‌های مصنوعی دیپ‌فیک پیدا کند. منظورم این است: ببینید الگوریتم‌هایشان با چه سرعت ‏و کارایی‌ای هرگونه نقض حق‌کپی‌رایتِ سایر شرکت‌ها را ریشه‌کن می‌کنند. اگر من و شما تلاش کنیم تکهٔ کوچکی از موسیقیِ ‏دوستمان برایان اینو یا مثلاً پینک فلوید را در یکی از ویدئوهای یوتیوب‌ خودمان بگذاریم و آن را بارگذاری کنیم، در عرض ‏چند ثانیه الگوریتم گوگل تشخیص می‌دهد که ما یکی از قواعد حق‌کپی‌رایت را نقض کرده‌ایم.
بنابراین آنها می‌توانند کاری بسیار مشابه انجام دهند تا مطمئن شوند این هوش‌های مصنوعی دیپ‌فیک وجود نداشته باشند، اما ‏این کار را انتخاب نمی‌کنند، چون می‌توانند از زیر بارش در بروند.‏
شما به ایلان ماسک اشاره کردید. روشن است که- با استفاده دوباره از اصطلاح کوری- «آشغال‌سازی» توییتر، شیوه‌ای که ‏توییتر عملاً به یک فاضلاب تبدیل شده، یک فاضلاب دیجیتال. حالا پرسش این است: آیا این به این دلیل است که ایلان ماسک ‏کنترل ‏X‏ را از دست داده؟ یا به این دلیل است که او عمیقاً به آزادی بیانِ کسانی باور دارد که می‌خواهند سراسر فضای ‏دیجیتال و رسانه‌های اجتماعی ما را به آلودگی بکشانند؟ یا مسئله چیز دیگری است؟
از نظر من، این یک داستانِ استیو بنن است؛ همان «غرق کردن فضا با آشوب». اجازه بدهید حالا خطاب به مخاطبانمان ‏بگویم: چه کسی از یک شبکهٔ اجتماعی که پر از هیاهوست سود می‌برد؟ نازی‌ها و ساختار مستقر. یعنی کسانی که تغییر ‏نمی‌خواهند؛ کسانی که دولتی را نمی‌خواهند که آنها را تنظیمگری کند؛ کسانی که نمی‌خواهند مردم (دموس) هیچ سهمی در ‏دموکراسی، به‌اصطلاح دموکراسی، داشته باشند؛ همان‌هایی که اساساً می‌خواهند همه‌چیز را تصاحب کنند: از صنعت، از ‏کسب‌وکارهای کوچک، از فروشگاه‌های فیزیکی و خواربارفروشی‌ها- مثلاً با اینستاکارت- می‌خواهند کنترل همه‌چیز را به ‏دست بگیرند؛ می‌خواهند رسانه‌های خبری ما را نیز تصاحب کنند، و یا آنها را جایگزین کرده‌اند یا به‌سادگی بلعیده‌اند؛ مثل ‏واشنگتن پُست، و بعد به روزنامه‌نگارانش دستور می‌دهد که هیچ‌چیزی را که با حفظ قدرت من بر مردم ناسازگار است، به ‏چالش نکشند‎.‎
این یک مسئلهٔ سیاسی است، نه یک مسئلهٔ فناورانه. کاملاً و به‌تمامی یک مسئلهٔ سیاسی است. ما می‌توانستیم قوانینی وضع کنیم ‏تا قابلیت تعامل‌پذیری اجباری شود، به‌طوری که بتوانید از توییتر خارج شوید و مثلاً به بلواسکای بروید، بدون اینکه ‏دسترسی‌تان به دنبال‌کنندگان خودتان را از دست بدهید؛ اما این کار را نمی‌کنیم.
ضمناً چینی‌ها این کار را کرده‌اند. دولت چین محدودیت‌های بسیار شدیدی بر شبکه‌های اجتماعی اعمال کرده است—و اینها ‏محدودیت بر آزادی بیان نیست، برخلاف چیزی که ایلان ماسک ممکن است بگوید. نه؛ اینها محدودیت‌هایی بر قدرت ‏افسارگسیختهٔ مالکان شبکه‌های اجتماعی است.‏
این همان نقطه‌ای است که بحث «آزادی بیان» به‌عنوان یک پوشش ایدئولوژیک به کار گرفته می‌شود. مسئله اصلاً آزادی ‏بیان نیست؛ مسئله تمرکز قدرت است. وقتی چند پلتفرم خصوصی بتوانند عملاً زیرساخت گفت‌وگوی عمومی را در اختیار ‏بگیرند، آن‌وقت نه دولت، نه جامعه و نه حتی نهادهای نظارتی توان اعمال حاکمیت ندارند. این یعنی برون‌سپاری قدرت از ‏حوزهٔ عمومی به مالکیت خصوصی.‏
اگر واقعاً نگران آزادی بیان بودیم، باید نگران این می‌بودیم که چه کسی تصمیم می‌گیرد چه چیزی دیده شود و چه چیزی دفن ‏شود. الگوریتم‌ها خنثی نیستند؛ آنها به‌طور سیستماتیک به نفع کسانی عمل می‌کنند که سرمایه، نفوذ و دسترسی دارند. نتیجه‌اش ‏هم همان چیزی است که می‌بینیم: انبوهی از سر و صدا، نفرت، جعل، تحریف و در عین حال خاموش‌سازی هر صدایی که ‏بتواند تهدیدی واقعی برای وضع موجود باشد.‏
پس دوباره تأکید می‌کنم: این یک مشکل فنی نیست که با «هوش مصنوعی بهتر» یا «الگوریتم اخلاقی‌تر» حل شود. این یک ‏مسئلهٔ سیاسی است، مسئلهٔ قدرت، مالکیت و حاکمیت. تا زمانی که دولت‌ها جرات نکنند قدرت این پلتفرم‌ها را محدود کنند، تا ‏زمانی که دموکراسی نتواند خود را در برابر «سرمایه‌داری ابری» بازپس بگیرد، همین وضعیت ادامه خواهد داشت.‏
و بله، راه‌حل‌ها وجود دارند: از الزام به قابلیت همکاری گرفته تا شکستن انحصارها، از مالکیت عمومی زیرساخت‌های ‏دیجیتال گرفته تا پاسخ‌گو کردن مدیران پلتفرم‌ها. اما هیچ‌کدام از اینها اتفاق نخواهد افتاد مگر اینکه این توهم را کنار بگذاریم ‏که مشکل، تکنولوژی است. مشکل، سیاست است؛ کاملاً و بی‌هیچ تردیدی.‏

نائومی: یعنی البته محدودیت‌هایی هم بر آزادی بیان وجود دارد، اما می‌دانید، بله، با این حال کارهای بسیار زیادی هست که ‏می‌توانند انجام دهند. و من اغلب به این فکر می‌کنم—به‌ویژه با توجه به اینکه چه مدت است یکدیگر را می‌شناسیم و در چه ‏زمینه‌ای با هم آشنا شدیم، یعنی در پس‌لرزه‌های بحران مالی، بحرانی در راه است. در دل همهٔ اینها، یک بحران در حال ‏شکل‌گیری است. وقتی حباب هوش مصنوعی بترکد، ریزش شدید بازار رخ خواهد داد، درست است؟ همهٔ این غول‌ها به‌شدت ‏بیش از حد بدهکار شده‌اند، آنهایی که با هم مسابقه گذاشته‌اند تا تنها شرکتِ باقی‌مانده باشند. آنها در سراسر جهان مراکز دادهٔ ‏تکراری می‌سازند تا هرچه بیشتر از آنچه «قدرت محاسباتی» می‌نامند در اختیار داشته باشند. و همه‌شان می‌دانند که فقط جا ‏برای یک غول باقی می‌ماند. من از آنهایی نیستم که فکر کنند کل این سیستم فرو خواهد پاشید، اما معتقدم یک اصلاح بزرگ ‏در پیش است.‏
و در پی آن، نوعی نجات مالی (‏bailout‏) هم رخ خواهد داد. و اگر ما واقعاً حاکمیتی داشتیم که می‌توانستیم بر این شرکت‌ها ‏نظارت و مقررات اعمال کنیم، آن لحظه، همان لحظهٔ تعیین‌کننده خواهد بود. لحظه‌ای که آنها دستشان را دراز می‌کنند و ‏حاکمیت می‌گوید: «مگر شما تمام دانش بشری را ندزدید تا شرکت‌هایتان را بسازید؟ پس واقعاً مالک اینها چه کسی است؟» ‏شاید آن لحظه، لحظه‌ای می‌بود که می‌توانستیم حق خود را بر «مشاعات دیجیتال» مطالبه کنیم. اما مسئله این است: «ما» چه ‏کسی هستیم؟ چه کسی قرار است در آن لحظه این کار را بکند؟ نمی‌دانم شما دربارهٔ اینکه وقتی این حباب می‌ترکد چه اتفاقی ‏می‌افتد و چگونه شاید بتوانیم کمی کنترل به دست بیاوریم فکر کرده‌اید یا نه. چون مردم احساس ناتوانی عمیقی در برابر این ‏وضعیت دارند. می‌توانیم آن را تشخیص دهیم، اما چه باید بکنیم؟
یانیس: خب، آخرین باری که یک حباب عظیم ترکید، در سال ۲۰۰۸، دیدیم چه اتفاقی افتاد. آنچه پس از آن آمد، سوسیالیسم ‏برای نظام مالی‌ای بود که این حباب را ایجاد کرده بود و ریاضت اقتصادی برای همهٔ دیگران. نتیجهٔ آن نارضایتی‌ای بود که ‏افرادی مثل ترامپ و نوفاشیست‌ها در سراسر جهان آن را درو کردند و از دل آن، یک انترناسیونال ملی‌گرای نوفاشیستی شکل ‏گرفت که اکنون همه‌جا، از جمله در آمریکای لاتین، در حال قدرت‌گیری است. اما نائومی، چون شما به حباب هوش ‏مصنوعی اشاره کردید، اجازه بدهید دیدگاه خودم را دربارهٔ آن ارائه کنم.‏
می‌بینید، از منظر گوگل، متا و امثال آنها، دو نوع استفاده از هوش مصنوعی وجود دارد. یکی پیاده‌سازی استاندارد ‏سرمایه‌دارانه است. مثلاً ‏OpenAI‏ یک شرکت سرمایه‌دارانهٔ معمولی است، چون کاری که می‌کند فروش اشتراک ‏چت‌جی‌پی‌تی است، درست همان‌طور که شرکت‌های بیمه قراردادهای بیمه می‌فروشند و غیره. این یک حباب است که قطعاً ‏خواهد ترکید، چون اگر رشد خطی درآمدهای ‏OpenAI‏ از فروش این خدمت انحصاری را با رشد نمایی هزینه‌های بهبود ‏کیفیت مدل‌های زبانی بزرگ مقایسه کنید، کاملاً روشن است که این واگرایی دقیقاً همان چیزی است که یک حبابِ در آستانهٔ ‏ترکیدن را می‌سازد. فروششان حتی بهرهٔ هزینه‌های سرمایه‌گذاری‌شان را هم پوشش نمی‌دهد. به‌هیچ‌وجه. اصلاً. پس این حباب ‏خواهد ترکید.‏
اما این، استفادهٔ جالبی از هوش مصنوعی نیست. چون افراد واقعاً زرنگ در سیلیکون‌وَلی برخلاف ‏OpenAI‏ در حال تولید ‏خدمتی برای فروش در بازار سرمایه‌داری نیستند، ‏OpenAI‏ اگر به این مدل ادامه دهد، به دیوار خواهد خورد. گوگل‌ها، ‏متاها، مایکروسافت‌ها، اوراکل‌ها و پالانتیرها کاری که می‌کنند این است که هوش مصنوعی را در ماشین‌آلات «اصلاح و ‏دستکاری رفتار» خود ادغام می‌کنند.‏
مثلاً الکسا، دستگاهی که آمازون به شما می‌فروشد تا به آن دستور بدهید شیر بخرد، از آن بخواهید کتاب پیشنهاد دهد یا دربارهٔ ‏اینکه چه کالاهایی بخرید از آن مشورت بگیرید. همین حالا هم به‌واسطهٔ هوش مصنوعی، شیوهٔ تعامل آن با شما به‌شدت بهبود ‏یافته است. من به‌تازگی از وب‌سامیت۶ قطر برگشته‌ام و برخی از این ماشین‌های جدید مبتنی بر هوش مصنوعی را امتحان ‏کردم؛ آنها با شما مثل یک دوست صحبت می‌کنند.‏
خیلی زود، خیلی زود، آنها همه‌چیز را دربارهٔ شما خواهند دانست. نه اینکه الان ندانند؛ همین حالا هم تقریباً همه‌چیز را ‏می‌دانند. اما به‌زودی به شکلی با شما ارتباط برقرار می‌کنند که مستقیماً به روان شما متوسل می‌شود. هر لحظهٔ بد زندگی‌تان ‏را می‌دانند، هر لحظهٔ جشن و شادی را. می‌توانند روان‌درمانگر شما باشند، معشوق شما، فرزندتان، والدین، پدربزرگ یا ‏مادربزرگتان. و وقتی چنین رابطه‌ای با شما برقرار کنند، می‌توانند هر چیزی را به شما بفروشند.‏
و رها کردنش، مثلاً کنار گذاشتن هوش مصنوعی آمازون برای رفتن به سراغ مایکروسافت، مثل یک طلاق جان‌فرسا خواهد ‏بود. یعنی ظرفیت جف بزوس برای در بند نگه داشتن شما، از طریق الکسا، به پلتفرمش، به «دزد ابری»‌اش، عملاً غیرقابل ‏‏‌چالش خواهد شد.‏
در آن نقطه، توانایی او برای گرفتن اجاره از هر کسی که هر چیزی به شما می‌فروشد، مطلق می‌شود: ۴۰ درصد از هر ‏چیزی که می‌پردازید، به جیب جف بزوس می‌رود. این مدل، مدلی نیست که حبابش بترکد. این مدل چیزی را می‌سازد که من ‏آن را «تکنوفئودالیسم» می‌نامم. عملاً شما رعیتِ ارباب می‌شوید. حتی تولیدکننده، حتی شرکت سرمایه‌دارانه‌ای که دوچرخه یا ‏قهوه‌ساز تولید می‌کند، به صنعتگرِ خراج‌گزاری تبدیل می‌شود که باید پویایی خلق ثروتِ جف بزوس را، به فرمان جف ‏بزوس، تغذیه کند.‏
و از نظر کلان‌اقتصادی، معنایش این است که رکودی حتی بدتر از آنچه امروز داریم شکل می‌گیرد. چون اگر ۴۰ درصد از ‏تولید ناخالص داخلی را بردارید و در جیب جف بزوس بریزید، این فقط ناعادلانه یا عدم برابری نیست؛ بلکه تقاضای کل را ‏هم کوچک می‌کند. یعنی کیفیت مشاغل سقوط می‌کند، یعنی بانک‌های مرکزی مجبور می‌شوند اقتصاد را با تورم باد کنند، و ‏این تورم مستقیماً علیه طبقهٔ کارگر عمل می‌کند.‏
برمی‌گردیم به همان مفهوم «انیفیکیشن»: این انیفیکیشنِ کل سیستم است. اما هم‌زمان، چون گفت‌وگوهای ما، مکالمات ما، با ‏همان الگوریتم‌ها مسموم می‌شوند، فضایی که برای گفت‌وگو میان ما، فضایی که برای شکل‌گیری جنبش‌های سیاسیِ پاسخ‌گو ‏به بحرانی که این ماشین‌ها ایجاد می‌کنند ضروری است، آن فضا، آن پنجره، روزبه‌روز کوچک‌تر می‌شود.‏

نائومی: بله. بله. یعنی حتی اگر به آن نوع آشفتگی‌های سیاسی فکر کنیم که واقعاً در دوران همه‌گیری شتاب گرفت، در آن ‏مقطعی که زندگی‌مان تقریباً به‌طور کامل آنلاین شد، این تصادفی نبود، درست است؟ ما برای این سطح از واسطه‌مندی ساخته ‏نشده‌ایم. ما به آن تجربه‌های حضوری نیاز داریم.‏
امّا سویهٔ دیگری هم وجود دارد که مهران پیش‌تر به آن اشاره می‌کرد. من به این فکر می‌کنم که این شرکت‌ها چگونه، در عین ‏حال، کاملاً به ابزاری برای سیاست خارجی ترامپ تبدیل شده‌اند.‏
حتی «ابزار» هم واژهٔ درستی نیست. آنها ابزار نیستند؛ آنها سیاست خارجی ترامپ را اجرا می‌کنند. این یک ادغام کامل است. ‏و من به آنچه برای دوستمان فرانچسکا آلبانزه۷ رخ داد فکر می‌کنم؛ روزی که گزارش بسیار عالی‌اش دربارهٔ «اقتصاد ‏نسل‌کشی»، اقتصاد نسل‌کشی اسرائیل، را منتشر کرد و نام بسیاری از شرکت‌های فناوری‌ای را که درباره‌شان صحبت ‏کرده‌ایم ذکر کرد و از همدستی حقوقی آنها سخن گفت. روز بعد، یا شاید همان روزی که گزارش منتشر شد، مارکو روبیو ‏تحریم‌های ایالات متحده را علیه او اعمال کرد. و این یعنی شما دسترسی‌تان را به تمام این شرکت‌های فناوری که به آنها ‏به‌شدت وابسته شده‌ایم از دست می‌دهید.‏
منظورم این است که شما دارید از سطحی حرف می‌زنید که، مثلاً همان «درمانگر»، آن سطح از دلبستگی همین حالا هم ‏وجود دارد. مردم وقتی مدل چت تغییر می‌کند و «عشق زندگی‌شان» یا کسی که فکر می‌کردند عشق زندگی‌شان است را از ‏دست می‌دهند، وارد وضعیت سوگواری می‌شوند. اما حالا داریم می‌بینیم در پیوند با سیاست خارجی ایالات متحده، چگونه از ‏این شرکت‌های فناوری، علیه قضات دیوان کیفری بین‌المللی استفاده می‌شود، و چگونه علیه افرادی که مثلاً به‌عنوان ناظر ‏محتوا کار کرده‌اند به‌کار گرفته می‌شوند.‏
شما حساب گوگل خودتان را از دست می‌دهید، حساب مایکروسافت را هم از دست می‌دهید، توانایی بانکداری‌تان را از دست ‏می‌دهید. بنابراین بله، من دارم به این وضعیت فکر می‌کنم: از یک سو به شما گفته می‌شود باید بپذیرید که کنترلتان را بر نحوهٔ ‏بازنمایی‌تان در فضای آنلاین از دست می‌دهید، اما از سوی دیگر به شما گفته می‌شود که کل زندگی‌تان می‌تواند به‌خاطر یک ‏‏«لایک» در فیس‌بوک نابود شود. ما افرادی را می‌شناسیم که به‌خاطر بازنشر چیزی به زندان افتاده‌اند، درست است؟ پس ‏سؤال این است: چطور می‌شود با چنین سطحی از تنش کنار آمد؟ از یک طرف، از دست دادن کامل کنترل؛ از طرف دیگر، ‏مسئول شناخته شدن بابت چیزی که ده سال پیش بازنشر کرده‌اید و ممکن است به اخراجتان یا بازداشتتان منجر شود. راستش ‏حس می‌کنم مغزم دارد منفجر می‌شود وقتی به این فکر می‌کنم.‏
مهران: اجازه بدهید فقط با چند نظر و پرسش کوتاه وارد شوم و بعد بحث را به یانیس بسپاریم.‏
اِی. کانولی می‌گوید تنظیمگران و تنظیم‌شونده‌ها تا حد زیادی یکی و همان هستند. سونونی سالاسار می‌گوید منظورش این است ‏که غول‌های فناوری—آنها اهریمنی نیستند، انسان‌هایی کاملاً معمولی اما بدبین‌اند. کالینگ لَری می‌گوید ما تمام این مدت هوش ‏مصنوعی را با «اسیر سازی» آموزش داده‌ایم و اگر از آن استفاده کنیم، داریم آن را آموزش می‌دهیم. نکتهٔ خوبی است. دو ‏نظر بدبینانهٔ دیگر: کِرت باس می‌گوید: «آنها بچه‌ها را می‌کشند و هیچ‌کس اهمیتی به هویت تو نمی‌دهد. آه، دنیای بی‌رحم.» و ‏تلفن همراه رانی می‌گوید: «راه‌حل ساده است؛ سلبریتی نباش و یک انقلابی واقعی باش.» و در آخر، آی لاو میوزیک ‏می‌گوید الگوریتم‌ها خیلی سریع می‌توانند هر محتوایی دربارهٔ غزه و هر انتقادی از اسرائیل را حذف کنند؛ پس اگر ‏می‌خواستند، می‌توانستند پلتفرم‌ها را از زباله پاک نگه دارند.‏

نائومی: صددرصد. بله. بله. در یک لحظه. در یک لحظه. بله. بنابراین، منظورم این است که این نکته واقعاً مهمی است و من ‏شنیده‌ام که تو، یانیس، گفته‌ای که قرار نیست عمرت را صرف تلاش برای پایین کشیدن این دیپ‌فیک‌ها کنی. و می‌دانی، به ‏همین دلیل بود که تصمیم گرفتم به همزادها بپردازم و واقعاً این پرسش را واکاوی کنم که، می‌دانی، «برندسازی شخصی» ‏چطور ما را به اینجا رساند، درست است؟ و فکر می‌کنم حقیقت زیادی در این هست که این وضعیت دارد چیزی به ما ‏می‌گوید. اینکه باید از این الگوریتم‌ها و از این پلتفرم‌ها بیرون بیاییم. کل ایدهٔ پولی‌سازیِ «خود» به بن‌بست رسیده است. باید ‏راه دیگری برای زندگی پیدا کنیم. از سوی دیگر، این شرکت‌ها آن‌قدر قدرتمندند که فکر نمی‌کنم بتوانیم صرفاً عقب بکشیم و ‏بگوییم: «خب، همه‌مان می‌رویم بیرون و به چمن دست می‌زنیم و کار را به آنها می‌سپاریم»، چون آنها دارند دنیا را نابود ‏می‌کنند و ما باید در همین دنیا زندگی کنیم، درست است؟ حتی فقط از منظر اقلیمی هم، نمی‌توانیم کار را به آنها بسپاریم. جدا ‏از همهٔ چیزهای دیگر، این دارد این‌همه کربن می‌سوزاند.‏
یانیس: نه، ما مسئولیت داریم که آن را به تملک اجتماعی درآوریم؛ اجتماعی کردن. می‌دانی، آنهایی از ما که در سنت ‏سوسیالیستی رشد کرده‌ایم، با رؤیای اجتماعی کردن ابزارهای تولید، توزیع و مبادله بزرگ شده‌ایم. خب، حالا باید ابزارهای ‏ارتباطات را هم به آن اضافه کنیم. هیچ معنایی ندارد که این ابزارهای ارتباطی را رها کنیم و بسپاریم به شرکت‌های بزرگ.‏
آنچه باید انجام دهیم این است که هوشمندانه از آنها استفاده کنیم؛ نوعی جنگ چریکی. حرکت از یک پلتفرم به پلتفرم دیگر، ‏مطمئن شدن از اینکه از همهٔ اینها استفاده می‌کنیم تا همان کاری را بکنیم که تو در کتابت «همزاد» می‌گویی. اگر اشتباه ‏می‌کنم تصحیح کن. برای سازمان‌دهی در سه بُعد؛ سازمان‌دهی در سطح محله، محل کار و جامعه. ‏
نائومی: حق ماست که «مشاع اطلاعاتی» داشته باشیم. و به همین دلیل است که فکر می‌کنم دزدی کردن آنها از ما، این هم در ‏این مقیاس، مهم است. و فکر می‌کنم هرچه افراد بیشتری تجربه‌ای را که تو داشته‌ای تجربه کنند، جایی که چهره و صدای ‏خودت دزدیده می‌شود، درست همین‌جا…‏
ما باید از این بابت خشمگین باشیم. دوست و هم‌نویسنده‌ام آسترا تیلور اسمش را گذاشته «تکنولوژیِ سرقت». اینها مدل‌های ‏کسب‌وکار مشروعی نیستند. آنها بر پایهٔ سرقت بنا شده‌اند. بر پایهٔ سرقت ساخته شده‌اند. و بله، آنها با دولت اسرائیل همکاری ‏می‌کنند. هم‌زمان از همان الگوی «ایجاد واقعیت‌های میدانی» استفاده می‌کنند؛ همه‌چیز آن‌قدر سریع پیش می‌رود که از کنترل ‏خارج می‌شود. و اینجاست که به‌نظرم شوشانا زوبوف دارد درباره‌اش می‌نویسد؛ جایی که او کل مدل گوگل را توصیف ‏می‌کند، مثلاً چیزی مثل «گوگل استریت ویو». اینکه می‌روند، قانون را می‌شکنند، سریع‌تر از تنظیمگران حرکت می‌کنند. و ‏البته تنظیم‌گران وقتی می‌فهمند که نمی‌توانند تنظیم‌گری کنند، می‌گویند «خیلی دیر شده». ما قبلاً خیابان شما را در قالب مدل ‏کسب‌وکارمان تصاحب کرده‌ایم؛ خانهٔ شما را هم. ما قبلاً هر آنچه تاکنون نوشته شده و هر اثر هنری‌ای که تا کنون تولید شده ‏را تصاحب کرده‌ایم. حالا مالِ ماست. کل مدل نامشروع است. و فکر می‌کنم وقتی آن روز برسد که بتوانیم «مشاع اطلاعاتی» ‏خودمان را پس بگیریم، این نقطهٔ مرکزی استدلال ما خواهد بود.‏
یانیس: برگردم به فرانچسکا آلبانزه که از او نام بردی؛ دوست مشترکمان، آن مبارز بزرگ حقوق بین‌الملل، نه فقط دربارهٔ ‏فلسطین بلکه در سراسر جهان. مسئله فقط این نبود که دسترسی‌اش به شبکه‌های اجتماعی را از دست داد؛ او دسترسی‌اش به ‏حساب بانکی‌اش را هم از دست داد. او یک دارایی دارد، یک آپارتمان در نیویورک، و اصلاً نمی‌تواند آن را بفروشد، چون ‏مقامات ایالات متحده عملاً آن را مسدود کرده‌اند؛ همان‌طور که به اصطلاح دارایی‌های ولادیمیر پوتین را مسدود می‌کنند، ‏دارایی‌های فرانچسکا آلبانزه را هم مسدود کرده‌اند. ما مدتی پیش در جنوا همدیگر را دیدیم و او حتی نمی‌توانست اتاق هتل ‏رزرو کند؛ نه فقط چون به کارت‌های اعتباری دسترسی نداشت، بلکه چون هیچ آژانس رزروی حاضر نبود رزروی به نام ‏فرانچسکا آلبانزه بپذیرد.
به‌ نظرم فرانچسکا نمونهٔ خوبی است از اینکه این سه، چطور بگویم، گره یا کانونِ شکلِ جدید فئودالیسمی که با آن روبه‌رو ‏هستیم، چگونه به هم می‌پیوندند. یکی شبکه‌های اجتماعی است، دومی مالیه است، اینها با هم تبانی دارند، و سومی، البته، ‏مجتمع نظامی–صنعتی است که حالا، طبیعتاً، توسط بیگ‌تک در حال تصاحب شدن است. و حالا می‌خواهم خیلی مشخص ‏صحبت کنم، چون اخیراً گفت‌وگویی داشتم با کسی که تا همین اواخر برای پالانتیر کار می‌کرد.
در آن گفت‌وگو چند بار نزدیک بود سکته کنم، چون داشت برایم توضیح می‌داد که غزه چقدر برای آنها «عالی» بوده است. ‏من از او خواستم توضیح بدهد. بعد از اینکه گفت «البته، آنچه بر سر فلسطینی‌ها می‌آید وحشتناک است، اما برای ما فوق‌العاده ‏بود»، گفتم «لطفاً ادامه بده، برایم توضیح بده».
و او گفت: «ببین»، و به گوشی من اشاره کرد که بی‌حرکت روی میز قهوه‌خوری افتاده بود، و گفت: «گوشی تو الآن برای ‏من بی‌فایده است چون حرکت نمی‌کند. اگر حرکت نکند، داده تولید نمی‌کند. اما اگر با آن حرکت کنی و من بتوانم حرکت‌های ‏گوشی‌ات را با همهٔ کارهای دیگر زندگی‌ات هم‌بسته کنم، اینکه دربارهٔ چه چیزهایی حرف می‌زنی، چه بحث‌هایی می‌کنی و ‏غیره، من حجم عظیمی هم‌بستگی آماری تولید می‌کنم که به من کمک می‌کند الگوریتم‌هایم را آموزش بدهم.»
پس وقتی یک منطقهٔ پرجمعیت را بمباران می‌کنی، حجم عظیمی از حرکت ایجاد می‌شود. آدم‌ها می‌میرند، اما عده‌ای زنده ‏می‌مانند و می‌دوند و گوشی را برمی‌دارند. سعی می‌کنند با دوستانشان تماس بگیرند تا از عزیزانشان خبر بگیرند. و این‌گونه ‏است که الگوریتم‌ها آموزش داده می‌شوند.
و بعد همین الگوریتم‌ها را می‌فروشند به خدمات بهداشت ملی بریتانیا، بیمارستان‌های دولتی، قراردادی که اخیراً تا حدود یک ‏میلیارد پوند می‌رسد؛ برای سازمان‌دهی جابه‌جایی پرستاران و پزشکان، مثلاً اگر تصادف زنجیره‌ای در بزرگراه رخ دهد و ‏هم‌زمان تعداد زیادی آمبولانس وارد شوند و در بیمارستان آشوب ایجاد شود. الگوریتم‌هایی دارند که به سامان‌دهی بیمارستان ‏کمک می‌کند. و اینها در غزه آموزش داده شده‌اند.
پس همهٔ اینها را کنار هم بگذارید: شیوه‌ای که خصوصی‌سازی خدمات در بیمارستان‌های عمومی با نسل‌کشی در غزه ‏درهم‌تنیده است؛ اینکه افشاگری فرانچسکا آلبانزه باعث می‌شود نظام بانکی او را از دسترسی به پول خودش محروم کند.
و این‌گونه است که این مثلثِ هم‌دستیِ فشرده شکل می‌گیرد: میان مالیه، مجتمع نظامی-صنعتی، و البته آن گرهی که قبلاً نسبتاً ‏کم‌اهمیت بود و حالا دارد همه‌چیز را در دست می‌گیرد، یعنی بیگ‌تک.‏
نائومی: بله. احتمالاً بسیاری از کسانی که تماشا می‌کنند و گوش می‌دهند خبر دارند، این همچنین دارد استفاده می‌شود توسط ‏ICE‏ در ایالات متحده و در مینیاپولیس. پس پشت صحنهٔ اینکه مأموران ‏ICE‏ از کجا می‌دانند به کدام خانه بروند، اینکه آیا ‏افراد آنجا هستند یا نه اینها قرار دارند. و حالا این ابزارها علیه خود معترضان هم به کار می‌رود.
شاید همه‌اش فناوری پالانتیر نباشد، اما از چیزهایی استفاده می‌شود؛ بعضی از آنها شرکت‌هایی از اسرائیل هستند که فقط ‏گوشی را جلوی صورت کسی می‌گیرند و بلافاصله از نرم‌افزار تشخیص چهره استفاده می‌شود و داده‌ها تغذیه می‌شود.
و همهٔ اینها همچنین برای هدف‌گیری افراد به کار می‌رود. می‌توانی کمی درباره‌اش صحبت کنی؟ می‌دانم وقت زیادی نداریم، ‏اما دارند آرشیو گفته‌های قدیمی‌ات را می‌کاوند. می‌شود این را به‌عنوان تعریف برداشت کرد، درست است؟ فکر می‌کنم همهٔ ‏اینها به همان دلیل دارد برای تو اتفاق می‌افتد. اما به هر دلیلی می‌خواهند تو را حذف کنند. پس چه اتفاقی افتاده؟
یانیس: خب، این آن‌قدرها هم مربوط به شبکه‌های اجتماعی نبود. خب—به یک معنا بود—چون، می‌دانی، آنچه اتفاق افتاد این ‏بود که…‏
نائومی: فکر می‌کنم، یعنی منظورم این است، که هوش مصنوعی می‌تواند همهٔ اینها را یک‌باره ببلعد. هر چیزی که تا حالا ‏گفته‌ایم، هر پادکستی که تا به‌حال ساخته‌ایم، درست است؟ و آن یک جمله‌ای را پیدا کند که بشود جرم‌انگاری‌اش کرد.‏

یانیس: دقیقاً. اما دقیقاً این‌طور هم نبود. آنچه اتفاق افتاد این بود که، من از طرف یک زوج جوان دعوت شدم—دو تا جوان ۲۱ ‏ساله، یک پسر و یک دختر—که در صحنهٔ رِیو ( مهمانی رقص) فعال بودند. آنها در دنیای موسیقی‌ای بودند که، می‌دانی، ‏جوان‌ها را هیجان‌زده می‌کند. چرا هیجان‌زده‌شان می‌کند؟ این چیزی بود که خودشان برایم توضیح می‌دادند: چون به آنها اجازه ‏می‌دهد از صفحه‌نمایش‌ها فرار کنند. اجازه می‌دهد از دنیای شبکه‌های اجتماعی‌شان فاصله بگیرند.
پس برای آنها بودن در یک اتاق، یک اتاق بزرگ، رقصیدن با یک موسیقی واحد، بدون تلفن، بدون هدفون، احساس نزدیکی ‏اجتماعی، و می‌دانی، بوی بدن‌های دیگر و از این چیزها، همراه با موسیقی—اینها مؤثر بود.
در واقع آنها اهل صحنه بودند و من در یک تئاتری که رزرو کرده بودم حضور داشتم و آنها داشتند با من مصاحبه می‌کردند. ‏دربارهٔ آیندهٔ کار حرف زدیم، دربارهٔ آموزش، دربارهٔ موسیقی، دربارهٔ سینما، دربارهٔ همهٔ اینها.
در میانهٔ این گفت‌وگو، چون البته آنها رِیو‌رو هستند، درست است؟ منظورم این است که آنها خیلی بیشتر از من و احتمالاً بیشتر ‏از تو دربارهٔ مواد، دربارهٔ مواد مخدر، دربارهٔ ‏MDMA، دربارهٔ مواد توهم‌زاها به‌طور کلی می‌دانند.
یکی از آنها، دختر، از من پرسید: «آقای- مثلاً- حالا مصرف کرده‌اید؟»
من می‌توانستم مثل بیل کلینتون رفتار کنم و بگویم، می‌دانی، «نکشیدم»، اما گفتم: «بله، البته. دوران دانشگاه بوده. حشیش ‏کشیده‌ام. ام، هنوز هم دوستش دارم. کسی دیگر به من نمی‌دهد چون—می‌دانی—دوستانم و اینها می‌گویند باید ازش دوری ‏کنی.»
و بعد گفتم که یک بار هم اکستازی مصرف کرده‌ام؛ یادم هست ۳۷ سال پیش بود، در سیدنی، در یک مهمانی رِیو. و عالی بود ‏چون می‌توانستم ۱۶ ساعت برقصم و دیگر جاذبه را حس نمی‌کردم. اما بعدش تاوانش را دادم چون یک هفته تمام میگرن داشتم ‏و دیگر هرگز سمتش نرفتم.
و نکته‌ای که می‌خواستم منتقل کنم این بود که شیطانِ واقعی اعتیاد است. جایی که کنترل را از دست می‌دهی. خودمختاری‌ات ‏را از دست می‌دهی. آزادی‌ات را از دست می‌دهی. این شیوهٔ ارتباط گرفتن من با آنها بود.
حالا این یک ویدئوی یوتیوبی بود و حزب راستِ حاکم در یونان، این بخشش واقعاً جالب است، یک واحد تبلیغاتی دارند که ‏اسمش را گذاشته‌اند «کمیسیون حقیقت». حس شوخ‌طبعی دارند، نه؟ مستقیم از ۱۹۸۴ گرفته‌اند.
در اصل کاری که می‌کنند این است که دروغ می‌گویند. اسمش را گذاشته‌اند کمیسیون حقیقت. و کاری که می‌کنند این است که ‏کلیپ‌هایی از مخالفانشان برمی‌دارند و معنای حرف‌های شما را کاملاً وارونه می‌کنند.
و این کار خیلی، خیلی حرفه‌ای انجام شده بود. آنها این کلیپ را برداشتند و شبکه‌های اجتماعی یونان را پر کردند از تبلیغات ‏دربارهٔ «واروفاکیسِ معتاد به مواد».
و وزیر پلیس و وزیر بهداشت- که اتفاقاً مسئول اعمال کاهش‌های گسترده و حذف بودجه در تمام نهادهایی بودند که برای ‏کمک به ترک اعتیاد وجود داشت- همهٔ آنها را با سیاست‌های ریاضتی عملاً از میان برده‌اند. همان روز در تلویزیون، در ‏یک پنل، هر دو وزیر از دادستان منطقه‌ای خواستند که من به اتهام «معاونت و کمک به تجارت مواد مخدر» تحت پیگرد ‏قرار بگیرم. پس می‌بینی، می‌بینی چه اتفاقی افتاد؟
نائومی: بله. بله. بله. پس کلیپ را برداشتند و طوری جلوه دادند که انگار داشتی تبلیغ می‌کردی. اما فکر می‌کنم این موضوع ‏به آن چیزی که پیش‌تر درباره‌اش صحبت می‌کردیم مربوط است؛ دربارهٔ دیپ‌فیک‌ها و «انیفیکیشن».
اینها ابزارهای تحقیر هستند که می‌خواهند آدم‌ها را از زندگی عمومی بیرون برانند یا دست‌کم از فضاهای عمومی. یعنی کل ‏هدف کاری که در توییتر با زنان می‌کنند همین است: بیرون راندن زنان، طوری که دیگر نخواهند در توییتر پست بگذارند. ‏قطعاً دیگر دلت نمی‌خواهد عکس خودت را منتشر کنی، درست است؟ پس این دارد چه کار می‌کند؟ دارد کاری می‌کند که دیگر ‏ویدئو منتشر نکنی، چون همیشه باید تصور کنی چطور قرار است پیچانده شود.‏
دقیقاً. پس این چیزی فراتر از «لبریز ‌کردن فضا از آشوب» است. این بیرون راندن آدم‌ها از زندگی عمومی است. این یک ‏راهبرد سیاسی است.‏
یانیس: بیرون راندن از زندگی عمومی کسانی که ممکن است به منافع شرکت‌های بیگ‌تک آسیب بزنند.‏
نائومی: و این فقط دربارهٔ افراد مشهور نیست. حرف من این است که این فقط به این دلیل دارد اتفاق می‌افتد که افراد زن ‏هستند، یا فقط چون حرفی زده‌اند، یا فقط چون در چپ هستند. این دارد اتفاق می‌افتد و همان‌طور که می‌دانیم برای کسانی که ‏دربارهٔ اسرائیل پست می‌گذارند، کلمهٔ «صهیونیسم» را در تیک‌تاک می‌گویند، هم رخ می‌دهد. انواع و اقسام روش‌ها وجود ‏دارد که ما را پاکسازی کنند.‏
مهران: می‌توانم خیلی سریع وسط حرف بپرم؟ چون حدود هفت دقیقه وقت داریم و دوست دارم مخاطبان را با چند ایدهٔ مثبت و ‏سازنده تنها بگذاریم.
پس فقط در ادامهٔ حرف تو، نائومی شما فکر می‌کنید راه‌حل‌ها چه می‌تواند باشد برای این چالش دیپ‌فیک‌ها و سرقت هویت و ‏غیره؟ بعضی‌ها در چت هم همین را می‌پرسند. ما مثلاً دربارهٔ ملی‌کردن پلتفرم‌ها حرف زدیم، اما قدم اول چیست؟
یک مدل جایگزین می‌تواند این باشد که از پلتفرم‌های عمومی برای دسترسی استفاده کنیم و، همان‌طور که قبلاً گفتی، نائومی، ‏آدم‌ها را به پلتفرم‌های خودمان هدایت کنیم؛ جایی که خودمان کنترل داریم، مثلاً ایمیل، یا حتی تعاملات آفلاین، یا تماس‌های ‏ویدئویی مثل همین. پس به‌طور مشخص، فکر می‌کنید گام‌های بعدی برای عقب ‌راندن این پویش‌ها چه می‌تواند باشد؟
نائومی: خب، منظورم این است که می‌دانم افراد زیادی از اروپا دارند تماشا می‌کنند. من در کانادا هستم. برای ما واقعاً سخت ‏است که از این شرکت‌های فناوری جدا شویم. به سختیِ دوستانمان در ایالات متحده نیست. آنجا عملاً هیچ امیدی برای خروج ‏از این ساختار سراسربین۸ ندارند، اما ما دست‌کم این امکان را داریم که مانع کارهایی شویم که دولت‌ها می‌خواهند بکنند؛ مثل ‏همان چیزی که یانیس گفت دربارهٔ دادن قرارداد خدمات ملی سلامت انگلستان به پالانتیر.
ما باید خیلی سخت مقاومت کنیم، چون بخشی از آنچه با حباب دارد اتفاق می‌افتد این است که این شرکت‌های فناوری درمانده ‏شده‌اند. آنها هم به داده‌های ما شدیداً نیاز دارند و هم به درآمد، چون مردم به‌هیچ‌وجه به شکلی که هزینه‌ها را پوشش دهد برای ‏محصولاتشان پول نمی‌دهند. دولت‌ها هدف آسان‌اند؛ این ریاضت‌کشیِ جدید است. آنها می‌آیند و می‌گویند «ما شما را کارآمدتر ‏می‌کنیم»، اما در واقع دارند محصولات معیوب می‌فروشند. و مسئله این است که اصلاً برایشان مهم نیست تجربهٔ شما در ‏تعامل با خدمات درمانی ملی یا تأمین اجتماعی‌تان چه‌قدر بد است. برایشان مهم نیست که با یک ربات حرف می‌زنید یا با ‏انسان. الان همان تجربه‌ای را دارید که یانیس برای پایین کشیدن یک دیپ‌فیک داشت، نمی‌توانید یک آدم واقعی پیدا کنید، اما ‏این بار پای حقوق بازنشستگی شما، مستمری سالمندی شما در میان است.
و آنها کاملاً راحت آدم‌ها را حذف می‌کنند چون آدم‌ها نمی‌توانند با کسی تماس بگیرند.
پس فکر می‌کنم «انیفیکیشن» خدمات عمومی ما مرحلهٔ بعدی است و ما باید خیلی قوی در برابر این موج قراردادهایی که دارد ‏می‌آید مقاومت کنیم. فقط پالانتیر نیست؛ اوپن‌ای‌آی است، گوگل است، همه‌شان هستند.‏
یانیس: خب، نائومی، فکر می‌کنم ما می‌دانیم چه باید کرد. مثلاً، به یک منشور حقوق دیجیتال نیاز داریم، تا داده‌های شما مال ‏خودتان باشد و هیچ‌کس نتواند آن را، چه از طریق مکش هوش مصنوعی و چه به هر شکل دیگر، بدزدد. و اگر دزدیدند، ‏باید درست مثل دزدیدن ماشین‌تان قابل پیگرد باشند. این اولی است: منشور حقوق دیجیتال.
دومی، قابلیت تعامل‌پذیری. باید آن را قانون‌گذاری کنیم.
اگر بخواهم از توییتر بیرون بیایم و به بلو‌اسکای بروم، توییتر باید موظف باشد هر پستی را که در بلو‌اسکای می‌گذارم به همهٔ ‏دنبال‌کنندگان فعلی‌ام در توییتر منتقل کند. در چین همین حالا این کار را می‌کنند.
سومی، باید به سمت نه ملی‌سازی، بلکه اجتماعی‌سازی ابزارهای ارتباطی برویم. به این معنا که به گوگل و متا بگوییم اگر ‏می‌خواهید از این همه کاری که مردم برای خلق اثر شبکه‌ای شما انجام داده‌اند استفاده کنید، باید ۲۰ درصد از سهامتان را در ‏یک صندوق سهام اجتماعی بگذارید. و آن صندوق باید حق رأی داشته باشد. و بعد آن ۲۰ تا ۳۰ درصد را برمی‌دارید. ما ‏می‌دانیم برای دوباره ساختن تمدن، یا دست‌کم ایجاد امکانِ تمدن، چه کارهایی باید انجام شود اما می‌دانیم که به‌محض اینکه ‏کانادا یا اروپا یا یونان یا اندونزی چنین کاری بکند، دونالد ترامپ وارد می‌شود و تعرفه می‌بندد. رهبران سیاسی‌تان را ‏می‌رباید، همان‌طور که در ونزوئلا کرد.
به عبارت دیگر، آمادهٔ جنگ باشید. هرچه قدرت در دست افراد کمتری متمرکز شود، از مسیرهای سنتی سوسیال-دموکراتیک ‏کمتر می‌شود آن کاری را کرد که برای امکان زنده نگه داشتن تمدن لازم است. پس هرچه تمرکز قدرت بیشتر شود، ما هم باید ‏رادیکال‌تر شویم.‏
نائومی: بله. بله. و فکر می‌کنم لحظه‌ای که حباب بترکد، نه در یک لحظه، بلکه در یک روند، همه‌چیز تغییر خواهد کرد. ‏ممکن است ماه بعد باشد، ممکن است شش ماه دیگر باشد. فکر می‌کنم در سال آینده رخ می‌دهد. باید با این مطالبات آماده ‏باشیم، چون آن لحظهٔ بیشترین اهرم فشار است. در ۲۰۰۸ دیدیم چه شد. وقتی می‌دانیم می گوییم «هزینهٔ بحران شما را ‏نمی‌دهیم»، اما شاید آن‌قدر که باید آماده نبودیم که بگوییم چه می‌خواهیم جایگزینش شود. اینکه ما آن زمان بدانیم می‌خواهیم ‏بخش مالی را چگونه دگرگون کنیم. کارهای سیاست‌گذاریِ خوبیِ زیادی انجام خواهد. الان کار سیاست‌گذاری خوبی انجام ‏شده، بسیاری از کسانی که از این شرکت‌ها اخراج شده‌اند به نهادهایی رفته‌اند که منشور حقوق معقولی تدوین کرده‌اند، مثلاً ‏مؤسسهٔ ‏AI Now، با مطالباتی مثل: عدم استفاده از هوش مصنوعی برای استخراج حداکثری نفت و گاز، عدم استفاده در ‏سلاح‌ها، عدم استفاده در روان‌پزشکی.
ما اینجا نیستیم چون نمی‌دانیم چه باید کرد. مسئله قدرت است. من گاهی جمله‌ای از میلتون فریدمن را نقل می‌کنم دربارهٔ در ‏لحظات بحران، این مهم است که چه ایده‌هایی در دسترس‌اند. بیایید ایده‌هایمان را آماده داشته باشیم. بیایید مطالباتمان را آماده ‏داشته باشیم. آن وقت است که اهرم فشار ما قوی‌ترین خواهد بود، و آن لحظه‌ای که حباب بترکد، از مردم می‌خواهم روی آن ‏تمرکز کنند. چون همان لحظه‌ای است که مردم قرار است مستمری‌هایشان را از دست بدهند، چرا که این مستمری‌ها به این ‏شرکت‌ها گره خورده‌اند. آن همان لحظه‌ای است که رنج بسیار زیادی ایجاد خواهد شد و خشم عمومی عظیمی شکل خواهد ‏گرفت، و در آن لحظه افراد زیادی در کنار ما خواهند بود و ما باید از آن استفاده کنیم. نباید آن را از دست بدهیم. این لحظه‌ای ‏بسیار بزرگ است.‏

مهران: خب، خیلی ممنون از شما. واقعاً از وقتی که گذاشتید قدردانی می‌کنم. به پایان پخش رسیدیم. خوب است که با یک نکتهٔ ‏سازنده تمامش کردیم.
ممنون نائومی. ممنون یانیس.‏

منبع: کانال یوتیوب DiEM25


یادداشت‌ها:

۱. کوری دکترو (‏Cory Doctorow)‎‏ نویسنده، روزنامه‌نگار و نظریه‌پرداز سرشناس در حوزهٔ فناوری، اینترنت، و سیاست دیجیتال است ‏که سال‌هاست دربارهٔ قدرت پلتفرم‌ها، انحصار، نظارت، و زوال اینترنت می‌نویسد و هشدار می‌دهد.‏
۲. ‎‏«زوال پلتفرمی» یا بُنجُل‌سازی محصول (‏Enshittification‏)، که «افتضاح‌سازی» ‏‏(‏Crapification‏) و «فرسایش پلتفرم» (‏Platform decay‏) نیز گفته می‌شود، الگویی است که در آن کیفیت ‏محصولات و خدمات دوسویهٔ اینترنتی به‌تدریج کاهش می‌یابد. ‏
۳. ‎عجیب‌پردازی یا گروتسک (‏Grotesque‏) نوعی از طنز در ادبیات و هنر است که بسیار به طنز سیاه ‏شباهت دارد، ولی تفاوت‌هایی نیز با آن دارد.‏
۴. ‎گروک (‏Grok)‎‏ یک چت‌بات و مدل هوش مصنوعی است که شرکت ‏xAI‏ ساخته، شرکتی که ایلان ماسک راه‌اندازی کرده است.‏
۵. ‎ Sam Altman‏ مدیرعامل ‏OpenAI
۶.‎ ‎وب‌سامیت (Web Summit) یکی از بزرگ‌ترین رویدادهای فناوری جهان است که کارآفرینان، سرمایه‌گذاران، مدیران شرکت‌های بزرگ، ‏سیاست‌گذاران، و فعالان حوزهٔ تکنولوژی را گرد هم می‌آورد تا دربارهٔ آیندهٔ فناوری، هوش مصنوعی، اینترنت، اقتصاد دیجیتال، استارتاپ‌ها، و ‏روندهای جهانی گفت‌وگو کنند.‏
۷. فرانچسکا آلبانزه (‏Francesca Albanese‏) حقوق‌دان و فعال حقوق بشر بین‌المللی است. او معتمد سازمان ملل متحد به‌عنوان ‏گزارشگر ویژه یا کارشناسی مستقل است. ‏‎
۸. ساختار سراسربین (‎Panopticon)‏ نظامی از نظارت دائمی است که در آن افراد چون ممکن است دیده شوند، خودشان را ‏کنترل می‌کنند‎.‎

چاپ 🖨

Continue Reading

Previous: کنش مشترک با ماتریس همکاری‌های پراتیک
Next: همبستگی جهانی با مردم ایران؛ وقتی نیمکت‌های خالی وجدان جهان را خطاب می‌کند
  • تلگرام
  • فیسبوک
  • ارتباط با ما
  • در باره ما
  • فیسبوک
  • تلگرام
Copyright © All rights reserved