برگردان: مینا آگاه
مدیران عامل شرکت های فناوری از ما می خواهند باور کنیم هوش های مصنوعی مولدشان به نفع بشرند. شاید دارند شوخی می کنند؟!
در درون بسیاری از محافل گفتگوی در حال گسترش پیرامون هوش مصنوعیِ ، بر سر انتخاب لغت « توهم2» جروبحث های مبهمی وجود دارد. توهم واژه ای است که معماران و توسعه دهنده گان هوش مصنوعی مولد برای توصیف پاسخهای کاملا ساختگی و یا کاملاً اشتباه «چت بات» ها3 به کار می برند. برای مثال، وقتی شما از یک ربات می خواهید تعریف چیزی را بگوید که وجود ندارد٬ این ربات٬ تقریبا بطور قانع کننده ای٬ یک جوابی به شما می دهد که همراه است با پانوشت های ساخته شده.
ساندار پیچای٬ مدیرعامل گوگل و آلفابت اخیرا در یک مصاحبه ای گفت:« هیچکس هنوز این مشکل «توهم» را حل نکرده است».
این حقیقت دارد- اما چرا این خطا را « توهم» می گویند؟ چرا به آن آشغال الگوریتمیک٬ یا اختلال نمی گویند؟ خوب٬ توهم (هالوسینیشن) برمی گردد به ظرفیت اسرارآمیز مغز انسان برای درک پدیده هایی که حداقل به صورت متعارف و مادی حضور ندارند. توسعه دهنده گان هوش مصنوعی ضمن اقرار به اینکه از خطا پذیری ماشین خود آگاهند٬ با اختصاص یک لغت که معمولا در روانشناسی و روانپزشکی و اشکال مختلف عرفان به کار برده می شود٬ از گرامی ترین اساطیر برای آن پشتوانه می سازند. آن ها با فرایند تولد هوشی جاندار، با ساختن این مدل زبانی عظیم٬ و آموزش آن با همه ی چیزهایی که ما انسان ها نوشته ایم٬ گفتیم٬ و بطور دیداری نشان داده ایم٬ در آستانه ی خلق یک جهش تکاملی برای نوع بشر هستند. اما، چگونه ربات هایی مانند بینگ4 و بارد5 می توانند وارد این دنیای عرفانی شوند؟
انحراف های توهمی در دنیای هوش مصنوعی واقعا وجود دارد٬ اما این بات ها نیستند که آن را دارند٬ این مدیران عامل شرکت های فناوری همراه با لشکر هواداران خود هستند که بطور فردی و جمعی در چنگال توهم های وحشی مهار گسیخته گیر افتاده اند.
من در اینجا کلمه « توهم» (هالوسینیشن) را به زبان عرفانی و روانشناسانه٬ یعنی حالتی از ذهن است که در واقع می تواند به دستیابی به حقایق عمیقِ قبلا درک نشده کمک کند٬ تعریف نمی کنم. نه. این اشخاص واقعا در عالم هپروت هستند: آن ها شواهدی را می بینند و یا حداقل ادعای دیدنش را دارند که اصلا وجود ندارد و به تمام دنیا التماس می کنند که باور کنند آن ها از تولیدات خود برای ارتقاء و آموزش جهانی استفاده خواهند کرد.
آن ها به ما می گویند هوش مصنوعی به فقر پایان خواهد داد. تمام امراض را معالجه خواهد کرد٬ مشکل آب و هوائی را حل خواهد کرد. شغل های ما را پر مفهوم تر و هیجان انگیزتر خواهد کرد. هوش مصنوعی باعث خواهد شد که زندگی سرشار از آرامش و تامل شود. و به ما کمک می کند انسانیتی را که در اواخر زمان سرمایه داری از دست داده ایم٬ باز پس بگیریم. این فناوری به تنهائیِ ما پایان خواهد داد. هوش مصنوعی حکمرانان ما را منطقی و مسئول می سازد. اما متاسفانه این ها توهم های واقعی در مورد هوش مصنوعی هستند و ما این ها را مرتبا٬ از زمانی که چت جی پی تی در اواخر سال گذشته معرفی شد٬ بطور سلسله وار می شنویم.
دنیایی وجود دارد که در آن هوش مصنوعی مولد بتواند به عنوان یک ابزار تحقیق قدرتمند و انجام دهنده ی کارهای سخت به نفع انسان و سایر گونه ها و در خانه ی همه ی ما بکار گرفته شود، اما برای این که چنین اتفاقی بیفتد٬ این فناوری باید درون نظم اقتصادی و اجتماعی متفاوتی به غیر از نظم جاری بکار گرفته شود. نظمی که هدفش برآورد نیازهای بشر و حفاظت از سیستم های سیاره ای حمایتگر حیات است. ما که در حال حاضر در عالم هپروت نیستیم، خوب می دانیم که سیستم جاری این طور نیست. نه تنها اینطور نیست، بلکه طوری تنظیم شده که حداکثر بهره کشی٬ هم از بشر و هم از طبیعت را بکند و بیشترین ثروت و بیشترین سود حاصل را تصاحب کند. این واقعیتی است که ما را به مرحله ی فناوری مرگ آفرین6 سرمایه داری رسانده است. هوش مصنوعی فراتر از این اتوپیای توهمی، و با توجه به واقعیتِ تمرکز بسیار زیاد قدرت و ثروت، به احتمال زیاد ابزاری می شود برای سلب مالکیت و غارت بیشتر.
من به اینکه چرا این طور است خواهم پرداخت، اما در درجه ی اول، فکر کردن در مورد هدف توهمات اتوپیایی فوق کمک کننده است.
این داستان های خیراندیشانه، آن هم در دورانی که ما با این ابزار عجیب روبرو می شویم، با فرهنگ ما چه می کنند؟ یک فرضیه این است که: آن ها داستان های قدرتمند و فریبنده برای پوشش دادن چیزی است که ممکن است بزرگترین و مهم ترین دزدی تاریخ بشر باشد. ما شاهد هستیم که ثروتمندترین شرکت های تاریخ (مایکروسافت، اپل، گوگل، متا، آمازون و…) مجموعه ی دانش موجود بشری را که بسیاری یک عمر برای آن زحمت کشیده و در دنیای دیجیتال به ماشین ها انتقال داده اند، حتی بدون اجازه یا رضایت این خیل عظیم انسان ها، درون محصولات تحت مالکیت خود می ریزند و استقرار می دهند. این کار نمی تواند و نباید قانونی باشد. ما می دانیم در زمینه ی مطالب دارای حق کپی که مدل ها را آموزش می دهند، (از جمله توسط همین روزنامه «گاردین») دعاوی حقوقی بسیاری شده است. آن ها دلیل آورده اند که این کار کاملا غیرقانونی است. چرا؟ برای مثال٬ آیا می شود به یک شرکتی که بخاطر سود فعالیت می کند٬ اجازه داد که نقاشی ها٬ طرح ها٬ و عکس های یک هنرمند زنده را به یک برنامه ای مثل استابل دیفیوژن7 یا دال- ایی ۲ 8 بدهد و از آن نمونه های هنرمندانه ی مشابه تهیه کنند و همه از آن نفع ببرند به غیر از آن هنرمندانی که اثر را خلق کرده اند؟
نقاش و تصویرگر مولی کراباپل9 به راهبری یک جنبش از سوی هنرمندان کمک کرد که این دزدی را به چالش بگیرند. « هوش های مصنوعی مولد هنر بر اساس داده های زیادی آموزش دیده اند. آموزش آن ها شامل میلیون ها میلیون تصاویر دارای حق کپی بدون اطلاع خالقان این تصاویر بوده است – چه رسد به رضایت یا جبران آن. از این آثار استفاده شده و این عملا بزرگترین دزدی هنر در تاریخ بشر است. این غارت با مشارکت شرکت های ظاهرا محترمی صورت گرفته که از حمایت سرمایه ی مخاطره آمیز سیلیکون ولی پشتیبانی می شوند؛ این غارت در روز روشن است. او یک نامه سرگشاده جدیدی تهیه کرده است که به این موضوع اشاره می کند.
دوز و کلک این است که سیلیکون ولی دزدی را « اختلال » می خواند و با آن کنار می آید. ما این حرکت را می شناسیم: رو کردن به قلمروی بی قانونی؛ ادعا مبنی بر این که قوانین قدیمی شامل حال فن آوری جدید ما نمی شود؛ داد و بیداد راه انداختن که قانونمندی فقط به نفع چین است. این در حالی است که واقعیت ها به صورت قوی و محکم ارائه شده است. زمانی که این اسباب بازی جدید تازگی اش را برای همه ی ما از دست بدهد و شروع به بررسی وضعیت اجتماعی، سیاسی و اقتصادی خراب شده کنیم، این فناوری بقدری قدرتمند و همه گیر شده که دادگاه ها و قانونگذاران تسلیم می شوند.
ما این را در گوگل بوک10 و اسکن کردن آثار هنری توسط گوگل دیده ایم. در به استعمار گرفتن فضا توسط ایلان ماسک یا با مورد حمله قرار دادن صنعت تاکسیرانی توسط اوبر دیده ایم. با هجوم ایر بی ان بی11 به بازار اجاره دیده ایم . با سوء استفاده ی فیسبوک از اطلاعات خود دیده ایم. از اینکه برای کارهایشان اجازه می گیرند صحبت نکنید. این اخلالگران عادت دارند درخواست بخشش کنند. (و این درخواست را اردوئی از مشارکت کننده گان همراهی می کنند.)
شوشانا زوبوف با دقت بسیار نشان داده که در عصر سرمایه داری حراستی، گوگل چگونه با فرستادن ماشین های دوربین دار خود برای عکسبرداری از جاده ها و محوطه ی بیرونی منازل ما برای ایجاد گوگل مپ، مرزها و نرم های حریم خصوصی را پشت سرگذاشته. زمانی که دادخواست های دفاع از حریم خصوصی مطرح شد، مشاهده ی خیابان بقدری در وسایل مورد استفاده ی ما جا افتاده بود که تعداد کمی از دادگاه های خارج از آلمان خواستار دخالت شدند. اتفاقی که برای محوطه ی بیرونی خانه ی ما افتاده، برای کلمات٬ تخیلات٬ آهنگ ها٬ تمام زندگی دیجیتالی ما دارد اتفاق می افتد. تمام ماها در حال حاضر به اسارت گرفته شده ایم. از ما استفاده می شود تا به هوش مصنوعی یاد دهیم چگونه فکر کند و خلاقیت داشته باشد.
این شرکت ها باید بدانند که آن ها دارند سرقت می کنند٬ و یا حداقل می توان با دلایل قوی ادعا کرد که در حال سرقت هستند.12 آن ها فقط امیدوارند که نمایشنامه ی قدیمی شان یک بار دیگر کار کند- یعنی میزان دزدی به قدری زیاد و فاقد پرونده و بقدری سریع13 باشد که باز دادگاه ها و سیاستگذاران تسلیم شوند.
همچنین توهم آن ها درباره ی کارهای شگفت انگیزی که هوش مصنوعی می تواند برای بشر بکند٬ بسیار مهم است، زیرا این ادعاهای بزرگ است که این دزدی انبوه را یک هدیه جا می زند. و این درست به همان روش است که کمک می کند تا خطرات غیرقابل انکار هوش مصنوعی را منطقی جلوه دهد.
تا کنون٬ بیشتر ما بررسی14 هایی را که با پرسش از محققین و توسعه دهنده های هوش مصنوعی صورت گرفته، شنیده ایم. آیا این احتمال هست که هوش های مصنوعی پیشرفته موجب « انقراض نوع بشر شود و یا بطور دائم و بطور جدی از نوع بشر خلع ید شود؟». میانگین پاسخ های محققین ۱۰ درصد احتمال انقراض را پیشبینی کرده اند. این میزان خطر وحشتناک است.
چگونه می توان به دنبال کاری رفت و ابزاری را به پیش برد که خطر بزرگ انقراض نوع بشر را درپی داشته باشد٬ و آن را توجیه کرد؟ غالبا دلیلی که آورده می شود این است که این سیستم همچنین جنبه های مثبت زیادی هم دارد. اما این جنبه های مثبت – بیشتر قسمت های آن – توهمی بیش نیست. اجازه بدهید عمیق تر به آن بپردازم.
توهم شماره ۱: هوش مصنوعی بحران آب و هوائی را حل خواهد کرد.
تقریبا بالای لیست جنبه های مثبت هوش مصنوعی این ادعا است که این سیستم یک جوری بحران آب و هوائی را حل خواهد کرد. ما این حرف را از همه جا شنیده ایم. از مجمع جهانی اقتصاد٬ شورای روابط خارجی٬ تا گروه مشاوره ای بوستون که توضیح می دهند از هوش مصنوعی « می تواند برای حمایت از همه ذینفعان در اتخاذ رویکردی آگاهانه تر و مبتنی بر داده ها برای مبارزه با انتشار کربن و ایجاد جامعه ای سبزتر استفاده شود. و برای افزودن تلاش ها برای شرایط آب وهوایی جهانی در مناطق در معرض خطر، بیشتر استفاده کرد.» زمانی که مدیرعامل سابق گوگل اریک اشمیت به سایت آتلانتیک می گفت استفاده از هوش مصنوع به خطرش می ارزد٬ زیرا:« اگر شما به بزرگترین مشکلات جهان ـ شرایط آب و هوائی٬ سازمان های اجتماعی٬ و نظایر آن ها – فکر کنید، آن ها مشکلات بسیار دشواری هستند. و من می خواهم که مردم باهوش تر باشند.» اشاره اش به چنین روشی بود.
مطابق این منطق٬ شکست در «حل» مسایل بزرگ مانند شرایط آب وهوایی به واسطه ی کمبود هوش است و نه چیز دیگر. انسان های باهوش٬ برندگان جایزه ی نوبل و کسانی که تحصیلات و تخصص های بالایی دارند٬ طی ده ها سال به دولت ها گفته اند که چکار باید کرد تا از این بهم ریختگی نجات پیدا کرد: جلوی پخش کربن را بگیرید٬ بگذارید کربن بر روی زمین باقی بماند٬ بر مصرف بیش از حد ثروتمندان و کم مصرفی مردم فقیر مهار بزنید٬ زیرا هر منبع انرژی دارای هزینه زیست محیطی ست.
دلیلی که این پیشنهادهای بسیار هوشمندانه نادیده گرفته می شود به واسطه ی مشکل درک مطلب و یا به واسطه ی این نیست که ما به نوعی ماشین احتیاج داریم که بجای ما فکر کند. به واسطه ی این است که برای حل بحران آب و هوائی ضروریست تریلیون ها دلار از دارایی شرکت های نفتی را کنار بگذاریم و در عین حال مدل اقتصادی رشد بر اساس مصرف را که قلب روابط اقتصادی ما است، به چالش بکشیم. در واقع بحران آب و هوائی بحرانی نیست که به واسطه ی نبود هوش مصنوعی تا به حال حل نشده باشد. ما می دانیم که چکار باید بکنیم٬ اما آن را نمی توان به سرعت جا انداخت – نیاز به یک جابجائی الگو دارد. منتظر ماشین بودن تا یک راه حل دلپذیر و یا سود ساز ارائه دهد٬ راه حلی برای این بحران نیست.
توهمات را کنار بگذارید٬ به نظر می آید هوش مصنوعی دارد به روشی به بازار عرضه می شود که بحران آب و هوایی را تشدید کند. اولا٬ سرورهای غول آسایی که به سرعت مقاله و کارهای هنری را از ربات ها گرفته و ارائه می دهند به احتمال قوی منبعی قوی برای نشر کربن هستند. ثانیا٬ شرکت های غول آسائی مثل کوکاکولا برای بکار گرفتن هوش مصنوعی مولد برای ارتقا دادن هرچه بیشتر فروش خود دارند سرمایه گذاری عظیمی می کنند. و این روشن می سازد که از این فناوری جدید به همان نحوی استفاده می شود که از نسل گذشته ابزار دیجیتالی استفاده شد: در ابتدا با قول خوشایند در مورد گسترش آزادی و دموکراسی شروع شد و به تشویق ما برای خرید هرچه بیشتر چیزهای بی فایده و کربن زای ختم شده است.
و عامل سومی هم وجود دارد که نمایان کردنش کمی سخت است: هرچه کانال های رسانه ای ما بیشتر غرق اخبار دروغین و انواع ویروس ها می شوند٬ بیشتر حس می کنیم که در مردابی از اطلاعات گیر افتاده ایم. جفری هینتون15 که غالبا پدرخوانده ی هوش مصنوعی نامیده می شود٬ این را خوب درک می کند، زیرا شبکه ی عصبی ای که او بیش از ده سال قبل توسعه داد، اساس مدل های زبانی بزرگ16 امروزه را تشکیل می دهد. وی به تازه گی از شغل مهمی در گوگل استعفا داد که بتواند به راحتی در مورد خطرات فناوری ای که وی به خلق آن کمک کرده است٬ صحبت کند. بر اساس آنچه در نیویورک تایمز آمده، او از جمله به این خطر اشاره می کند که مردم « دیگر قادر نباشند بفهمند که واقعیت چیست».
و این چیزی است که به ادعای کمک هوش مصنوعی در جنگ علیه بحران شرایط آب و هوائی مربوط می شود؛ زیرا زمانی که ما در اثر آنچه به شکل فزاینده ای ناخوشایند از رسانه های می بینیم و می شنویم٬ اعتماد خود را از دست می دهیم٬ توانمندی خود در حل مشکلات مشترک را بیش از گذشته از دست می دهیم. بحران اعتماد قبل از چت جی پی تی البته که وجود داشته٬ اما اطلاعات عمیقا تقلبی روبه افزایش گذاشته و با گسترش پررونق فرهنگ حراستی که از قبل وجود داشت همراه خواهد شد. خوب اگر هوش مصنوعی با پیشرفت فناوری و علمی پدید بیاید چه تفاوتی خواهد کرد؟ اگر ساختار واقعیت مشترک ما در حال از هم پاشیدن باشد٬ ما قادر به پاسخگویی هماهنگ و منسجم نخواهیم بود.
توهم شماره ۲: هوش مصنوعی حکمرانی خردمندانه ارائه می دهد.
این توهم هم اشاره به آینده ای نزدیک دارد که در آن سیاستمداران و بوروکرات ها از سیستم های بسیار گسترده ی هوش مصنوعی بهره گیری می کنند٬ و می توانند « با شناخت الگوهای نیاز، برنامه های بر اساس شواهد را توسعه دهند» و این منافع عظیمی برای شهروندان دارد. این ادعا بر مبنای مقاله ای چاپ شده در بنیاد بوستن کانسالتینگ گروپ ( بی سی جی)17 است که در بسیاری از اتاق های فکری و مراکز مشاوره ی مدیریتی منعکس شد. مطابق این مقاله، شرکت های خاص- شرکت هایی که به استخدام دولت و سایر شرکت ها در می آیند تا صرفه جوئی در هزینه را شناسایی کنند و اغلب با اخراج تعداد زیادی از کارگران کاهش هزینه می دهند- به سرعت به واگن هوش مصنوعی سوار شده اند. شرکت پی دبلیو سی18 به تازگی اعلام کرده است یک میلیارد دلار برای استفاده از این ابزار سرمایه گذاری کرده است. گزارش ها حاکی از این است شرکت بین اند کامپنی19 و همچنین دلوئت20 با اشتیاق از این ابزارها برای افزایش «کارایی» مشتریان خود استفاده می کنند.
باز باید این سوال را مطرح کرد که آیا دلیل پیش گرفتن سیاست های خشن و غیرموثر توسط سیاستمداران، شواهد کافی نیست؟ و یا آنطور که مقاله ی بی سی جی می گوید: دلیل عدم توانائی دیدن « الگوها» است؟ آیا آن ها هنوز هزینه های انسانی نابودی بهداشت عمومی را در پاندمیک کرونا ندیدند؟ و یا زمانی که پارک ها مملو از چادرهای بی خانمان ها شده اند، شکست عدم سرمایه گذاری در خانه های دولتی را متوجه نشدند؟ و یا شاهد تایید مجوزهای ساخت برای زیرساخت های سوخت فسیلی، آن هم در حالی که گرما دارد بیداد می کند٬ نیستند؟ آیا آن ها به هوش مصنوعی نیاز دارند که آن ها را با هوش تر کند؟ و یا آن ها به اندازه ی کافی با هوش هستند که بدانند چه کسانی از کارزار انتخاباتی بعدی آن ها حمایت می کنند٬ و اگر نخواهند حمایت کنند٬ روی رقبای آن ها سرمایه گذاری کنند؟
اگر هوش مصنوعی بتواند ارتباط بین پول شرکت ها و سیاستگذاری های غیر مسئولانه را قطع کند٬ بسیار عالی می شود. اما این ارتباط دلیل اصلی مجوز به شرکت هایی مثل گوگل و مایکروسافت برای عرضه ی ربات های گفتگوی خود به عموم مردم، علیرغم کوهی از اخطارها و ریسک های شناخته شده است. اشمیت و دیگران در یک کارزار یک ساله به هر دو حزب در واشنگتن می گویند که اگر به آن ها اجازه داده نشود با هوش مصنوعی مولد٬ بدون میزان زیادی از تنظیمات جدی٬ پیشرفت کنند٬ قدرت های غربی از چین عقب می افتند. سال گذشته شرکت های بزرگ فناوری رکورد شکستند و۷۰ میلیون خرج کردند تا با واشنگتن لابی کنند- بیش از هزینه ی لابیگری برای نفت و گاز- و علاوه بر آن، همانطور که خبرگزاری بلومبرگ می گوید «میلیون ها دلار بر روی گروه های تجاری٬ غیرانتفاعی و اتاق های فکری خرج شده است».
علیرغم ادعای آن ها در این که می دانند چگونه پول بر سرمایه های ملی ما تاثیر می گذارد٬ زمانی که شما حرف های سام آلتمن٬ مدیر عامل اوپن ا آی21 و سازنده ی چت جی پی تی را می شنوید – صحبت درباره ی بهترین حالت محصولات خود- به نظر می رسد که تمام این ادعاها فراموش شده است. او توهم دنیائی را دارد که کاملا با دنیای ما متفاوت است٬ دنیایی که در آن سیاستمداران و شرکت ها براساس بهترین داده ها تصمیم می گیرند و هیچگاه تداوم زندگی انسان را به خاطر منافع خود و برتری ژئوپلیتیکی به خطر نمی اندازند- که خود توهمی دیگری را به ما نشان می دهد.
توهم شماره ۳: به غول های فناوری می توان اعتماد کرد که دنیا را از بین نبرند.
سام آلتمن در پاسخ به این سوال که آیا وی نگران میزان بی سابقه ی فعالیت در چت جی پی تی برای کسب سود هرچه بیشتر نیست؟ جواب داد که هست٬ اما خوشبینانه اظهار داشت که « امیدوارم همه چیز به خوبی تمام شود». وی درباره ی سایر شرکت های فناوری رقیب خود گفت: « من باور دارم که فرشته ی بهتر خواهد برد».
فرشته های بهتر؟ در گوگل؟ من اطمینان زیادی دارم که گوگل بسیاری از این فرشته ها را اخراج کرده، زیرا که آن ها مقاله های انتقادی درباره هوش مصنوعی نشر دادند٬ و یا شرکت را به واسطه ی تبعیض نژادی و یا آزار جنسی مورد سوال قرار دادند. « فرشته های بهتر» بیشتری با هشدار از شغل خود دست کشیدند که جدیدترین آن ها هینتون٬ پدر هوش مصنوعی بود. و این بدین علت است که٬ متوهم هایی فکر می کنند این مردم اند که از هوش مصنوعی بیشترین سود را می برند. گوگل براساس آنچه به نفع جهان است تصمیم نمی گیرد. این شرکت براساس آن چیزی تصمیم می گیرد که به سهامداران آلفابت – یعنی کسانی که نمی خواهند حباب ارزش سهام را از دست بدهند٬ بیشترین سود را برساند – به خصوص زمانی که مایکروسافت٬ متا و اپل از قبل وارد بازی شده اند.
توهم شماره ۴: هوش مصنوعی ما را از چنگال سختگیری آزاد می کند.
یک دلیل ساده وجود دارد که توهم های خیراندیشانه ی سیلیکون ولی برای خیلی ها امکان پذیر به نظر می آید. هوش مصنوعی مولد در حال حاضر در مرحله ایست که ما ممکن است آن را مرحله ی سوسیالیسم ساختگی22 بدانیم. این قسمتی از بازی شناخته شده سیلیکان ولی است. اول٬ یک محصول جالب خلق کن (یک موتور جستجوگر٬ یک ابزار نقشه خوانی٬ یک شبکه ی اجتماعی٬ یک پلتفرم ویدیوئی٬ یک سرویس اشتراک سفر …) آن را بدون هیچ مدل سوداگری قابل تشخیص یا عملی (با ربات ها بازی کنید) بصورت مجانی یا تقریبا مجانی برای چند سال در دسترس همه قرار بده. آن ها به ما میگویند «ببینید چه چیزهای جالبی می توانید بسازید»؛ و ادعا می کنند که این فقط شما هستید که این کار را می کنید، زیرا مثلا دوست دارید یک «میدان» برای شهر یا «اطلاعات قابل دسترس همگان»٬ خلق کنید یا « مردم را به هم وصل کنید» و در ضمن دموکراسی را گسترش دهید (و بدجنس هم نیستید). و بعد به تماشا می نشینند و به دام افتادن مردم را با استفاده از این ابزار مجانی تماشا می کنند تا رقبا اعلام ورشکستگی کنند. زمانی که مسیر خالی از رقبا شد٬ شروع می کنند به تبلیغات هدفمند٬ حراست مستمر٬ بستن قراردادهای نظامی و پلیسی٬ فروش داده های جعبه های سیاه و بالا بردن حق اشتراک.
بسیاری از زندگی ها و بخش ها به واسطه ی انجام این سناریو از بین رفته اند٬ از رانندگان تاکسی گرفته تا بازار خانه های اجاره ای٬ تا روزنامه های محلی. به نظر می رسد با انقلاب هوش مصنوعی٬ این نوع از دست دادن ها شامل کسانی دیگری مثل معلمان٬ کدنویسان٬ هنرمندان تجسمی٬ روزنامه نگاران٬ مترجمین٬ موسیقیدانان٬ کارکنان مراقبتی و بسیاری دیگر بشود و کد ها جای آن ها را بگیرند.
غصه نخورید٬ توهم علاقمندان هوش مصنوعی عالی است. هوش مصنوعی مولد پایان دنیا نخواهد بود. به هر حال کی دوست دارد کار کند؟ به ما گفته می شود که فقط « کارهای خسته کننده»، کارهای ضایع کننده ی روح و روان٬ کارهای تکراری به کمک ربات ها انجام می شود و انسان فقط آن ها را سرپرستی می کند. آلتمن٬ برای قسمت خودش آینده ای را می بیند که کار در آن « می تواند مفهوم گسترده تری داشته باشد٬ چیزی نیست که شما برای برآوردن احتیاجات اولیه ی خود مجبور به انجام آن باشید٬ بلکه چیزیست که شما به واسطه ی خلاقیت هایتان انجام می دهید و شما را راضی و خوشحال می کند».
بله، این جنبه ی واقعا مهیجی از زندگی بسیار زیباتر٬ خوشایندتر است٬ زندگی ای که بسیاری از چپ گراها ( از جمله داماد کارل مارکس٬ پل لافارگ23، که مانیفستی تحت عنوان « حق تنبل بودن» نوشته )، به آن اشاره کرده اند. اما ما چپ ها می دانیم که اگر کسب پول، اصل اساسی برای زندگی ما نباشد٬ باید راه های دیگری برای برآوردن نیازهای اولیه مثل سرپناه و رزق و روزی وجود داشته باشد. دنیایی بدون کارهای کم ارزش یعنی که اجاره خانه مجانی باشد٬ بیمه بهداشتی هم باید مجانی باشد٬ و هر فردی باید حقوق اقتصادی غیرقابل انکاری داشته باشد. و آنگاه مشخص می شود که ما دیگر در مورد هوش مصنوعی صحبت نمی کنیم٬ ما درباره ی سوسیالیسم حرف می زنیم.
ما در یک فضای منطقی و انسانی که به نظر می رسد آلتمن توهم آن را دارد زندگی نمی کنیم. ما در جهان سرمایه داری زندگی می کنیم؛ و در این نظام، تاثیر سرازیر شدن فن آوری هایی که می تواند منجر به بهتر انجام دادن کار بیشمار مردم شود، به این معنا نیست که آن انسان ها ناگهان آزاد هستند که فیلسوف و هنرمند شوند. این بدین معنا است که آن انسان ها زندگی خود را در لبه ی پرتگاه ببینند- و در واقع هنرمندان واقعی اولین کسانی هستند که از پرتگاه پرتاب می شوند.
این پیامِ نامه ی سرگشاده کراباپل24 خطاب به « هنرمندان٬ نشریات٬ روزنامه نگاران٬ ویرایشگران و رهبران اتحادیه ی روزنامه نگاران25» است. او توصیه می کند حمایت از ارزش های انسانی علیه استفاده از تصاویر هوش مصنوعی مولد را به عهده بگیرند» و اشاره دارد که «حمایت از هنر ویرایش توسط انسان انجام می شود٬ نه مزرعه ی سرورها». این نامه را اکنون صدها هنرمند ٬ روزنامه نگار، و سایرین امضا کرده اند که همه به جز هنرمندان برجسته تر، آثار خود را در معرض « انقراض» می دانند. و بنا به گفته ی هینتون٬ پدرخوانده ی هوش مصنوعی٬ دلیلی ندارد که باور کنیم خطر بیشتر نمی شود. ربات های گفتگو کارهای سیاه را از بین می برند٬ اما ممکن است چیزهای بسیار بیشتری را نیز از بین ببرند. کراباپل و نویسندگان همراه او نوشته اند:« هوش مصنوعی مولد دارد خون آشامی می کند. در حالی که دارد خون هنرمندان زنده را می نوشد٬ با خون هنرمندان نسل گذشته جشن می گیرد.»
راه هایی برای مقاومت وجود دارد: ما می توانیم از استفاده ی این محصول سرباز بزنیم و سازماندهی کنیم و خواستار این شویم که کارفرماها و دولت ها هم استفاده از آن را رد کنند. نامه ای26 از طرف علمای برجسته ی اصول اخلاقی هوش مصنوعی٬ از جمله تمنیت گبرو27 که به خاطر اعتراض علیه تبعیض در محیط کار در سال ۲۰۲۰ از گوگل اخراج شد، منتشر شده و در آن بعضی از ابزارهای نظارتی ارائه شده است که دولت می تواند به فوریت معرفی کند؛ از جمله، شفافیت کاملِ نوع داده هایی که برای آموزش ماشین ها مورد استفاده قرار می گیرد. آن ها می نویسند: « زمانی که ما با رسانه های مصنوعی مواجه هستیم، آن ها نه تنها باید همواره شفاف و روشن باشد٬ بلکه همچنین لازم است سازمان هایی که این سیستم را می سازند و آموزش می دهند و مدل مهندسی آن را مستند می کنند نیز توضیح داده شوند. ما باید ماشین هایی بسازیم که برای ما کار کنند٬ نه این که جامعه را مطابق توانایی این ماشین ها سازماندهی کنیم.»
شرکت های فن آوری دوست دارند که ما فکر کنیم برای عقب نشاندن این ماشین جایگزین بشر٬ این محصول تقلید توده ای مردم٬ دیگر دیر شده است. این شرکت ها ادعا می کنند که از قبل به میزان زیادی پیشینه های قانونی و تنظیماتی بسیار مرتب وجود دارند که می توان آن ها را اجرایی کرد. برای مثال٬ کمیسیون تجارت فدرال آمریکا ( اف تی سی)28 این قوانین و تنظیمات را در مورد کمبریج آنالیتیکا٬ و همچنین اورالبوم ٬ مالک فوتو اپ اجرا کرد تا آن ها را مجبور کنند که تمامی الگوریتم هائی را که بطور غیرمجاز از داده ها و تصاویر جمع آوری شده استفاده می کنند معدوم کنند. هیئت حاکمه ی بایدن در اوایل شروع دوره ی خود بلوف زیادی درباره ی قانونمند کردن شرکت های فناوری٬ از جمله ممنوع کردن دزدی اطلاعات شخصی برای ساختن الگوریتم های اختصاصی زد. اکنون که به دوره ی انتخابات نزدیک میشویم وقت مناسبی است که به آن قول ها عمل کند- و پیش از این که اتفاق بیفتد مانع اخراج دسته جمعی کارگران و کارکنان شود.
دنیایی سرشار از تقلب٬ حلقه های تقلید29 و بدتر شدن نابرابری کنونی اجتناب ناپذیر نیست. این به انتخاب توسط یک سری سیاست ها وابسته ست. ما می توانیم با تنظیمات مناسب فرم فعلی ربات های گفتگوی خون آشام را بطور کامل از بین ببریم- و شروع به ساختن دنیایی کنیم که در آن مهیج ترین قول ها برای ماشین های هوش مصنوعی بیشتر از توهمات سیلیکان ولی باشد.
ما ماشین ها را تعلیم می دهیم. تک تک ماها. اما ما هیچگاه موافقت خود را اعلام نمی کنیم. آن ها از مجموعه ی نبوغ٬ الهام٬ و الهام بخشی نوع بشر٬ (همراه با خصلت های نابخردانه ی ما) تغذیه می شوند. این مدل ها ماشین هایی هستند که تصاحب می کنند و اختصاص می دهند٬ زندگی فردی و همچنین هوشمندی جمعی و ارثیه ی هنری ما را می بلعند و خصوصی سازی می کنند. هدف آن ها هیچگاه حل مشکل آب و هوائی یا بیشتر مسئول کردن دولت در مقابل زندگی افراد برای بهتر زندگی کردن نبوده. هدف آن ها همواره سودآوری از تباهی جمعی بوده٬ که در سیستم سرمایه داری نتیجه ی آشکار و منطقی جایگزینی عملکردهای انسانی با ربات هاست.
آیا تمام این ها بیش از حد دراماتیک است؟ آیا یک مقاومت محافظه کاران و واکنشی نسبت به فناوری موجود است؟ آلتمن ما را مطمئن می کند که : هیچکس نمی خواهد دنیا را نابود کند. شاید کسی نخواهد. اما شرایط آب وهوایی هر روز بدتر و بحران انقراض هر روزه نزدیک تر می شود. به نظر می رسد بسیاری از آدم ها و موسسات قدرتمند تا زمانی که می توانند گزارش سوددهی شان را بدهند و باور دارند این کار حفاظت از خودشان و خانواده شان هست٬ مشکلی با دانستن این نکته ندارند که دارند به تخریب ثبات زندگی جهان و سیستم های حامی آن ها کمک می کنند. آلتمن مانند بسیاری از خلق کننده های سیلیکون است که خودشان فراهم کننده این شرایط هستند. او در سال ۲۰۱۶ نوشت: من تفنگ٬ طلا٬ پتاسیم یدید (ماده ی ضدعفونی کننده)٬ آنتی بیوتیک٬ باطری٬ آب٬ ماسک ضدگاز، نیروی دفاعی ارتش اسرائیل و یک تکه زمین بزرگ در بیگ سور کالیفرنیا دارم که می توانم به آنجا پرواز کنم.»
من مطمئنم که این گفته ی او باور واقعی اش درباره ی آینده ای باشد که وی کمک میکند تا از مهار خارج شود. این جملات نظر او را بهتر بیان می کند تا آنچه وی انتخاب کرده تا در مصاحبه با رسانه ها بگوید.
1. https://www.theguardian.com/commentisfree/2023/may/08/ai-machines-hallucinating-naomi-klein
2. Hallucinate
3. Chatbots
4. Bing
5. Bard
6. Techno-necro
7. Stable Diffusion
8. Dall-E2
9. Molly Crabapple
10. گوگل بوکز (به انگلیسی: Google Books) که پیشتر با نام گوگل بوک سرچ یا گوگل پرینت عرضه میشد، سرویسی است که مورد جستجو را در متن کامل کتبی که شرکت گوگل در پایگاه داده خود ذخیره دارد، پیدا میکند.
11. ایربیانبی (به انگلیسی: Airbnb) یک بازارگاه مجازی در زمینهٔ اجارهٔ مکانهای اقامتی است.
12. https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem
14. https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/#Extinction_from_AI
15. جفری اورست هینتون (به انگلیسی: Geoffrey Hinton)] (متولد ۶ دسامبر ۱۹۴۷) روانشناس شناختی و دانشمند علوم کامپیوتر متولد بریتانیا است و بیشتر برای کار خود در زمینه شبکههای عصبی مصنوعی شناخته شدهاست.
16. یک مدل زبانی بزرگ (به انگلیسی: large language model) یا به اختصار الالام (به انگلیسی: LLM)، یک مدل زبانی متشکل از یک شبکه عصبی با پارامترهای زیادی است که بر روی مقادیر زیادی متن بدون برچسب با استفاده از یادگیری خود نظارتی یا یادگیری نیمهنظارتی آموزش داده شدهاست. مدلهای زبان بزرگ در حدود سال ۲۰۱۸ ظاهر شدند و در گستره وسیعی از وظایف، عملکرد بالایی دارند
17. Boston Consulting Group
18. PwC شرکتی که در زمینه ی صرفه جویی در هزینه فعال است
19. Bain & Company شرکتی که در زمینه ی صرفه جویی در هزینه فعال است
20. Deloitte شرکتی که در زمینه ی صرفه جویی در هزینه فعال است
21. OpenAI
22. Faux-socialism
23. Paul Lafargue
24. The Center for Artistic Inquiry and Reporting’s vision مرکز تحقیق و گزارش هنری
25. https://artisticinquiry.org/AI-Open-Letter
26. https://www.dair-institute.org/blog/letter-statement-March2023
27. Timnit Gebru
28. US Federal Trade Commission (FTC)
29. Mimicry loops در زمینه هوش مصنوعی به استفاده از الگوریتمها و مدلهایی اشاره دارد که توانایی تقلید دارند. در این حلقهها، یک سامانه هوش مصنوعی با تحلیل و درک دادههای ورودی، سعی در تولید خروجیهایی میکند که به یک نمونه ورودی مشابهت داشته باشد. سپس این خروجیها به عنوان ورودی جدید به سامانه داده میشوند و عملیات تقلید به صورت پیوسته ادامه مییابد.
اندیشه نو: استفاده از تمام یا بخشهایی از این مطلب با ذکر منبع بدون مانع است.