Skip to content
مارس 9, 2026
   ارتباط با ما       در باره ما       فیسبوک       تلگرام   

احترام به تفاوت اندیشه، همیاری و تلاش مشترک در راه تحقق آزادی

  • خانه
  • ایران
  • جهان
  • ویژه اندیشهٔ نو
  • اجتماعی
    • زحمتکشان
    • جوانان و دانشجویان
    • زنان
  • اقتصادی
  • فرهنگی – ادبی
  • محیط زیست
  • تاریخی
  • علوم اجتماعی
  • دیدگاه‌ها
  • Home
  • اتحادیه‌های بی‌سلاح در برابر هوش مصنوعی؛ ضعف دانش برای مذاکره دربارهٔ آیندهٔ کار
  • دانش و فناوری
  • دیدگاه‌ها
  • زحمتکشان
  • نوار متحرک

اتحادیه‌های بی‌سلاح در برابر هوش مصنوعی؛ ضعف دانش برای مذاکره دربارهٔ آیندهٔ کار

گسترش مدیریت الگوریتمی در محیط‌های کار اروپا نگرانی‌ها دربارهٔ نظارت گسترده، نقض حریم خصوصی، و نبود آمادگی اتحادیه‌های کارگری برای مقابله با این فناوری را افزایش داده است.

چهارشنبه ۲۶ آذر ۱۴۰۴

آتیه آنلاین: مطالعهٔ تازه کمیسیون اروپا نشان می‌دهد که در حدود یک‌چهارم محل‌های کار در اتحادیهٔ اروپا تصمیم‌های مدیریتی با استفاده از الگوریتم‌ها و ابزارهای هوش مصنوعی گرفته می‌شود. این فناوری‌ها بر شرایط کاری، مزد، زمان‌بندی وظایف، و ارزیابی عملکرد تأثیر مستقیم دارند. اما اتحادیه‌های کارگری هشدار می‌دهند که هنوز برای مقابله با این ابزارها آماده نیستند.
استفاده از مدیریت الگوریتمی ابتدا در پلتفرم‌های بزرگی مانند اوبر دیده شد، اما اکنون به مشاغل سنّتی نیز گسترش یافته است. برای مثال، در بخش لجستیک فرانسه هوش مصنوعی برای برنامه‌ریزی مسیر رانندگان استفاده می‌شود تا اطلاعاتی مانند ترافیک و موقعیت تحویل را لحظه‌یی ارائه دهد.

کارشناسان می‌گویند استفادهٔ گسترده از این ابزارها می‌تواند به نظارت گسترده و کنترل دائمی کارکنان منجر شوند، حتی زمانی که کارگر در حال استراحت است. تی جارک، دبیر کنفدراسیون اتحادیه‌های کارگری اروپا، می‌گوید بسیاری از اتحادیه‌ها دانش یا منابع کافی برای مذاکره دربارهٔ تأثیر الگوریتم‌ها بر کارکنان ندارند.

 او هشدار می‌دهد که مدیریت الگوریتمی می‌تواند دربارهٔ ساعت کار، مزد، نوبت‌‌کاری، و حتی داده‌های سلامت روان کارکنان بدون اجازه تصمیم‌گیری کند و این اطلاعات را حتی پس از خروج کارکنان نیز ردیابی کند. جارک می‌گوید «اکنون زمان آن رسیده است که شرکت‌ها بفهمند نمی‌توانند تصمیم‌های مدیریتی را پشت الگوریتم‌ها پنهان کنند.»

او و دیگر فعالان کارگری از اتحادیهٔ اروپا خواسته‌اند شیوه‌نامه‌های جدیدی برای محافظت از حقوق کارگران در برابر الگوریتم‌ها تدوین کند. طبق آمار اتحادیهٔ «یونی‌یوروپا»، فقط در ۲۳ توافق جمعی در سراسر اروپا به مدیریت الگوریتمی اشاره شده است. برخی اتحادیه‌ها در اسپانیا و دانمارک موفق بوده‌اند، اما بیشتر اتحادیه‌ها در اروپا بودجه و منابع لازم را برای استخدام متخصصان داده و الگوریتم ندارند.

قوانین کنونی اتحادیهٔ اروپا فقط کارکنان پلتفرمی مانند رانندگان اوبر و آمازون را در بر می‌گیرد. اتحادیهٔ اروپا در سال ۲۰۲۴ قانونی تصویب کرد که کارگران را نمی‌توان بر اساس تصمیم‌های خودکار یا الگوریتمی اخراج کرد و شرکت‌ها موظف‌اند نظارت انسانی بر این تصمیم‌ها داشته باشند و تغییرات الگوریتم‌ها را به کارکنان اطلاع دهند.

با این حال، کارشناسان معتقدند این قوانین از واقعیت روز عقب مانده‌اند و نمی‌توانند پوشش کامل برای همهٔ کارگران فراهم کنند. کارشناسان می‌گویند دستورالعمل‌های جدید باید تضمین کند که همهٔ کارگران حق دسترسی به تصمیم‌های الگوریتمی و و بازبینی آنها را داشته باشند. فعالان حوزهٔ کار پیش‌بینی می‌کنند که فناوری هوش مصنوعی در دههٔ آینده بر ۴۰درصد مشاغل جهان به‌نوعی اثر خواهد گذاشت.

در اروپا نیز مدیریت الگوریتمی اکنون بخش‌هایی مانند استخدام، زمان‌بندی، نظارت، و ارزیابی عملکرد را شامل می‌شود. این روند نیاز به قوانین روشن و شفاف برای حفاظت از حقوق کارگران را افزایش داده است. کارشناسان می‌گویند الگوریتم‌ها تصمیم‌‌‌گیری‌های عملیاتی را ساده‌تر می‌کنند، اما فشار روانی بر کارگران را نیز افزایش می‌دهند. جمع‌آوری داده‌های گسترده بدون اطلاع کارکنان، ردیابی مداوم عملکرد آنها، و تغییرات خودکار در نوبت‌های کاری همه باعث شده است که کارکنان احساس کنند زیر کنترل دائم‌اند.

جارک تأکید می‌کند: «ما از فناوری عقب هستیم؛ فناوری از مدت‌ها پیش زندگی میلیون‌ها کارگر اروپایی را تغییر داده است، اما ما هنوز برای آن قانون‌ نگذاشته‌ایم.» او و دیگر فعالان کارگری امیدوارند که شیوه‌نامه‌های جدید دربارهٔ هوش مصنوعی در محیط کار تا پایان امسال (۲۰۲۵) و هم‌زمان با ابتکار «نقشهٔ راه شغل‌های باکیفیت» کمیسیون اروپا ارائه شود. 

چاپ 🖨

Continue Reading

Previous: اخراج‌های گسترده در بخش صنعت آرژانتین
Next: تداوم سرکوب صنفی معلمان در ایران: پرونده‌سازی علیه بیش از ۳۰ فعال صنفی تنها در شش ماه!
  • تلگرام
  • فیسبوک
  • ارتباط با ما
  • در باره ما
  • فیسبوک
  • تلگرام
Copyright © All rights reserved