چندی پیش، گوگل اعلام کرد که این هیئت اخلاقی جدیدی را برای هدایت «توسعه مسئولانه هوش مصنوعی» در اختیار دارد. به نظر می رسد این یک حرکت قابل تحسین باشد اما این شرکت با انتقاد شدید مواجه شده است.
محققان از گوگل، مایکروسافت، فیس بوک و دانشگاه های برتر به عضویت هیئت مدیره کی کیس کالج جیمز، مدیر مسئول معاونت حقوقی بنیاد میراث به این موضوع پرداختند. آنها اشاره کردند که جیمز و سازمان او مبارزه علیه قوانین ضد تبعیض برای گروه های LGBTQ و حمایت از تغییرات آب و هوایی را انکار می کنند و باعث ناتوانی در ارائه توصیه های اخلاقی به قدرتمندترین شرکت AI جهان می شوند. تقاضای بازخواست که خواستار حذف جیمز بود (در حال حاضر بیش از 1700 امضا را گرفته است) و به عنوان بخشی از واکنش، یکی از اعضای هیأت تازه تشکیل شده استعفا داد .
گوگل هنوز درباره همه ی اینها پاسخ نداده اما برای بسیاری از افراد جامعه AI، این یک مثال واضح از عدم توانایی Big Tech است که صادقانه و آشکارا به کار خود با اخلاق رفتار کند.
با بحث های اخیر درباره اخلاق آی.تی. در چند سال گذشته، شرکت های فناوری به نظر می رسد که خود را در معرض اخلاق قرار داده اند: ایجاد هیئت های اخلاق، نوشتن اخطار نامه های اخلاقی و حمایت از تحقیقات در موضوعات مانند تعصب الگوریتمی. اما آیا این هیئت ها و منشورها هر کاری را انجام می دهند؟ آیا آنها که چگونگی کار این شرکتها تغییر می کنند و یا آنها را به نحوی معنی دار پاسخگویی می کنند؟
بن وگنر می گوید شور و شوق تکنولوژی برای لوازم الکترونیکی اخلاقی فقط “شستن اخلاق” است، استراتژی برای جلوگیری از مداخله دولت. وقتی محققان روش های جدیدی را برای تکنولوژی برای به خطر انداختن گروه های به حاشیه رانده شده یا نقض آزادی های مدنی کشف می کنند، شرکت های فن آوری می توانند به هیئت مدیره خود اشاره کنند و بگویند: «ما کاری انجام می دهیم و چون هیئت مدیره نا توان است ، به این معنی است که شرکت ها تغییر نمی کنند.
البته گوگل تنها شرکتی نیست که هیئت اخلاقی و منشور را دارد. DeepMind یکی از شرکت های AI وابسته به کوکل در لندن نیز یکی از آن هاست، هر چند که هرگز نشان نمی دهد که چه کسی بر روی آن کار می کند و چه چیزی را انجام می دهد .مایکروسافت اصولAI خود را دارد و کمیته اخلاقی AI را در سال 2018 تأسیس کرد. آمازون با کمک بنیاد ملی علوم حمایت از تحقیقات پروژه ای در مورد “عدالت در هوش مصنوعی” آغاز کرده است ، در حالی که فیس بوک حتی یک مرکز تحقیق اخلاقی AI را در آلمان تاسیس کرده است.
رامان چوودوری، دانشمند داده و سرپرست AI مسئول در مشاوره مدیریت Accenture می گوید: با وجود گسترش هوش مصنوعی، این برنامه ها تمایل دارند تا ضعف های اساسی را به اشتراک بگذارند. یکی از مهمترین نکات این است که آنها فاقد شفافیت هستند.
Chowdhury اشاره می کند که بسیاری از مهم ترین موسسات جامعه، از دانشگاه ها تا بیمارستان ها، در طول زمان، هیئت بازرسی موثر را که ارزش های موسسات را در منافع عمومی نشان می دهد، ایجاد کرده اند. اما در مورد Big Tech، این امر مشخص نیست.
“این هیئت بازرسی نمی تواند تغییرات ایجاد کند، فقط می تواند پیشنهادات را ارائه دهد“
Chowdhury به The Verge می گوید: “این به این معنا نیست که مردم علیه نهاد های حکومتی هستند، اما ما شفافیت در ساختار آنها نداریم.” با توجه به آخرین هیئت بازرسی گوگل، او میگوید: “این هیئت مدیره نمیتواند تغییرات ایجاد کند، فقط میتواند پیشنهادات را ارائه دهد. آنها نمی توانند در مورد آن با مردم صحبت کنند. پس برچه ویژگی های نظارتی دارند؟ “
یک مطالعه از سال 2018 سعی کرد تا آزمایش کند که کدام رفتار می تواند بر تصمیم گیری اخلاقی برنامه نویسان تاثیر بگذارد. این دو گروه از توسعه دهندگان را با مجموعه ای از مشکلات احتمالی که ممکن است در کار روبرو شوند، مورد بررسی قرار داد. پیش از پاسخ دادن به یک گروه گفته شد که کد اخلاقی صادر شده توسط انجمن ماشین آلات رایانه را در نظر بگیریم، در حالی که گروه دیگری به سادگی گفته که شرکت پیش فرضی که بر اصول اخلاقی قوی کار می کرد، ادامه می دهد. این مطالعه نشان داد که افراد امتحان اولیه با کد اخلاق “بر روی پاسخ های آنها هیچ تاثیری نداشتند“.
با توجه به اینکه چگونه شرکت ها عمل می کنند، بی اندازه دلسرد کننده هستند. برای مثال، گوگل، منشور اخلاقی AI را تنها پس از اعتراض به کار خود در کمک به ابزار تجزیه و تحلیل طراحی پنتاگون برای هواپیماهای بدون سرنشین ایجاد کرد. بعد از آن، موتور جستجوی سانسور چینی خود را توسعه داد، پروژهشیی است که احتمالا به نوعی به AI مربوط می شود و بسیاری فکر می کنند که حقوق بشر را نقض می کند. (گوگل می گوید کار بر روی این پروژه متوقف شده است، اما گزارش کارکنان غیراز این را می گوید.)
فوق العاده هست