یکی از مهندسان مایکروسافت نگرانیهایی جدی را دربارهی سرویس تصویرساز هوش مصنوعی این شرکت مطرح کرده است. او ادعا میکند که هوش مصنوعی یادشده میتواند محتوای خطرناک و نامناسبی تولید کند.
شین جونز، مدیر ارشد مهندسی نرمافزار در مایکروسافت، کشف کرده است که Copilot Designer میتواند تصاویر خشونتآمیز و جنسی و مغرضانهای را تولید کند؛ مانند تصویر نامناسبی که در چند وقت اخیر از تیلور سوئیفت تولید و منتشر شده بود.
جونز این موضوع را ابتدا در داخل شرکت و با همکارانش مطرح کرد؛ اما با پاسخ مناسبی روبهرو نشد. بنابراین، حالا تصمیم گرفته است که اشکالات را بهصورت عمومی اعلام کند.
جونز این اشکالات را ازطریق روش Red Teaming (راهکاری برای آزمایش ضعفهای محصول) شناسایی کرده است. او گزارش کرد که با تصاویر نگرانکنندهای مواجه شده است؛ ازجمله تصاویری از شیاطین و موجودات خیالی ترسناکی درکنار اصطلاحات مربوط به حق سقط جنین و تصاویری از نوجوانان در مهمانیها با سلاح و مواد مخدر.
جونز از مایکروسافت خواسته است که فوراً اقدام کند. یکی از اقدامات مهم مدنظر جونز خارجشدن موقتی دیزاینر از دسترس کاربران است. او میخواهد این سرویس پس از اجرای کامل تدابیر امنیتی لازم و رفع اشکالات ذکرشده، باردیگر دردسترس کاربران قرار گیرد.
همچنین، شین جونز افشاگریهایی دربارهی محدودیتهای Copilot Designer انجام داد. او میگوید که سرویس یادشده برای تمامی سنین و افراد مناسب نیست.
مایکروسافت هنوز به تمام ادعاهای جونز دراینباره پاسخ نداده است؛ بااینحال، سخنگوی این شرکت گفت که مایکروسافت خود را درقبال رسیدگی به نگرانیهای کارکنانش متعهد میداند و قدردان تلاشهای آنها برای آزمایش فناوریهای شرکت است.
در بخشی از بیانیهی مایکروسافت آمده است: «برخی نگرانیها و خطرها وجود دارند که میتوانند تأثیرات بالقوهای بر خدمات و شرکای تجاری ما بگذارند. بنابراین، کانالهای دریافت گزارش داخلی قوی برای بررسی و اصلاح مشکلات احتمالی ایجاد کردهایم. ما کارکنان را تشویق میکنیم تا از آنها برای برطرفشدن نگرانیها و اشکالهای مدنظرشان استفاده کنند.»
تصویرساز هوش مصنوعی جمنای گوگل نیز اخیراً در اتفاقی مشابه، تصاویری پرحاشیه را ساخته بود. این موضوع باعث شد تا گوگل تولید تصویر انسان با این هوش مصنوعی را متوقف کند.
این روزها نگرانیها دربارهی اینگونه سوءاستفادهها از هوش مصنوعی در حال افزایش است و گاهی شرکتها را به تغییر سیاستها و راهبردهایشان مجبور میکند. باید منتظر ماند و دید شرکتهای بزرگ دنیا چه اقداماتی برای ایمنسازی توسعه و پیشرفت هوش مصنوعی خواهند کرد.