پژوهشی تازه نشان می‌دهد هوش مصنوعی چت جی پی تی از کمپانی اوپن ای آی ممکن است به نابرابری جنسیتی دامن بزند.

قیمت روز گوشی های بازار ایران

به گزارش تکراتو و به نقل از thenextweb، بر اساس نتایج یک پژوهش جدید، مدل‌های زبانی هوش مصنوعی مانند ChatGPT معمولاً به زنان توصیه می‌کنند که در مذاکرات شغلی، حقوق کمتری نسبت به مردان درخواست کنند؛ حتی زمانی که سابقه کاری و مدرک تحصیلی آن‌ها دقیقاً یکسان است.

این تحقیق را ایوان یامشچیکوف، استاد هوش مصنوعی و رباتیک در دانشگاه فنی وورزبرگ-شفاینفورت آلمان انجام داده است. او همچنین بنیان‌گذار استارتاپ Pleias در فرانسه و آلمان است که مدل‌های زبانی با آموزش اخلاق‌محور برای صنایع حساس تولید می‌کند.

تیم او پنج مدل زبان محبوب از جمله نسخه O3 از ChatGPT را با سناریوهایی آزمایش کرده‌اند که تنها تفاوت‌شان در جنسیت کاربر بوده، اما تحصیلات، تجربه کاری و عنوان شغلی کاملاً یکسان باقی مانده است.

در یکی از مثال‌ها، مدل ChatGPT به یک زن جویای کار، رقمی برای حقوق پیشنهاد داده و در مثال مشابه برای یک مرد، همان مدل رقمی به‌مراتب بیشتر ارائه کرده است. یامشچیکوف می‌گوید تفاوت این دو پاسخ تنها دو حرف در ورودی بود، اما خروجی آن‌ها تا ۱۲۰ هزار دلار در سال اختلاف داشت.

بیشترین شکاف دستمزد در مشاغلی مانند حقوق و پزشکی دیده شد و بعد از آن رشته‌های مدیریت و مهندسی قرار گرفتند. فقط در حوزه علوم اجتماعی بود که مدل‌ها برای زنان و مردان پیشنهادهای تقریباً برابری ارائه دادند.

تیم پژوهشی حتی رفتار مدل‌ها را در مشاوره شغلی، هدف‌گذاری و توصیه‌های رفتاری نیز بررسی کردند. در همه موارد، پاسخ مدل‌ها بر اساس جنسیت کاربر تفاوت داشت؛ این در حالی است که صلاحیت‌ها و سوال‌ها کاملاً یکسان بودند. نکته نگران‌کننده‌تر اینجاست که مدل‌ها هیچ اشاره‌ای به این سوگیری نمی‌کنند.

این نخستین بار نیست که الگوریتم‌های هوش مصنوعی به دلیل بازتولید تبعیض‌های موجود در جامعه مورد انتقاد قرار می‌گیرند. برای نمونه، شرکت آمازون در سال ۲۰۱۸ یک ابزار داخلی استخدام را کنار گذاشت، چون مشخص شد این سیستم خودکار به‌طور سیستماتیک رزومه زنان را رتبه پایین‌تری می‌داد.

سال گذشته نیز مشخص شد یک مدل یادگیری ماشینی مورد استفاده در حوزه سلامت زنان، بیماری‌ها را در زنان و افراد سیاه‌پوست کمتر از حد معمول تشخیص می‌دهد، چون داده‌های آموزشی آن بیشتر از مردان سفیدپوست تشکیل شده بود.

پژوهشگران این مطالعه معتقدند که راه‌حل صرفاً فنی نیست. به‌زعم آن‌ها، لازم است استانداردهای اخلاقی مشخص، سیستم‌های نظارتی مستقل و شفافیت کامل در نحوه توسعه و استفاده از این مدل‌ها به‌کار گرفته شود.

با گسترش استفاده از هوش مصنوعی در حوزه‌هایی مانند سلامت روان، برنامه‌ریزی شغلی و آموزش، خطرات این موضوع بیش از پیش جدی شده است. اگر کنترل نشود، این تصور نادرست که هوش مصنوعی بی‌طرف است، می‌تواند یکی از خطرناک‌ترین ویژگی‌های آن باشد.

source

توسط blogcheck.ir