پایگاه خبری وب زوم
دوشنبه 31 اردیبهشت 1403
کد خبر: 17072
پ

به گفته محققان، ChatGPT سوگیری سیاسی چپ دارد

یک مطالعه جدید نشان می‌دهد همانطور که بسیاری پیش‌بینی می‌کردند، چت‌بات هوشمند ChatGPT از شرکت اوپن‌ای‌آی طرفدار طیف چپ سیاسی است.

یک مطالعه جدید نشان می‌دهد همانطور که بسیاری پیش‌بینی می‌کردند، چت‌بات هوشمند ChatGPT از شرکت اوپن‌ای‌آی طرفدار طیف چپ سیاسی است.

به گزارش پیوست به نقل از فوربز، محققان دانشگاه انجلیا شرقی دریافتند که این ابزار در آمریکا از دموکرات‌ها، در انگلستان از حزب کارگر و در برزیل هم از لولا د سیلوا، نماینده حزب کارگران، طرفداری می‌کند.

تیم تحقیقاتی دانشگاه برای بررسی سو‌گیری ChatGPT، از این ابزار خواست تا افراد مختلف طیف سیاسی را تقلید کرده و به بیش از ۶۰ سوال ایدئولوژیک پاسخ دهد. آنها سپس پاسخ‌های ChatGPT را با پاسخ‌های پیش‌فرض موجود برای آن سوالات مقایسه کردند.

برای در نظر گرفتن ماهیت رندم و تصادفی هوش مصنوعی هم هر سوال ‍۱۰۰ مرتبه از هوش مصنوعی پرسیده شد و سپس برای اطمینان بیشتر، پاسخ‌ها از یک «Bootstrap» با ۱۰۰۰ تکرار، روشی که نتیجه هر مرحله را از نتیجه مرحله قبل بدست می‌آورد، گذرانده شدند.

ویکتور رودریگز، یکی از مولفان این مطالعه می‌گوید: «این فرایند را به این دلیل ایجاد کردیم که یک دور آزمایش برای مطالعه کافی نیست. به دلیل تصادفی بودن مدل، حتی در زمان تقلید از یک دموکرات هم گاهی پاسخ‌های ChatGPT به سمت طیف راست سیاسی کشیده می‌شود.»

در دسته آزمایش‌های دیگری که برای تایید یافته‌ها طراحی شده، محققان از ChatGPT خواستند تا جبهه‌گیری‌های تند سیاسی را تقلید کند. سپس در یک «آزمون بی طرفی» سوالات بی‌طرف سیاسی از هوش مصنوعی پرسیده شد و در یک «آزمون سوگیری حرفه‌‌ای-سیاسی» هم از هوش مصنوعی خواسته شد تا متخصصان مختلف را تقلید کند.

تیم تحقیقات دریافتند که پاسخ‌های پیش‌فرض بیشتر با طیف چپ سیاسی همخوانی دارند.

دکتر فابیو موتوکی، مولف اصلی این مطالعه، می‌گوید: «یافته‌های ما نگرانی‌های موجود درمورد تقلید یا حتی تقویت چالش‌های فعلی اینترنت و شبکه اجتماعی در سیستم‌های هوش مصنوعی را تایید می‌کند.»

سوگیری هوش مصنوعی ممکن است چند دلیل داشته باشد. اول، پایگاه داده آموزشی که از اینترنت گرفته شده و خود سو‌گیری چپ سیاسی دارد. افزون بر این، سوگیری هوش مصنوعی ممکن است ناشی از افراد توسعه دهنده‌ بوده و در فرایند «پاکسازی» نیز به خوبی پاکسازی نشده باشد.

مورد دوم هم الگوریتم هوش مصنوعی است که ممکن است سوگیری‌های موجود در داده‌های آموزشی را تشدید کند. یافته‌های این تحقیق بار دیگر بر نگرانی بسیاری از کاربران از تاثیر هوش مصنوعی بر انتخابات‌ها صحه می‌گذارد و خطر افزایش سو‌گیری یا انتشار اطلاعات وارونه را در مدل‌های هوش مصنوعی بزرگ شاهد هستیم.

موتوکی می‌گوید: «با توجه به افزایش استفاده عموم از سیستم‌های مبتنی بر هوش مصنوعی برای دریافت اطلاعات و تولید محتوا جدید، باید اطمینان حاصل کنیم که خروجی پلتفرم‌های مشهوری مثل ChatGPT تا حد ممکن بی‌طرف است.»

«سوگیری سیاسی ممکن است بر دیدگاه‌های کاربر تاثیر گذشته و تبعاتی را برای روند سیاسی و الکتورال به بار آورد.»

این یافته‌ها با مقالات‌ دیگری از دانشگاه واشنگتن، دانشگاه کارنیچ ملون و دانشگاه شی‌ان جیائوتانگ، که می‌گفتند ChatGPT و GTP-4، چپ‌گرا‌ترین مدل‌های هوش مصنوعی در بین ۱۴ مدل بررسی شده هستند و آزادی اجتماعی و برابری اقتصادی را در اولویت قرار می‌دهند، همخوانی دارد.

با این حال برخی از مدل‌های ساخته متا، از جمله LLaMA و RoBERTa، راست‌گرا محسوب می‌شوند.

ارسال دیدگاه