پایگاه خبری وب زوم
دوشنبه 19 آذر 1403
کد خبر: 19230
پ

اوپن‌ای‌آی روی تحقیق درمورد «اخلاقیات هوش مصنوعی» سرمایه‌گذاری می‌کند

بزرگترین استارت‌آپ هوش مصنوعی جهان در حال تامین مالی یک تحقیقات آکادمیک درمورد الگوریتم‌هایی است که می‌توانند قضاوت‌های اخلاقی انسان را پیش‌بینی کنند.

به گزارش پیوست به نقل از تک کرانچ، براساس مستنداتی که به اداره خدمات درآمد داخلی (IRS) آمریکا ارائه شده است، اوپن‌ای‌آی بودجه‌ای را برای پروژه‌ای با عنوان «تحقیق اخلاقیات هوش مصنوعی» در اختیار پژوهشگران دانشگاه دوک قرار داده است. سخنگوی این شرکت در پاسخ به درخواست اظهارنظری در این باره به یک بیانیه خبری اشاره کرد که این طرح را بخشی از حمایت یک میلیون دلاری اوپن‌ای‌آی از اساتید دوک برای «اخلاقی کردن هوش مصنوعی» عنوان می‌کند.

با این حال اطلاعات چندانی از جزئیات این تحقیقات در اختیار عموم قرار نگرفته است و تنها می‌دانیم که تامین مالی در سال ۲۰۲۵ به پایان می‌رسد. والتر سینوت آرمسترانگ، استاد اخلاق عملی در دانشگاه دوک، طی ایمیلی به تک‌کرانچ گفت «امکان صحبت در این باره را ندارد.»

سینود آرمسترانگ و جینا بورگ، دیگر پژوهشگر این مطالعه، چندین مطالعه و همچنین یک کتاب درمورد پتانسیل هوش مصنوعی برای تبدیل شدن به «جی‌پی‌اس اخلاق» منتشر کرده‌اند تا در قضاوت‌های بهتر به انسان کمک کند. آنها به همراه یک تیم بزرگتر، الگوریتم‌های همسو با اخلاقی را طراحی کرده‌اند و در مطالعه دیگری به بررسی حالت‌هایی پرداخته‌اند که مردم تصمیمات اخلاقی از سمت هوش مصنوعی را ترجیح می‌دهند.

براساس بیانیه خبری منتشر شده از سوی اوپن‌ای‌آی، هدف از این پژوهش آموزش الگوریتم‌هایی است بتوانند «قضاوت‌های اخلاقی انسان» را در حالت‌های پرتنش پیش‌بینی کنند. از جمله این حالت‌ها به حوزه‌های مرتبط با «پزشکی، حقوق و کسب‌وکار» اشاره شده است.

با این حال مشخص نیست که فناوری امروز تا چه حد به تحقق مفهومی به نام اخلاق نزدیک شده است.

در سال ۲۰۲۱، موسسه خیره Allen در حوزه هوش مصنوعی ابزاری به نام Ask Delphi را طراحی کرد که قرار بود پیشنهادات معتبر از لحاظ اخلاقی ارائه کند. این ابزار در تصمیمات ساده اخلاقی خوب عمل می‌کرد اما در مواردی ضعیف بود و برای مثال نمی‌دانست که تقلب در امتحان درست نیست. اما تنها کمی تغییر ساختار و جمله‌بندی سوالات کافی بود تا Delphi تقریبا هر چیزی را از لحاظ اخلاقی تایید کند.

به نظر می‌رسد که ریشه مشکل به نحوه عملکرد سیستم‌های هوش مصنوعی بازمی‌گردد.

مدل‌های یادگیری ماشینی در واقع ماشین‌هیا آماری هستند که براساس نمونه‌های متعددی در اینترنت آموزش دیده‌اند. در نتیجه این مدل‌ها براساس الگو‌های موجود در نمونه‌های پیش رویشان به پیش‌بینی می‌کنند.

هوش مصنوعی درکی از مفاهیم اخلاقی یا نقش استدلال و احساس در فرایند تصمیم‌گیری ندارد. به همین دلیل است که هوش مصنوعی معمولا از ارزش‌های غربی، قشر تحصیل کرده و کشور‌های صنعتی پیروی می‌کند،‌ زیرا جهان اینترنت و در نتیجه داده‌های آموزشی در تسخیر این دسته از فعالان است.

به همین دلیل عجیب نیست که ارزش‌های بسیاری از افراد، به ویژه اگر حضور کمی در اینترنت داشته باشند، در پاسخ‌های هوش مصنوعی نمود پیدا نمی‌کند و البته این ابزارها در بسیاری از موارد به سمت ذهنیت‌های غربی سوگیری دارند.

چالش اصلی پیش روی اوپن‌ای‌آی و پژوهشگران این حوزه، تعریف‌های مختلف و برداشت‌های متعدد از اخلاقیات است. فیلسوفان هزاران سال است که به نظریه‌های مختلفی درمورد اخلاق اشاره می‌کنند و همچنان هیچ چارچوب واحدی برای این موضوع وجود ندارد.

ارسال دیدگاه