اوپنایآی روی تحقیق درمورد «اخلاقیات هوش مصنوعی» سرمایهگذاری میکند
بزرگترین استارتآپ هوش مصنوعی جهان در حال تامین مالی یک تحقیقات آکادمیک درمورد الگوریتمهایی است که میتوانند قضاوتهای اخلاقی انسان را پیشبینی کنند.
به گزارش پیوست به نقل از تک کرانچ، براساس مستنداتی که به اداره خدمات درآمد داخلی (IRS) آمریکا ارائه شده است، اوپنایآی بودجهای را برای پروژهای با عنوان «تحقیق اخلاقیات هوش مصنوعی» در اختیار پژوهشگران دانشگاه دوک قرار داده است. سخنگوی این شرکت در پاسخ به درخواست اظهارنظری در این باره به یک بیانیه خبری اشاره کرد که این طرح را بخشی از حمایت یک میلیون دلاری اوپنایآی از اساتید دوک برای «اخلاقی کردن هوش مصنوعی» عنوان میکند.
با این حال اطلاعات چندانی از جزئیات این تحقیقات در اختیار عموم قرار نگرفته است و تنها میدانیم که تامین مالی در سال ۲۰۲۵ به پایان میرسد. والتر سینوت آرمسترانگ، استاد اخلاق عملی در دانشگاه دوک، طی ایمیلی به تککرانچ گفت «امکان صحبت در این باره را ندارد.»
سینود آرمسترانگ و جینا بورگ، دیگر پژوهشگر این مطالعه، چندین مطالعه و همچنین یک کتاب درمورد پتانسیل هوش مصنوعی برای تبدیل شدن به «جیپیاس اخلاق» منتشر کردهاند تا در قضاوتهای بهتر به انسان کمک کند. آنها به همراه یک تیم بزرگتر، الگوریتمهای همسو با اخلاقی را طراحی کردهاند و در مطالعه دیگری به بررسی حالتهایی پرداختهاند که مردم تصمیمات اخلاقی از سمت هوش مصنوعی را ترجیح میدهند.
براساس بیانیه خبری منتشر شده از سوی اوپنایآی، هدف از این پژوهش آموزش الگوریتمهایی است بتوانند «قضاوتهای اخلاقی انسان» را در حالتهای پرتنش پیشبینی کنند. از جمله این حالتها به حوزههای مرتبط با «پزشکی، حقوق و کسبوکار» اشاره شده است.
با این حال مشخص نیست که فناوری امروز تا چه حد به تحقق مفهومی به نام اخلاق نزدیک شده است.
در سال ۲۰۲۱، موسسه خیره Allen در حوزه هوش مصنوعی ابزاری به نام Ask Delphi را طراحی کرد که قرار بود پیشنهادات معتبر از لحاظ اخلاقی ارائه کند. این ابزار در تصمیمات ساده اخلاقی خوب عمل میکرد اما در مواردی ضعیف بود و برای مثال نمیدانست که تقلب در امتحان درست نیست. اما تنها کمی تغییر ساختار و جملهبندی سوالات کافی بود تا Delphi تقریبا هر چیزی را از لحاظ اخلاقی تایید کند.
به نظر میرسد که ریشه مشکل به نحوه عملکرد سیستمهای هوش مصنوعی بازمیگردد.
مدلهای یادگیری ماشینی در واقع ماشینهیا آماری هستند که براساس نمونههای متعددی در اینترنت آموزش دیدهاند. در نتیجه این مدلها براساس الگوهای موجود در نمونههای پیش رویشان به پیشبینی میکنند.
هوش مصنوعی درکی از مفاهیم اخلاقی یا نقش استدلال و احساس در فرایند تصمیمگیری ندارد. به همین دلیل است که هوش مصنوعی معمولا از ارزشهای غربی، قشر تحصیل کرده و کشورهای صنعتی پیروی میکند، زیرا جهان اینترنت و در نتیجه دادههای آموزشی در تسخیر این دسته از فعالان است.
به همین دلیل عجیب نیست که ارزشهای بسیاری از افراد، به ویژه اگر حضور کمی در اینترنت داشته باشند، در پاسخهای هوش مصنوعی نمود پیدا نمیکند و البته این ابزارها در بسیاری از موارد به سمت ذهنیتهای غربی سوگیری دارند.
چالش اصلی پیش روی اوپنایآی و پژوهشگران این حوزه، تعریفهای مختلف و برداشتهای متعدد از اخلاقیات است. فیلسوفان هزاران سال است که به نظریههای مختلفی درمورد اخلاق اشاره میکنند و همچنان هیچ چارچوب واحدی برای این موضوع وجود ندارد.