پایگاه خبری وب زوم
یکشنبه 16 اردیبهشت 1403
کد خبر: 17298
پ

«چت بات» متا؛ از «سرگرمی» تا خطرناک‌ترین «دست‌ساز» بشر

متا (که قبلاً فیسبوک نام داشت) مصنوعات هوش مصنوعی جدید خود را به عنوان دستاوردهای «سرگرم کننده» می بیند. با این حال، برخی دیگر احساس می‌کنند که این آخرین پیشرفت فناوری می‌تواند اولین گام به سمت ایجاد «خطرناک‌ترین مصنوعات در تاریخ بشر» باشد، یا همانطور که فیلسوف آمریکایی «دانیل سی. دنت» گفت: درباره «افراد تقلبی».

متا (که قبلاً فیسبوک نام داشت) مصنوعات هوش مصنوعی جدید خود را به عنوان دستاوردهای «سرگرم کننده» می بیند. با این حال، برخی دیگر احساس می‌کنند که این آخرین پیشرفت فناوری می‌تواند اولین گام به سمت ایجاد «خطرناک‌ترین مصنوعات در تاریخ بشر» باشد، یا همانطور که فیلسوف آمریکایی «دانیل سی. دنت» گفت: درباره «افراد تقلبی».

به گزارش شفقنا، فرانس24 نوشت: روز چهارشنبه 27 سپتامبر، غول شبکه اجتماعی از راه اندازی 28 چت بات (عامل مکالمه) خبر داد که ظاهراً شخصیت خاص خود را دارند و به طور ویژه برای کاربران جوان طراحی شده اند. اینها شامل «ویکتور» به اصطلاح ورزشکار سه‌گانه است که می‌تواند به شما انگیزه دهد که «بهترین خود باشید» و «سالی» «دوستی که به شما می‌گوید چه زمانی نفس عمیق بکشید».

کاربران اینترنت همچنین می‌توانند با «مکس» یک «آشپز با تجربه» که «نکات و ترفندهای آشپزی» را به شما می‌دهد، چت کنند، یا با «لوئیز» که «می‌تواند از صحبت‌های آشپزی‌اش پشتیبان بگیرد»، در یک مسابقه کلامی شرکت کنند.

متا برای تقویت این ایده که این چت بات ها دارای شخصیت هستند و صرفاً ترکیبی از الگوریتم ها نیستند، به هر یک از آنها چهره ای داده است. به لطف همکاری با افراد مشهور، این ربات‌ها شبیه پاریس هیلتون و نائومی اوزاکا ستاره و تنیسور آمریکایی-ژاپنی هستند.

متا در تلاش است تا سال آینده به آنها صدای خاص هم بدهد. شرکت مادر امپراتوری مارک زاکربرگ همچنین به دنبال فیلمنامه نویسانی بود که بتوانند «شخصیت و سایر محتوای روایی حمایتی را بنویسند که برای مخاطبان گسترده جذاب باشد».

این تمام ماجرا نیست. «رولینگ استون» می نویسد: متا ممکن است این 28 ربات چت را به عنوان یک سرگرمی بی گناه برای منحرف کردن گسترده کاربران جوان اینترنت معرفی کند، اما همه این تلاش ها به سمت یک پروژه جاه طلبانه برای ساختن هوش مصنوعی که تا حد امکان شبیه انسان هستند، نشانه رفته است. این رقابت برای ساختن «افراد تقلبی» بسیاری از ناظران را نگران می کند.

«ایبو ون دو پول» پروفسور اخلاق و فناوری در دانشگاه صنعتی «دلفت» در هلند می گوید: برخی خواستار محبوس شدن افرادی مانند زاکربرگ هستند، تعدادی از متفکران هستند که رویکرد فریبکارانه عمدی این گروه های بزرگ را محکوم می کنند. ایده عوامل مکالمه با یک شخصیت به معنای واقعی کلمه غیرممکن است. الگوریتم‌ها قادر به نشان دادن «نیت در اعمال خود» یا اراده آزاد نیستند، دو ویژگی که ارتباط نزدیکی با ایده یک شخصیت دارند.

همچنین این خطر وجود دارد که ربات‌های چت با شخصیت‌ها از کار بیفتند. بر اساس گزارش وال استریت ژورنال که توانسته به اسناد داخلی شرکت مراجعه کند، یکی از عوامل مکالمه ای که متا آزمایش کرد، نظرات «زن ستیزانه» را بیان کرد. دیگری مرتکب «گناه کبیره» انتقاد از زاکربرگ و تمجید از تیک تاک هم شد!

این مقاله می‌افزاید: جدیدترین پروژه هوش مصنوعی متا به وضوح ناشی از عطش سود است. بی‌تردید مردم برای اینکه بتوانند با پاریس هیلتون یا افراد مشهور دیگری صحبت کنند و رابطه مستقیم داشته باشند، آماده پرداخت هزینه خواهند بود. مطمئناً تعجب آور نیست که اولین حمله متا با هوش مصنوعی «باشخصیت» عمدتاً نوجوانان را هدف قرار می دهد.

به طور کلی کارشناسان احساس می کنند که متا با تاکید بر «ویژگی های انسانی» هوش مصنوعی بازی خطرناکی را شروع کرده است.

متا با ایجاد این باور در افراد مبنی بر اینکه یک عامل مکالمه می‌تواند شخصیتی داشته باشد، پیشنهاد می‌کند که با او بیشتر شبیه یک انسان دیگر رفتار شود تا یک ابزار.

کاربران اینترنت تمایل دارند به آنچه این هوش مصنوعی می گوید اعتماد کنند؛ اینجاست که کار خطرناک می‌شود. این فقط یک خطر تئوریک نیست چون مردی در بلژیک در مارس 2023 پس از بحث در مورد عواقب گرمایش زمین با یک چت بات به مدت شش هفته، دست به خودکشی زد.

مهمتر از همه، اگر مرز بین دنیای هوش مصنوعی و انسان در نهایت به طور کامل محو شود، «این به طور بالقوه می تواند اعتماد را به هر چیزی که آنلاین می یابیم از بین ببرد زیرا ما نمی دانیم چه کسی چه چیزی را نوشته است.» همانطور که «دنت» در مقاله خود هشدار داد: این امر در را به روی «ویران کردن تمدن ما باز می کند».

کلید واژه : متا هوش مصنوعی
ارسال دیدگاه