پایگاه خبری وب زوم
جمعه 20 مهر 1403
کد خبر: 18984
پ

الزام تغییر استراتژی شرکت‌های فناوری برای مهار فشار هزینه‌های ابری

حجم رو به افزایش داده‌ها و لزوم استفاده از آن، هزینه زیرساخت ابری را افزایش داده است.

طبق تحقیقات صورت گرفته هر چند به‌کارگیری محاسبات ابری و فناوری هوش مصنوعی باعث شده تا شرکت‌ها، امکانات و نوآوری بیشتری داشته باشند اما هزینه‌های قابل توجه و صعودی زیرساخت ابری مانند نگهداری، پردازش و مدیریت داده‌ها باعث شده نزدیک به ۵۰ درصد شرکت‌ها پروژه‌های هوش مصنوعی را محدود کنند.

به گزارش پیوست، طبق گفته دبورا لف (Deborah Leff)، مدیر درآمد SQream تکامل سریع هوش مصنوعی نشان می‌دهد که استراتژی‌های داده فعلی ممکن است کافی نباشد و تحولات مهمی در سال‌های پیش رو در زمینه داده اتفاق خواهد افتاد. او بر پذیرش روش‌های جدید مانند شتاب GPU تاکید داشت.

استفاده از محاسبات ابری و فناوری هوش مصنوعی موجب شده تا شرکت‌های داده‌محور که تحلیل‌ و بینش‌های تجاری سطح بالایی ارائه می‌دهند،‌ امکان و قدرت بیشتری داشته باشند. سرویس‌های ابری با ارائه زیرساخت‌ها و ابزارهای ضروری، توسعه و استقرار فناوری‌های genAI را تسهیل می‌کند. علاوه‌بر این، در دسترس بودن مدل‌ها و بسته‌های نرم‌افزاری از پیش آموزش دیده شده در فضای ابری، ادغام genAI در فرآیندهای تحلیل داده را تسریع کرده است. افزایش حجم داده‌ها و هزینه‌های ناپایدار زیرساخت ابری، نتایجی است که در کنار موارد مثبت اتفاق افتاده است.

فعالیت شرکت‌ها با شوک‌های مکرر صورتحساب‌های مالی

گزارش اخیر SQream، که یک پلتفرم کلان داده مبتنی بر GPU است در مورد وضعیت تجزیه و تحلیل داده‌های بزرگ در سال ۲۰۲۴ روی موضوع فشار مالی ناشی از هزینه‌های تجزیه و تحلیل ابری را برجسته کرده است.

در این مطالعه که ۳۰۰ کارشناس ارشد مدیریت داده از شرکت‌های آمریکایی مورد بررسی قرار گرفته‌اند مشخص شد که ۷۱ درصد اغلب با هزینه‌های غیرمنتظره تجزیه و تحلیل ابری بالا مواجه می‌شوند. به طور خاص، ۵ درصد شرکت‌ها به صورت ماهانه، ۲۵ درصد به صورت هر دو ماه یکبار و ۴۱ درصد، هر سه ماه یکبار با «شوک صورتحساب» ابری مواجه می‌شوند.

علاوه‌بر این، با وجود بودجه‌های قابل توجه ۹۸ درصد از شرکت‌ها در سال ۲۰۲۳ با شکست پروژه یادگیری ماشینی(ML) به دلیل افزایش هزینه‌های ابری مواجه شدند.

شوک‌های صورتحساب زمانی رخ می‌دهد که گردش‌های کاری داده‌ها برای موتور جست‌وجوی ابری بسیار پیچیده، بیش از حد بزرگ باشد. علت وابستگی شدید هوش مصنوعی سازمانی و پشته‌های فناوری (tech stacks) تجزیه و تحلیل داده‌ها به پلتفرم‌های ابری،‌ ارائه مقیاس‌پذیر و ظرفیت محاسباتی برای مجموعه داده‌های بزرگ و الگوریتم‌های پیچیده است. با افزایش نیاز به قدرت محاسباتی، هزینه‌های مرتبط با فضای ابری نیز افزایش می‌یابد.

دبورا لف، مدیر درآمد SQream، درباره دشواری مدیریت هزینه‌ها گفت: با پیشرفت داده‌ها و تجزیه و تحلیل، شرکت‌ها مجبور می‌شوند اندازه مجموعه داده‌ها را محدود کنند و پیچیدگی مدیریت هزینه‌ها را کاهش دهند که این موضوع بر کیفیت بینش آنها تاثیر می‌گذارد. بسیاری از پروژه‌های AI/ML به دلیل هزینه بالای آزمایش روی ابر آغاز نشده است. آماده‌سازی ضعیف داده‌ها و روش‌های ناکافی پاک‌سازی داده‌ها از دیگر عوامل اصلی شکست پروژه به حساب می‌آید.

پارادوکس Cloud-AI بودجه تجزیه و تحلیل سازمانی را تحت فشار قرار می‌دهد

هزینه اجرای داده‌ها و فناوری‌های هوش مصنوعی از طریق ابر یک عامل بازدارنده مهم بوده است. تورم هزینه ابری قرار است در سال ۲۰۲۴ ادامه بیابد و در نتیجه اقدامات کاهش هزینه در شرکت‌ها را که سال گذشته تشدید شده بود ضروری می‎‌کند.

شاخص قیمت تولیدکننده (PPI) اداره آمار کار ایالات متحده برای سال ۲۰۲۴ نشان می‌دهد که به صورت ماهانه، افزایشی در پردازش داده‌ها و خدمات مرتبط که شامل محاسبات ابری است رخ خواهد داد. افزایش سالانه فعلی ۳.۷ درصد است.

همچنین، این هزینه‌ها باعث شده است که پرس‌و‌جوی داده‌ها و حجم پروژه‌ها نیز به خطر بیفتند. تقریبا نیمی از شرکت‌ها (۴۸ درصد) در مطالعه SQream اظهار کردند که برای مدیریت هزینه‌های تحلیلی به ویژه در مورد منابع ابری و بارهای محاسباتی، پیچیدگی پرس‌و‌جوها را کاهش داده‌اند. در همین حال، ۴۶ درصد به دلیل مقدار زیاد هزینه‌ها، پروژه‌های مبتنی بر هوش مصنوعی را محدود می‌کنند.

اما بحران هزینه فراتر از قیمت‌گذاری فروشنده است. لف توضیح داد که کسب‌وکارها اغلب به طور کامل تجزیه و تحلیل نمی‌کنند که کدام دارایی‌های IT داخلی از مهاجرت ابری سود می‌برند.

هزینه یک عامل اصلی در شکست پروژه است زیرا هزینه‌ها اغلب در طول آزمایش افزایش می‌یابد. این بدین معنا نیست که معماری یادگیری ماشین شکست می‌خورد، بلکه مدیریت، تصمیم می‌گیرد در صورت افزایش هزینه‌ها، سرمایه‌گذاری را متوقف کند. زمان ارزش‌گذاری بسیار مهم است و آزمایش اغلب به دلیل اندازه و پیچیدگی داده‌های مدرن منجر به هزینه‌های بالا و قابل توجهی می‌شود.

در بخش آماده‌سازی داده‌ها، ۳۳ درصد از شرکت‌ها از ۵ تا ۱۰ ابزار مختلف استفاده می‌کنند که این امر پیچیدگی کار را به شدت افزایش داده است. استفاده همزمان از ابزارهای مختلف توسط کاربران مختلف، مدیریت و تحلیل فرآیند را با مشکل مواجه می‌کند. به نظر می‌رسد برای حل این مشکل، شرکت‌ها باید به دنبال راهکارهایی برای ساده‌سازی و یکپارچه‌سازی ابزارهای خود باشند.

لف در ادمه گفت:‌ اکوسیستم مراکز داده که بر فناوری ۴۰ ساله بنا شده است، نیاز به نوسازی دارد. پایبندی به روش‌های قدیمی راه‌حل نیست. در عوض، شرکت‌ها باید روش‌های نوآورانه‌ای را بررسی کنند تا اجازه ندهند هزینه‌ها و محدودیت‌های داده‌ای توانایی‌های تحلیلی آنها را محدود کند. همچنین ابزارهایی مانند NVIDIA Rapids ارزشمند هستند اما به مهارت‌های توسعه‌دهنده نیاز دارند که نیاز به راه‌حل‌های قابل دسترس‌تر را برجسته می‌کند. شرکت‌ها باید وضعیت موجود را به چالش کشیده و به دنبال گزینه‌های بهتری برای غلبه بر محدودیت‌های فعلی باشند.

پذیرش روش‌های جدید برای کاهش هزینه‌های ابر

از آنجایی که شرکت‌ها در حال عبور از اختلالات بازار ناشی از هوش مصنوعی مولد و ظهور مدل‌های زبان بزرگ (LLM) هستند، انفجار در حجم داده‌ها و پیچیدگی، فناوری‌های ML را برای رقابت در بازار ضروری می‌کند. محدود کردن درخواست‌های داده برای سیستم‌های هوش مصنوعی جهت مدیریت هزینه‌ها منجر به بینش‌های سطحی می‌شود که این موضوع به خاتمه زودهنگام پروژه منجر می‌شود. ۹۲ درصد از شرکت‌های شرکت‌کننده در این مطالعه اعلام کردند فعالانه در تلاش هستند تا هزینه‌های ابری خود را برای تجزیه و تحلیل‌ها «حق اندازه‌سازی» کنند تا با بودجه‌شان هماهنگ‌تر شود.

لف توضیح داد که شتاب‌دهنده‌های گرافیکی (GPU) برخلاف تصور رایج مبنی بر گران بودن، می‌تواند هزینه‌ها را به‌طور قابل‌ توجهی کاهش دهد و در عین حال، سرعت پردازش را بالا ببرد.

این راه‌حل، مزایای استفاده از ابر را با قدرت پردازش موازی و قابل‌تطبیق GPU ترکیب می‌کند و در عین حال، یک گزینه قیمت‌گذاری انعطاف‌پذیر را برای مدیریت آسان و چابک بودن ابر در اختیار می‌گذارد. شرکت‌ها می‌توانند به جای خرید سخت‌افزار GPU، آ‌ها را به صورت مورد نیاز اجاره کرده و در صورت افزایش یا کاهش نیاز، به طور خودکار ظرفیت پردازشی خود را تغییر دهند.

به عبارتی، استفاده از GPU به شرکت‌ها این امکان را می‌دهد تا بدون صرف هزینه‌های اولیه زیاد، از قدرت پردازشی بسیار بالایی بهره‌مند شوند و هزینه‌های خود را بر اساس نیازشان مدیریت کنند.

بانک آنلاین بزرگ NCBA که روزانه تا ۶۰ میلیون کاربر دارد، در ابتدا برای به‌روزرسانی مدل‌های بازاریابی خود با داده‌های کلیک روزانه به ۳۷ ساعت زمان نیاز داشت.

با وجود تلاش برای بهبود پرس‌و‌جوها و بررسی گزینه‌های سخت‌افزاری گران‌قیمت، این تأخیر زیاد باعث می‌شد که آنها نتوانند از داده‌ها به بهترین شکل و به موقع استفاده کنند.

وقتی آنها از شتاب‌دهنده‌های گرافیکی (GPU) استفاده کردند، زمان مورد نیاز برای انجام این کار به تنها ۷ ساعت کاهش یافت. این یعنی آنها توانستند هر روز مدل‌های خود را به ‌سرعت به‌روز کنند.

در واقع استفاده از GPU به بانک NCBA کمک کرد تا بتواند داده‌های خود را بسیار سریع‌تر پردازش کند و در نتیجه، مدل‌های بازاریابی خود را با سرعت بیشتری به‌روز کند. این امر باعث شد که آنها بتوانند از داده‌های خود به صورت استراتژیک و به موقع استفاده کنند و تصمیمات بهتری بگیرند.

لف تاکید کرد که شرکت‌ها باید فعالانه فکر کنند و مرزهای ممکن را پشت سر بگذارند. تکامل سریع هوش مصنوعی مولد نشان می‌دهد که استراتژی‌های داده فعلی ممکن است کافی نباشد. او پیش‌بینی کرد که دو سال آینده تغییرات چشمگیری در بخش فناوری اطلاعات واقع خواهد شد.

ما باید آینده‌ای را تصور کنیم و برای آینده‌ای آماده باشیم که در آن داده‌ها رشد می‌کنند و پرسش‌ها پیچیده‌تر می‌شوند و دیگر خبری از محدودیت‌های قدیمی نیست.  پذیرش روش‌های جدید مانند شتاب GPU می‌تواند ارزش قابل توجهی را باز کند و کسانی که به سرعت عمل می‌کنند، از مزایای آن بهره‌مند خواهند شد.

منبع: indianexpress

ارسال دیدگاه