مقالات هوش مصنوعی

کاهش هزینه های هوش مصنوعی و پیامدهای آن برای استارتاپ ها

در ماه‌های اخیر، معرفی مدل‌های جدید و سخت‌افزار قدرتمندتر به کاهش هزینه های هوش مصنوعی منجر شده است. این موضوع پیامدهای گسترده‌ای برای استارتاپ ها و چیزهای «ممکن» دارد. اما این تغییرات چه هستند؟ با این مقاله همراه باشید.

به‌تازگی در یک دموی استارتاپ، نمایشی از سیستمی ارائه شد که در هر جلسه‌ی کاربر، ۵۰۰ درخواست به GPT-4 ارسال می‌کرد. در سال ۲۰۲۳، این کار برای هر کاربر حدود ۵ دلار هزینه داشت. اما اکنون، این هزینه به کمتر از ۵۰ سنت رسیده است. با این حال، هنوز هم بسیاری از کاربران هوش مصنوعی از بالا بودن هزینه‌های API گلایه دارند.

وقتی هزینه‌ها به‌طور چشمگیری کاهش پیدا می‌کند، دنیای جدیدی از امکانات نمایان می‌شود. این فقط کاهش هزینه نیست، بلکه نوعی تغییر فاز است.

در نظر بگیرید زمانی که آب به بخار تبدیل می‌شود چه اتفاقی می‌افتد: در دمای ۹۹ درجه سانتی‌گراد، تنها آب داغ در اختیار است. اما در ۱۰۰ درجه، ماده‌ای کاملاً متفاوت با ویژگی‌ها و قابلیت‌های جدید به‌وجود می‌آید.

هزینه‌های فناوری نیز به همین شکل عمل می‌کنند. نقاط آستانه‌ای وجود دارند که در آن‌ها، کاهش کمی در قیمت می‌تواند منجر به تغییرات کیفی در امکانات شود.

کاهش هزینه های هوش مصنوعی

یک سال پیش، منطق اقتصادی حاکم بر هوش مصنوعی کاملاً روشن بود: هر قابلیت باید دست‌کم ۵۰ دلار ارزش ایجاد می‌کرد تا در ازای یک دلار هزینه‌ی محاسباتی، ساخت آن توجیه‌پذیر باشد. این منطق، دامنه‌ی تصمیم‌گیری شرکت‌ها را محدود کرده بود.

اما امروز دیگر چنین قاعده‌ای معنایی ندارد. در سال گذشته، هزینه‌ی توکن‌های OpenAI تا ۹۰٪ کاهش یافته است. مدل‌های متن‌باز مانند Llama، Mistral و DeepSeek اکنون قابلیت اجرا در رایانه‌های شخصی را دارند. شرکت‌های کوچک می‌توانند با هزینه‌ای کمتر از استخدام یک توسعه‌دهنده، مدل‌ها را مطابق نیاز خود آموزش دهند.

نکته‌ی مهم فقط ارزان‌تر شدن هوش مصنوعی نیست — بلکه تغییر الگوی هزینه‌هاست.

در گذشته، سؤال اصلی این بود: «آیا توان مالی استفاده از هوش مصنوعی را در این بخش داریم؟» اما امروز، سؤال به این صورت تغییر یافته است: «آیا می‌توانیم از عهده‌ی استفاده نکردن از هوش مصنوعی برآییم؟»

برخی استارتاپ‌ها سال گذشته، کل ۵۰۰ هزار دلار سرمایه‌ی اولیه‌ی خود را صرف خرید اعتبار OpenAI کردند. اکنون همان استارتاپ‌ها با ۵۰ هزار دلار به نتایج بهتری می‌رسند. این فقط کاهش هزینه های هوش مصنوعی و یک بهبود تدریجی نیست. بازی کاملاً عوض شده است.

چه چیزی واقعاً در هوش مصنوعی تغییر کرد؟

سه نوآوری فنی باعث این کاهش چشمگیر در هزینه‌ها شد:

اول، مشخص شد که مدل‌های کوچک‌تر در صورتی که به‌درستی آموزش ببینند، می‌توانند عملکردی نزدیک به مدل‌های بزرگ داشته باشند. مدل ۸ میلیارد پارامتری DeepSeek-R1-Distill-Llama-8B با نمره ۸۹.۱٪ در آزمون MATH-500 حتی از GPT-4o (با بیش از ۱ تریلیون پارامتر و نمره ۸۸.۶٪) بهتر عمل کرده است. بنابراین، اندازه مدل همه چیز نیست؛ کیفیت آموزش اهمیت بیشتری دارد.

دوم، شرکت‌ها یاد گرفتند که مدل‌ها می‌توانند داده‌های آموزشی خود را تولید کنند. به‌جای پرداخت هزینه‌های بالا برای برچسب‌گذاری انسانی، از مدل‌های موجود برای ساخت نمونه‌ها استفاده می‌شود. این روش تا ۹۰٪ هزینه‌های داده را کاهش داده و فرآیند بهبود مدل به‌صورت پیوسته انجام می‌شود.

سوم، اجرای مدل‌ها بسیار بهینه‌تر شده است. در سال ۲۰۲۳، اجرای GPT-4 نیازمند کارت‌های گرافیکی پیشرفته‌ی انویدیا بود. اما اکنون، مدل‌های بهینه‌شده را می‌توان حتی روی لپ‌تاپ اجرا کرد.

در نتیجه، هزینه‌های استفاده از هوش مصنوعی از سطح بازدارنده به سطح تقریباً ناچیز رسیده‌اند.

پیامدهای فروپاشی هزینه در هوش مصنوعی

این تغییر، پیامدهای بزرگی دارد — گرچه در نگاه اول ممکن است واضح نباشند:

  • دسترسی دموکراتیک‌تر شده است: اکنون تیم‌های کوچک می‌توانند محصولاتی بسازند که تا سال گذشته فقط در توان غول‌های فناوری بود. مثلاً یک دانشجو در بنگلور می‌تواند یک مدل تحلیلی مالی بسازد و اجرا کند، با هزینه‌ای کمتر از کتاب‌های درسی‌اش.
  • ادغام مهم‌تر از قدرت خام است: حالا که مدل‌های «به‌اندازه کافی خوب» در دسترس همه هستند، آنچه اهمیت دارد نحوه‌ی ادغام آن‌ها در کاربردهای واقعی است. آشنایی با نیازهای یک حوزه‌ی خاص، ارزشمندتر از داشتن قوی‌ترین مدل است.
  • دوره‌ی آزمایش‌ و خلاقیت آغاز شده است: با کاهش هزینه‌ها، افراد شروع به امتحان ایده‌های غیرعادی می‌کنند. بیشتر این تلاش‌ها شکست می‌خورند، اما بعضی نتایج غیرمنتظره و موفق به همراه دارند. آنچه قبلاً با هزینه‌ی ۱ دلار به‌صرفه نبود، حالا با ۱ سنت می‌تواند تحول‌آفرین باشد.
  • میدان رقابت از نو تعریف شده است: شرکت‌هایی که سال گذشته میلیون‌ها دلار در زیرساخت اختصاصی سرمایه‌گذاری کرده بودند، اکنون می‌بینند که همان قابلیت‌ها از طریق API یا مدل‌های متن‌باز در دسترس دیگران هم هست. در همین حال، استارتاپ‌های جدید با بهره‌گیری از شرایط اقتصادی جدید، کار خود را از پایه بهینه آغاز می‌کنند.

در مجموعه Upekkha نیز این موضوع مشهود است: تیم‌های امسال با ۶۰٪ سرمایه‌ی کمتر نسبت به سال گذشته به مرحله‌ی تناسب محصول و بازار رسیده‌اند. آن‌ها کمتر نمی‌سازند، بلکه هوشمندانه‌تر و کارآمدتر می‌سازند — به لطف کاهش شدید هزینه‌ها.

عرضه مدل متن‌باز DeepSeek R1

با عرضه مدل R1 توسط DeepSeek، روند کاهش هزینه های هوش مصنوعی به‌طرز چشمگیری سرعت گرفت. این مدل، معادلات اقتصادی در اجرای مدل‌های هوش مصنوعی را به‌شکلی تغییر داد که کمتر کسی آن را پیش‌بینی می‌کرد. DeepSeek R1 عملکردی هم‌تراز با GPT-4 ارائه می‌دهد، اما تنها ۱۵٪ از هزینه‌ی اجرایی آن را داشته  و در عین حال به‌صورت API و همچنین برای اجرا به‌صورت محلی در دسترس است.

نوآوری این مدل فقط در قیمت آن خلاصه نمی‌شود؛ معماری جدید و بهینه آن باعث شده که مقیاس‌پذیری و کارایی در کنار هم تحقق یابند. شرکت‌هایی که پیش‌تر میلیون‌ها دلار صرف شخصی‌سازی مدل‌ها می‌کردند، اکنون می‌توانند با چند ده هزار دلار به همان نتایج برسند. یک شرکت بزرگ پس از مهاجرت به DeepSeek R1، بیش از ۸۰٪ در هزینه‌های زیرساختی صرفه‌جویی کرده و در عین حال کیفیت پاسخ‌گویی مدل در حوزه‌ی تخصصی‌شان نیز بهبود یافته است.

توانایی اجرای این مدل بر روی سخت‌افزارهای معمولی مصرف‌کننده، دسترسی به هوش مصنوعی را برای تیم‌های کوچک نیز ممکن کرده است چیزی که پیش‌تر به زیرساخت‌های تخصصی و دانش عمیق نیاز داشت.

رابطه‌ی متن‌باز بودن و کاهش هزینه های هوش مصنوعی

در دنیای هوش مصنوعی، وضعیت جالبی در مورد متن‌باز بودن به‌وجود آمده است. در برخی حوزه‌ها، مدل‌های متن‌باز در حال پیروزی هستند، اما در بخش‌هایی دیگر شکست می‌خورند — و این روند تصادفی نیست.

هرچند متن‌باز اغلب به‌عنوان یک فلسفه دیده می‌شود، اما شرکت‌های بزرگ فناوری از آن به‌عنوان یک استراتژی استفاده می‌کنند. آن‌ها نه کاملاً متن‌باز هستند و نه کاملاً بسته؛ بلکه به‌صورت هدفمند عمل می‌کنند. آن بخشی را متن‌باز می‌کنند که باعث تضعیف مزیت رقابتی رقبا می‌شود و بخش‌هایی را بسته نگه می‌دارند که مزیت خودشان را حفظ می‌کند.

برای مثال، شرکت Meta مدل Llama را متن‌باز کرد تا مزیت OpenAI را خنثی کند. در مقابل، OpenAI روش‌های آموزشی خود را محرمانه نگه می‌دارد تا برتری‌اش را حفظ کند. این‌ها دو مسیر متفاوت هستند، نه درست یا غلط.

از منظر اقتصادی، اتفاق مهمی در حال رخ دادن است. با کاهش هزینه‌های تولید مدل‌ها، چالش اصلی به‌جای ساخت مدل، رساندن آن به دست کاربران شده است. به‌بیان دیگر، توزیع اکنون باارزش‌تر از همیشه شده است. در حالی که ساخت مدل روزبه‌روز ارزان‌تر می‌شود، یافتن راهی برای دسترسی و جذب کاربران همچنان دشوار باقی مانده است.

تغییر در شیوه مصرف و پردازش اطلاعات

با گسترش هوش مصنوعی، نحوه‌ی مصرف اطلاعات توسط کاربران دگرگون شده است. یکی از پژوهشگران هوش مصنوعی این‌گونه توضیح داده که برای ۵۰ سال تصور بر این بود که انسان‌ها به‌صورت مستقیم مستندات را مطالعه می‌کنند. به همین دلیل، محتوا به بخش‌هایی تقسیم می‌شد، تصاویر راهنما اضافه می‌شد و مسیرهای ناوبری طراحی می‌گردید — همه برای انسان. اما اکنون، این روش به تاریخ پیوسته است. کاربران اولیه‌ی هوش مصنوعی دیگر مستقیماً مستندات را نمی‌خوانند؛ آن‌ها سوال می‌پرسند و هوش مصنوعی مستندات را برایشان می‌خواند.

این تحول، روش طراحی محصولات و شیوه‌ی انتقال اطلاعات را کاملاً تغییر داده است. مستندات دیگر نه برای انسان‌ها، بلکه برای تفسیر توسط هوش مصنوعی جهت استفاده‌ی انسان تهیه می‌شود. رابط‌های کاربری به گفت‌وگو تبدیل می‌شوند. پشتیبانی دیگر یک بخش جداگانه نیست، بلکه در بطن تجربه‌ی کاربر گنجانده شده است.

در واقع، موضوع تنها ارزان شدن و کاهش هزینه های هوش مصنوعی نیست؛ بلکه بازطراحی کامل نحوه‌ی تعامل انسان با فناوری و اطلاعات است.

چالش‌های ناشی از وفور هوش مصنوعی

فراوانی در دسترسی به هوش مصنوعی، چالش‌های جدیدی به‌همراه دارد:

فلج تحلیلی تبدیل به یک مشکل واقعی شده است. در گذشته تنها سه مدل خوب وجود داشت و تصمیم‌گیری ساده بود. اما اکنون صدها مدل مختلف در دسترس‌اند و بسیاری از تیم‌ها به‌جای ساخت محصول، هفته‌ها درگیر ارزیابی مدل‌ها می‌شوند.

کیفیت بسیار متغیر است. همه‌ی مدل‌های ارزان، لزوماً خوب نیستند. برخی شرکت‌ها سیستم‌هایی را با هدف صرفه‌جویی در هزینه پیاده‌سازی کرده‌اند که اطلاعات نادرست ارائه می‌دهند یا تصمیمات ضعیف می‌گیرند. در نهایت، هزینه‌های پنهانی این اشتباهات بیشتر از صرفه‌جویی اولیه در منابع محاسباتی خواهد بود.

رقابت برای تمایز شدت گرفته است. حالا که دسترسی به مدل‌های هوش مصنوعی خوب برای همه ممکن شده، صرفِ داشتن AI دیگر مزیت محسوب نمی‌شود. ارزش واقعی به سمت دانش تخصصی، دسترسی به داده‌های خاص، توانایی توزیع مؤثر و تجربه‌ی کاربری روان منتقل شده است.

افزایش سریع انتظارات کاربران نیز چالش دیگری است. کاربران به‌سرعت به امکانات جدید عادت می‌کنند. ویژگی‌هایی که شش ماه پیش هیجان‌انگیز بودند، اکنون حداقل انتظار کاربران محسوب می‌شوند. یک استارتاپ در ابتدای سال ویژگی جدیدی را با استقبال گسترده عرضه کرد، اما تنها دو ماه بعد، کاربران به‌دلیل عقب ماندن آن نسبت به رقبا، شروع به انتقاد کردند.

چشم‌انداز آینده‌ی فرصت‌ها در هوش مصنوعی

کاهش هزینه های هوش مصنوعی هنوز به پایان نرسیده و جهان همچنان در مراحل ابتدایی این گذار قرار دارد. در این میان، الگوهای مشترکی در میان شرکت‌هایی که در این شرایط موفق عمل می‌کنند، قابل مشاهده است:

  • این شرکت‌ها، هوش مصنوعی را منبعی فراوان می‌دانند، نه کمیاب. طراحی محصولات آن‌ها بر این فرض استوار است که می‌توان از هوش مصنوعی در تمام بخش‌ها استفاده کرد، نه فقط در لحظات کلیدی.
  • آن‌ها محصولات خود را بر اساس واقعیت اقتصادی آینده طراحی می‌کنند، نه شرایط امروز. به‌همین دلیل، هرچه هزینه‌ها بیشتر کاهش یابد، آماده‌تر و بهره‌مندتر خواهند بود.
  • تمرکز آن‌ها بر مسائلی است که هوش مصنوعی هنوز قادر به حل آن‌ها نیست. ارزش واقعی در بسیاری از این شرکت‌ها نه در خود مدل‌های هوش مصنوعی، بلکه در اجزای پیرامونی آن‌هاست: داده‌هایی که خودشان جمع‌آوری کرده‌اند، جریان‌های کاری (workflow) که طراحی کرده‌اند و تجربه‌ی کاربری خاصی که ایجاد کرده‌اند.
  • این شرکت‌ها هوش مصنوعی را با تخصص دامنه‌ای ترکیب می‌کنند. بزرگ‌ترین فرصت‌ها در ابزارهای عمومی AI نیست، بلکه در کاربردهای تخصصی آن در حوزه‌هایی است که بنیان‌گذاران آن، عمیقاً با مسائل آن آشنا هستند.

تغییرات بزرگ در جهان تدریجی اتفاق نمی‌افتد، بلکه به‌صورت جهشی و پس از عبور از یک آستانه رخ می‌دهد، وقتی که یک منبع کمیاب به منبعی فراوان تبدیل می‌شود. اکنون این اتفاق برای هوش مصنوعی در حال وقوع است. آستانه‌ی هزینه‌ها شکسته شده و حالا دنیا با امکاناتی روبه‌روست که پیش از این ممکن نبود.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *