Зниження цін на великі моделі та тенденції відкритого вихідного коду сприяють розвитку AI-додатків
21 травня, Tongyi Qianwen оголосив про значне зниження цін на API викликів для розробників щодо своєї моделі комерціалізації та відкритого виходу коду. Зокрема, ціна введення основної моделі Qwen-Long знизилася з 0,02 юаня за тисячу токенів до 0,5 юаня за мільйон токенів, що становить зниження до 97%.
Раніше, 9 травня, Tongyi також випустила відкритий вихідний код модель Qwen1.5-110B з параметрами обсягом 110 мільярдів. Ця модель продемонструвала відмінні результати в багатьох бенчмарках, перевершивши рівень аналогічної моделі з 70 мільярдами параметрів, і зайняла перше місце в одному з рейтингів великих відкритих моделей.
Комбінована стратегія "зниження цін + Відкритий вихідний код" стає загальноприйнятою серед виробників глобальних великих моделей. Це допомагає вирішити дві основні проблеми, з якими стикаються розробники AI-додатків: занадто висока ціна на API та недостатня якість відкритих моделей, що, в свою чергу, сприяє широкому впровадженню AI-додатків.
Нещодавно кілька великих виробників моделей запустили низькоцінові продукти або знижки. Зокрема, ціна API моделі MoE, відкритої певною кількістю компаній, становить лише близько одного відсотка від ціни відомої моделі; одна компанія штучного інтелекту знизила ціну на виклик особистої версії моделі на 80%; один міжнародний гігант випустив нову версію з аналогічною продуктивністю, але за наполовину меншу ціну; основна модель одного з чат-ботів коштує лише 0.0008 юанів за тисячу токенів тощо. Крім того, кілька компаній оголосили, що їх основні моделі будуть повністю безкоштовними або з безкоштовним доступом до API на постійній основі.
Ця хвиля зниження цін, можливо, викликана прогресом у технології інференції великих моделей та зниженням витрат. Це надає розробникам більше можливостей і має потенціал для сприяння бурхливому розвитку AI-додатків.
Тонг І у ще випустив кілька великих мовних моделей з параметрами від 500 мільйонів до 110 мільярдів, а також мультимодальні моделі для зображень, аудіо, коду тощо. Маленькі моделі можуть бути розгорнуті на мобільних пристроях, великі моделі підтримують корпоративні застосування, а середні моделі шукають баланс між продуктивністю та ефективністю. Ці моделі охоплюють різні потреби сценаріїв, пропонуючи розробникам широкий вибір.
Застосування великих моделей на кінцевих пристроях також заслуговує на увагу. Завдяки технологічному прогресу та зниженню витрат, очікується, що AI-додатки зможуть реалізуватися в більш широких сценаріях, сприяючи швидкому розвитку промисловості.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
26 лайків
Нагородити
26
9
Поділіться
Прокоментувати
0/400
FUD_Whisperer
· 07-19 20:46
Знижка чи ні, все одно однаковий підхід.
Переглянути оригіналвідповісти на0
GasGasGasBro
· 07-19 11:43
Хто платить за те, що все пішло не так?
Переглянути оригіналвідповісти на0
tx_pending_forever
· 07-16 22:48
Кліпові купони хороша можливість прийшла!
Переглянути оригіналвідповісти на0
GasFeeBarbecue
· 07-16 22:45
Відкритий вихідний код знижка дуже добре
Переглянути оригіналвідповісти на0
LiquidityWizard
· 07-16 22:44
теоретично кажучи... гонка до дна лише прискорилася на 69.420%
Переглянути оригіналвідповісти на0
CryptoGoldmine
· 07-16 22:43
Відкриття та ітерація ринку обчислювальної потужності є тенденцією, очікування підвищення ROI є суттєвими.
Переглянути оригіналвідповісти на0
InscriptionGriller
· 07-16 22:41
Ще один інструмент для обдурювання людей, як лохів прийшов. Чим дешевше, тим легше збирати.
Переглянути оригіналвідповісти на0
WalletManager
· 07-16 22:40
Знову хвиля діп в зону витрат. Оптимістичні прогнози для ai AppChain.
Тенденція зниження цін на великі моделі ШІ та відкритий вихідний код прискорює впровадження застосувань
Зниження цін на великі моделі та тенденції відкритого вихідного коду сприяють розвитку AI-додатків
21 травня, Tongyi Qianwen оголосив про значне зниження цін на API викликів для розробників щодо своєї моделі комерціалізації та відкритого виходу коду. Зокрема, ціна введення основної моделі Qwen-Long знизилася з 0,02 юаня за тисячу токенів до 0,5 юаня за мільйон токенів, що становить зниження до 97%.
Раніше, 9 травня, Tongyi також випустила відкритий вихідний код модель Qwen1.5-110B з параметрами обсягом 110 мільярдів. Ця модель продемонструвала відмінні результати в багатьох бенчмарках, перевершивши рівень аналогічної моделі з 70 мільярдами параметрів, і зайняла перше місце в одному з рейтингів великих відкритих моделей.
Комбінована стратегія "зниження цін + Відкритий вихідний код" стає загальноприйнятою серед виробників глобальних великих моделей. Це допомагає вирішити дві основні проблеми, з якими стикаються розробники AI-додатків: занадто висока ціна на API та недостатня якість відкритих моделей, що, в свою чергу, сприяє широкому впровадженню AI-додатків.
Нещодавно кілька великих виробників моделей запустили низькоцінові продукти або знижки. Зокрема, ціна API моделі MoE, відкритої певною кількістю компаній, становить лише близько одного відсотка від ціни відомої моделі; одна компанія штучного інтелекту знизила ціну на виклик особистої версії моделі на 80%; один міжнародний гігант випустив нову версію з аналогічною продуктивністю, але за наполовину меншу ціну; основна модель одного з чат-ботів коштує лише 0.0008 юанів за тисячу токенів тощо. Крім того, кілька компаній оголосили, що їх основні моделі будуть повністю безкоштовними або з безкоштовним доступом до API на постійній основі.
Ця хвиля зниження цін, можливо, викликана прогресом у технології інференції великих моделей та зниженням витрат. Це надає розробникам більше можливостей і має потенціал для сприяння бурхливому розвитку AI-додатків.
Тонг І у ще випустив кілька великих мовних моделей з параметрами від 500 мільйонів до 110 мільярдів, а також мультимодальні моделі для зображень, аудіо, коду тощо. Маленькі моделі можуть бути розгорнуті на мобільних пристроях, великі моделі підтримують корпоративні застосування, а середні моделі шукають баланс між продуктивністю та ефективністю. Ці моделі охоплюють різні потреби сценаріїв, пропонуючи розробникам широкий вибір.
Застосування великих моделей на кінцевих пристроях також заслуговує на увагу. Завдяки технологічному прогресу та зниженню витрат, очікується, що AI-додатки зможуть реалізуватися в більш широких сценаріях, сприяючи швидкому розвитку промисловості.