Святий Грааль Crypto AI: передові дослідження децентралізованого навчання
В повному ціннісному ланцюгу ШІ, навчання моделей є етапом, що споживає найбільше ресурсів та має найвищий технічний поріг, що безпосередньо визначає межі можливостей моделі та реальні результати її застосування. На відміну від легковагових викликів на етапі висновку, процес навчання потребує безперервних масштабних обчислювальних потужностей, складних процесів обробки даних та інтенсивної підтримки алгоритмів оптимізації, що є справжньою "важкою промисловістю" для побудови систем ШІ. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Централізоване навчання є найпоширенішим традиційним способом, де єдиний інститут здійснює весь процес навчання в локальному високопродуктивному кластері, від апаратного забезпечення, базового програмного забезпечення, системи управління кластером до всіх компонентів навчальної платформи, які координуються єдиною системою контролю. Така глибока кооперація архітектури забезпечує оптимальну ефективність у спільному використанні пам'яті, синхронізації градієнтів і механізмах відмовостійкості, що робить її дуже підходящою для навчання масштабних моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополізації даних, бар'єрів для ресурсів, споживання енергії та ризику єдиної точки.
Розподілене навчання є основним методом навчання великих моделей на сьогодні, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень та зберігання на одному комп'ютері. Незважаючи на те, що фізично він має "розподілені" особливості, загалом він все ще контролюється центральною установою для управління та синхронізації, зазвичай працює в середовищі високошвидкісної локальної мережі, за допомогою технології високошвидкісної міжмашинної передачі NVLink, головний вузол координує всі підзавдання. Основні методи включають:
Паралельність даних: кожен вузол навчає різні дані, параметри діляться, потрібно узгодити ваги моделі
Модельна паралельність: розгортання різних частин моделі на різних вузлах для досягнення сильної масштабованості
Паралелізм конвеєра: поетапне послідовне виконання для підвищення пропускної здатності
Тензорне паралелювання: тонка сегментація матричних обчислень, підвищення паралельної гранулярності
Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співробітниками кількох "офісів", щоб виконати завдання. Наразі майже всі основні великі моделі (GPT-4, Gemini, LLaMA та інші ) навчаються саме таким чином.
Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основними характеристиками є: кілька недовірливих вузлів ( можуть бути домашніми комп'ютерами, хмарними GPU або крайніми пристроями ), які спільно виконують завдання тренування без центрального координатора, зазвичай через протокол, що керує розподілом завдань та співпрацею, а також за допомогою механізму криптостимулювання для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:
Проблеми з гетерогенністю пристроїв та їх поділом: висока складність координації гетерогенних пристроїв, низька ефективність поділу завдань
Вузьке місце ефективності зв'язку: нестабільність мережевої комунікації, чітко виражене узгодження градієнтів
Відсутність довіреного виконання: відсутність довіреного середовища виконання, складно перевірити, чи дійсно вузли беруть участь у розрахунках.
Відсутність єдиного координування: немає центрального диспетчера, складний розподіл завдань та механізм відкату аномалій
Децентралізація тренування можна розуміти як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного навчання моделі, але "справді здійсненне масове децентралізоване тренування" все ще є системним інженерним викликом, що охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей та інші аспекти, але чи можливо "спільно ефективно + стимулювати чесність + отримати правильні результати" ще перебуває на ранній стадії дослідження прототипів.
Федеративне навчання, як перехідна форма між розподіленістю та децентралізацією, акцентує на локальному збереженні даних та централізованій агрегації параметрів моделі, підходить для сцен, що акцентують на дотриманні конфіденційності, таких як медицина, фінанси (. Федеративне навчання має інженерну структуру розподіленого навчання та локальні кооперативні можливості, одночасно володіючи перевагами розподілених даних у децентралізованому навчанні, але все ще залежить від надійної координаційної сторони, не має повністю відкритих і стійких до цензури характеристик. Можна вважати це "контрольованою децентралізацією" у сценах дотримання конфіденційності, де завдання навчання, структура довіри та механізм зв'язку є відносно м'якими, що робить його більш підходящим як промислову перехідну архітектуру.
![Святий Грааль Crypto AI: Децентралізація тренування на передовій дослідження])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(
Децентралізація тренінгів: межі, можливості та реальні шляхи
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких випадках, через складну структуру завдання, надзвичайно високі вимоги до ресурсів або великі труднощі в співпраці, воно природно не підходить для ефективного виконання між гетерогенними, ненадійними вузлами. Наприклад, навчання великих моделей часто залежить від великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективне розподілення й синхронізацію в відкритих мережах; завдання, що мають сильні обмеження на конфіденційність даних і суверенітет ), такі як медицина, фінанси, обробка конфіденційних даних (, обмежені законодавчими вимогами та етичними нормами, тому їх не можна відкрито ділити; а завдання ), які не мають основи для співпраці, такі як закриті моделі підприємств або внутрішнє навчання прототипів (, позбавлені зовнішніх мотивацій для участі. Ці межі разом становлять реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є хибним твердженням. Насправді, у випадках легких структур, які легко паралелізуються та стимулюють виконання завдань, децентралізоване навчання демонструє чіткі перспективи застосування. Сюди входять, але не обмежуються: мікронастройка LoRA, завдання після навчання, пов'язані з поведінкою, такі як RLHF, DPO), завдання навчання та маркування даних через краудсорсинг, навчання малих базових моделей з контрольованими ресурсами, а також сцени кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралелізацію, низьку зв'язність та терпимість до гетерогенної обчислювальної потужності, що робить їх дуже підходящими для кооперативного навчання через P2P мережі, протоколи Swarm, розподілені оптимізатори та інші засоби.
Децентралізація тренування класичних проектів аналіз
Наразі в області децентралізованого навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмах, представляючи передові напрямки теоретичних досліджень; в той час як шляхи реалізації Gensyn та Flock.io є відносно зрозумілими, вже можна спостерігати початкові інженерні досягнення. У цій статті буде послідовно проаналізовано основні технології та інженерні структури п'яти проектів, а також буде детально розглянуто їх відмінності та взаємодоповнюючі зв'язки в децентралізованій AI навчальній системі.
( Prime Intellect: тренувальні траєкторії можуть бути перевірені посиленою навчальною кооперативною мережею піонера
Prime Intellect прагне створити мережу навчання ШІ, яка не потребує довіри, щоб будь-хто міг брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect хоче створити децентралізовану навчальну систему ШІ з трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST, яка має перевіряємість, відкритість та повноцінний механізм стимулювання.
)# Структура стеку протоколу Prime Intellect та цінність ключових модулів
![Святий Грааль Crypto AI: Децентралізація тренування на передовій досліджень]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp###
(# Детальний опис ключових механізмів навчання Prime Intellect
#PRIME-RL: Архітектура задач децентралізованого асинхронного навчання з підкріпленням
PRIME-RL є фреймворком для моделювання та виконання завдань, розробленим компанією Prime Intellect для децентралізованих навчальних сцен. Він спеціально призначений для гетерогенних мереж та асинхронних учасників. Він використовує посилене навчання як пріоритетний об'єкт адаптації, структурно декомпонуючи процеси навчання, висновку та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно завершувати цикли завдань локально, а також взаємодіяти через стандартизовані інтерфейси з механізмами валідації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більш підходить для реалізації гнучкого навчання в середовищах без централізованого розподілу, знижуючи складність системи та закладаючи основу для підтримки паралельного виконання декількох завдань і еволюції стратегій.
![Святий Грааль Crypto AI: передові дослідження децентралізованого навчання])https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp###
#TOPLOC:Легка перевірка поведінки навчання
TOPLOC(Довірене спостереження & Перевірка локальності) є основним механізмом перевірки навчання, запропонованим Prime Intellect, що використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторного обчислення повної моделі, а здійснює легку верифікацію структури, аналізуючи локально узгоджені траєкторії між "послідовністю спостережень ↔ оновленням стратегії". Вперше він перетворює траєкторії поведінки в процесі навчання на об'єкти, які можна перевіряти, що є ключовою інновацією для реалізації розподілу винагород за навчання без довіри, забезпечуючи здійснений шлях для створення аудиторної, стимулюючої децентралізованої мережі співпраці в навчанні.
#SHARDCAST: Асинхронна агрегація ваг та протокол поширення
SHARDCAST – це протокол вагового поширення та агрегації, розроблений Prime Intellect, оптимізований спеціально для асинхронних, обмежених за пропускною здатністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм поширення gossip з локальною синхронізацією, що дозволяє кільком вузлам безперервно надсилати часткові оновлення в умовах несинхронізації, реалізуючи поступову збіжність ваг та еволюцію кількох версій. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для побудови стабільного консенсусу ваг та безперервної ітерації навчання.
#OpenDiLoCo:Рідка асинхронна комунікаційна рамка
OpenDiLoCo є незалежно реалізованою та відкритою оптимізаційною рамкою зв'язку, створеною командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленою для вирішення поширених викликів у децентралізованому навчанні, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Його архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологій, таких як кільце, розширювач, малий світ, що дозволяє уникнути високих витрат на зв'язок через глобальну синхронізацію, і лише покладається на сусідні локальні вузли для виконання спільного навчання моделі. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та краєвим пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі у глобальному кооперативному навчанні, що є однією з ключових комунікаційних інфраструктур для побудови мережі децентралізованого навчання.
#PCCL:Бібліотека кооперативного зв'язку
PCCL(Prime Collective Communication Library) є легковаговою бібліотекою зв'язку, створеною Prime Intellect для децентралізованого середовища навчання AI, що має на меті вирішення проблеми адаптації традиційних бібліотек зв'язку(, таких як NCCL, Gloo), у гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронні можливості зв'язку протоколу OpenDiLoCo. Він значно підвищив пропускну здатність навчальних мереж та сумісність пристроїв, прокладаючи "останню милю" комунікаційної інфраструктури для створення справжньої відкритої, ненадійної мережі спільного навчання.
(# Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу тренувань без дозволу, яка може бути перевірена та має економічні стимули, що дозволяє будь-кому брати участь у завданнях і отримувати винагороди на основі реального внеску. Протокол працює на основі трьох основних ролей:
Ініціатор завдання: визначте навчальне середовище, початкову модель, функцію винагороди та стандарти валідації
Тренувальний вузол: виконати локальне навчання, надіслати оновлення ваг і спостереження траєкторії
Верифікаційні вузли: використання механізму TOPLOC для перевірки реальності навчальної поведінки та участь у нагородах
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
11 лайків
Нагородити
11
7
Репост
Поділіться
Прокоментувати
0/400
TestnetFreeloader
· 07-24 13:39
Розкрути, щоб заробити трохи.
Переглянути оригіналвідповісти на0
just_another_wallet
· 07-21 14:53
Ця партія навчання вимагатиме скільки обчислювальної потужності?
Переглянути оригіналвідповісти на0
TokenRationEater
· 07-21 14:53
Знову настав час для заробітку, просто чекаємо на відкриття, щоб злетіти.
Переглянути оригіналвідповісти на0
HorizonHunter
· 07-21 14:50
6 років невдаха, що займається дослідженням напрямків трендової торгівлі, з досвідом обдурювання людей, як лохів. Захоплююсь глибоким аналізом AI-сектора та блокчейн-проектів, прагну незалежного мислення.
Слідуючи цій думці, я створю коментар:
Навіть помираючи від перевтоми, все одно не наздоженеш великі компанії.
Переглянути оригіналвідповісти на0
RegenRestorer
· 07-21 14:37
Знову створюємо нові колеса AI.
Переглянути оригіналвідповісти на0
AirdropFreedom
· 07-21 14:34
Швидко, чорне і жорстоке?
Переглянути оригіналвідповісти на0
GhostWalletSleuth
· 07-21 14:28
Обчислювальна потужність горить гроші, і це ще треба так крутити? Справді є гроші.
Децентралізація AI тренування на передовій: Prime Intellect веде нову парадигму перевіряльних кооперативних мереж
Святий Грааль Crypto AI: передові дослідження децентралізованого навчання
В повному ціннісному ланцюгу ШІ, навчання моделей є етапом, що споживає найбільше ресурсів та має найвищий технічний поріг, що безпосередньо визначає межі можливостей моделі та реальні результати її застосування. На відміну від легковагових викликів на етапі висновку, процес навчання потребує безперервних масштабних обчислювальних потужностей, складних процесів обробки даних та інтенсивної підтримки алгоритмів оптимізації, що є справжньою "важкою промисловістю" для побудови систем ШІ. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Централізоване навчання є найпоширенішим традиційним способом, де єдиний інститут здійснює весь процес навчання в локальному високопродуктивному кластері, від апаратного забезпечення, базового програмного забезпечення, системи управління кластером до всіх компонентів навчальної платформи, які координуються єдиною системою контролю. Така глибока кооперація архітектури забезпечує оптимальну ефективність у спільному використанні пам'яті, синхронізації градієнтів і механізмах відмовостійкості, що робить її дуже підходящою для навчання масштабних моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополізації даних, бар'єрів для ресурсів, споживання енергії та ризику єдиної точки.
Розподілене навчання є основним методом навчання великих моделей на сьогодні, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень та зберігання на одному комп'ютері. Незважаючи на те, що фізично він має "розподілені" особливості, загалом він все ще контролюється центральною установою для управління та синхронізації, зазвичай працює в середовищі високошвидкісної локальної мережі, за допомогою технології високошвидкісної міжмашинної передачі NVLink, головний вузол координує всі підзавдання. Основні методи включають:
Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співробітниками кількох "офісів", щоб виконати завдання. Наразі майже всі основні великі моделі (GPT-4, Gemini, LLaMA та інші ) навчаються саме таким чином.
Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основними характеристиками є: кілька недовірливих вузлів ( можуть бути домашніми комп'ютерами, хмарними GPU або крайніми пристроями ), які спільно виконують завдання тренування без центрального координатора, зазвичай через протокол, що керує розподілом завдань та співпрацею, а також за допомогою механізму криптостимулювання для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:
Децентралізація тренування можна розуміти як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного навчання моделі, але "справді здійсненне масове децентралізоване тренування" все ще є системним інженерним викликом, що охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей та інші аспекти, але чи можливо "спільно ефективно + стимулювати чесність + отримати правильні результати" ще перебуває на ранній стадії дослідження прототипів.
Федеративне навчання, як перехідна форма між розподіленістю та децентралізацією, акцентує на локальному збереженні даних та централізованій агрегації параметрів моделі, підходить для сцен, що акцентують на дотриманні конфіденційності, таких як медицина, фінанси (. Федеративне навчання має інженерну структуру розподіленого навчання та локальні кооперативні можливості, одночасно володіючи перевагами розподілених даних у децентралізованому навчанні, але все ще залежить від надійної координаційної сторони, не має повністю відкритих і стійких до цензури характеристик. Можна вважати це "контрольованою децентралізацією" у сценах дотримання конфіденційності, де завдання навчання, структура довіри та механізм зв'язку є відносно м'якими, що робить його більш підходящим як промислову перехідну архітектуру.
![Святий Грааль Crypto AI: Децентралізація тренування на передовій дослідження])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(
Децентралізація тренінгів: межі, можливості та реальні шляхи
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких випадках, через складну структуру завдання, надзвичайно високі вимоги до ресурсів або великі труднощі в співпраці, воно природно не підходить для ефективного виконання між гетерогенними, ненадійними вузлами. Наприклад, навчання великих моделей часто залежить від великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективне розподілення й синхронізацію в відкритих мережах; завдання, що мають сильні обмеження на конфіденційність даних і суверенітет ), такі як медицина, фінанси, обробка конфіденційних даних (, обмежені законодавчими вимогами та етичними нормами, тому їх не можна відкрито ділити; а завдання ), які не мають основи для співпраці, такі як закриті моделі підприємств або внутрішнє навчання прототипів (, позбавлені зовнішніх мотивацій для участі. Ці межі разом становлять реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є хибним твердженням. Насправді, у випадках легких структур, які легко паралелізуються та стимулюють виконання завдань, децентралізоване навчання демонструє чіткі перспективи застосування. Сюди входять, але не обмежуються: мікронастройка LoRA, завдання після навчання, пов'язані з поведінкою, такі як RLHF, DPO), завдання навчання та маркування даних через краудсорсинг, навчання малих базових моделей з контрольованими ресурсами, а також сцени кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралелізацію, низьку зв'язність та терпимість до гетерогенної обчислювальної потужності, що робить їх дуже підходящими для кооперативного навчання через P2P мережі, протоколи Swarm, розподілені оптимізатори та інші засоби.
Децентралізація тренування класичних проектів аналіз
Наразі в області децентралізованого навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмах, представляючи передові напрямки теоретичних досліджень; в той час як шляхи реалізації Gensyn та Flock.io є відносно зрозумілими, вже можна спостерігати початкові інженерні досягнення. У цій статті буде послідовно проаналізовано основні технології та інженерні структури п'яти проектів, а також буде детально розглянуто їх відмінності та взаємодоповнюючі зв'язки в децентралізованій AI навчальній системі.
( Prime Intellect: тренувальні траєкторії можуть бути перевірені посиленою навчальною кооперативною мережею піонера
Prime Intellect прагне створити мережу навчання ШІ, яка не потребує довіри, щоб будь-хто міг брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect хоче створити децентралізовану навчальну систему ШІ з трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST, яка має перевіряємість, відкритість та повноцінний механізм стимулювання.
)# Структура стеку протоколу Prime Intellect та цінність ключових модулів
![Святий Грааль Crypto AI: Децентралізація тренування на передовій досліджень]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp###
(# Детальний опис ключових механізмів навчання Prime Intellect
#PRIME-RL: Архітектура задач децентралізованого асинхронного навчання з підкріпленням
PRIME-RL є фреймворком для моделювання та виконання завдань, розробленим компанією Prime Intellect для децентралізованих навчальних сцен. Він спеціально призначений для гетерогенних мереж та асинхронних учасників. Він використовує посилене навчання як пріоритетний об'єкт адаптації, структурно декомпонуючи процеси навчання, висновку та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно завершувати цикли завдань локально, а також взаємодіяти через стандартизовані інтерфейси з механізмами валідації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більш підходить для реалізації гнучкого навчання в середовищах без централізованого розподілу, знижуючи складність системи та закладаючи основу для підтримки паралельного виконання декількох завдань і еволюції стратегій.
![Святий Грааль Crypto AI: передові дослідження децентралізованого навчання])https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp###
#TOPLOC:Легка перевірка поведінки навчання
TOPLOC(Довірене спостереження & Перевірка локальності) є основним механізмом перевірки навчання, запропонованим Prime Intellect, що використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторного обчислення повної моделі, а здійснює легку верифікацію структури, аналізуючи локально узгоджені траєкторії між "послідовністю спостережень ↔ оновленням стратегії". Вперше він перетворює траєкторії поведінки в процесі навчання на об'єкти, які можна перевіряти, що є ключовою інновацією для реалізації розподілу винагород за навчання без довіри, забезпечуючи здійснений шлях для створення аудиторної, стимулюючої децентралізованої мережі співпраці в навчанні.
#SHARDCAST: Асинхронна агрегація ваг та протокол поширення
SHARDCAST – це протокол вагового поширення та агрегації, розроблений Prime Intellect, оптимізований спеціально для асинхронних, обмежених за пропускною здатністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм поширення gossip з локальною синхронізацією, що дозволяє кільком вузлам безперервно надсилати часткові оновлення в умовах несинхронізації, реалізуючи поступову збіжність ваг та еволюцію кількох версій. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для побудови стабільного консенсусу ваг та безперервної ітерації навчання.
#OpenDiLoCo:Рідка асинхронна комунікаційна рамка
OpenDiLoCo є незалежно реалізованою та відкритою оптимізаційною рамкою зв'язку, створеною командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленою для вирішення поширених викликів у децентралізованому навчанні, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Його архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологій, таких як кільце, розширювач, малий світ, що дозволяє уникнути високих витрат на зв'язок через глобальну синхронізацію, і лише покладається на сусідні локальні вузли для виконання спільного навчання моделі. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та краєвим пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі у глобальному кооперативному навчанні, що є однією з ключових комунікаційних інфраструктур для побудови мережі децентралізованого навчання.
#PCCL:Бібліотека кооперативного зв'язку
PCCL(Prime Collective Communication Library) є легковаговою бібліотекою зв'язку, створеною Prime Intellect для децентралізованого середовища навчання AI, що має на меті вирішення проблеми адаптації традиційних бібліотек зв'язку(, таких як NCCL, Gloo), у гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронні можливості зв'язку протоколу OpenDiLoCo. Він значно підвищив пропускну здатність навчальних мереж та сумісність пристроїв, прокладаючи "останню милю" комунікаційної інфраструктури для створення справжньої відкритої, ненадійної мережі спільного навчання.
(# Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу тренувань без дозволу, яка може бути перевірена та має економічні стимули, що дозволяє будь-кому брати участь у завданнях і отримувати винагороди на основі реального внеску. Протокол працює на основі трьох основних ролей:
Слідуючи цій думці, я створю коментар:
Навіть помираючи від перевтоми, все одно не наздоженеш великі компанії.