Установка ноды Gaia
В данном руководстве мы разберем установку собственной AI-модели для участия в тестнете проекта Gaia. Данная нода отличается от всех проектов, что мы разбирали ранее -- это не валидатор и не фармер, это полноценный узел нейросети. За поддержание работы узла, который постоянно обрабатывает запросы и генерирует ответы мы будем получать очки, которые превратятся в награды в mainnet. ПодготовкаОбычно AI-проекты стабильно ассоциируются с GPU и видеокартами, поэтому имеют наивысший порог входа сред...
Установка ноды Gensyn
Продолжаем наш марафон ИИ-нод с новым проектом Gensyn. Наши вычислительные ресурсы здесь будут использоваться для распределенного обучения ИИ-моделей, а все узлы в сети объединятся в "разум улья", пока мы фармим очки за каждый пройденный раунд обучения.ПодготовкаВ этот раз нам потребуется сервер не менее 8 ядер и 16 Гб RAM. А также (внезапно) аккаунт Alchemy.com. Ставим мешок зависимостей, чтобы поставить nodejs и yarn: apt install -y python3 python3-venv python3-pip curl screen git yarn curl...

Установка ноды в Masa Bittensor Testnet
И снова с вами на связи Инвестиционная лощина. Сегодня мы будем ставить ноду в нашем любимом проекте Masa. Этот проект уже неоднократно кормил нас и ...
Установка ноды Gaia
В данном руководстве мы разберем установку собственной AI-модели для участия в тестнете проекта Gaia. Данная нода отличается от всех проектов, что мы разбирали ранее -- это не валидатор и не фармер, это полноценный узел нейросети. За поддержание работы узла, который постоянно обрабатывает запросы и генерирует ответы мы будем получать очки, которые превратятся в награды в mainnet. ПодготовкаОбычно AI-проекты стабильно ассоциируются с GPU и видеокартами, поэтому имеют наивысший порог входа сред...
Установка ноды Gensyn
Продолжаем наш марафон ИИ-нод с новым проектом Gensyn. Наши вычислительные ресурсы здесь будут использоваться для распределенного обучения ИИ-моделей, а все узлы в сети объединятся в "разум улья", пока мы фармим очки за каждый пройденный раунд обучения.ПодготовкаВ этот раз нам потребуется сервер не менее 8 ядер и 16 Гб RAM. А также (внезапно) аккаунт Alchemy.com. Ставим мешок зависимостей, чтобы поставить nodejs и yarn: apt install -y python3 python3-venv python3-pip curl screen git yarn curl...

Установка ноды в Masa Bittensor Testnet
И снова с вами на связи Инвестиционная лощина. Сегодня мы будем ставить ноду в нашем любимом проекте Masa. Этот проект уже неоднократно кормил нас и ...
Subscribe to Investment Hollow
Subscribe to Investment Hollow
Share Dialog
Share Dialog
<100 subscribers
<100 subscribers
В данном руководстве разбираем установку новой ИИ-ноды Dria. Схема работы ноды крайне похожа на Gaia, наша нода будет получать задания для обработки в LLM-моделях, за успешное выполнение заданий мы будем получать очки $DRIA. Разница заключается лишь в том, что нагрузку подают сами создатели проекта.
Требований к железу у этой ноды больше, чем у Gaia. К большому сожалению, на сервере с 4 ядрами запустить ничего не получится - данная нода просто не поддерживает такие слабые модели. Вам потребуется минимум 8 ядер, учитывайте это -- возможно вам нужно докупить сервера помощнее. Но вот на 8 ядрах все работает просто замечательно и фарм очков очень хороший. ОС как обычно Ubuntu 22.04.
Для работы нам потребуется Ollama - это софт для загрузки из публичного репозитория и локального запуска свободно распространяемых LLM-моделей. Устанавливается быстро и просто.
curl -fsSL https://ollama.com/install.sh | sh
Настраивать её не нужно, нода сама её найдет, Ollama просто слушает дефолтный порт 11434.
Также подготовьте приватник от вашего кошелька "для нод". Кошелек здесь выступает как идентификатор ноды, и не более того. Каждую ноду надо запускать из-под нового кошелька. В будущем разработчики выкатят пользовательский интерфейс на сайте, где можно будет связать все ваши ноды.
Скачиваем и запускаем скрипт от разработчиковcurl -fsSL https://dria.co/launcher | bash
После завершения скрипта не забываем выполнить команду
source ~/.bashrc
Все управление нодой осуществляется через один исполняемый файл. Сперва - настройка, нужно выбрать модель.
Лирическое отступление про выбор модели: задания распределяются между моделями неравномерно. Чем больше заданий идет на определенный тип модели тем больше вы заработаете очков (разница ощутима, проверено). Поэтому ставить нужно актуальные модели из числа тех что вы тянете. На данном сайте разработчики публикуют статистику какие модели сейчас актуальны (выполняют большее число задач).

Как видим из скрина, больше всего задач летит в qwen2.5:7b-instruct-fp16. Это очень тяжелая модель. Для запуска такой махины вам потребуется минимум видеокарта RTX3090. Даже жирный сервер с кучей ядер её не запустит. Вторая по популярности - GPT-4O. И это не какая-то китайская подделка запускаемая локально, это тот самый ЧатГПТ. В данном проекте вы можете с помощью ноды Dria "проксировать" запросы в данную нейросеть. Ведь использование данной модели - платно, при чем OpenAI тарифицирует обращения по API по токенам (10$ за миллион токенов). А вы можете взять расходы по оплате яхты Сэма Альтмана на себя, получая за обработку запросов в публичной нейросети пойнты проекта. То есть можно еще и участвовать не вкладывая сами мощности, а оплачивая доступ к чужим мощностям. Достаточно неплохой вариант для буста по очкам если есть иностранная карта для оплаты.
Наконец третья в списке модель - Llama3.2:1B. И вот её-то мы и будем запускать. Она хорошо работает на 8 ядрах и стабильно фармит пойнты.
В будущем более актуальной может стать другая модель - тогда можно будет переключить ноду на её использование. Следите за данным сайтом или апдейтами в канале.
Возвращаемся к выбору модели. Запускаем настройку!
dkn-compute-launcher setup
Указываем приватник от кошелька ноды, который станет её идентификатором. Далее у нас будут спрашивать API-ключи просто нажимайте Enter ничего не вводя, мы их не используем. Наконец, откроется диалоговое меню в терминале.

Переходим в Models -> Ollama -> в списке находим Llama3.2:1B (Не перепутайте версию Llama! Их там много. Найдите строчку в точности совпадающую с нужным названием. Запустите Llama 3.1:1B и пойнтов никаких не будет, хотя работать все будет!) отмечаем выбор пробелом и сохраняем настройки на Enter. Нода готова к запуску.
Дальше важный момент - перед запуском каждый раз проводится тест на производительность выбранной модели на вашей ВМ. Этот тест требует, чтобы ваша модель выдавала как минимум 15 токенов ответа в секунду, если хотя бы тысячной долей меньше - не запустится. В момент проведения теста критически важно чтобы на машине ничего лишнего запущено не было. Даже небольшой фоновый процесс может занимать ресурсы процессора и вам не хватит каких-нибудь 0.01 для запуска. Поэтому я рекомендую делать запуск после ребута - так выше вероятность пройти тест. Если не проходите - пробуйте снова и снова, раз на 5ый максимум на 8 ядрах должно получится (на контабо по крайней мере получается). При ошибке запуска нода напишет что тест провален и результат, в случае успеха - запустится и пойдут логи.
Запускаем строго в Screen! Давайте еще раз повторим
Запуск сессии:
screen -S dria
Переподключение к этой сессии (посмотреть логи и очки):
screen -R dria
Если скрин что-то мычит и вякает в ответ при переподключении (так бывает)
screen -d -R dria
В сессии screen CTRL+C не нажимаем да и вообще ничего не нажимаем, читаем логи смотрим за пойнтами и онлайном. Если ребутаете сервер сессию screen придется пересоздать.
dkn-compute-launcher start
Молимся, бьем в шаманский бубен. Если все хорошо, увидите примерно такой вывод:

Если не сразу выйдете в онлайн - ничего, бывает, через часик другой выйдете (хотя уже вроде пофиксили). Периодически возвращайтесь в сессию, следите за пойнтами и логами. Если логи остановились - нода зависла (увы, бывает). Тогда CTRL+C, reboot и свежий старт.
Лидерборд смотрим на том же сайте, где актуальные модели.

В топ-50% попасть вообще легко. Учитывая что нод всего 6000 -- это уже отличный результат! Дальше - будет видно, надеюсь прорвемся выше!
Открываем новый терминал и указываем реферальный код
dkn-compute-launcher referrals
Далее - Enter referral code
mQ6UpOHDgsIPnazSElsg

На этом всё! Следите за обновлениями в нашем канале по данному проекту (и вашей нодой!), там же вы можете задать вопросы по установке и настройке. Желаем успехов, и до встречи в нейробудущем!
В данном руководстве разбираем установку новой ИИ-ноды Dria. Схема работы ноды крайне похожа на Gaia, наша нода будет получать задания для обработки в LLM-моделях, за успешное выполнение заданий мы будем получать очки $DRIA. Разница заключается лишь в том, что нагрузку подают сами создатели проекта.
Требований к железу у этой ноды больше, чем у Gaia. К большому сожалению, на сервере с 4 ядрами запустить ничего не получится - данная нода просто не поддерживает такие слабые модели. Вам потребуется минимум 8 ядер, учитывайте это -- возможно вам нужно докупить сервера помощнее. Но вот на 8 ядрах все работает просто замечательно и фарм очков очень хороший. ОС как обычно Ubuntu 22.04.
Для работы нам потребуется Ollama - это софт для загрузки из публичного репозитория и локального запуска свободно распространяемых LLM-моделей. Устанавливается быстро и просто.
curl -fsSL https://ollama.com/install.sh | sh
Настраивать её не нужно, нода сама её найдет, Ollama просто слушает дефолтный порт 11434.
Также подготовьте приватник от вашего кошелька "для нод". Кошелек здесь выступает как идентификатор ноды, и не более того. Каждую ноду надо запускать из-под нового кошелька. В будущем разработчики выкатят пользовательский интерфейс на сайте, где можно будет связать все ваши ноды.
Скачиваем и запускаем скрипт от разработчиковcurl -fsSL https://dria.co/launcher | bash
После завершения скрипта не забываем выполнить команду
source ~/.bashrc
Все управление нодой осуществляется через один исполняемый файл. Сперва - настройка, нужно выбрать модель.
Лирическое отступление про выбор модели: задания распределяются между моделями неравномерно. Чем больше заданий идет на определенный тип модели тем больше вы заработаете очков (разница ощутима, проверено). Поэтому ставить нужно актуальные модели из числа тех что вы тянете. На данном сайте разработчики публикуют статистику какие модели сейчас актуальны (выполняют большее число задач).

Как видим из скрина, больше всего задач летит в qwen2.5:7b-instruct-fp16. Это очень тяжелая модель. Для запуска такой махины вам потребуется минимум видеокарта RTX3090. Даже жирный сервер с кучей ядер её не запустит. Вторая по популярности - GPT-4O. И это не какая-то китайская подделка запускаемая локально, это тот самый ЧатГПТ. В данном проекте вы можете с помощью ноды Dria "проксировать" запросы в данную нейросеть. Ведь использование данной модели - платно, при чем OpenAI тарифицирует обращения по API по токенам (10$ за миллион токенов). А вы можете взять расходы по оплате яхты Сэма Альтмана на себя, получая за обработку запросов в публичной нейросети пойнты проекта. То есть можно еще и участвовать не вкладывая сами мощности, а оплачивая доступ к чужим мощностям. Достаточно неплохой вариант для буста по очкам если есть иностранная карта для оплаты.
Наконец третья в списке модель - Llama3.2:1B. И вот её-то мы и будем запускать. Она хорошо работает на 8 ядрах и стабильно фармит пойнты.
В будущем более актуальной может стать другая модель - тогда можно будет переключить ноду на её использование. Следите за данным сайтом или апдейтами в канале.
Возвращаемся к выбору модели. Запускаем настройку!
dkn-compute-launcher setup
Указываем приватник от кошелька ноды, который станет её идентификатором. Далее у нас будут спрашивать API-ключи просто нажимайте Enter ничего не вводя, мы их не используем. Наконец, откроется диалоговое меню в терминале.

Переходим в Models -> Ollama -> в списке находим Llama3.2:1B (Не перепутайте версию Llama! Их там много. Найдите строчку в точности совпадающую с нужным названием. Запустите Llama 3.1:1B и пойнтов никаких не будет, хотя работать все будет!) отмечаем выбор пробелом и сохраняем настройки на Enter. Нода готова к запуску.
Дальше важный момент - перед запуском каждый раз проводится тест на производительность выбранной модели на вашей ВМ. Этот тест требует, чтобы ваша модель выдавала как минимум 15 токенов ответа в секунду, если хотя бы тысячной долей меньше - не запустится. В момент проведения теста критически важно чтобы на машине ничего лишнего запущено не было. Даже небольшой фоновый процесс может занимать ресурсы процессора и вам не хватит каких-нибудь 0.01 для запуска. Поэтому я рекомендую делать запуск после ребута - так выше вероятность пройти тест. Если не проходите - пробуйте снова и снова, раз на 5ый максимум на 8 ядрах должно получится (на контабо по крайней мере получается). При ошибке запуска нода напишет что тест провален и результат, в случае успеха - запустится и пойдут логи.
Запускаем строго в Screen! Давайте еще раз повторим
Запуск сессии:
screen -S dria
Переподключение к этой сессии (посмотреть логи и очки):
screen -R dria
Если скрин что-то мычит и вякает в ответ при переподключении (так бывает)
screen -d -R dria
В сессии screen CTRL+C не нажимаем да и вообще ничего не нажимаем, читаем логи смотрим за пойнтами и онлайном. Если ребутаете сервер сессию screen придется пересоздать.
dkn-compute-launcher start
Молимся, бьем в шаманский бубен. Если все хорошо, увидите примерно такой вывод:

Если не сразу выйдете в онлайн - ничего, бывает, через часик другой выйдете (хотя уже вроде пофиксили). Периодически возвращайтесь в сессию, следите за пойнтами и логами. Если логи остановились - нода зависла (увы, бывает). Тогда CTRL+C, reboot и свежий старт.
Лидерборд смотрим на том же сайте, где актуальные модели.

В топ-50% попасть вообще легко. Учитывая что нод всего 6000 -- это уже отличный результат! Дальше - будет видно, надеюсь прорвемся выше!
Открываем новый терминал и указываем реферальный код
dkn-compute-launcher referrals
Далее - Enter referral code
mQ6UpOHDgsIPnazSElsg

На этом всё! Следите за обновлениями в нашем канале по данному проекту (и вашей нодой!), там же вы можете задать вопросы по установке и настройке. Желаем успехов, и до встречи в нейробудущем!
No activity yet