• XSS.stack #1 – первый литературный журнал от юзеров форума

LLAMA source code

learner

ripper
КИДАЛА
Регистрация
13.01.2023
Сообщения
141
Реакции
71
Гарант сделки
1
Пожалуйста, обратите внимание, что пользователь заблокирован
Facebook IA

пожалуйста, кто-нибудь, держите код в тепле, у меня есть проект по нему
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Лама эт незацензуренная версия ChatGPT, однако версия не 4ой версии, а 3-3.5, в целом принцип работы похож, но как по мне чат гпт выдает ответы более точно
 
Лама эт незацензуренная версия ChatGPT, однако версия не 4ой версии, а 3-3.5, в целом принцип работы похож, но как по мне чат гпт выдает ответы более точно
Я даже не могу заставить его работать как чат. У меня ошибка, что в /dalai/llama/Release/main нет команд, а у меня внутри llama.exe😅
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Есть ли какие-то проверенные методики по дообучению этих сетей, формированию собственных датасетов?
Очень интересно было бы использовать GAN-сети для создания автоматизированного обфускатора APK файлов, а в перспективе - если датасет получится компактным (20...50мб), то можно автономную полиморфную малварь сделать.
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Есть ли какие-то проверенные методики по дообучению этих сетей, формированию собственных датасетов?
Очень интересно было бы использовать GAN-сети для создания автоматизированного обфускатора APK файлов, а в перспективе - если датасет получится компактным (20...50мб), то можно автономную полиморфную малварь сделать.
Я пытаюсь обучать ИИ только в области вредоносных программ, и, конечно, мы можем обучать модели LLAMA, проблема заключается в количестве данных, доступных во время их глубокого обучения, которые будут иметь значение.
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Если кто разобрался как ламу заставить работать на серваке, стукните мне в пм. thx
используйте каталог LLAMA.cpp, он позволяет запускать его на процессорах, затем вы загружаете модели и следуете инструкциям
 
Я даже не могу заставить его работать как чат. У меня ошибка, что в /dalai/llama/Release/main нет команд, а у меня внутри llama.exe😅
используй не dalai, а llama.cpp
и не забывай, что это "бредогенератор", а не "чат-бот" - для того, чтобы генерировался бред в стиле чата, нужно скормить ламе prompt в стиле чата, чтобы лама запомнила этот стиль и генерила дальше такой же. смотри примеры в examples и prompts
 
Есть ли какие-то проверенные методики по дообучению этих сетей, формированию собственных датасетов?
поддержу вопрос.
поигрался с ламой - забавно, но непонятно, к чему и как её прикрутить. можно как-то "дополнить" слитые модели 7/13/30/65B своими данными?
 
тестил dalai на 7B. исключительная шняга на данном этапе. выдает ответы совсем не по теме разговора. понятно что там надо веса подкручивать, по типу stable diffusion. знать бы только куда. там куча настроек в панеле. 65B не смог скачать даже винсет где то на 20% загрузки. а вот llama.cpp еще не пробовал
 
dalai это само по себе исключительная шняга, используй консольный вариант - llama.cpp или llama-rs.
ну и 7B это действительно мало, надо юзать хотя бы 13, а лучше 30. в идеале, конечно, 65, но у меня железо не тянет - мощной видюхи нет, а на процессоре генерация 1 слова = 2 секунды.
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх