• XSS.stack #1 – первый литературный журнал от юзеров форума

Ии на ПК llama

бенчмарк нескольких топовых видеокарт, пары эппловских компов, и комбинаций из нескольких "потребительских" карт типа 3090:

llama3 multi.png


взято отсюда: https://github.com/XiongjieDai/GPU-Benchmarks-on-LLM-Inference
 
постепенно приезжают параллельноимпортированные запчасти для будущего сервера с БЯМ, я немного погонял llama-bench и пару моделек и остался в недоумении. или я что-то делаю не так, или всё очень плохо :rolleyes:
четырёхканальная память DDR4-2933 выдаёт bandwidth меньше 30 гигабайт в секунду, я надеялся хотя бы 60 при теоретическом максимуме в 93.
и скорость генерации токенов с этой DDR4-2933 на тридцатидвухъядерном проце меньше, чем на двухканальной DDR4-3200 с восьмиядерным процом на другом сервере :(
 
я что-то делаю не так
да, оказалось всё очень интересно: нужно сделать несколько настроек биоса и оси, и напрямую указывать лламе, что нужно использовать NUMA.

1) BIOS: enable memory interleaving
у моей конкретной мамки из вариантов только "Auto" и "Disabled", поэтому оставил "Auto".
как вариант, можно делать это на уровне оси, запуская программы через "numactl --interleave=all /path/to/llama-cli -m model -p prompt ...", но в моём случае это выдавало меньше tokens per second, чем просто ./llama-cli.

2) BIOS: set NUMA per socket to NPS4
по умолчанию или в режиме "Auto" этот параметр делает 1 ноду на процессор ("NPS1"), и вся память работает в одно(двух?)канальном режиме, поэтому и скорость генерации текста никакая. нужно выставлять этот режим в максимально возможное значение, в моём случае NPS4.

3) BIOS: set ACPI SRAT L3 as NUMA Domain
это создаёт ещё больше NUMA нод, в моём случае получилось то ли 16, то ли 32, уже не помню, но эта настройка сделала скорость генерации в десятки раз хуже, поэтому я вернул её обратно в Disabled.

4) OS: disable Linux NUMA balancing
а именно выполнить команду "echo 0 > /proc/sys/kernel/numa_balancing". лично я разницы в скорости не заметил, результаты в пределах погрешности, но у вас может сработать.

5) OS: дропать кэши перед запуском llamacpp
"echo 3 > /proc/sys/vm/drop_caches" от рута. так как я запускаю ламу от юзера, а не от рута, то сделал для удобства суидник, выполняющий эту команду.
оказалось, что на скорость генерации влияет "пустота" оперативной памяти - если не очистить память от старой модели перед загрузкой новой, то скорость генерации новой модели будет медленнее, чем предыдущей.

6) OS: запускать llamacpp с опцией "--numa distribute"
типа "./llama-cli --numa distribute -m Llama-3.3-70B-Instruct-Q4_K_M.gguf"

7) OS: уменьшить количество потоков llamacpp -t NN
если у процессора очень много ядер - 64 или больше - то начиная с определённого количества потоков лламы они начнут мешать друг другу. тридцатидвухъядерным это не грозит.
ещё очень желательно выключить в биосе виртуальные ядра - "HyperThreading" у интела или "SMT" у амд.


на практике с моделью весом 40.5 гигабайт у меня с 32-ядерным 8-канальным процессором AMD (и памятью DDR4-3200) выходит в среднем 3.55 токенов в секунду, что всего в 3.5 раза быстрее, чем с 8-ядерным 2-канальным процессором Intel. возможно, дело в частоте процессора - мой интел работает на 3.1 ггц и разгоняется до 5, а амд работает на 2.4 ггц и разгоняется всего до 3.3.
вес файла = 40.5 гигабайт, по скорости tokens per second можно прикинуть "примерно реальный" bandwidth восьмиканальной памяти DDR4-3200 = 3.55*40.5 = 144 гигабайта в секунду, 70% от теоретического максимума 204.8, вполне неплохо.
всё, я теперь prompt engineer и vibe coder, зовите меня в свои AI стартапы :D
 
Добиться максимального быстродействия на локалке можно только если использовать видеокарты.
2x3090, 2x4090 , Китайскую разработку 4090 48Гб, или просто использовать модель меньшего размера оптимизированную под конкретную задачу. Хотя, подозреваю, что и система с двумя Тесла P40 будет быстрее работать с большой моделью, чем вариант с использованием процессора и памяти
 
всё, я теперь prompt engineer и vibe coder, зовите меня в свои AI стартапы :D

С интересом для себя обнаружил, что этот топик эволюционировал из треда о просто "ИИ Llama" и превратился в настоящую "Лабораторию локальных LLM". От "А нифига пока эти локальные модели не могут. Расходимся" через апгрейд железа до глубокого копания в нюансах производительности, NUMA-тюнинг llama.cpp (--numa distribute), анализ bandwidth. Пока что лучшая варка, которую я видел здесь.

Может, стоит переименовать тред, для лучшего опыта пользователей.

Я лечу с поиска с кучей вопросов, потому что я только погружаюсь в локальные LLM, но больше со стороны выбора софта. А по железу тут и правда хорошие таблицы.

- Что думаешь про Ollama? С одной стороны, удобно для старта и легко. С другой – не съедает ли эта абстракция (сервер, API, управление моделями, еще что-то из сверху кода) ту производительность и контроль, за которые ты борешься с NUMA и прямыми вызовами llama.cpp?

- А когда руки зачешутся, как дообучать модели будешь? А ведь именно к этому ты идешь! Насколько вообще llama.cpp и формат GGUF гибкие, если смотреть дальше простого инференса? Видеться ли тебе какие-то адекватные пути для дообучения в этой экосистеме? А бабы то голые нужны только с большим бюстом, а не с маленьким и/или средним ;)

Просто я пытаюсь понять лучший вариант для себя с прицелом на будущее.

А ты на фронтенде UI то какой используешь? Или только CLI у тебя прям в терминале, только хардкор?
 
бенчмарк нескольких топовых видеокарт, пары эппловских компов, и комбинаций из нескольких "потребительских" карт типа 3090:

Посмотреть вложение 105097

взято отсюда: https://github.com/XiongjieDai/GPU-Benchmarks-on-LLM-Inference


ещё один бенчмарк, взято отсюда: https://github.com/DeutscheKI/llm-performance-tests

scr.png
 
- Что думаешь про Ollama? С одной стороны, удобно для старта и легко. С другой – не съедает ли эта абстракция (сервер, API, управление моделями, еще что-то из сверху кода) ту производительность и контроль, за которые ты борешься с NUMA и прямыми вызовами llama.cpp?
не пользовался, не знаю. возможно, там уже встроены все оптимальные настройки для каждой модели и я зря трачу время с лламой.цпп 🤷‍♂️ попробуй сам, отпиши в топике.
я однажды попробовал рекомендованную некоторыми людьми ik_llama ( https://github.com/ikawrakow/ik_llama.cpp ), которая якобы работает намного быстрее оригинала, но у меня она занимала в 2 раза больше оперативы и падала с OOM на моделях, которые llama.cpp отлично запускала. её тоже попробуй сам и отпиши в топике :D

не съедает ли эта абстракция (сервер, API, управление моделями, еще что-то из сверху кода) ту производительность
имхо затраты на вебсервер и прочее пренебрежимо малы.

- А когда руки зачешутся, как дообучать модели будешь? А ведь именно к этому ты идешь!
об этом чуть позже 🌚

Насколько вообще llama.cpp и формат GGUF гибкие, если смотреть дальше простого инференса? Видеться ли тебе какие-то адекватные пути для дообучения в этой экосистеме? А бабы то голые нужны только с большим бюстом, а не с маленьким и/или средним ;)
до обучения я ещё не добрался, как начну в этом разбираться - буду писать здесь о своих похождениях. а теперь про чуть позже: я решил рискнуть и параллельноимпортировать китайского франкенштейна за 4 килобакса, собранного из платы 3090 и чипа 4090: https :// www.youtube.com/watch?v=m9YszWQenII
насколько я понял, это работает так: китайцы покупают бэушную 4090, выпаивают из неё графический чип и сажают его на плату от 3090. размер и распиновка у чипов 3090 и 4090 идентична, зато на плате 3090 в два раза больше посадочных мест под чипы памяти, китайцы меняют эти одногигабайтные чипы на двухгигабайтные, в результате из 3090+24 гигабайт получается 4090+48 гигабайт. по сравнению с другими видюхами это очень хороший вариант - 48 гигабайт видеопамяти со скоростью 1000 ГБ/с, что превосходит большинство видюх кроме самых топовых. кластер из этих китайских франкенштейнов выходит намного дешевле и производительнее, чем кластер из RTX A6000 / 6000 Ada, вопрос только в надёжности :rolleyes:
но с кластером тоже есть нюанс: если я правильно понимаю, для обучения нужно ОЧЕНЬ много ОЧЕНЬ быстрой памяти на 1 видюхе, так как между несколькими видюхами общение идёт по медленному NVLink или ультрамедленному PCI-e, со скоростями 100-200 гигабайт в секунду, поэтому для обучения собирать кластеры из видюх потребительского класса нецелесообразно. ынтырпрайзы для обучения покупают ынтырпрайзные же видюхи с 80 и более гигабайт видеопамяти, по заоблачным ценам.
но пока что начнём с 48 гигабайт :)

Просто я пытаюсь понять лучший вариант для себя с прицелом на будущее.
не совершай мою ошибку и не собирай систему на восьми каналах DDR4, копи на EPYC4/5 c двенадцатью каналами DDR5.

А ты на фронтенде UI то какой используешь? Или только CLI у тебя прям в терминале, только хардкор?
ЮНИТИ УЛЬТРАХАРДКОР МЫТИЩИ!!!
 
Последнее редактирование:
теперь по поводу "--numa distribute": это работает не для всех моделей.
DeepSeek-R1-UD-Q2_K_XL с "--numa distribute" - 2.1 t/s, без - 1.5 t/s, зато DeepSeek-R1-Q4_K_M с - 0.7 t/s, а без - 1.5 t/s
 
Возиться ollama нет никакого смысла. Разве что хочешь посмотреть на белые буковки в терминале. Более того, тот формат который ollama использует для загрузки и хранения моделей тупо ограничивает при их использовании, Не давая никаких преимуществ.
LmStudio намного удобней как в настройке, так и использовании, не имеет ограничений при выборе модели.
Msty, Для начинающих и не только. Установил, загрузил модель/подключил API, работай.
 
насколько я понял, это работает так: китайцы покупают бэушную 4090, выпаивают из неё графический чип и сажают его на плату от 3090. размер и распиновка у чипов 3090 и 4090 идентична... в результате из 3090+24 гигабайт получается 4090+48 гигабайт...

Дааа... пересадка чипа с 4090 на плату от 3090 - классическая китайская легенда. Но GA102 и AD102 - это разные архитектуры, распиновка, питание, логика - вообще несовместимы. Тут даже их шаолини бесполезны, а они сильны в СИ на каком-нибудь Ютубе.

Возможно, ты там видел кастомную 3090 с апгрейдом на 2ГБ чипы, итого 48ГБ. Такое в теории реально, наверное (если такие существуют), но это всё равно остаётся 3090 на старом контроллере, с прежней шиной. Ни о каком превращении в 4090 речи не идёт - всё упрётся в ту же пропускную.

Но! Если ты реально соберешь Это и она задымиться при первой попытке дообучить - обязательно сними лукас пожара и пни в топик. Такие инженерные аномалии нужно обязательно сохранять в архивах для потомков.
 
Дааа... пересадка чипа с 4090 на плату от 3090 - классическая китайская легенда. Но GA102 и AD102 - это разные архитектуры, распиновка, питание, логика - вообще несовместимы. Тут даже их шаолини бесполезны, а они сильны в СИ на каком-нибудь Ютубе.

Возможно, ты там видел кастомную 3090 с апгрейдом на 2ГБ чипы, итого 48ГБ. Такое в теории реально, наверное (если такие существуют), но это всё равно остаётся 3090 на старом контроллере, с прежней шиной. Ни о каком превращении в 4090 речи не идёт - всё упрётся в ту же пропускную.

Но! Если ты реально соберешь Это и она задымиться при первой попытке дообучить - обязательно сними лукас пожара и пни в топик. Такие инженерные аномалии нужно обязательно сохранять в архивах для потомков.
я не знаю точно, как это делается, но вроде бы у 3090 и 4090 распиновка чипа совпадает.
что 4090 с 48 гигабайтами памяти реально существуют - это инфа 100%, посмотри видео в моём посте выше, плюс на реддите несколько топиков с пруфами, и мне самому она скоро приедет если дружественные страны не наеобманут
 
Уже есть какая то анонимная llm с api? желательно с бенчмарками уровня claude 3.7 и chatgpt 4
Хочется vibe coding и без страха пользоваться нейронкой, а это openai и anthropic данные сливают и все твои чаты - твое досье https://xakep.ru/2025/04/11/skorikari-encrypthub/
1744633596708.png
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Уже есть какая то анонимная llm с api? желательно с бенчмарками уровня claude 3.7 и chatgpt 4
Хочется vibe coding и без страха пользоваться нейронкой, а это openai и anthropic данные сливают и все твои чаты - твое досье
Само существование LLM нарушает все правила "конфиденциальности информации" это априори де-факто. ИИ нарушил все правила GDPR. Поэтому когда идет речь о работе с LLM и конфиденциальности это две несовместимые вещи. А вот про анонимность ну такое себе, ну скроешь ты свой хост, ты как человек будешь использовать одни и теже паттерны. Поменяешь хост начнешь опять разговор, по патернам ИИ поймет, что это опять ты! Поэтому LLM и анонимность тоже несовместимая вещь "частично". Будешь у ней числится как APT1338. Которая меняет хосты и палится по одним и тем же паттернам. Чтобы анонимно общатся с LLM нужно менять паттерны каждый раз при новой сессии.

Я ведь не зря в правилах раздела написал
Избегайте разглашения личной информации или любых конфиденциальных данных, связанных с проектами ИИ.
Даже скрин промпт\джайла уже деанон.

Анонимная LLM это only локальная языковая модель. Всё что в сети и обращение по API это всё небезопасно. Я вангую там у ФБР\ЦРУ уже есть LLM'ки которые могут деанонить просто по манере общения .
 
Анонимная LLM это only локальная языковая модель. Всё что в сети и обращение по API это всё небезопасно.
Я бы с радостью, но тратить каждому 5к$ чтобы захостить нормальную большую модель дома - невыгодно, это как стоить завод ради пары единиц товара. А маленькими моделями смысла пользоваться нет, т.к даже топовые claude 3.7 и chatgpt 4 - часто "тупые", а про маленькие free модели на домашнем компухтере вообще молчу
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Я бы с радостью, но тратить каждому 5к$ чтобы захостить нормальную большую модель дома - невыгодно, это как стоить завод ради пары единиц товара. А маленькими моделями смысла пользоваться нет, т.к даже топовые claude 3.7 и chatgpt 4 - часто "тупые", а про маленькие free модели на домашнем компухтере вообще молчу
Тогда только менять хосты и ничего не говорить такого важного LLM а еще лучше не говорить какой она проект делает. И делать проект желательно не за одну сессию, а частями и с разной постановкой задачи, чтобы было не понятно что этот один и тот же человек задает вопросы. Для тех кто в танке можно за одну сессию делать "проект" не меняя патттерны общения с нейронкой. Ну ты и так всё прекрасно понимаешь.
 
openai и anthropic данные сливают и все твои чаты - твое досье https://xakep.ru/2025/04/11/skorikari-encrypthub/

Этот случай вовсе не подтверждает, что AI-вендор слил переписку с ботом, скорее наоборот - он прямо указывает на то, кто реально «сливает».

«Исследователи» из Outpost24 и других компаний получили эту информацию из-за того, что EncryptHub конкретно так профукал свою машину. Я думаю, и ломали его сильно - не сказать, что он просто по глупости или случайно намотался на целый букет, что улетели аж все доки, логи и пароли. Вот таким образом они прочитали сохранённые разговоры с ChatGPT. Да они, походу, вообще с попкорном сидели и в реальном времени за ним наблюдали.

Здравая паранойя на счёт того, что ИИ-корпы могут связать твой профиль, конечно, должна быть, но здесь недокрутка OpSec со стороны хакера. И, кстати, история эта не такая простая, как кажется.
 
Уже есть какая то анонимная llm с api? желательно с бенчмарками уровня claude 3.7 и chatgpt 4
все кто прошёл стадию тестирования за api хотят денег, с платной api она уже не будет анонимной,
сейчас можно юзать Gemini 2.5 Pro, через US vpn
 
считаешь, что этот и МК просто гонят ?

Да не за саму карту такую
За конкретный метод их сборки, изначально описанный ТС: перепайка чипа AD102 на плату 3090.


посмотри видео в моём посте выше

Блин, надо было сразу видео посмотреть
 
За конкретный метод их сборки, изначально описанный ТС: перепайка чипа AD102 на плату 3090.
да, я ошибся с этим методом - карта не от 3090, а используется кастомная PCB, на которую перепаивается чип c оригинальной 4090. возможно китайцы взяли PCB 3090 в качестве образца и на её основе создали свою.
модифицированных 4090 существует как минимум три разновидности, возможно, выпускающиеся разными фабриками.
idle power draw is 40W, and TDP is "only" 300W
у первого поколения были какие-то проблемы с энергопотреблением, моя версия жрёт 20 в простое и nvidia-smi сообщает о 450W (и дофига умная розетка подтверждает), но это не самая последняя версия, есть более новые модификации, в которых, возможно, исправлены другие проблемы - с орущим кулером и с кривыми датчиками температуры (или кривой прошивкой?). возможно, первая проблема происходит из второй.
The fan curve is very aggressive as well. 70c will put them at 100% fan speed, which is probably not necessary.
подтверждаю, кулер начинает орать очень рано, и орёт очень громко. кулер шумит примерно как фен для волос - громкий, но не раздражаюший шум, не сравнить с мерзким визгом 10-20k rpm кулеров в одноюнитовых серверах.
и вторая проблема - непонятные значения в nvidia-smi:
4090_48gb.png

у нормальных видеокарт там указаны значения температур, при которых кулер врубается на 100% и замедляется процессор (GPU), а здесь указан какой-то рандом. датчиков температуры у памяти вообще нет(?).

есть ли смысл брать 4090 вместо 4090D - непонятно 🙄 4090D на 11% медленнее, но на 26% дешевле.
есть ли смысл заказывать из Китая - тоже неизвестно, т.к. эти карты уже есть на Авито. немного дороже, правда :D
с дикпиком чуда не произошло - было один токен в секунду, стало два :( надо четыре таких видюхи, чтобы результат был заметен. возможно, куплю ещё 4090D для тестов.

бенчмарк скорости памяти: https://raw.githubusercontent.com/chsasank/device-benchmarks/refs/heads/main/benchmark.py
size (GB), elapsed_time, bandwidth (GB/s)
12.148001996, 0.026135468482971193, 929.6180785062371


бенчмарк hashcat 3.6.0:
Hashtype: MD4
Speed.Dev.#1.....: 248.6 GH/s (69.05ms)
Hashtype: MD5
Speed.Dev.#1.....: 137.7 GH/s (62.30ms)
Hashtype: Half MD5
Speed.Dev.#1.....: 90331.0 MH/s (95.04ms)
Hashtype: SHA1
Speed.Dev.#1.....: 44626.3 MH/s (96.20ms)
Hashtype: SHA-256
Speed.Dev.#1.....: 19483.5 MH/s (54.85ms)
Hashtype: SHA-384
Speed.Dev.#1.....: 6275.8 MH/s (85.50ms)
Hashtype: SHA-512
Speed.Dev.#1.....: 6636.9 MH/s (80.84ms)
Hashtype: SHA-3 (Keccak)
Speed.Dev.#1.....: 3866.3 MH/s (69.31ms)
Hashtype: SipHash
Speed.Dev.#1.....: 162.1 GH/s (52.95ms)
Hashtype: Skip32 (PT = $salt, key = $pass)
Speed.Dev.#1.....: 41374.1 MH/s (0.76ms)
Hashtype: RIPEMD-160
Speed.Dev.#1.....: 31932.8 MH/s (67.20ms)
Hashtype: Whirlpool
Speed.Dev.#1.....: 2156.4 MH/s (62.21ms)
Hashtype: GOST R 34.11-94
Speed.Dev.#1.....: 2287.9 MH/s (117.17ms)
Hashtype: GOST R 34.11-2012 (Streebog) 256-bit
Speed.Dev.#1.....: 459.2 MH/s (144.38ms)
Hashtype: GOST R 34.11-2012 (Streebog) 512-bit
Speed.Dev.#1.....: 457.3 MH/s (144.98ms)
Hashtype: DES (PT = $salt, key = $pass)
Speed.Dev.#1.....: 129.4 GH/s (66.28ms)
Hashtype: 3DES (PT = $salt, key = $pass)
Speed.Dev.#1.....: 6841.6 MH/s (78.43ms)
Hashtype: phpass, WordPress (MD5), phpBB3 (MD5), Joomla (MD5)
Speed.Dev.#1.....: 44395.9 kH/s (92.18ms)
Hashtype: scrypt
Speed.Dev.#1.....: 2347.2 kH/s (71.47ms)
Hashtype: PBKDF2-HMAC-MD5
clWaitForEvents(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
clFlush(): CL_UNKNOWN_ERROR
Speed.Dev.#1.....: 0 H/s (10.47ms)
Hashtype: PBKDF2-HMAC-SHA1
clCreateContext(): CL_UNKNOWN_ERROR

бенчмарк hashcat 6.2.5:
* Hash-Mode 0 (MD5)
Speed.#1.........: 134.3 GH/s (31.66ms) @ Accel:64 Loops:1024 Thr:512 Vec:1
* Hash-Mode 100 (SHA1)
Speed.#1.........: 43933.5 MH/s (48.57ms) @ Accel:32 Loops:1024 Thr:512 Vec:1
* Hash-Mode 1400 (SHA2-256)
Speed.#1.........: 18908.2 MH/s (56.50ms) @ Accel:8 Loops:1024 Thr:1024 Vec:1
* Hash-Mode 1700 (SHA2-512)
Speed.#1.........: 6341.5 MH/s (84.37ms) @ Accel:8 Loops:1024 Thr:512 Vec:1
* Hash-Mode 22000 (WPA-PBKDF2-PMKID+EAPOL) [Iterations: 4095]
Speed.#1.........: 2205.5 kH/s (58.27ms) @ Accel:8 Loops:1024 Thr:512 Vec:1
* Hash-Mode 1000 (NTLM)
Speed.#1.........: 228.2 GH/s (18.43ms) @ Accel:64 Loops:1024 Thr:512 Vec:1
* Hash-Mode 3000 (LM)
Speed.#1.........: 132.2 GH/s (7.91ms) @ Accel:32 Loops:1024 Thr:256 Vec:1
* Hash-Mode 5500 (NetNTLMv1 / NetNTLMv1+ESS)
Speed.#1.........: 139.5 GH/s (30.39ms) @ Accel:64 Loops:1024 Thr:512 Vec:1
* Hash-Mode 5600 (NetNTLMv2)
Speed.#1.........: 9845.7 MH/s (54.24ms) @ Accel:16 Loops:1024 Thr:256 Vec:1
* Hash-Mode 1500 (descrypt, DES (Unix), Traditional DES)
Speed.#1.........: 5358.0 MH/s (49.81ms) @ Accel:64 Loops:1024 Thr:32 Vec:1
* Hash-Mode 500 (md5crypt, MD5 (Unix), Cisco-IOS $1$ (MD5)) [Iterations: 1000]
Speed.#1.........: 53953.1 kH/s (63.87ms) @ Accel:64 Loops:1000 Thr:512 Vec:1
* Hash-Mode 3200 (bcrypt $2*$, Blowfish (Unix)) [Iterations: 32]
Speed.#1.........: 232.5 kH/s (51.00ms) @ Accel:512 Loops:32 Thr:24 Vec:1
* Hash-Mode 1800 (sha512crypt $6$, SHA512 (Unix)) [Iterations: 5000]
Speed.#1.........: 973.3 kH/s (52.94ms) @ Accel:512 Loops:1024 Thr:512 Vec:1
* Hash-Mode 7500 (Kerberos 5, etype 23, AS-REQ Pre-Auth)
Speed.#1.........: 3231.0 MH/s (82.75ms) @ Accel:512 Loops:128 Thr:32 Vec:1
* Hash-Mode 13100 (Kerberos 5, etype 23, TGS-REP)
Speed.#1.........: 3227.2 MH/s (82.84ms) @ Accel:512 Loops:128 Thr:32 Vec:1
* Hash-Mode 15300 (DPAPI masterkey file v1) [Iterations: 23999]
Speed.#1.........: 390.5 kH/s (55.56ms) @ Accel:8 Loops:1024 Thr:512 Vec:1
* Hash-Mode 15900 (DPAPI masterkey file v2) [Iterations: 12899]
Speed.#1.........: 226.1 kH/s (88.57ms) @ Accel:4 Loops:1024 Thr:512 Vec:1
* Hash-Mode 7100 (macOS v10.8+ (PBKDF2-SHA512)) [Iterations: 1023]
Speed.#1.........: 2674.9 kH/s (85.52ms) @ Accel:256 Loops:127 Thr:64 Vec:1
* Hash-Mode 11600 (7-Zip) [Iterations: 16384]
Speed.#1.........: 2042.4 kH/s (54.70ms) @ Accel:16 Loops:4096 Thr:256 Vec:1
* Hash-Mode 12500 (RAR3-hp) [Iterations: 262144]
Speed.#1.........: 213.5 kH/s (76.24ms) @ Accel:4 Loops:16384 Thr:512 Vec:1
* Hash-Mode 13000 (RAR5) [Iterations: 32799]
Speed.#1.........: 235.4 kH/s (69.25ms) @ Accel:16 Loops:512 Thr:512 Vec:1
* Hash-Mode 6211 (TrueCrypt RIPEMD160 + XTS 512 bit) [Iterations: 1999]
Speed.#1.........: 1642.2 kH/s (72.39ms) @ Accel:16 Loops:256 Thr:512 Vec:1
* Hash-Mode 13400 (KeePass 1 (AES/Twofish) and KeePass 2 (AES)) [Iterations: 24569]
Speed.#1.........: 310.3 kH/s (70.10ms) @ Accel:8 Loops:1024 Thr:512 Vec:1
* Hash-Mode 6800 (LastPass + LastPass sniffed) [Iterations: 499]
Speed.#1.........: 14772.5 kH/s (64.08ms) @ Accel:16 Loops:499 Thr:512 Vec:1
* Hash-Mode 11300 (Bitcoin/Litecoin wallet.dat) [Iterations: 200459]
Speed.#1.........: 29234 H/s (91.42ms) @ Accel:512 Loops:1024 Thr:1024 Vec:1
 
Последнее редактирование:


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх