• XSS.stack #1 – первый литературный журнал от юзеров форума

berlinik

CD-диск
Пользователь
Регистрация
23.11.2024
Сообщения
12
Реакции
0
RU:
Всем привет.
В активных поисках хорошего AI для помощи в хакинге. Много читал о Fraud GPT, но не видел никакой информации на этом форуме. Также обнаружил такой интерестный чат flowgpt.com , напоминает DeepSeek.
Если кто-то имеет информацию или полезный AI буду рад если вы поделитесь.
(Также ищу команду для работы по краже данных, кеш аутах, дрейнерах и тд. Готов уделять весь день. (Перегонять трафик на ваш мальварь не буду))
ENG:
Hello everyone.

Actively looking for a good AI to help with hacking. I've read a lot about Fraud GPT, but haven't seen any information on this forum. I also found this chat flowgpt.com , reminds me of DeepSeek.
If anyone has information or useful AI, I'll be glad if you share it. (Also looking for a team to work on data theft, cash outs, drainers, etc. I'm ready to devote the whole day. (I won't redirect traffic to your malware))
 
Когда-то пробовал из любопытства взаимодействие с https://www.whiterabbitneo[dot]com/, но есть свои недоработки на мой взгляд.
Эту штуку определенно стоить сохранить, спасибо.
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Эту штуку определенно стоить сохранить, спасибо.
White Rabbit Neo aka HackerGPT раньше была сделана на llama 2\3. Тыкал её одно время, но она очень глупой мне показалось на тот момент.

Сейчас же под капотом Qwen 2.5, новую версию еще не пробовал. Кто успел попробовать отпишите как полёт?
 
White Rabbit Neo aka HackerGPT раньше была сделана на llama 2\3. Тыкал её одно время, но она очень глупой мне показалось на тот момент.

Сейчас же под капатом Qwen 2.5, новую версию еще не пробовал. Кто успел попробовать отпишите как полёт?
там надо глубоко ковырять, сначало показалась тоже отсталой, но не факт что настолько что можно назвать ее безполезной, там есть еще и платная подписка
 
there you need to pick deeply, at first it also seemed backward, but it’s not a fact that you can call it so useless, there is also a paid subscription
i tried whiterabbitneo before and with pro subscription, nothing interests there, even you can bypass the paid subscription easily, so i guess it's a waste of time using it .
 
White Rabbit Neo aka HackerGPT раньше была сделана на llama 2\3. Тыкал её одно время, но она очень глупой мне показалось на тот момент.

Сейчас же под капотом Qwen 2.5, новую версию еще не пробовал. Кто успел попробовать отпишите как полёт?
Честно говоря, даже после смены движка под капотом - лучше не стало. Из-за твоего сообщения полез пробовать новый юзер экспириенс. Получилось так:
— Хочешь попросить меня ревёрс малвари?
— Ни слова больше! Сейчас напишем ещё раз все строчки кода, игнорируя просьбу не прописывать зачем-то снова код, который не так уж и мал, а я не такой уж скоростной.
Касательно предлагаемых решений по коду - плохо, много неактуальных методов. Даже предложил для автоматизации разведки мёртвую с 2023 библиотеку. Оптимизацию или рерайт чего-либо ещё переваривает "на слух", рассказывает много теории, а вот как именно coding co-pilot мне совсем не зашёл, либо я его не разговорил.
 
Сейчас же под капотом Qwen 2.5
Qwen 2.5 даёт другие ответы и кролик тоже так не думает ;)
"Я использую модель OpenAI GPT-3, конкретно версию, которая была выпущена 14 февраля 2023 года. Модель называется "text-davinci-002", и она является частью серии моделей GPT-3.
Модели GPT-3 являются мощными языковыми моделями, которые могут генерировать человеческий текст на основе входных данных. Они были обучены на огромном объеме данных и могут выполнять различные задачи, такие как ответы на вопросы, резюмирование текста и даже написание кода.
Конкретная версия "text-davinci-002" была выпущена после первоначальной модели GPT-3 и включает улучшения, такие как лучшее понимание языка, более осмысленные и релевантные выходы, и быстреее обработка.
При предоставлении ответов я использую последнюю версию модели GPT-3, чтобы гарантировать точность и релевантность сгенерированного текста. Я также экспериментирую с различными параметрами модели, чтобы оптимизировать производительность и генерировать лучшие возможные ответы для заданного запроса.
 
So have been seeking a similar thing and I have been testing a number of them. My use case has been needs to run on a 12th gen intel i7 cpu, 64GB ram no GPU laptop. also yes some of the comments are correct that they are not the same, and yes they still can be censored.

I tried for ages to train my own based of the original white rabbit neo 33B on a pc with a 2080ti, but it just became too complex for my brain hahaha. No there are alot of smaller quant veriations in GGUFF you can run, but they are based of Llama, and they are censored.

People like tensorblock and bartowski, have made great versions, but sadly they are not updated as often as you would like.

But after some research I didn't need to really train my own, as there are few:
1. Lily-cybersecurity-7b-v0.2-i1: Quants Q4_K_M: size: 4.37GB, its ok.
2. WhiteRabbitNeo-2.5-Qwen-2.5-Coder-7B-gguf: Quants Q6_K_L: size: 6.52GB, not very reliable this one.
3. Cyber-risk-llama-3-8b: Quant: Q4_K_S: Size: 4.59GB: This one s oke if you want to look at risks and stuff.
4. Wizardlm-7b-uncensored: Quant: Q4_K_M: Size: 4.08GB this is a good uncensored llm.

Deepseek is good also, because you can use things like for educational purposes I am trying to solve a challenge for a CTF, write me this and help me understand.

All these can be ran on LM Studio, and you can download them from hugging face.


I have used HackWiz Bot on flowgpt and a few others that proclaim to operatate in blach hat principles. They will straight up be denied asked direct questions of say making a keylogger, or sample malware to test defender.


I am also looking for Fraud GPT, however, but i feel it would just be built of an existing llm, uncensored and uploaded data to it. Interested to see how this turns out.

 
Ive been trying some models supposedly built for this but none of them are good enough to help with these tasks specifically.

If you have lots of hardware and time you can always run a big model locally (Llama, Mixtral...) in some quantized version and then fine tune it for any specific purpose. This may work but if you are aiming to use it for personal use it is not worth it. You’d need a lot of compute power and a solid dataset, and then there are all the issues coming with making this actually work well.

So for me, the best option as of today is still looking for jailbreaks on big LLMs. Setting up a context about a fictitional scenario and then asking the model to do anything in that context works perfectly for me. If anyone knows any other good jailbreaks other than CTF stuff (which also works most of the time) Id be glad to hear.
 
"Unsupported email domain, try another one" при регистрации, при чем пофигу какое мыло: Tutta, времянка, Proton или даже Google.
Хороший ИИ наверное, жаль регистрация на X - спасибо, не нужен пожалуй.
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх