• XSS.stack #1 – первый литературный журнал от юзеров форума

парсер sqlpars - автоматически собираем сайты с sql уязвимостями.

acc2ss

(L3) cache
Пользователь
Регистрация
26.08.2023
Сообщения
161
Реакции
222
Гарант сделки
2
Депозит
0.00
Скажу прямо - на данный момент скрипт сыроват, и будет дорабатываться.
Что делает скрипт? Полностью автоматически собирает сайты с xss и sql уязвимостями.
Как это работает? Через гугл дорки. Вы вводите запрос, количество проверяемых сайтов, опцию проверки, потоки, и скрипт проходится по сайтам.

Функционал:
1. Работа через прокси
2. Выбор кол-ва потоков
3. Выбор проверки: xss, sql, xss&sql
4. Возможность добавления сайтов в исключение
5. Проверка прокси перед запуском проверки

Известные мне недочеты:
1. Плохая проверка xss(фактически нерабочая)
2. Достаточно долгая проверка(хотелось бы быстрее)
3. Неудобное добавление прокси.

Что будет добавлено в новой версии:
1. Фикс всех недочетов
2. Будут добавлены новые источники
3. Более удобный и красивый вывод сайтов с уязвимостями
4. Фикс мелких ошибок

Зачем я выкладываю сырой скрипт?
Что бы получить фидбек, а нужно ли это вообще. Ну и конечно же что бы получить предложения по улучшению.

Работа скрипта
Вывод в cmd:

1707214908056.png
Как вы можете увидеть, проверка происходит через подстановку в ссылку пэйлоада, а уязвимость ищется по ошибкам. Так же в скрипте установлен таймаут, если от сайта нет ответа в течение определенного времени, то он пропускается.
В самом начале происходит проверка работоспособности прокси для каждого файла где они используются.
Вывод в файл:

1707215198043.png
Знаю, всего много и всё непонятно. Не могу придумать красивый вывод.

Правильность проверки:
Из 20 сайтов помеченных как уязвимые, 4 были без уязвимости. Я считаю что результат довольно приемлемый.

Что и куда добавлять:
файлы dorks и proxies можно не трогать, они нужны на следующее обновление.
Что бы добавить сайты в исключения, нужно добавить домены построчно в файл exclude_domains
так же вы можете добавить свои пэйлоады и ошибки в файлы sql_errors и sql_payloads соответственно.
В файлах checks.py и search.py вставляются прокси(без них работать не будет)

194.67.219.6:9126 log:pass tYEHNF:4qL46y
Используйте только для тестов!

Сам скрипт на данном этапе я не считаю конкурсным, но по мере обновления думаю что дотянет :) Ожидаю фитбеков!
 

Вложения

  • parssql.zip
    4.9 КБ · Просмотры: 176
Последнее редактирование:
Ну вот, что я вижу. Первым делом, зачем ты используешь ту же сессию и прокси для каждого запроса? Это избыточно и неэффективно. Лучше создать одну сессию и использовать ее повторно для всех запросов.

почему бы тебе не использовать asyncio? Это было бы более эффективно и масштабируемо.

А зачем ты отключаешь предупреждения об небезопасных запросах в urllib3? Лучше было бы обрабатывать эти предупреждения соответствующим образом, а не просто их отключать.

Ага, конкурентные футуры, куча блоков try-except, как будто ты пытаешься спасти Титаник после столкновения с айсбергом( Лучше создать один общий блок для обработки исключений и различать типы ошибок внутри него.

И что это за магические числа? Зачем ты жестко кодируешь значения timeout в нескольких местах? Лучше было бы определить их в константах в начале программы.


Добавь в проект что нибудь необычное, чего его может выделять из массы. К примеру, не все SQL-инъекции вызывают ошибки на страницах, как в этом случае тебе быть? Поиск уязвимостей на сайтах с помощью дорок не принесет так много плодов, ведь большинство из них старые(. Думаю ты исправишься, ждем хорошего обновления
 
Ну еще я заметил, что есть избыточные зависимости в модулях поиска и проверок от библиотеки requests. Лучше вынести работу с сессиями и прокси в отдельный модуль и импортировать его.

много дублирования проверок уязвимостей в цикле. Можно вынести это в отдельную функцию.

есть неиспользуемые импорты (logging, unquote). Лучше убрать для чистоты кода.
 
Ну вот, что я вижу. Первым делом, зачем ты используешь ту же сессию и прокси для каждого запроса? Это избыточно и неэффективно. Лучше создать одну сессию и использовать ее повторно для всех запросов.

почему бы тебе не использовать asyncio? Это было бы более эффективно и масштабируемо.

А зачем ты отключаешь предупреждения об небезопасных запросах в urllib3? Лучше было бы обрабатывать эти предупреждения соответствующим образом, а не просто их отключать.

Ага, конкурентные футуры, куча блоков try-except, как будто ты пытаешься спасти Титаник после столкновения с айсбергом( Лучше создать один общий блок для обработки исключений и различать типы ошибок внутри него.

И что это за магические числа? Зачем ты жестко кодируешь значения timeout в нескольких местах? Лучше было бы определить их в константах в начале программы.


Добавь в проект что нибудь необычное, чего его может выделять из массы. К примеру, не все SQL-инъекции вызывают ошибки на страницах, как в этом случае тебе быть? Поиск уязвимостей на сайтах с помощью дорок не принесет так много плодов, ведь большинство из них старые(. Думаю ты исправишься, ждем хорошего обновления
Благодарю за фидбек! Все учту
 
Я не тестил ещё твой скрипт, но в чём отличие от sqli dumper? Тоже автоматизирован, поиск по гугл доркам sql и хсс. Хоть и староват но всё ещё работает.
Добавь в проект что нибудь необычное, чего его может выделять из массы. К примеру, не все SQL-инъекции вызывают ошибки на страницах, как в этом случае тебе быть? Поиск уязвимостей на сайтах с помощью дорок не принесет так много плодов, ведь большинство из них старые(.
А здесь человек полностью прав, хотелось бы чего-то нового.
Чисто как разработка для собственного опыта пойдёт, но если для общества или продаж в будущем пока ничего уникального я не увидел, ибо есть много чего подобного. Если сможешь добавить больше функций уязвимостей и эксплуатацию, и постоянные апдейты может быть с этого что-то и получится.
 
Пожалуйста, обратите внимание, что пользователь заблокирован
1707239720140.png
Бро не в обиду, но проект как ты говоришь сырой, дак еще на гите лежат подобные парсеры sqli. Ты бы сделал что-то новое. Раз не знаешь что изучи "routed sqli injection" и сделай автоматизацию, вот тогда норм можно и залиться на конкурс.
 
Во первых не люблю я вот эти скрипты запускать и смотреть бегущие строки, да проще сделать я понимаю но для меня лично надо нормальная прога с кнопками и красивым интерфейсом. Ну каждому своё как говорится.
Как вариант который я могу предложить по крайней мере я лично такого не видел да и в sqli dumper такого тоже с функционала это
-Сделать встроенный граббер прокси который при запуске скрипта собирает где только можно проверяет их и отсеивает невалид, и в режиме работы пополняется тем самым обеспечивает бесперебойную работу если прокси все сдохнут.
-Я не знаю лично возможно ли это но сделать поиск сайтов не чисто по доркам(потому что за частую находит старое дерьмо которое уже все сотни раз перечекали), а и по тематике либо ключевым словам с возможность автоматически выбора и генерации новых связок самой программы для нового поиска, если это сделать софт будет работать беспрерывно как вирус будет генерировать новые ключевые запросы в разных тематиках и искать сайты по всем странам мира либо же по конкретно выбранным.
Крч сделать так чтобы эта херня работала вечно без остановки и искала всё что только можно😱 а ещё без дублей)
Чтобы на сервак поставил и только каждый день заходишь и смотришь список сайтов с уязвимостями, а к этой теме ещё одну прогу сделать которая будет эксплуатировать sql всеми возможными способами автоматически и сразу же дампить всё и сохранять в отдельную папку.
Да я знаю что надо ручками sql ковырять и т.д но если таргет простой то сэкономит кучу времени, а те что прогой не эксплуатируются уже можно будет отдельно ручками ковырять)
 
Последнее редактирование:
Достаточно много предложений - значит кого то это интересует. Я рад :) Постараюсь всё учесть, всем спасибо
Из того что 100% будет в след обновлении:
1. Граббер прокси - очень полезная вещь, что то я сам про это забыл.
2. Новые источники сайтов.
3. Все что я писал в теме.

-Я не знаю лично возможно ли это но сделать поиск сайтов не чисто по доркам(потому что за частую находит старое дерьмо которое уже все сотни раз перечекали), а и по тематике либо ключевым словам с возможность автоматически выбора и генерации новых связок самой программы для нового поиска, если это сделать софт будет работать беспрерывно как вирус будет генерировать новые ключевые запросы в разных тематиках и искать сайты по всем странам мира либо же по конкретно выбранным.
Достаточно интересно, поразмышляю на эту тему.
 
Пожалуйста, обратите внимание, что пользователь заблокирован
It’s better to dig into the wayback machine/api somehow, scan the URL, analyze vulnerabilities and get better results.

IMHO: implementation

Digging into Google with the same dorks leads to completely garbage results.
 
К сожалению до окончания конкурса не успел сделать обновление(на то были причины). Проект развивать буду. Думаю +- через неделю будет вторая версия.
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Привет по файлу в котором уже список url есть будет работать ?
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх