• XSS.stack #1 – первый литературный журнал от юзеров форума

Работаем с массовым поиском ваших запросов на гитхабе многопоточным софтом

moloko333

floppy-диск
Пользователь
Регистрация
27.10.2023
Сообщения
3
Реакции
0
Есть софт для поиска информации на гитхабе по любым запросам и выкачивания репозиториев, по заданному формату (.sol, .env) если есть знающие, как можно обработать смарт контракты, кошельки и другую полезную инфу, рассмотрю предложения совместной работы по вашим запросам.
 
Пишешь скрипт из 5 строчек, проходящий по страницам гитхаба, пользуя API гитхаба и клонируешь каждый репо со страницы.
Натравливаешь gitleaks (https://github.com/gitleaks/gitleaks) на склоненый репо, добавив по своей нужде к темплейту gitleaks поиск, например, приватных ключей.

Долгое и довольно бесполезное занятие, имхо.
 
Ну если у вас уважаемый на большее фантазии не хватает то и флуд я думаю излещен, да и само предложение с идеей по софту ваше бестолково
Пишешь скрипт из 5 строчек, проходящий по страницам гитхаба, пользуя API гитхаба и клонируешь каждый репо со страницы.
Натравливаешь gitleaks (https://github.com/gitleaks/gitleaks) на склоненый репо, добавив по своей нужде к темплейту gitleaks поиск, например, приватных ключей.

Долгое и довольно бесполезное занятие, имхо.
 
Ну если у вас уважаемый на большее фантазии не хватает то и флуд я думаю излещен, да и само предложение с идеей по софту ваше бестолково
К сожалению, не понял, что вы хотели сказать.
 
клонируешь каждый репо со страницы

Долгое и довольно бесполезное занятие, имхо.

в таком случае - да. А спарсить нужную инфу на свой диск и пройтись многопоточным парсером уже не так то и долго. Проблема в запросах и мусоре (ручной отсев),...а еще дубли


приватных ключей
не только
 
в таком случае - да. А спарсить нужную инфу на свой диск и пройтись многопоточным парсером уже не так то и долго. Проблема в запросах и мусоре (ручной отсев),...а еще дубли



не только
Повторные запросы можно сильно не рассматривать, даже при учете всего шлака остается нормальное количество хорошей инфы которую можно юзать, вопроси лишь в том, кто этим будет заниматься, с этой целью и создана тема. Все заморочки с фильтрацией и поиском сугубо на мне
 
Повторные запросы можно сильно не рассматривать, даже при учете всего шлака остается нормальное количество хорошей инфы которую можно юзать, вопроси лишь в том, кто этим будет заниматься, с этой целью и создана тема. Все заморочки с фильтрацией и поиском сугубо на мне
хех...ты к пуговице хочешь пришить\найти брюки
тот, кто автоматизирует дальнейший чекинг найденного (и монетизацию) 100проц не нуждается в твоем парсере.
Тк это на порядок сложнее....
Парсеры не стоят ничего. Ну.. справедливости ради - универсальные, как сервис, конечно допиливаются всерьез. Но такие вот, для сэбэ, под узкую задачу...
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх