• XSS.stack #1 – первый литературный журнал от юзеров форума

Статья Google dorks/Дорки, что такое и с чем их едят

Спасибо 🤝
Кстати не только SQLi (которые мы все так любим) но и LFI через такие дорки находятся! ;-) (см. выше пример)
Может быть я упускаю и сходу кроме SQLi и LFI ещё что-то можно найти быстро?

Ещё бы парсеры подробнее разобрать статейку... А также про пост-эксплуатацию: чего внутри искать, как это найденное монетизировать $$$ можно...

Так вообще да, "низко висящие цели фрукты" этим методом находятся на ура, но у дорков есть и недостаток: гугл он же не индексирует "вкусноту внутри" то есть снаружи может и не быть уязвимого ендпоинта, например только после регистрации как юзер открывается доступ (а гугл он не регается же автоматом везде чтобы краулить глубже), соответственно там уже руками надо через Burp сидеть искать глубоко внутри цели. Или есть способы и это поставить на поток? ;-) (на ум приходит только куку задать после авторнизации и запустить свой кастомный краулер уже с этой кукой)
 
Последнее редактирование:
Последнее редактирование:
Отличная статья! Единственное, что добавил бы, это минусовку ненужного. Например, "-site:github.com". Потому как достаточно много обсуждений дорков в последнее время и лезет куча ненужного, типа stackoverflow, github, reddit и т.д. По шопам тоже, крупням кожет лезть. Особ много не заминусовать, но хотя бы гигантов отсеять можно.
 
Отличная статья! Единственное, что добавил бы, это минусовку ненужного. Например, "-site:github.com". Потому как достаточно много обсуждений дорков в последнее время и лезет куча ненужного, типа stackoverflow, github, reddit и т.д. По шопам тоже, крупням кожет лезть. Особ много не заминусовать, но хотя бы гигантов отсеять можно.
Спасибо. 100% согласен, давольно-таки очевидный и не маловажный гугл дорк, а с головы вылетел. Но ко всему этому, такие сайты-гиганты относительно фиксятся в принципе любым "site:" доменом за исключением естественно .com 😁 😁 Ну и в купе простых и гугл дорок- таких прицедедентов не выявлялось). мб по этому и запамятовал))) Но да, обязательно берем на заемтку☝️
 
Код:
def read_file(filename):
    with open(filename, 'r', encoding='utf-8') as file:
        return [line.strip() for line in file]

def generate_dorks(keywords, param1, param2, sites):
    dorks = []
   
    for keyword in keywords:
        # Базовые запросы с intext и allintext
        dorks.append(f'intext:{keyword}')
        dorks.append(f'allintext:{keyword}')
       
        for p1 in param1:
            # Запросы с intext и allintext + inurl:param1
            dorks.append(f'intext:{keyword} inurl:{p1}')
            dorks.append(f'allintext:{keyword} inurl:{p1}')
           
            for p2 in param2:
                # Запросы с intext и allintext + inurl:param1?param2
                dorks.append(f'intext:{keyword} inurl:{p1}?{p2}')
                dorks.append(f'allintext:{keyword} inurl:{p1}?{p2}')
               
                for site in sites:
                    # Запросы с intext и allintext + inurl:param1?param2 + site:site
                    dorks.append(f'intext:{keyword} inurl:{p1}?{p2} site:{site}')
                    dorks.append(f'allintext:{keyword} inurl:{p1}?{p2} site:{site}')
   
    return dorks

def write_to_file(dorks, filename):
    with open(filename, 'w', encoding='utf-8') as file:
        for dork in dorks:
            file.write(dork + '\n')

def main():
    keywords = read_file('keywords.txt')
    param1 = read_file('param1.txt')
    param2 = read_file('param2.txt')
    sites = read_file('site.txt')
   
    dorks = generate_dorks(keywords, param1, param2, sites)
    write_to_file(dorks, 'dorks.txt')

if __name__ == "__main__":
    main()

Для тех кому лень читать код:
keywords.txt - сюда ключевые слова
param1.txt - сюда параметры, например php(хоть один, хоть несколько)
param2.txt - php?item, сюда то что идёт после знака вопроса, тоже может быть как один, так и несколько
site.txt - сюда то что будет писаться после site:

Лучше выучить python за полгода или сколько там время это занимает, чем пользоваться софтом написанным непонятно кем, и непонятно кем он был крякнут и непонятно кто туда ещё непонятно чего напихал. Паранойя! - двигатель прогресса
 
Последнее редактирование:
Лучше выучить python за полгода или сколько там время это занимает, чем пользоваться софтом написанным непонятно кем, и непонятно кем он был крякнут и непонятно кто туда ещё непонятно чего напихал. Паранойя! - двигатель прогресса
Для мелких утилит - золотые слова!
Причём на питоне свет клином не сошёлся, пойдёт любой язык (помню как Perl раньше был в качестве Python сейчас :) ) - тут главное понимать логику и алгоритм чего сделать собираешься (выше вон явно 4 вложенных цикла для генерации всех "комбо" из 4-х источников), зная это - остальное (особенности языка) - нагугливается за 5 минут.

Но вот Burp Suite (да даже mitmproxy консольный его аналог) например - с этим как быть? тоже свой писать? :)
 
Для мелких утилит - золотые слова!
Причём на питоне свет клином не сошёлся, пойдёт любой язык (помню как Perl раньше был в качестве Python сейчас :) ) - тут главное понимать логику и алгоритм чего сделать собираешься (выше вон явно 4 вложенных цикла для генерации всех "комбо" из 4-х источников), зная это - остальное (особенности языка) - нагугливается за 5 минут.

Но вот Burp Suite (да даже mitmproxy консольный его аналог) например - с этим как быть? тоже свой писать? :)
Бурп есть и комьюнити, это раз
Во вторых есть и другие продукты и даже с открытым исходным кодом и бесплатны
В третих, этот прокси тоже займёт не много времени для написания кода, для опыта я бы поковырял(а я и поковырял, когда начинал знакомиться с пайтоном и ещё в самом начале так сказать, когда писал клиент-серверное приложение) в этом направлении :)
 
Прекрасная статья! Очень ждал!

От себя могу добавить, что кроме SQLi там иногда полезно поискать и LFI.

Товарищи, вот сходу находится LFI - зацените ржаку http://www.eana-net.eu/index.php?page=index - оно будет рекурсивно отрабатывать включая index.php 🙃

Думаю все уже догадались что любой сырец PHP там можно получить через PHP фильтры:
http://www.eana-net.eu/index.php?page=PHP://filter/convert.base64-encode/resource=information/../index - вывалит сырец index.php прям в браузер но в base64, декодировать ессно уже дело тривиальное.

SQLi там ну конечно же тоже присутствуют (в апдейте юзера, а зарегаться не проблема), я давно уже там стал "тихим адмиином".

Никогда так быстро ничего не ломал ещё :-D

Просьба: не доламывайте беззащитных европейских астробиологов! глумитесь плиз тихо и незаметно. наука это всё таки "святое", как и медицина.

Добавлю что от такого LFI недалеко аж до RCE через LFI
 
Кто-то может подсказать? Вот беру я такой дорк - intext:Mode site:de inurl:/news.php?include=
в результате получаю сайты типо:

Здесь же нету ?include , почему?
Здесь нету include потому что... потому что он тут нафиг не нужен, ну подумай как разраб куда параметры пойдут такие, newsid - тут скорее SQLi, иногда редко IDes - типа вместо param=value кинуть param[]=value массив для детекта IDes.

"Красные флаги" для include/require (и соответственно потенциального LFI/RFI) тут это:
- явное указание расширения (да, и такое бывает) например /?p=something.php , проверка ржачная бывает типа "index.php?page=index" и наблюдаем как сайт грузится вечно, рекурсивно... :)
- слэш в параметре (тут как правило вообще "стопудово") например /?p=path/file
- ещё варианты народ понакидаете?
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх