• XSS.stack #1 – первый литературный журнал от юзеров форума

Статья Скрейпинг скрытых сервисов в сети Tor (Через поисковый движок AHMIA)

rand

CooL-Lamer
Эксперт
Регистрация
24.05.2023
Сообщения
581
Реакции
1 152
Депозит
0.07 Ł и др.
Всем привет. Иногда интересно посмотреть что происходит в глубинах сети TOR, в этом нам поможет скрипт ниже. В переменную yourquery вписываете ваш поисковый запрос, обратно получаете все найденные линки.
1719572615250.png

Устанавливаем: pip install requests

scraper.py:

Python:
import requests
import re
import random


def Scraper():
    yourquery = "Credit card" # Сюда вписываем наш поисковый запрос для скрейпинга

    if " " in yourquery:
        yourquery = yourquery.replace(" ", "+")

    url = "https://ahmia.fi/search/?q={}".format(yourquery)
    # print(url)

    # Подделываем юзерагенты
    user_agent_list = [
        "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36 Edge/18.19577"
        , "Mozilla/5.0 (X11) AppleWebKit/62.41 (KHTML, like Gecko) Edge/17.10859 Safari/452.6",
        "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2656.18 Safari/537.36"
        ,
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML like Gecko) Chrome/44.0.2403.155 Safari/537.36",
        "Mozilla/5.0 (Linux; U; en-US) AppleWebKit/525.13 (KHTML, like Gecko) Chrome/0.2.149.27 Safari/525.13",
        "Mozilla/5.0 (Windows; U; Windows NT 6.0; en-US) AppleWebKit/533.20.25 (KHTML, like Gecko) Version/5.0.4 Safari/533.20.27"
        ,
        "Mozilla/5.0 (Macintosh; U; PPC Mac OS X 10_5_8; zh-cn) AppleWebKit/533.20.25 (KHTML, like Gecko) Version/5.0.4 Safari/533.20.27"]
    ua = random.choice(user_agent_list)
    headers = {'User-Agent': ua}

    request = requests.get(url, headers=headers)  # , verify=False)
    content = request.text

    def findlinks(content):
        # Грузим контент в строковом формате и ищем ссылки .onion через регулярку
        regexquery = "\w+\.onion"
        mineddata = re.findall(regexquery, content)

        n = random.randint(1, 9999)

        filename = "sites{}.txt".format(str(n))
        print("Сохраняю файл под именем:", filename)
        mineddata = list(dict.fromkeys(mineddata))

        with open(filename, "w+") as _:
            print("")
        for k in mineddata:
            with open(filename, "a") as newfile:
                k = k + "\n"
                newfile.write(k)
        print("Все адреса сохранены в файл:", filename)

    if request.status_code == 200:
        print("Запрос выполнен успешно. \n")
        # print(content)
        findlinks(content)

Scraper()
[/LIKES]
 
Последнее редактирование:
Вайбкод и не совсем скрейпинг тора, но можно добавить паук с :9050 прокси для кроулинга .онионов и продавать гоям как апи за 5$ месяц
 
Вайбкод и не совсем скрейпинг тора, но можно добавить паук с :9050 прокси для кроулинга .онионов и продавать гоям как апи за 5$ месяц
Спасибо за идею, попробую допилить летом.
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх