• XSS.stack #1 – первый литературный журнал от юзеров форума

В этой теме можно использовать автоматический гарант!

Статус
Закрыто для дальнейших ответов.

Marketing_Addicted

(L3) cache
Пользователь
Регистрация
23.08.2022
Сообщения
283
Реакции
58
Цена
2
Контакты
ЛС
🔥 Всем привет! 🔥

Имеется в продаже актуальный список доменов с установленными веб-шелами. Ассортимент регулярно пополняется свежими доступами.

✅ Шелы проверены, доступ подтверждён
✅ Постоянное обновление базы
✅ Гибкие условия для постоянных покупателей

💬 По всем вопросам и для получения списка — пишите в ЛС.

Только серьёзные покупатели! 🚀
 
АПП
скину небольшой скрипт для поиска доменов из строк ,может кому пригодится )

Python:
# Файлы
file1_path = "line.txt"  # Список URL
file2_path = "domain.txt"  # Список доменов
output_path = "output.txt"  # Найденные совпадения
not_found_path = "netu_domena.txt"  # Домены, которых нет в file1.txt

# Читаем данные
with open(file1_path, "r", encoding="utf-8") as f:
    urls = f.read().splitlines()

with open(file2_path, "r", encoding="utf-8") as f:
    domains = f.read().splitlines()

# Приводим домены к единому формату (без http://, https://)
def clean_domain(url):
    return url.replace("http://", "").replace("https://", "").strip("/")

domains = set(clean_domain(d) for d in domains)

# Проверяем вхождение доменов в URL
found_urls = []
not_found_domains = set(domains)  # Для хранения ненайденных доменов

for url in urls:
    for domain in domains:
        if domain in url:
            found_urls.append(url)
            not_found_domains.discard(domain)  # Если нашли, убираем из списка ненайденных

# Записываем найденные совпадения
with open(output_path, "w", encoding="utf-8") as f:
    f.write("\n".join(found_urls))

# Записываем ненайденные домены
with open(not_found_path, "w", encoding="utf-8") as f:
    f.write("\n".join(not_found_domains))

print(f"Обработано! Найденные URL сохранены в {output_path}, ненайденные домены — в {not_found_path}.")
 
Статус
Закрыто для дальнейших ответов.
Верх