• XSS.stack #1 – первый литературный журнал от юзеров форума

прочее txt to csv for Acunetix

Simalary

CD-диск
Пользователь
Регистрация
24.12.2021
Сообщения
17
Реакции
2
Гарант сделки
1
Часто вижу что люди до сих пор спрашивают как импоритить много таргетов в акунетикс, максимально простой скрипт на питоне который создаст для вас файл в идеальном для окуня формате
Python:
import csv
from urllib.parse import urlparse

def is_valid_url(url):
    parsed_url = urlparse(url)
    return bool(parsed_url.scheme and parsed_url.netloc)

def process_urls(input_file, output_file, text):
    with open(input_file, 'r') as file:
        urls = file.read().splitlines()

    valid_urls = [url for url in urls if is_valid_url(url)]
   
    data = []
    for url in valid_urls:
        parsed_url = urlparse(url)
        formatted_url = f"{parsed_url.scheme}://{parsed_url.netloc}"
        data.append([formatted_url, f"'{text}'"])

    with open(output_file, 'w', newline='') as file:
        writer = csv.writer(file)
        writer.writerows(data)

# названия файлов
input_file = 'input.txt'
output_file = 'output.csv'
# коментарий
text = 'xss.pro'

process_urls(input_file, output_file, text)

дальше просто грузите по 500 строк в акунетикс и радуетесь большому кол-ву таргетов


берём файл со всеми юрлами и нажимаетм ctrl+h, найти '^([^.]+[^\/]+\/).*$' заменить на '\1'
дальше найти '$' заменить на ','
и последний раз найти '/,' заменить на ',"xss.pro"'
и не забываем прожать чекбокс регуляр. выражения
 
Python:
import csv
from urllib.parse import urlparse
import os

def is_valid_url(url):
    parsed_url = urlparse(url)
    return bool(parsed_url.scheme and parsed_url.netloc)

def process_urls(input_file, output_file, text):
    with open(input_file, 'r') as file:
        urls = file.read().splitlines()

    valid_urls = [url for url in urls if is_valid_url(url)]
    
    data = []

    if not os.path.exists(output_file):
        with open(output_file, 'w', newline='') as file:
            writer = csv.writer(file)

    with open(output_file, 'r') as file:
        reader = csv.reader(file)
        existing_urls = set(row[0] for row in reader)

    for url in valid_urls:
        parsed_url = urlparse(url)
        formatted_url = f"{parsed_url.scheme}://{parsed_url.netloc}"
        if formatted_url not in existing_urls:
            data.append([formatted_url, f"'{text}'"])
            existing_urls.add(formatted_url)

    with open(output_file, 'a', newline='') as file:
        writer = csv.writer(file)
        writer.writerows(data)

input_file = 'input.txt'
output_file = 'output.csv'
text = 'xss.pro'

process_urls(input_file, output_file, text)

небольшое изменение, теперь при записи юрлов в файл он сравнивает их с уже записаными что бы удалить дубликаты
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх