Есть один сайт и нужно сохранить с него много однотипных страниц.
Какие будут советы чтобы не подтянулись администраторы и не спалили процесс?
Собираюсь использовать tor и python.
Конкретные вопросы:
1.Есть какие-то готовые проги, которые просто сохранят страницы с URL по маске через прокси?
2.Как быстро можно слать запросы и как выяснить примерное посещение сайта?
(На все входящего трафика ожидается под 100 гигов если брать чистый текст, полный трафик со всем содержимым под 1ТБ)
3.Как защитить цепочку от меня до сайта чтобы не палилась характерным поведением запросов и постоянной работой ?
("форма трафика" во времени).
4.Сайт работает на php и mysql, самописный, известны таблица базы и пользователь.
Как это можно эксплуатировать чтобы просто скачать базу?
5.Есть ли вообще вариант форсировать события, или сервак пошлет нах с таким числом запросов за короткое время?
Какие будут советы чтобы не подтянулись администраторы и не спалили процесс?
Собираюсь использовать tor и python.
Конкретные вопросы:
1.Есть какие-то готовые проги, которые просто сохранят страницы с URL по маске через прокси?
2.Как быстро можно слать запросы и как выяснить примерное посещение сайта?
(На все входящего трафика ожидается под 100 гигов если брать чистый текст, полный трафик со всем содержимым под 1ТБ)
3.Как защитить цепочку от меня до сайта чтобы не палилась характерным поведением запросов и постоянной работой ?
("форма трафика" во времени).
4.Сайт работает на php и mysql, самописный, известны таблица базы и пользователь.
Как это можно эксплуатировать чтобы просто скачать базу?
5.Есть ли вообще вариант форсировать события, или сервак пошлет нах с таким числом запросов за короткое время?