• XSS.stack #1 – первый литературный журнал от юзеров форума

Как сожрать трафик?

Ar3s

Старожил форума
Легенда
Регистрация
30.12.2004
Сообщения
3 357
Реакции
1 404
На моем сайте резко закончился трафф.
Знаю точно, что не успели бы посетители сожрать 2 гига за два дня. У меня не такая высокая посещаемость.

Подскажите как такое могло произойти (хостер точно не при чем) и каким макаром проще всего сожрать чужой трафик (скажем, если у конкурента ограничения по трафику - сжирать гиг 5-8 чтобы сайт оказывался в дауне).

p.s. Не нашел более подходящего раздела, поэтому пишу сюда.
 
про это я знал. А другие варианты еще есть? Скажем, если рассмотреть картинку из нутряни. т.е. Плясать от сервера. Я так понимаю любой брутер мыл сожрет приличное кол-во трафика за очень малый промежуток времени.
 
Мне кажется что пользователи оставили много аваторов у тебя на сайте тоесть лучше отключить добавку аваторов через сайт лучше включить функцию добавления аваторов через URL. Может у тебя ещё потдерживается функция заливка файло на сайт. Тоесть пользователи могут заливать файлы.

Вот у меня и у моего друга есть сайт. Там 50MB места. Всё оптимально сделано.
Сайт
 
Да... тема действительно не флеймовая...

2 Ar3s - 1 -е смотри логи + статистику посещений, журнал ошибок - делай выводы...

ДЛ в день жрет в 10 раз больше. 2 гига может сожрать гугл. Его бот например, ДЛ каждый день чуть ли не ддосит. Надо грамотно отредактить хтаксцесс.
На счет Гугля... это действительно наществие на многие сайты...
вполне вероятная картина...

Если траф анлим - это небеда, н уа как у тебя -
файл robots.txt - правь - !
запрещай слишком надоедливым Ботам тебя навещать.

Но прежде, все же стоит найти исочник - поэтому смотри логи и статистику
 
LEE_ROY
Вобще ты правильно сказал, если траф не анлимит то спокойно можно сайт отправить в даун через флуд
robots.txt - лучше поссоветуйся с кем то как правильно настроить, а то google часто индексирует не то что нужно и большой напряг для многопосещаемых порталов, но не думаю что это твоя проблема...
Скорее всего банальный флуд, от этого и мог заканчится трафф
 
В файле robots.txt используютя директивы:
User-agent и Disallow
Данные пользовательских агентов можно найти в журналах, например;
"GET /robots.txt HTTP/1.0" "Googlebot/2.1 (+ http://www.googlebot.com/bot.html)"
Если ты хочеш включить эитотго бота (или других), в заперщенный список, запись будет выглядеть так:
User-agent: SurveBot/
Disallow: /cgi-bin/
User-agent: Googlebot/
Disallow: /

===== НО =====
Многие боты попросту игнорируют файл robots.txt
Не зря тебе Winux - писал о файле httpd.config !
Вопрос лиш в том, если у тебя к нему доступ?
Если сервак твой, проблемму нужно решатьименно через этот файл.

Это пример для блокировки доступа, для конкретных ипов и хостов:
Order allow, deny
Allow form all
Deny from 164.123.15.01
# Сволоч бот голимый, заипал досить сайт
Deny from search.Googlebot.com
# Вечный Олень - флудер
126.152.132.12

По крайне мере можеш, попрасить сделать изменеия в этом файле своего хостера

з.ы И еще Раз - просмотр жураналов! Смотри кто, что когда...
Некоторые больные юсеры практикуют закачки всего сайта при аомощи wget и тому подобного...

ух... вродде все :) Удачи..

В силу актуальности темы просьба перенести ее из флейма....
 
Тема раскрыта, целый мануал получился :thumbsup:
Думаю её надо перенести из флейма...
 
Идея, бредовая конечно, но хотклось бы узнать Ваше мнение:

Что если написать скрипт, который бы отправлял ботов разных поисковиков на сайт, получиться что-то вроде ддоса, а поисковиков сейчас много...

как думаете?
 
Ну с одного сайта и даже с 30, толку не будет - разве только траф жрать будет.
+ у мнгих нормально сконфигурирована система от поисковых ботов, потому что ояпть же возращаюсь к теме Гуля - он достал всех кокретно и нагло.
На счет скрипта... хм а как ты боту передаш параметры перенаправления?
 
NoName
ВО-ВО. ОЧень трезвую мысль высказал.
ДДОСИТЬ и не потребуется. Можно просто весь траф сожрать за пару дней и чужими ручонками.

Сайт или разорится или будет довольно продолжительное время в дауне.
 
ДЛ в день жрет в 10 раз больше. 2 гига может сожрать гугл. Его бот например, ДЛ каждый день чуть ли не ддосит. Надо грамотно отредактить хтаксцесс.

И не тока гугл, вебальта тоже любит )
и лучше рубить не через .htaccess, а фаером :blink:
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх