• XSS.stack #1 – первый литературный журнал от юзеров форума

Парсер

pinkdeath

RAID-массив
Пользователь
Регистрация
21.03.2019
Сообщения
55
Реакции
8
Ребят, только начал кодить, по видосам обучения написания парсера все понятно, но они объясняют как спарсить только внешнюю инфу каждого объявления на общей странице.
Собственно вопрос.
Я парсю эту страницу, но если мне требуется спарсить инфу с страницы одного объявления, допустим имя или рейтинг продавца, то как это сделать ?
 
xPath или XSS селекторы - выделят что угодно
ты б лучше пример привел что не получается, по парсерам разжевано + на русском книги есть
ищи: Скрапинг веб-сайтов с помощью Python. Сбор данных из современного интернета
 
xPath или XSS селекторы - выделят что угодно
ты б лучше пример привел что не получается, по парсерам разжевано + на русском книги есть
ищи: Скрапинг веб-сайтов с помощью Python. Сбор данных из современного интернета
Дополнительно вы можете использовать BeautifulSoup с requests
 
Коллеги, цель парсинга для открытия доп.данных требует авторизации через логин/пароль без капчи. Смотрел post requests через zap, сохранял и загружал куки при помощи curl, но ничего не получилось. Начинаю присматриваться к requests. Может кто подкинет хорошие примеры с авторизацией для curl и requests.
 
загружал куки
Начинаю присматриваться к requests. Может кто подкинет хорошие примеры с авторизацией для requests.
Самый простой post запрос выглядет примерно так
Python:
import requests

cookies = {
    'PHPSESSID': '123',
    '__cfduid': '321'
}

data = {
    'key1': 'value1',
    'key2': 'value2'
}

session = requests.session() #создаем сессию
response = session.post('https://example.com/login.php', data, cookies=cookies) #делаем пост запрос, подключаем куки
print(response.text) # вывод содержимого в консоль
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх