• XSS.stack #1 – первый литературный журнал от юзеров форума

веб макаки за что

Можно парсить и без использования явных атрибутов:
//*[starts-with(text(), 'Программирование. Разр')]
//*[contains(text(), 'макаки')]

//*[contains(text(), 'Программирование. Разр')]//following::*[starts-with(text(), 'веб мак')]

в xpath есть regex и даже логика or, and, not, count()
 
Последнее редактирование:
Как бы не запутывали, всегда будет статический контент. Обрати внимание на содержание текстовых нод и на атрибуты элементов (не на css-классы). Плюс можно проверять отображается ли элемент на странице или скрыт.
 
это DOM, генерируемый всякими react.js и прочим шлаком) он и делается специально с такой защитой)
но, в 99% нужно просто больше времени, у них генерация как правило не исльно рандомизированая. все ок) ну и для инпутов есть работа с input[type=text] и по индексу искать, для кнопок/ссылок порой так же приходится
Не совсем так.
Судя по тому что автор описывает, предположу что таргет использует какую-то css-in-js либу.
Разрабы такие либы обычно используют для решения двух ключевых проблем CSS: Глобальный неймспейс и каскадность.
Ну и еще двух хотелок типичного фронтенд-разраба: Больше сахара, больше реюзабельности (читай: меньше писать кода)

Как вы поняли первично для таких либ дать уникальность, а не обеспечить безопасность.
У разрабов и тестировщиков периодически с хэшированных названий тоже горит и поэтому они оставляют какие-либо уникальные элементы чтобы условный селениум зацепился (атрибуты aria-*, составляющие имена из статического значения и хэшированного).

Поэтому важно при изучении такой DOM структуры найти эти закономерности и уникальные элементы которые кочуют из бандла в бандл.
Если этой уникальности нет - строить стратегию на уникальности взаимосвязей селекторов и определять структуру по прямым и косвенным признакам.
 
Последнее редактирование:
думал тут будет пост про вебкамщиц :)
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх