• XSS.stack #1 – первый литературный журнал от юзеров форума

Продление Конкурса статей #3

Статус
Закрыто для дальнейших ответов.

admin

#root
Администратор
Регистрация
12.11.2004
Сообщения
7 147
Решения
1
Реакции
10 006
Уважаемые пользователи!

Безымянный.png


Как я и допускал в первом сообщении, Конкурс статей #3 будет продлен на 1 месяц. Причины: темы были выбраны довольно сложные, участников не так уже и много. Это - не масс-маркет. А некоторые не успели закончить статьи (пару на подходе). Но, подчеркиваю, продление будет ровно одно. И следующая дата окончания - точно окончательная. Участники, написавшие статьи, не переживайте. А не написавшие - поторопитесь.

Прием статей начинается 28.12.2019 и заканчивается 01.03.2020. Подведение итогов и выбор победителя стартует 02.03.2020.

Правки внесены в основные условия.
 
Чет продление не дало ожидамого результат, 5 новых статей и везде сопли как ловили или как не пойматься. Даешь Чистый С++, ДЕльфи, АСМ, инжекты, вм-протекторы, исходники, где то что можно полапать и на чем можно заработать.
 
Чет продление не дало ожидамого результат, 5 новых статей и везде сопли как ловили или как не пойматься. Даешь Чистый С++, ДЕльфи, АСМ, инжекты, вм-протекторы, исходники, где то что можно полапать и на чем можно заработать.
Вангую, что статьи подвезут в последний день.
 
Вангую, что статьи подвезут в последний день.
Сомневаюсь, было бы хорошо. Но пока что только статьи из разряда сейчас я вам покажу "магию": пальчик исчезает
 
Сомневаюсь, было бы хорошо. Но пока что только статьи из разряда сейчас я вам покажу "магию": пальчик исчезает
Если будет время, я напишу про автоматическую чистку исходников для обхода АВ.
 
Если будет время, я напишу про автоматическую чистку исходников для обхода АВ.
Я тоже как то года три назад делал такой проект, надеюсь у тебя в статье не будет только шифрование строк, хотелось бы увидеть большего, новые методы скажем так, разбавление, а тоже делал статью в прошлом году по криптеру, там было все и даже больше, методики обхода, обфускация кода, шифрование строк и изменение переменных, исходники полного проекта криптера, комменты и описания. Короче все по чуть чуть, знаешь какое место в конкурсе занял? - НИКАКОЕ )))
 
Короче все по чуть чуть, знаешь какое место в конкурсе занял? - НИКАКОЕ )))
А можно ссылку на вашу и статью и тот конкурс? Я совсем недавно на этом форуме, хочу ознакомиться. Вдруг полезно будет.
 
А можно ссылку на вашу и статью и тот конкурс? Я совсем недавно на этом форуме, хочу ознакомиться. Вдруг полезно будет.
не на этом форуме, на экспе смотрите там несколько статей, но смысл статей был именно в реализации криптера, а не методиках, и уже наверное что там было реализовано устарело, на с++ проекты были
 
Идеи или что лично мне было бы интересно почитать:
1) ИИ в сфере обфускации. Даже идею дам.
Все мы знаем, что ии хорошо ищет паттерны, даже там, где человеку найти их нереально.
Так вот интересует тема неявного вычисления. Что я имею ввиду, в простейшем виде. Мы подаем нейронке на вход обучающую базу вида x+y=z. И с помощью обучения с учителем, обучаем вычислять результат из произвольного x+y. Для нейросети, x + y это не более, чем 3 строки с данными. [‘566’, ‘+’, ‘122’](например). Что это за данные - она не знает, она не может осмыслить, что это какой то тип данных и между этими данными происходит операция сложения, по каким то человеческим правилам и в определенной системе счисления. Для неё - это просто поиск паттерна между входом и результатом. То есть обучаем ДУМАТЬ, позволяем ей самой найти паттерн, позволяющий находить на основе входных данных правильный ответ. Что хочется отметить - логика у неё может в корне отличаться от нашей. Если человек привык руководствоваться в этом деле работой с разрядами чисел, то у нейросети может быть совершенно другой принцип, который закладывается в скрытых слоях нейросети, где по каким то признакам, которые нейросеть считает важной, формируется паттерн, дающий результат с определенной точностью. Работы по складыванию трехзначных чисел уже есть, с точностью вычисления 99%(см. репозиторий keras Python), а вот развития этой идеи дальше - нет.
Что я хочу сказать. Так как для нейросети входные данные и результат на этапе обучения это просто последовательность байтов без смысла, но с какой то нелинейной взаимосвязью - то это значит, что мы можем представить входные и выходные данные для этапа обучения и для реальной работы, недетерминированным количеством способов, главное, при генерации данных для обучения, сохранять паттерн сложения, чтобы нейросеть нашла логику и зацепилась за него.
Если вы уловили мысль - то ее можно развить, по идее, до более сложных моделей компутации, например доведения регистров процессора до определенного состояния на каком то этапе, при этом невозможности автоматическими системами ав отследить метаинструкции, которые генерируют инструкции, которые доведут процессор до определенного состояния.

2) Вторая тема, тоже связанная ИИ. Сейчас процитирую Википедию.
Факториза́цией натурального числа называется его разложение в произведение простых множителей. Существование и единственность (с точностью до порядка следования множителей) такого разложения следует из основной теоремы арифметики.

В отличие от задачи распознавания простоты числа, факторизация предположительно является вычислительно сложной задачей. В настоящее время неизвестно, существует ли эффективный не квантовый алгоритм факторизации целых чисел. Однако доказательства того, что не существует решения этой задачи за полиномиальное время, также нет.

Предположение о том, что для больших чисел задача факторизации является вычислительно сложной, лежит в основе широко используемых алгоритмов (например, RSA).

———
Интерес заключается в методологии исследования эффективного алгоритма факторизации с помощью ИИ. Ок. Математического решения этой задачи у нас нет, но мы так же не можем доказать то, что эффективного такого алгоритма в принципе не существует. Почему бы не попытаться найти паттерн, на примере сложения выше, позволяющий приблизится к факторизации или хотя бы доказать что это невозможно?
Я хоть и работал с ИИ, но далеко не эксперт и меня этот вопрос гложет))
Почему бы не сделать в качестве статьи ХОТЯ БЫ обзор, чего достигла наука в этой сфере и рассмотреть такие вот интересные кейсы применения ИИ или хотя бы описать почему этого сделать нельзя? А тем более все это применимо к тематикам статей на этот конкурс
 
Хант я изуч
Идеи или что лично мне было бы интересно почитать:
ИИ в сфере обфускации. Даже идею дам.

Я занимался серьезными проектами на основе ИИ давно правда, скажу так использование ИИ для чего ты хочешь? Для обфускации это не надо, там нужна рандомизация не более, создать кучу вариативности кода настолько насколько это возможно и генерируй рандомно, далее компилируем проверям на статику чтобы старые паттерны случано не попались в базе и далее профит, никакого ИИ не надо.

Я бы лучше почитал тематику ИоТ, боты лоадеры, и другая нечесть с подробными кроссплатформенными исходниками на си, тематику создания спонтанных автономных сетевых сегментов, их объядинение для реализации наложения инранета на интернет и тем самым добиваться автономной анонимности при минимальных затратах в любой точке мира - тор отдыхает.
 
Хант я изуч


Я занимался серьезными проектами на основе ИИ давно правда, скажу так использование ИИ для чего ты хочешь? Для обфускации это не надо, там нужна рандомизация не более, создать кучу вариативности кода настолько насколько это возможно и генерируй рандомно, далее компилируем проверям на статику чтобы старые паттерны случано не попались в базе и далее профит, никакого ИИ не надо.

Я бы лучше почитал тематику ИоТ, боты лоадеры, и другая нечесть с подробными кроссплатформенными исходниками на си, тематику создания спонтанных автономных сетевых сегментов, их объядинение для реализации наложения инранета на интернет и тем самым добиваться автономной анонимности при минимальных затратах в любой точке мира - тор отдыхает.
А что боты? Все уже давно обсосано по 300 раз. А уникальные вещи в паблик все равно не уйдут. Функционал то не меняется по сути, качество реализации только.
А вот способы обфускации. Этого на рынке нет вообще. Loadpe помойка есть у каждого второго. Хз кто за такой крипт платит и зачем. Если по сути он уже давно не спасает. Новичков разве что разводить и показывать красивые картинки со скана статиктайма ? А новаторского и комплексного нет. Я бы очень хотел разобраться в бинарной обфускации готовых ехе, именно не враппером лоадпешным херачить, а морфить существующий код, почитать про различные методологии, но этого нет нигде)
Не считая таких ребят как зомба и инди...и непонятно как применимых на практике его фантазий:)
 
А что боты? Все уже давно обсосано по 300 раз. А уникальные вещи в паблик все равно не уйдут. Функционал то не меняется по сути, качество реализации только.
А вот способы обфускации. Этого на рынке нет вообще. Loadpe помойка есть у каждого второго. Хз кто за такой крипт платит и зачем. Если по сути он уже давно не спасает. Новичков разве что разводить и показывать красивые картинки со скана статиктайма ? А новаторского и комплексного нет. Я бы очень хотел разобраться в бинарной обфускации готовых ехе, именно не враппером лоадпешным херачить, а морфить существующий код, почитать про различные методологии, но этого нет нигде)
Не считая таких ребят как зомба и инди...и непонятно как применимых на практике его фантазий:)
Бинарный обфускаторы умерли, давно - факт. Текущая обфускация только исходников, чтобы паттерны опкодов были приближены к компилятору текущего язык - это даст возможность укрыть оригинальный код. Но мне больше всего нравится использование вм движка. Какие еще варианты? Индти давно не видел, но он бесполезен, как мебель хоть и умный, на асме все хреначит, с толком сложно использовать его магию.
 
Чет продление не дало ожидамого результат, 5 новых статей и везде сопли как ловили или как не пойматься. Даешь Чистый С++, ДЕльфи, АСМ, инжекты, вм-протекторы, исходники, где то что можно полапать и на чем можно заработать.
На гитхабе в поиск вводишь, "инжекты", "вм-протекторы", ну или что тебе там еще надо и находишь сотни готовых проектов, изучаешь как все работает, переписываешь/пишешь свое.
Если будет время, я напишу про автоматическую чистку исходников для обхода АВ.
Прям рабочий прокет? Или опять теория, которая и так очевидна.
Идеи или что лично мне было бы интересно почитать:
1) ИИ в сфере обфускации. Даже идею дам.
Все мы знаем, что ии хорошо ищет паттерны, даже там, где человеку найти их нереально.
Так вот интересует тема неявного вычисления. Что я имею ввиду, в простейшем виде. Мы подаем нейронке на вход обучающую базу вида x+y=z. И с помощью обучения с учителем, обучаем вычислять результат из произвольного x+y. Для нейросети, x + y это не более, чем 3 строки с данными. [‘566’, ‘+’, ‘122’](например). Что это за данные - она не знает, она не может осмыслить, что это какой то тип данных и между этими данными происходит операция сложения, по каким то человеческим правилам и в определенной системе счисления. Для неё - это просто поиск паттерна между входом и результатом. То есть обучаем ДУМАТЬ, позволяем ей самой найти паттерн, позволяющий находить на основе входных данных правильный ответ. Что хочется отметить - логика у неё может в корне отличаться от нашей. Если человек привык руководствоваться в этом деле работой с разрядами чисел, то у нейросети может быть совершенно другой принцип, который закладывается в скрытых слоях нейросети, где по каким то признакам, которые нейросеть считает важной, формируется паттерн, дающий результат с определенной точностью. Работы по складыванию трехзначных чисел уже есть, с точностью вычисления 99%(см. репозиторий keras Python), а вот развития этой идеи дальше - нет.
Что я хочу сказать. Так как для нейросети входные данные и результат на этапе обучения это просто последовательность байтов без смысла, но с какой то нелинейной взаимосвязью - то это значит, что мы можем представить входные и выходные данные для этапа обучения и для реальной работы, недетерминированным количеством способов, главное, при генерации данных для обучения, сохранять паттерн сложения, чтобы нейросеть нашла логику и зацепилась за него.
Если вы уловили мысль - то ее можно развить, по идее, до более сложных моделей компутации, например доведения регистров процессора до определенного состояния на каком то этапе, при этом невозможности автоматическими системами ав отследить метаинструкции, которые генерируют инструкции, которые доведут процессор до определенного состояния.

2) Вторая тема, тоже связанная ИИ. Сейчас процитирую Википедию.
Факториза́цией натурального числа называется его разложение в произведение простых множителей. Существование и единственность (с точностью до порядка следования множителей) такого разложения следует из основной теоремы арифметики.

В отличие от задачи распознавания простоты числа, факторизация предположительно является вычислительно сложной задачей. В настоящее время неизвестно, существует ли эффективный не квантовый алгоритм факторизации целых чисел. Однако доказательства того, что не существует решения этой задачи за полиномиальное время, также нет.

Предположение о том, что для больших чисел задача факторизации является вычислительно сложной, лежит в основе широко используемых алгоритмов (например, RSA).

———
Интерес заключается в методологии исследования эффективного алгоритма факторизации с помощью ИИ. Ок. Математического решения этой задачи у нас нет, но мы так же не можем доказать то, что эффективного такого алгоритма в принципе не существует. Почему бы не попытаться найти паттерн, на примере сложения выше, позволяющий приблизится к факторизации или хотя бы доказать что это невозможно?
Я хоть и работал с ИИ, но далеко не эксперт и меня этот вопрос гложет))
Почему бы не сделать в качестве статьи ХОТЯ БЫ обзор, чего достигла наука в этой сфере и рассмотреть такие вот интересные кейсы применения ИИ или хотя бы описать почему этого сделать нельзя? А тем более все это применимо к тематикам статей на этот конкурс
1. Извини меня пожалуйста, но складывать трехзначные числа, с помощью нейронной сети, хуже бреда не придумать.
Теперь по обфускации, вот тут применить ИИ можно, но стати из этого не получиться, просто потому, что для того чтобы ее понять, а тейм более применить ее на практике, нужно специальное образование. Да и зачем усложнять все на ровном месте, пока работает обычная обфускация - используй ее. А как понадобиться что то серьезнее найми профиссионально дата саентиста. Тут чужые исходники поковырять и сделать что то свое не получиться.
2.
Я хоть и работал с ИИ
Судя по тому, что ты пишешь, ты всего лишь посмотрел пару научпоп роликов. ИИ вообще в этой области не применяют.
Без обид. Но походы ты вообще не понимаешь, что такое ИИ, где его реально применяют, а где нет.
 
1. Извини меня пожалуйста, но складывать трехзначные числа, с помощью нейронной сети, хуже бреда не придумать.
Почему бред? С какой стороны ты видишь тут бред? Дай угадаю. Ты вообще понял к чему я это все писал? Напиши алгоритм, без использования ИИ, для сложения чисел, по факту не используя напрямую АЛУ и не используя операторов сложения, при этом чтобы алгоритм получения результата был максимально непригодным к реверсу +Все это должно быть автоматизированным, для того, чтобы использовать в качестве opaque predicate в обфускаторе. Сможешь - выкладывай сюда, хотя бы концептом, извинюсь. А пока ты никакой альтернативы не предложил касательно этого кейса и попросту ебешь мне мозги своими устойчивыми убеждениями о неприменимости описанного вектора с применением ИИ к этой задаче. С точки зрения концепта для обфускатора - метод справится с решением вышеописанных задач. Усложнение сработает на ура. Собьет с толку анализаторы? Да. Они к этому не готовы. С этой точки зрения бред? имхо нет. А может поискать ответ на вопрос "почему бред" дальше по твоему комменту? Ну окей.
где его реально применяют, а где нет.
посмотрел пару научпоп роликов
Какая мне разница, где его применяли, а где ЕЩЕ нет. Я вижу способ описать и интерпретировать задачу с помощью регрессии. С определением регрессии знаком?
Регрессия — это метод, используемый для моделирования и анализа отношений между переменными(в моем случае между операторами), а также для того, чтобы увидеть, как эти переменные вместе влияют на получение определенного результата.(нахождение паттерна)
Иными словами я представляю операцию сложения интов не пользуясь типами для этого и АЛУ. По сути есть только входные данные и паттерн для поиска результата, зашитый в матрицу весов ИИ. Если развивать тему дальше, то применить эту методику к побитовым операциям, а там и к ВМ на основе ИИ не далеко, где реализация опкодов будет описана этой самой матрицей весов для различных операций.
Регрессия это про ML. Это уже говорит о том, что применение регрессии для этого класса задач - реальность, а не бред, а значит я не ограничен в использовании этих техник для этого класса задач. А значит твои слова о бреде и применении - высер, ограниченный тем самым научпопом, потому шо поциент не видел ничего кроме применений сетей в поиске быдлотреков в шазаме. Ты даже не знаешь какие есть типы задач в машинном обучении, раз посчитал, что я применяю неприменимое. Это как раз характеризует тебя, ибо ты не видишь применений дальше, чем сфотать свое лицо в PRIZM и наложить стиль аля парни зацените, меня Пикассо на цифровом холсте интерпретировал.
А кстати. https://github.com/keras-team/keras/blob/master/examples/addition_rnn.py смотри че есть. Команда кераса реализовала модель rnn для компутации сложения трехзначных чисел, для изучения возможности найти нейронкой сам паттерн данной компутации..но погодите, ведь сам Chook говорит
1. Извини меня пожалуйста, но складывать трехзначные числа, с помощью нейронной сети, хуже бреда не придумать.
А значит все должны заткнуться и нахер пойти, ибо для Chook подобные аппроачи бред. Экспертное мнение, хули.
Зачем ты мне что то пишешь вообще, если не разбираешься в теме. Если тебе делать нехуй, пойди поеби мозги к тем, кто пытается впихнуть малварь в jpg или напиши еще одну статью про стакан. Избавь меня от своих экспертных умозаключений.
 
Идеи или что лично мне было бы интересно почитать:
1) ИИ в сфере обфускации. Даже идею дам.
Все мы знаем, что ии хорошо ищет паттерны, даже там, где человеку найти их нереально.
Так вот интересует тема неявного вычисления. Что я имею ввиду, в простейшем виде. Мы подаем нейронке на вход обучающую базу вида x+y=z. И с помощью обучения с учителем, обучаем вычислять результат из произвольного x+y. Для нейросети, x + y это не более, чем 3 строки с данными. [‘566’, ‘+’, ‘122’](например). Что это за данные - она не знает, она не может осмыслить, что это какой то тип данных и между этими данными происходит операция сложения, по каким то человеческим правилам и в определенной системе счисления. Для неё - это просто поиск паттерна между входом и результатом. То есть обучаем ДУМАТЬ, позволяем ей самой найти паттерн, позволяющий находить на основе входных данных правильный ответ. Что хочется отметить - логика у неё может в корне отличаться от нашей. Если человек привык руководствоваться в этом деле работой с разрядами чисел, то у нейросети может быть совершенно другой принцип, который закладывается в скрытых слоях нейросети, где по каким то признакам, которые нейросеть считает важной, формируется паттерн, дающий результат с определенной точностью. Работы по складыванию трехзначных чисел уже есть, с точностью вычисления 99%(см. репозиторий keras Python), а вот развития этой идеи дальше - нет.
Что я хочу сказать. Так как для нейросети входные данные и результат на этапе обучения это просто последовательность байтов без смысла, но с какой то нелинейной взаимосвязью - то это значит, что мы можем представить входные и выходные данные для этапа обучения и для реальной работы, недетерминированным количеством способов, главное, при генерации данных для обучения, сохранять паттерн сложения, чтобы нейросеть нашла логику и зацепилась за него.
Если вы уловили мысль - то ее можно развить, по идее, до более сложных моделей компутации, например доведения регистров процессора до определенного состояния на каком то этапе, при этом невозможности автоматическими системами ав отследить метаинструкции, которые генерируют инструкции, которые доведут процессор до определенного состояния.

2) Вторая тема, тоже связанная ИИ. Сейчас процитирую Википедию.
Факториза́цией натурального числа называется его разложение в произведение простых множителей. Существование и единственность (с точностью до порядка следования множителей) такого разложения следует из основной теоремы арифметики.

В отличие от задачи распознавания простоты числа, факторизация предположительно является вычислительно сложной задачей. В настоящее время неизвестно, существует ли эффективный не квантовый алгоритм факторизации целых чисел. Однако доказательства того, что не существует решения этой задачи за полиномиальное время, также нет.

Предположение о том, что для больших чисел задача факторизации является вычислительно сложной, лежит в основе широко используемых алгоритмов (например, RSA).

———
Интерес заключается в методологии исследования эффективного алгоритма факторизации с помощью ИИ. Ок. Математического решения этой задачи у нас нет, но мы так же не можем доказать то, что эффективного такого алгоритма в принципе не существует. Почему бы не попытаться найти паттерн, на примере сложения выше, позволяющий приблизится к факторизации или хотя бы доказать что это невозможно?
Я хоть и работал с ИИ, но далеко не эксперт и меня этот вопрос гложет))
Почему бы не сделать в качестве статьи ХОТЯ БЫ обзор, чего достигла наука в этой сфере и рассмотреть такие вот интересные кейсы применения ИИ или хотя бы описать почему этого сделать нельзя? А тем более все это применимо к тематикам статей на этот конкурс
Очень хороший комментарий, постараюсь затронуть тему ИИ в статье.

Прям рабочий проект?
Да, выложу вместе с кодом. Но естественно это не будет серебрянной пулей, потому что код обфускатора сорцов напрямую зависит от ЯП этих сорцов (если мы делаем что-то сложнее шифрования строк). Думаю, что люди с головой на плечах без проблем возьмут мои идеи и допилят для своего проекта.
 
Почему бред? С какой стороны ты видишь тут бред? Дай угадаю. Ты вообще понял к чему я это все писал? Напиши алгоритм, без использования ИИ, для сложения чисел, по факту не используя напрямую АЛУ и не используя операторов сложения, при этом чтобы алгоритм получения результата был максимально непригодным к реверсу +Все это должно быть автоматизированным, для того, чтобы использовать в качестве opaque predicate в обфускаторе. Сможешь - выкладывай сюда, хотя бы концептом, извинюсь. А пока ты никакой альтернативы не предложил касательно этого кейса и попросту ебешь мне мозги своими устойчивыми убеждениями о неприменимости описанного вектора с применением ИИ к этой задаче. С точки зрения концепта для обфускатора - метод справится с решением вышеописанных задач. Усложнение сработает на ура. Собьет с толку анализаторы? Да. Они к этому не готовы. С этой точки зрения бред? имхо нет. А может поискать ответ на вопрос "почему бред" дальше по твоему комменту? Ну окей.


Какая мне разница, где его применяли, а где ЕЩЕ нет. Я вижу способ описать и интерпретировать задачу с помощью регрессии. С определением регрессии знаком?
Регрессия — это метод, используемый для моделирования и анализа отношений между переменными(в моем случае между операторами), а также для того, чтобы увидеть, как эти переменные вместе влияют на получение определенного результата.(нахождение паттерна)
Иными словами я представляю операцию сложения интов не пользуясь типами для этого и АЛУ. По сути есть только входные данные и паттерн для поиска результата, зашитый в матрицу весов ИИ. Если развивать тему дальше, то применить эту методику к побитовым операциям, а там и к ВМ на основе ИИ не далеко, где реализация опкодов будет описана этой самой матрицей весов для различных операций.
Регрессия это про ML. Это уже говорит о том, что применение регрессии для этого класса задач - реальность, а не бред, а значит я не ограничен в использовании этих техник для этого класса задач. А значит твои слова о бреде и применении - высер, ограниченный тем самым научпопом, потому шо поциент не видел ничего кроме применений сетей в поиске быдлотреков в шазаме. Ты даже не знаешь какие есть типы задач в машинном обучении, раз посчитал, что я применяю неприменимое. Это как раз характеризует тебя, ибо ты не видишь применений дальше, чем сфотать свое лицо в PRIZM и наложить стиль аля парни зацените, меня Пикассо на цифровом холсте интерпретировал.
А кстати. https://github.com/keras-team/keras/blob/master/examples/addition_rnn.py смотри че есть. Команда кераса реализовала модель rnn для компутации сложения трехзначных чисел, для изучения возможности найти нейронкой сам паттерн данной компутации..но погодите, ведь сам Chook говорит

А значит все должны заткнуться и нахер пойти, ибо для Chook подобные аппроачи бред. Экспертное мнение, хули.
Зачем ты мне что то пишешь вообще, если не разбираешься в теме. Если тебе делать нехуй, пойди поеби мозги к тем, кто пытается впихнуть малварь в jpg или напиши еще одну статью про стакан. Избавь меня от своих экспертных умозаключений.
Ты вообще серьезно, это все говоришь? Почему ты решил, что я в теме не разбираюсь? Но даже без разговора об ИИ, очевидно, что скрывать сложение от реверсера смысла нет. А от автоматизированной системы, можно спрятаться стандартными методами.
 
Последнее редактирование:
Я занимался серьезными проектами на основе ИИ давно правда, скажу так использование ИИ для чего ты хочешь? Для обфускации это не надо, там нужна рандомизация не более, создать кучу вариативности кода настолько насколько это возможно и генерируй рандомно, далее компилируем проверям на статику чтобы старые паттерны случано не попались в базе и далее профит, никакого ИИ не надо.
К стати, если учесть, что естественные языки и языки програмирования, во многом схожи, то если из проекта легко достать код, то с помощью ИИ, можно понять, что код мусорный и по факту полезной нагрузки не несет. Тогда и придеться уже ИИ использовать
 
Ты даже не знаешь какие есть типы задач в машинном обучении, раз посчитал, что я применяю неприменимое.
Ну так возьми этот готовый модуль, и засунь его в свой проект, посмотрим, на сколько у тебя вес вырастет.
 
Последнее редактирование:
2) Вторая тема, тоже связанная ИИ. Сейчас процитирую Википедию.
Факториза́цией натурального числа называется его разложение в произведение простых множителей. Существование и единственность (с точностью до порядка следования множителей) такого разложения следует из основной теоремы арифметики.

Когда не шаришь в математике и машлерне)
 
Судя по тому, что ты пишешь, ты всего лишь посмотрел пару научпоп роликов. ИИ вообще в этой области не применяют.
Без обид. Но походы ты вообще не понимаешь, что такое ИИ, где его реально применяют, а где нет.

Судя по твоим записям ты вообще не разбираешься в теме ИИ. Я пока не увидел ничего от тебя ни грамма кода или проекта, у меня есть сомнения что ты вообще кодер. ИИ можно применить везде, но в большинстве случаев это не целесообразно.
 
Статус
Закрыто для дальнейших ответов.
Верх