• XSS.stack #1 – первый литературный журнал от юзеров форума

Как там дела у нейронок в реверсе? Ghidra MCP

Kovalyoff

floppy-диск
Пользователь
Регистрация
18.07.2025
Сообщения
1
Реакции
4
Нашел на гитхабе Model Context Protocol для гидры. Который, к тому же, еще и обновляется под новые версии.


Установка очень наглядно показана и описана в самом репозитории. Интереснее функционал. Я использовал Cline + Gemini 2.5 Pro для теста. Написал ПРОСТЕЙШИЙ код.
C:
#include <stdio.h>
#include <string.h>
#include <stdlib.h>


void check_flag(const char *input) {
    char secret_key[25];


    strcpy(secret_key, "xrs^suax");
    strcat(secret_key, "_`lhvd_");

    for (int i = 0; i < strlen(secret_key); i++) {
        secret_key[i] ^= (i % 2);
    }


    if (strcmp(input, secret_key) == 0) {
        printf("КРАСАВА! Флаг верный!\n");
    } else {
        printf("Неа. Мимо.\n");
    }
}

int main(void) {
    char user_input[100];

    printf("Введи флаг: ");

    if (scanf("%99s", user_input) != 1) {
        return 1;
    }

    check_flag(user_input);

    return 0;
}

Результат поражает.
1753810480958.png


1753810522642.png
Таким образом, было сэкономлено целых 5 минут времени!! А еще я попробовал узнать, какие аргументы может принимать ncat. На удивление, ответ верный.
1753811154704.png

Но если говорить серьезно, то в умелых руках инструмент очень полезен и экономит много времени. Главное не выключать свои мозги. Ну и для новичков тоже неплох, можно попросить давать развернутые ответы. Хороший буст к обучению.

Хотелось бы узнать, был ли у кого-то профессиональный опыт работы с иишкой? Пользовался ли кто-то для реального реверса?

Идем сюда:
Создаем много проектов, до лимита. Потом идем в Google AI Studio, во вкладку создания апи ключей:
Генерируем ключи для каждого проекта, записываем куда-нибудь.
Повторяем со вторым, третьим, пятым, десятым аккаунтом. Зависит от того, сколько запросов делаете.
Когда ключ отлетает и апи выдает что-то про израсходованную квоту, просто меняем ключ. Одного хватает надолго, тысяч 100 токенов точно выдает.
 
Ну в принципе рабочая тема, особенно для маленьких программ. Год назад чето пробывал, но тогда проблема llm была в маленьком размере контекста (100-200к токенов) у самых умных моделей (многие трансформеры вообще начинают тупеть после 100к токенов), а отрыжка декомпилятора при реверсе серьезного проприетарного софта может быть гораздо больше (даже с лифтингом миллионы токенов).
Есть глупые слабые модели с long context 1-2млн токенов (типа gemini flash), но в процессе работы они только накапливают галлюцинации и ошибки (чем дальше тем больше, потому что модель начинает свои старые галлюцинации и неверные выводы использовать в дальнейших рассуждениях)
Гугл в начале 2025 анонсировали архитектуру Titan, которая должна быть умной как gpt, но сохранять внимание и нормально работать с контекстом 2млн+ токенов. Но пока не выкладывали ее нигде, возможно когда модель на архитектуре titan релизнут к 2026 она не догонит даже топ 10 трансформеров
 
Последнее редактирование:


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх