<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[GigaChat 3 Pro: автоматизация Node.js проектов через API]]></title><description><![CDATA[<p dir="auto"><img src="/assets/uploads/files/f5/f9/19/1774251305541-generated_1774251293727.webp" alt="Обложка: GigaChat 3 Pro для автоматизации корпоративных TypeScript-проектов на Node.js: гайд по API-интеграции 2026" class=" img-fluid img-markdown" /></p>
<p dir="auto">Фронтенд-разработчики постоянно ловят себя на мысли: «Опять вручную пишу однотипный код». Бэкенд-ребята то же самое испытывают. GigaChat 3 Pro как раз решает эту боль - встраиваешь в Node.js приложение, и модель начинает генерировать код, обрабатывать данные, писать тесты. Без лишних телодвижений, без чужих платформ, всё внутри твоего стека.</p>
<p dir="auto">В статье разберём, как поднять интеграцию за пару часов, какие API-методы использовать, и почему это куда проще, чем казалось изначально. Нет никакого магического кода - просто практические примеры, которые сразу работают.</p>
<h2>Почему GigaChat 3 Pro, а не другие решения</h2>
<p dir="auto">Задолбался смотреть на то, как разработчики мучаются с английскими моделями, когда им нужно обработать русский текст, написать комментарии на русском или понять документацию на родном языке. <strong>GigaChat 3 Pro нативно обучен на русском</strong> - это не костыль, не костыль с OpenAI API, а реальная поддержка языка с нуля архитектуры. Для корпоративных проектов это ценно: коммуникация с клиентом, документация, логи - всё остаётся на русском и обрабатывается адекватно.</p>
<p dir="auto">Модель встроена в экосистему Сбера, поэтому она заточена под реальные бизнес-задачи российского рынка. Финтех, логистика, аналитика - всё это GigaChat уже “видел” и “понимает”. Контекст в 128 тысяч токенов означает, что ты можешь загрузить целый отчёт, договор или исходный код модуля и попросить анализ без потери смысла.</p>
<ul>
<li><strong>Прямая интеграция</strong>: не нужна промежуточная платформа, работаешь напрямую с API Сбера</li>
<li><strong>Русский язык</strong>: полноценная поддержка, а не костыль с переводом</li>
<li><strong>Большой контекст</strong>: 128К токенов - загружай документы целиком</li>
<li><strong>Функции в диалоге</strong>: встроенная поддержка tool calling для автоматизации</li>
<li><strong>Интерпретатор кода</strong>: модель может запустить Python прямо в диалоге и вернуть результат</li>
</ul>
<h2>Подготовка: авторизация и первый запрос</h2>
<p dir="auto">Не буду врать - с авторизацией в GigaChat API есть нюансы, но они решаются за 15 минут. Первый шаг: создаёшь проект на портале разработчиков Сбера, принимаешь соглашение, получаешь credentials (ключ авторизации). Это не магия, это стандартная процедура для B2B-интеграций.</p>
<p dir="auto">Дальше - устанавливаешь SDK GigaChat для Node.js. Библиотека есть на npm, документация на русском, примеры рабочие. Одна боль - нужно установить корневой сертификат НУЦ Минцифры, но это делается командой в консоли и не занимает времени. После этого запросы идут без SSL-ошибок, как и ожидается.</p>
<pre><code class="language-typescript">const { GigaChat } = require('@sber/gigachat');

const gigachat = new GigaChat({
  credentials: 'ваш_ключ_авторизации',
  scope: 'GIGACHAT_API_B2B', // для юрлиц и ИП
});

const response = await gigachat.chat({
  messages: [
    {
      role: 'user',
      content: 'Напиши функцию для проверки email',
    },
  ],
});

console.log(response.choices.message.content);
</code></pre>
<p dir="auto">Вот и всё - модель вернёт готовый code snippet, который можно скопировать в проект. Контекст по умолчанию переходит на версию для физических лиц, но если ты работаешь от компании, явно указываешь <code>scope: 'GIGACHAT_API_CORP'</code> или <code>'GIGACHAT_API_B2B'</code> в зависимости от того, постоплата или предоплата.</p>
<ul>
<li><strong>Шаг 1</strong>: Регистрация на <a href="http://developers.sber.ru" target="_blank" rel="noopener noreferrer">developers.sber.ru</a> и создание проекта</li>
<li><strong>Шаг 2</strong>: Установка сертификата НУЦ Минцифры (одна команда)</li>
<li><strong>Шаг 3</strong>: <code>npm install @sber/gigachat</code> и импорт в код</li>
<li><strong>Шаг 4</strong>: Инициализация с credentials и правильным scope</li>
<li><strong>Шаг 5</strong>: Первый запрос к API - модель готова работать</li>
</ul>
<h2>Использование Function Calling для автоматизации</h2>
<p dir="auto">Одна из самых полезных фич - это <strong>tool calling</strong>, то есть возможность передать модели описание функций и попросить её вызвать нужную в нужный момент. Представь: пользователь просит “Покажи мне остаток на счёте”, а GigaChat автоматически выбирает функцию <code>getBalance()</code>, передаёт в неё нужные параметры, и ты просто возвращаешь результат обратно в диалог.</p>
<p dir="auto">Sber тонко подошли к архитектуре tool calling - она совместима с OpenAI формата, так что если ты уже работал с функциями у них, переход на GigaChat будет безболезненным. Важный момент: в последних версиях библиотеки поддержка automatic function calling стала стабильной, поэтому модель может сама решить, когда вызвать функцию, без дополнительного кода с твоей стороны.</p>
<pre><code class="language-typescript">const tools = [
  {
    type: 'function',
    function: {
      name: 'getBalance',
      description: 'Получить текущий баланс счёта',
      parameters: {
        type: 'object',
        properties: {
          accountId: {
            type: 'string',
            description: 'ID счёта',
          },
        },
        required: ['accountId'],
      },
    },
  },
];

const response = await gigachat.chat({
  messages: [
    {
      role: 'user',
      content: 'Какой баланс на счёте ACC123?',
    },
  ],
  tools: tools,
});

// Если модель выбрала функцию, в response будет информация о вызове
if (response.choices.message.tool_calls) {
  const toolCall = response.choices.message.tool_calls;
  const functionName = toolCall.function.name;
  const args = JSON.parse(toolCall.function.arguments);

  let result;
  if (functionName === 'getBalance') {
    result = await getBalance(args.accountId);
  }

  // Отправляем результат обратно в диалог
  const followUp = await gigachat.chat({
    messages: [
      ...response.messages,
      {
        role: 'assistant',
        content: response.choices.message.content,
        tool_calls: response.choices.message.tool_calls,
      },
      {
        role: 'user',
        content: result,
      },
    ],
    tools: tools,
  });

  console.log(followUp.choices.message.content);
}
</code></pre>
<p dir="auto">Этот паттерн мощный для корпоративных приложений: чат-ботов, поисковых систем по документам, автоматизации рутины в CRM. Модель понимает контекст, выбирает нужную функцию, ты вызываешь твой код, результат идёт обратно в диалог - всё в цикле. Без единого <code>if-else</code> на фронтенде.</p>
<ul>
<li><strong>Описание функций</strong>: передаёшь в tools массив описаний функций в формате OpenAI</li>
<li><strong>Автоматический выбор</strong>: модель сама решит, какую функцию вызвать и когда</li>
<li><strong>Параметры</strong>: аргументы приходят в JSON, распарсить и использовать</li>
<li><strong>Цикл диалога</strong>: результат функции отправляешь обратно, модель дальше работает с этими данными</li>
<li><strong>Обработка ошибок</strong>: если функция упала, об этом говоришь модели, и она попробует другой подход</li>
</ul>
<h2>Обработка файлов и интерпретатор кода</h2>
<p dir="auto">Вот это действительно крутая фича в GigaChat 3 Pro - встроенный интерпретатор Python. Задолбался писать парсеры для обработки Excel-отчётов? Загружаешь файл в диалог, просишь модель “Распарси этот CSV и выведи сводку по продажам”, а она <strong>сразу запускает Python-код</strong> и возвращает тебе готовый результат с таблицей или графиком.</p>
<p dir="auto">Для Node.js-проекта это означает следующее: ты можешь создать endpoint, который принимает файл, отправляет его в GigaChat с запросом на анализ, и модель обработает данные без дополнительных библиотек на твоей стороне. Например, нужно обработать 50 мегабайт логов - загрузил файл, попросил найти ошибки, модель выполнила аналитику в своём окружении, вернула результат. Не нужно парсить всё вручную в твоём коде.</p>
<p dir="auto">Важный момент: интерпретатор работает для Python, поэтому если ты пишешь сложный расчёт или обработку данных, это нужно делать на Python-коде, который модель сгенерирует и выполнит. Результат вернётся в текстовом виде или как данные JSON.</p>
<pre><code class="language-typescript">// Пример: загрузить CSV-отчёт и получить анализ
const fs = require('fs');
const path = require('path');

const fileBuffer = fs.readFileSync(path.join(__dirname, 'sales.csv'));

const response = await gigachat.chat({
  messages: [
    {
      role: 'user',
      content: 'Загрузи этот CSV и дай мне сводку: среднее значение продаж по месяцам, топ-3 продукта',
      file: {
        filename: 'sales.csv',
        content: fileBuffer.toString('base64'),
        mimeType: 'text/csv',
      },
    },
  ],
});

console.log(response.choices.message.content);
// Модель вернёт текст с анализом, а может быть и JSON с структурированными данными
</code></pre>
<p dir="auto">Для корпоративных приложений это экономит неделю разработки. Вместо того чтобы писать парсер, валидацию, обработку ошибок - отправляешь файл в модель, получаешь результат, передаёшь пользователю. Модель поддерживает основные форматы: CSV, JSON, Excel, текстовые файлы, даже изображения для анализа.</p>
<ul>
<li><strong>Загрузка файлов</strong>: attach к сообщению в формате base64 или буфера</li>
<li><strong>Анализ CSV/Excel</strong>: модель парсит таблицы и выполняет аналитику</li>
<li><strong>Интерпретатор кода</strong>: Python-код выполняется на стороне GigaChat, результат возвращается</li>
<li><strong>Изображения</strong>: можно загрузить скрин или фото и попросить описать содержимое</li>
<li><strong>Результаты</strong>: получаешь текст, JSON или другой формат в зависимости от запроса</li>
</ul>
<h2>API-тарифы и оптимизация затрат</h2>
<p dir="auto">Практический момент: сколько это всё стоит? Недавно Сбер пересмотрел тарифы в сторону удешевления - цены упали в 3 раза для некоторых операций. Это важно, потому что если ты запускаешь автоматизацию в корпоративном приложении, которое ловит тысячи запросов в день, то стоимость на токен критична.</p>
<p dir="auto">Для B2B-клиентов (юрлиц и ИП) есть две схемы: постоплата (GIGACHAT_API_CORP) и предоплата (GIGACHAT_API_B2B). Постоплата удобнее - платишь за то, что использовал, без привязки к лимитам. Предоплата дешевле, если ты уверен в объёмах. Физические лица могут использовать API для некоммерческих проектов - ограничение по токенам, но зато бесплатно.</p>
<p dir="auto">Оптимизация затрат: используй более лёгкие модели для простых задач (GigaChat 2 Lite вместо Pro), кэшируй результаты, отправляй батчи запросов вместо одиночных вызовов, следи за размером контекста (128К токенов звучит много, но быстро израсходуется на больших документах).</p>
<table class="table table-bordered table-striped">
<thead>
<tr>
<th>Модель</th>
<th>Контекст (K токенов)</th>
<th>Генерация изображений</th>
<th>Анализ картинок</th>
<th>Для каких задач</th>
</tr>
</thead>
<tbody>
<tr>
<td>GigaChat 2 Lite</td>
<td>128</td>
<td>Нет</td>
<td>Нет</td>
<td>Простой чат, поиск информации</td>
</tr>
<tr>
<td>GigaChat 2 Pro</td>
<td>128</td>
<td>Да</td>
<td>Да</td>
<td>Среднесложные задачи, работа с картинками</td>
</tr>
<tr>
<td>GigaChat 2 Max</td>
<td>128</td>
<td>Да</td>
<td>Да</td>
<td>Сложный анализ, обработка больших документов</td>
</tr>
<tr>
<td>GigaChat 3 Pro Preview</td>
<td>128</td>
<td>Да</td>
<td>Да</td>
<td>Новая архитектура, лучше код и логика</td>
</tr>
</tbody>
</table>
<p dir="auto">Практический совет: если ты строишь внутреннюю систему для компании, начни с Lite - потом увидишь, какой процент запросов требует Pro, и оптимизируешь дальше. Много токенов расходуется впустую, потому что разработчики отправляют в контекст лишние данные.</p>
<ul>
<li><strong>Постоплата удобнее</strong>: используешь сколько нужно, платишь в конце месяца</li>
<li><strong>Предоплата дешевле</strong>: если объём предсказуем</li>
<li><strong>Для физлиц</strong>: некоммерческие проекты бесплатны</li>
<li><strong>Следи за контекстом</strong>: 128К токенов быстро расходуются</li>
<li><strong>Батчи вместо single calls</strong>: экономит на overhead-затратах</li>
</ul>
<h2>Интеграция с GigaChain и экосистема</h2>
<p dir="auto">Есть интересный уровень абстракции, который называется <strong>GigaChain</strong> - это фреймворк для создания цепочек из LLM-операций. Если ты работаешь на Python, это мощный инструмент: определяешь цепь (retrieval, processing, generation), запускаешь - и всё жужжит само. Для Node.js-разработчиков это менее актуально, но знать стоит, потому что ты можешь вызвать Python-сервис через API, который собран на GigaChain.</p>
<p dir="auto">Добавь к этому <strong>GigaServe</strong> - Python-библиотеку для деплоя цепочек как REST API. Сценарий: написал на Python обработку документов через GigaChain, обёрнул в REST API через GigaServe, вызываешь из Node.js как обычный endpoint. Разделение ответственности: Node.js ловит запросы, орхестрирует, GigaChat обрабатывает сложную логику.</p>
<p dir="auto">Developer ecosystem Сбера постоянно расширяется: добавляют новые методы валидации функций, улучшают tool calling, работают над стабильностью и перформансом. Если ты пилишь что-то новое сейчас, есть вероятность, что в следующих релизах появятся уже готовые решения для твоей задачи.</p>
<ul>
<li><strong>GigaChain для Python</strong>: мощный фреймворк для составления цепочек LLM-операций</li>
<li><strong>GigaServe</strong>: деплой Python-сервисов через REST API</li>
<li><strong>Интеграция с экосистемой</strong>: используй Python для тяжёлой логики, Node.js для API и орхестрации</li>
<li><strong>Новые методы добавляются</strong>: следи за обновлениями на <a href="http://developers.sber.ru" target="_blank" rel="noopener noreferrer">developers.sber.ru</a></li>
<li><strong>Документация на русском</strong>: не нужно переводить и гадать по StackOverflow</li>
</ul>
<h2>Что происходит под капотом: архитектура GigaChat 3 Pro</h2>
<p dir="auto">Если копать глубже, то GigaChat 3 Pro построена на архитектуре, вдохновленной DeepSeek V3 - это одно из лучших инженерных решений последнего года. Модель имеет 702 миллиарда параметров, но активных для генерации токена только 36 миллиардов - это называется Mixture of Experts (MoE), и это делает модель быстрой и дешёвой в инференсе.</p>
<p dir="auto">Кроме MoE, там используются Multi-Token Prediction (MTP) и Multi-head Latent Attention (MLA) - это техники, которые улучшают скорость генерации и качество логики. Для разработчика это означает: запрос обработается быстро (не нужно ждать полминуты), и ответ будет высокого качества (модель “понимает” контекст лучше, чем более простые решения).</p>
<p dir="auto">Практический эффект: когда ты запускаешь функцию автоматизации, которая вызывает GigaChat 100 раз в день, ты экономишь на вычислениях, потому что работает только часть параметров. А если нужна сложная логика - образование в России, финтех, анализ документов - модель включает больше экспертов и даёт качественный результат.</p>
<ul>
<li><strong>702B параметров</strong>: большая модель с глубоким пониманием контекста</li>
<li><strong>36B активных параметров</strong>: MoE архитектура для экономии вычислений</li>
<li><strong>Multi-Token Prediction</strong>: генерирует несколько токенов параллельно, быстрее</li>
<li><strong>Multi-head Latent Attention</strong>: лучше понимает длинный контекст и логику</li>
<li><strong>Optimized для production</strong>: параметры отработаны на классах Hugging Face, стабильно</li>
</ul>
<h2>Когда использовать GigaChat 3 Pro, а когда нет</h2>
<p dir="auto">Не для всех задач GigaChat - это правильный выбор, честно говоря. Если тебе нужно <strong>просто классифицировать текст</strong> (спам/не спам), или <strong>извлечь структурированные данные из строки</strong>, или <strong>сделать простой поиск подобия</strong> - используй что-то легче: локальную модель, классический ML, или даже регулярные выражения. GigaChat нужна, когда требуется логика, контекст, рассуждение.</p>
<p dir="auto">Вот сценарии, где GigaChat на месте:</p>
<ul>
<li>Генерация кода, документации, текстовых отчётов</li>
<li>Анализ больших документов (договоры, отчёты, логи)</li>
<li>Диалоговые системы (чат-боты, поиск информации в документах)</li>
<li>Автоматизация бизнес-процессов через tool calling</li>
<li>Обработка неструктурированных данных (фото, скрины, тексты)</li>
<li>Рассуждение и планирование (составить сценарий, спроектировать решение)</li>
</ul>
<p dir="auto">А вот сценарии, где лучше не трогать LLM:</p>
<ul>
<li>Быстрая классификация (binary classification, spam detection)</li>
<li>Поиск по индексу (используй Elasticsearch или другую БД)</li>
<li>Транскрибация аудио (есть специальные модели)</li>
<li>Детектирование лиц или объектов на картинках (cv модели быстрее)</li>
<li>Простая валидация данных (регулярные выражения или json schema)</li>
</ul>
<p dir="auto">Вообще, думай так: GigaChat стоит денег (хотя и дешевле, чем было), поэтому окупай затраты на сложность задачи. Если это может сделать обычный алгоритм за миллисекунды - не трать токены.</p>
<p dir="auto">Сценарии, когда стоит выбрать GigaChat:</p>
<ul>
<li>Требуется рассуждение, анализ контекста, логика</li>
<li>Входные данные неструктурированные (текст, изображение)</li>
<li>Нужна гибкость: одна и та же функция работает для разных вариантов</li>
<li>Высокая стоимость ошибки, поэтому готов доплатить за качество</li>
<li>В проекте уже используется Сбер (платёжная система, биометрия) - интеграция проще</li>
</ul>
<p dir="auto">Сценарии, когда GigaChat избыток:</p>
<ul>
<li>Задача может быть решена за O(n) или O(n log n) с детерминированным алгоритмом</li>
<li>Ответ либо правильный, либо неправильный - нет нюансов (да/нет, валидно/невалидно)</li>
<li>Нужна максимальная скорость (&lt; 100ms)</li>
<li>Данные уже структурированные и clean</li>
</ul>
<h2>Практический пример: REST API для генерации тестов</h2>
<p dir="auto">Возьмём реальный сценарий: разработчик написал функцию на TypeScript, нужны unit-тесты. Вручную писать скучно, ошибки в тестах - бесполезно. Создаём REST endpoint, который берёт исходный код функции, отправляет в GigaChat с промптом на генерацию тестов, и возвращает готовый файл с Jest-тестами.</p>
<pre><code class="language-typescript">// tests-generator.ts
import express from 'express';
import { GigaChat } from '@sber/gigachat';

const app = express();
const gigachat = new GigaChat({
  credentials: process.env.GIGACHAT_CREDENTIALS,
  scope: 'GIGACHAT_API_CORP',
});

app.post('/generate-tests', async (req, res) =&gt; {
  const { sourceCode, functionName } = req.body;

  const prompt = `
Анализируй эту TypeScript функцию и напиши полный набор Jest-тестов. Включи граничные случаи, ошибки, happy path.

\`\`\`typescript
${sourceCode}
\`\`\`

Напиши готовый код тестов в виде describe() с несколькими it() блоками. Только код, без объяснений.
  `;

  try {
    const response = await gigachat.chat({
      messages: [
        {
          role: 'user',
          content: prompt,
        },
      ],
    });

    const testCode = response.choices.message.content;
    res.json({
      success: true,
      tests: testCode,
      functionName: functionName,
    });
  } catch (error) {
    res.status(500).json({ error: error.message });
  }
});

app.listen(3000, () =&gt; {
  console.log('Test generator API running on port 3000');
});
</code></pre>
<p dir="auto">Когда разработчик отправляет POST-запрос с кодом функции, GigaChat анализирует, генерирует тесты, и файл готов к использованию. За 30 секунд вместо 30 минут вручную. Если коды много, можно запустить в батче и обработать целый модуль.</p>
<ul>
<li><strong>Endpoint принимает исходный код</strong>: отправляешь функцию в JSON</li>
<li><strong>Промпт с инструкциями</strong>: говоришь модели, что именно нужно (Jest, граничные случаи)</li>
<li><strong>Модель генерирует тесты</strong>: полный <code>describe</code> с <code>it</code> блоками</li>
<li><strong>Результат в JSON</strong>: копируешь в проект, запускаешь <code>npm test</code></li>
<li><strong>Scalable</strong>: можно обработать 100 функций в цикле за час</li>
</ul>
<h2>Дебаг, мониторинг и вещи, о которых стоит знать</h2>
<p dir="auto">Владельцам production-приложений: мониторьте использование токенов. Сбер предоставляет дашборд в личном кабинете, где видно, сколько токенов истрачено, какие endpoints съедают больше всего. Если видишь, что функция вдруг начала потреблять в 10 раз больше токенов - значит, где-то случилось (может, промпт случайно начал отправлять лишние данные).</p>
<p dir="auto">Кроме того, при интеграции с GigaChat через Node.js, убедись, что сертификат НУЦ установлен правильно. Если получаешь SSL-ошибку - скорее всего, это именно про сертификат, переустанови и готово. В логах видно будет явно.</p>
<p dir="auto">Ещё один момент: tool calling работает хорошо, но если ты передал описание функции, а модель её не вызвала - не вины модели, скорее всего, описание неполное или неясное. Переформулируй <code>description</code>, добавь примеры в <code>name</code> функции (например, вместо <code>sendEmail</code> написать <code>sendEmailNotification</code>) - и модель сразу поймёт, когда её использовать.</p>
<p dir="auto">Основные ошибки интеграции:</p>
<ul>
<li><strong>SSL certificate error</strong>: установи сертификат НУЦ (команда в доках)</li>
<li><strong>Invalid credentials</strong>: проверь, что ключ авторизации скопирован правильно, и не истёк</li>
<li><strong>Tool not called</strong>: улучши описание функции, добавь примеры в parameters</li>
<li><strong>Context overflow</strong>: если отправляешь слишком большой документ (&gt; 128K токенов), обрезай или раздели на части</li>
<li><strong>Rate limits</strong>: если получил 429, жди несколько секунд и повтори (используй exponential backoff)</li>
</ul>
<h2>Тренд или по-настоящему полезно?</h2>
<p dir="auto">Говоря честно, автоматизация через LLM - это не просто модный тренд, это экономия реального времени и денег. Если у тебя есть процесс, который требует рассуждения или анализа текста, и ты можешь это автоматизировать через LLM - это окупается за несколько недель. Для корпоративных приложений это критично: юридический отдел экономит на анализе документов, финотдел на обработке отчётов, техподдержка на первой линии фильтрации запросов.</p>
<p dir="auto">GigaChat конкретно интересна для русскоязычного рынка, потому что вы не зависите от зарубежных сервисов, не нужно искать workaround-ы с переводом, и интеграция напрямую с экосистемой Сбера открывает новые возможности (платежи, биометрия). Плюс, архитектура на DeepSeek V3 - это не копипаста, это реальное инженерное решение, которое работает.</p>
<p dir="auto">Что дальше? Следи за обновлениями API на <a href="http://developers.sber.ru" target="_blank" rel="noopener noreferrer">developers.sber.ru</a>, экспериментируй с промптами (правильный промпт - половина успеха), и не забывай про мониторинг затрат. Технология развивается быстро, но основы остаются: правильная интеграция, хорошие промпты, оптимизация затрат.</p>
]]></description><link>https://forum.exlends.com/topic/1861/gigachat-3-pro-avtomatizaciya-node.js-proektov-cherez-api</link><generator>RSS for Node</generator><lastBuildDate>Sat, 18 Apr 2026 13:47:06 GMT</lastBuildDate><atom:link href="https://forum.exlends.com/topic/1861.rss" rel="self" type="application/rss+xml"/><pubDate>Mon, 23 Mar 2026 07:35:05 GMT</pubDate><ttl>60</ttl></channel></rss>