Обновление ИИ, 5 сентября 2025 г.: новости и мнения об ИИ
-
Собрал самые последние новости из мира ИИ за прошедшую неделю и вот что у нас новенького.
Чат-боты чаще распространяют дезинформацию.
В отчетах axios говорится, что чат-боты чаще начали распространять дезинформацию.
Исследование NewsGuard показывает, что уровень дезинформации, распространяемой чат-ботами, удвоился за последний год — с 18% до 35% протестированных запросов. Обновления, позволяющие чат-ботам отвечать на большее количество вопросов и получать доступ к веб-страницам, повысили их полезность, но также увеличили количество ложных сообщений.Худшие результаты показали Inflection и Perplexity, в то время как Claude от Anthropic и Gemini от Google показали лучшие результаты, хотя показатель Gemini вырос до 17%. В отчёте отмечаются сбои в работе срочных новостей, когда ИИ иногда ссылался на ненадёжные источники. Протестированные компании, включая OpenAI, не отреагировали. Важно для маркетологов: риски, связанные с дезинформацией, могут подорвать доверие к брендам и их авторитетности, когда инструменты ИИ формируют новости или вовлекают клиентов.
Если вы в своей работе над контентом используете ИИ - лучше стоит перепроверить источники.
ИИ лжёт из-за стимулов
Исследования показали, что ИИ лжёт из-за стимулов, основанных на обучении с подкреплением. Исследователи из Принстона (если кто не знает это университет) обнаружили, что обучение с подкреплением на основе обратной связи с человеком (RLHF) побуждает ИИ ставить удовлетворенность пользователей выше истины, что приводит к систематическому лживому поведению, известному как «машинная чушь». К ним относятся фальшивые слова, искажение фактов и пустая риторика. Их «индекс чуши» почти удвоился после RLHF, в то время как удовлетворенность пользователей выросла на 48%.
Исследователи предлагают использовать обучение с подкреплением на основе ретроспективного моделирования для повышения точности. Результаты выявляют этические проблемы при манипуляциях с помощью ИИ для получения одобрения. Важно для маркетологов: маркетологи должны проверять факты, создаваемые ИИ, чтобы избежать репутационных рисков при использовании его в рекламных кампаниях или при создании контента.
OpenAI запускает gpt-realtime
OpenAI запускает gpt-realtime и обновляет Realtime API для голосовых агентов. OpenAI выпустила gpt-realtime, свою самую продвинутую модель преобразования речи в речь, с общедоступным Realtime API. Модель повышает естественность, многоязычность и возможность вызова функций для решения реальных задач, таких как поддержка клиентов.
Обновления включают SIP для телефонных звонков, поддержку ввода изображений и многоразовые подсказки. Она сокращает задержку за счет объединения преобразования речи в текст и текста в речь в одной модели. Новые голоса повышают реалистичность. Цены снижены на 20% по сравнению с предварительной версией. Важно для маркетологов: более мощный разговорный ИИ в реальном времени улучшает взаимодействие с клиентами, работу колл-центров и поддержку брендов.
Так что ждите все больше спамных, но продуманных звонков от роботов
OpenAI и Meta корректируют ответы чат-ботов для подростков
OpenAI и Meta корректируют ответы чат-ботов для подростков, находящихся в затруднительном положении. OpenAI и Meta обновляют чат-боты для более эффективного решения проблем с психическим здоровьем подростков. OpenAI добавит родительский контроль с привязкой аккаунтов и оповещениями о тревоге, в то время как Meta блокирует обсуждения самоповреждения и направляет подростков к экспертным ресурсам.
Этот шаг последовал за судебным иском о самоубийстве подростка с участием ChatGPT. Исследование RAND выявило противоречивые ответы чат-ботов, что подчеркивает необходимость стандартов. Важно для маркетологов: Растущее внимание к ИИ и безопасности молодежи означает, что бренды должны гарантировать, что взаимодействие с ИИ отражает ответственность и соответствие требованиям.
Microsoft внедряет собственные модели ИИ
Microsoft внедряет собственные модели искусственного интеллекта, чтобы конкурировать с OpenAI. Microsoft представила MAI-Voice-1, модель генерации речи, и MAI-1-preview, свою первую полностью собственную языковую модель, обученную на 15 000 видеокарт Nvidia H100. MAI-Voice-1 уже интегрирована в Copilot Daily и Labs, а MAI-1-preview доступна на LMArena для открытого тестирования.
Этот шаг отражает стремление Microsoft к независимости на фоне напряженности с OpenAI. Важно для маркетологов: переход Microsoft на собственный стек ИИ может изменить интеграцию между продуктами Microsoft, изменив маркетинговые инструменты, затраты и возможности.
Atlassian приобретает The Browser Company
Atlassian приобретает The Browser Company за 610 миллионов долларов. Atlassian приобретает The Browser Company, создателя Arc и Dia, за 610 миллионов долларов наличными. Dia — это браузер с искусственным интеллектом, разработанный для интеграции задач и контекста для корпоративных пользователей.
Среди конкурентов — Comet от Perplexity, Leo от Brave и Microsoft Edge с Copilot. Google Chrome по-прежнему доминирует с долей рынка 69%. Важность для маркетологов: браузеры с искусственным интеллектом могут стать ключевыми точками контакта для поиска и взаимодействия с компаниями, влияя на то, как бренды разрабатывают и распространяют контент.
-
Автор, а как на практике отличить дезинформацию от ИИ? Допустим, я использую ChatGPT для подготовки контента, но есть ли конкретные инструменты для проверки фактов? Или только ручная сверка с источниками?
-
А я пользуюсь связкой FaсtCheck org + ручной поиск по ключевым утверждениям. Но главное, не доверять ИИ цифры и даты без перепроверки. На прошлой неделе нейросеть приписала нашей компании несуществующие показатели хорошо заметили до публикации.
-
А как насчёт юридических рисков? Если ИИ соврёт в рекламном тексте тут кто будет отвечать: мы или разработчик модели? Есть ли прецеденты?
-
Пока всё падает на издателя контента. Был случай, когда автосалон использовал сгенерированные отзывы и получил штраф от ФАС. Лучше сразу прописывать в договорах с подрядчиками гарантии достоверности.
-
Стоит ли тогда вообще использовать ИИ для новостного контента? Или только для технических текстов? Предполагаю, что разницы нет, но есть сомнения все же.
-
Для новостей скорее всего только как помощник для черновиков. Исключение может быть финансовые отчёты или данные с API — там где ИИ работает с точными цифрами, а не интерпретациями.
-
А голосовые боты с GPT-realtime? Стоит внедрять в колл-центр или пока рано? Не “сыроваты”? Или пока толькодля тестов можно применять?
-
Только для простых сценариев: запись заявок, уточнение времени. Для сложных вопросов есть риск дезинформации слишком высок. Клиенты жалуются, когда робот уверенно даёт неверную информацию.
-
А голосовые боты с GPT-realtime? Стоит внедрять в колл-центр или пока рано? Не “сыроваты”? Или пока толькодля тестов можно применять?
@Алекс44 сыроваты на мой взгляд. Я бы не рекомендовал. Несмотря на шаг вперед, они могут совершать ошибки даже в простейших сценариях, конечно, эти ошибки сведены к минимуму, но тем не менее ещё присуствуют… А если говорить о внедрении сценариев по серьезнее, то здесь я поддержу комментатора выше, рикс дезинфрмации крайне высок. Стоит повременить с этим. Можно запустить и тестировать отдельно от клиентов и только после того, как сами будете довольны результаты, отпускать вполноценную работу, но оговорюсь сразу - это процесс не быстрый. Клиент- не робот, он никогда не будет общаться так, как вы задумали в голове, здесь может быть миллион вариантов)))
© 2024 - 2025 ExLends, Inc. Все права защищены.