'Grok, это правда?': насколько можно доверять чат-ботам с ИИ

United States News News

'Grok, это правда?': насколько можно доверять чат-ботам с ИИ
United States Latest News,United States Headlines
  • 📰 dw_russian
  • ⏱ Reading Time:
  • 295 sec. here
  • 6 min. at publisher
  • 📊 Quality Score:
  • News: 121%
  • Publisher: 63%

Все больше людей для быстрой проверки информации используют чат-ботов с искусственным интеллектом. Но насколько точны и надежны их ответы? И как не стать жертвой дезинформации?

"Эй, @Grok, это правда?" С тех пор как в ноябре 2023 года Илон Маск запустил свой чат-бот xAI Grok, а в декабре 2024 года сделал его открытым, тысячи пользователей X задают именно этот вопрос. Они хотят использовать систему на основе искусственного интеллекта для быстрой проверки информации.

Но насколько точны и достоверны ответы чат-ботов? Многие задались этим вопросом в свете недавних комментариев Grok о"геноциде белых" в Южной Африке. Помимо проблематичной позиции Grok по этому вопросу, пользователей X раздражало то, что бот начинал говорить об этом, даже когда ему задавали вопросы на совершенно другие темы. Например, такие как статистика бейсболистов. Дискуссия о предполагаемом"геноциде белых" возникла после того, как администрация Трампа привезла белых южноафриканцев в США в качестве"беженцев", заявив, что они подвергаются"геноциду" у себя на родине - утверждение, которому нет никаких доказательств. Компания xAI заявила, что"провела тщательное расследование" в связи с одержимостью Grok темой"геноцида белых", обвинив в произошедшем "несанкционированные изменения" в системных инструкциях. Подобные случаи заставляют задать вопрос: насколько пользователи могут быть уверены в том, что получают достоверную информацию, когда хотят что-либо проверитьДва исследования, проведенные в этом году британской общественной вещательной компанией BBC и Tow Center for Digital Journalism при Колумбийском университете в Нью-Йорке, выявили существенные недостатки в работе чат-ботов с искусственным интеллектом. В частности, исследование BBC показало, что"ответы ИИ-помощников содержат значительные неточности и искаженное содержание". Когда ChatGPT, Copilot, Gemini и Perplexity попросили ответить на вопросы о последних новостях, используя статьи BBC в качестве источников, оказалось, что 51 процент ответов чат-ботов содержит"значительные проблемы". В 19 процентах были обнаружены фактические ошибки, а 13 % цитат были либо изменены, либо вообще отсутствовали в указанных статьях. "В настоящее время нельзя рассчитывать на то, что помощники с ИИ будут сообщать точные новости, и есть риск, что они будут вводить аудиторию в заблуждение", - заключил Пит Арчер, программный директор BBC по Опубликованное в марте исследование Tow Center for Digital Journalism также показало, что восемь чат-ботов в 60 процентах случаев не смогли правильно определить происхождение отрывков из статей. Perplexity показал наилучший результат, допустив ошибку всего в 37 % случаев, в то время как Grok ответил неправильно на 94 % запросов. Особую обеспокоенность вызвала"тревожащая уверенность", с которой боты давали неверные ответы. "ChatGPT определил 134 отрывка как неверные, но из двухсот ответов лишь пятнадцать раз сигнализировал о недостатке уверенности и ни разу не отклонил запрос". В целом исследование показало, что чат-боты"в целом плохо справляются с отказом отвечать на вопросы, на которые они не могут дать точный ответ".А откуда сам ИИ берет информацию? Она поступает из различных источников, таких как обширные базы данных и веб-поиск. В зависимости от того, как чат-боты обучаются и программируются, качество и точность их ответов могут варьироваться.и пропагандой. Таким образом, очевидно, что существует проблема с"входом" LLM", - сказал DW Томмазо Канетта , заместителем директора итальянского проекта по проверке фактов Pagella Politica и координатор по проверке фактов в Европейской обсерватории цифровых медиа ."Если источники не заслуживают доверия и не отличаются высоким качеством, то и ответы, скорее всего, будут такими же". Канетта объясняет, что сам регулярно сталкивается с ответами, которые"неполны, неточны, Дезинформация может иметь серьезные последствия. Например, в августе 2024 года, после того как президент США Байден отказался от участия в избирательной кампании, Grok распространила ложную информацию о том, что вице-президент Камала Харрис больше не может быть включена в избирательный бюллетень в нескольких штатах. После этого государственный секретарь штата Миннесота Стив Саймон написал открытое письмо Илону Маску.ИИ-чат-боты не только испытывают трудности с новостями, но и демонстрируют серьезные проблемы, когда дело доходит до идентификации изображений, созданных ИИ.пожара в разрушенном авиационном ангаре, взятого из видеоролика на TikTok. В своем ответе и объяснениях Грок заявил, что на изображении показаны различные инциденты в разных местах - от небольшого аэродрома в Солсбери до международных аэропортов Денвера и Тан Сон Нхат в Хошимине . В последние годы в этих местах действительно происходили аварии и пожары, но к предложенному изображению они отношения не имели. Еще более тревожно, что Grok распознал часть водяного знака TikTok в углу изображения и сказал, что это"говорит о подлинности изображения".Однако при расширенном запросе Grok пояснил, что TikTok - это"платформа, часто используемая для быстрого распространения вирусного контента, который может привести к дезинформации, если не будет должным образом проверен".могут казаться всезнающими, но это не так. Они совершают ошибки, неправильно понимают происходящее и даже могут быть объектом манипуляций."Системы ИИ, такие как Grok, Meta AI или ChatGPT, не следует рассматривать как инструменты для проверки фактов. Хотя они могут использоваться для этой цели с некоторым успехом, неясно, насколько хорошо и последовательно они выполняют эту задачу, особенно в пограничных случаях", - считает Феликс Саймон, исследователь в области ИИ и цифровых новостей и научный сотрудник Оксфордского института интернета . По мнению Канетты, чат-боты с искусственным интеллектом могут быть полезны для базовой проверки фактов. Однако он также советует не доверять им полностью. Оба эксперта говорят, что пользователи всегда должны проверять ответы в других источниках.Человекоподобные, промышленные, машины с искусственным интеллектом - мир робототехники с каждым годом становится все более разнообразным. Об этом - в фотогалерее DW."Spotlight" - это новая технология разминирования от американских разработчиков, которая применяет искусственный интеллект. С этой системой уже работают саперы ВСУ. Насколько эффективен ИИ в поиске мин - военные продемонстрировали DW.

We have summarized this news so that you can read it quickly. If you are interested in the news, you can read the full text here. Read more:

dw_russian /  🏆 9. in RU

 

United States Latest News, United States Headlines

Similar News:You can also read news stories similar to this one that we have collected from other news sources.

Четыре признака. Как узнать, что человека «пасут» мошенникиЧетыре признака. Как узнать, что человека «пасут» мошенникиПроверить это можно, не вставая с дивана.
Read more »

ИИ Samsung научился предвидеть поломки бытовой техникиИИ Samsung научился предвидеть поломки бытовой техникиSamMobile: Samsung сделала ИИ с функцией предсказания поломок бытовой техники
Read more »

Американка ушла от супруга к чат-боту с ИИ по имени ЛеоАмериканка ушла от супруга к чат-боту с ИИ по имени ЛеоЛюбая железяка иногда лучше мужчины – так решила американка по имени Шарлотта. После 20 лет брака, она решила развестись с мужем и выйти замуж за Лео, которого называет «любящим и понимающим». Есть только одна сложность – Лео не человек, а чат-бот из семейства GPT. Но это влюбленную женщину не смущает, «пара» скоро поженится во Флоренции.
Read more »

Считается, что СССР потерял в годы войны 27 миллионов человек. Об этом говорят и серьезные ученые, и российские властиСчитается, что СССР потерял в годы войны 27 миллионов человек. Об этом говорят и серьезные ученые, и российские власти«Медуза» заново выяснила, откуда взялась эта оценка — и можно ли ей доверять
Read more »

Не только какао. Эксперт Сипров объяснил, какую пользу Малайзия даст РоссииНе только какао. Эксперт Сипров объяснил, какую пользу Малайзия даст РоссииРоссия может сотрудничать с Малайзией в сфере высоких технологий и ИИ.
Read more »

ЦСКА вышел в суперфинал Кубка России, папа римский принял первую ракетку мираЦСКА вышел в суперфинал Кубка России, папа римский принял первую ракетку мираДепутат Госдумы выступил с предложением активнее внедрять ИИ в спорт
Read more »



Render Time: 2026-04-02 01:18:26