Все больше людей для быстрой проверки информации используют чат-ботов с искусственным интеллектом. Но насколько точны и надежны их ответы? И как не стать жертвой дезинформации?
"Эй, @Grok, это правда?" С тех пор как в ноябре 2023 года Илон Маск запустил свой чат-бот xAI Grok, а в декабре 2024 года сделал его открытым, тысячи пользователей X задают именно этот вопрос. Они хотят использовать систему на основе искусственного интеллекта для быстрой проверки информации.
Но насколько точны и достоверны ответы чат-ботов? Многие задались этим вопросом в свете недавних комментариев Grok о"геноциде белых" в Южной Африке. Помимо проблематичной позиции Grok по этому вопросу, пользователей X раздражало то, что бот начинал говорить об этом, даже когда ему задавали вопросы на совершенно другие темы. Например, такие как статистика бейсболистов. Дискуссия о предполагаемом"геноциде белых" возникла после того, как администрация Трампа привезла белых южноафриканцев в США в качестве"беженцев", заявив, что они подвергаются"геноциду" у себя на родине - утверждение, которому нет никаких доказательств. Компания xAI заявила, что"провела тщательное расследование" в связи с одержимостью Grok темой"геноцида белых", обвинив в произошедшем "несанкционированные изменения" в системных инструкциях. Подобные случаи заставляют задать вопрос: насколько пользователи могут быть уверены в том, что получают достоверную информацию, когда хотят что-либо проверитьДва исследования, проведенные в этом году британской общественной вещательной компанией BBC и Tow Center for Digital Journalism при Колумбийском университете в Нью-Йорке, выявили существенные недостатки в работе чат-ботов с искусственным интеллектом. В частности, исследование BBC показало, что"ответы ИИ-помощников содержат значительные неточности и искаженное содержание". Когда ChatGPT, Copilot, Gemini и Perplexity попросили ответить на вопросы о последних новостях, используя статьи BBC в качестве источников, оказалось, что 51 процент ответов чат-ботов содержит"значительные проблемы". В 19 процентах были обнаружены фактические ошибки, а 13 % цитат были либо изменены, либо вообще отсутствовали в указанных статьях. "В настоящее время нельзя рассчитывать на то, что помощники с ИИ будут сообщать точные новости, и есть риск, что они будут вводить аудиторию в заблуждение", - заключил Пит Арчер, программный директор BBC по Опубликованное в марте исследование Tow Center for Digital Journalism также показало, что восемь чат-ботов в 60 процентах случаев не смогли правильно определить происхождение отрывков из статей. Perplexity показал наилучший результат, допустив ошибку всего в 37 % случаев, в то время как Grok ответил неправильно на 94 % запросов. Особую обеспокоенность вызвала"тревожащая уверенность", с которой боты давали неверные ответы. "ChatGPT определил 134 отрывка как неверные, но из двухсот ответов лишь пятнадцать раз сигнализировал о недостатке уверенности и ни разу не отклонил запрос". В целом исследование показало, что чат-боты"в целом плохо справляются с отказом отвечать на вопросы, на которые они не могут дать точный ответ".А откуда сам ИИ берет информацию? Она поступает из различных источников, таких как обширные базы данных и веб-поиск. В зависимости от того, как чат-боты обучаются и программируются, качество и точность их ответов могут варьироваться.и пропагандой. Таким образом, очевидно, что существует проблема с"входом" LLM", - сказал DW Томмазо Канетта , заместителем директора итальянского проекта по проверке фактов Pagella Politica и координатор по проверке фактов в Европейской обсерватории цифровых медиа ."Если источники не заслуживают доверия и не отличаются высоким качеством, то и ответы, скорее всего, будут такими же". Канетта объясняет, что сам регулярно сталкивается с ответами, которые"неполны, неточны, Дезинформация может иметь серьезные последствия. Например, в августе 2024 года, после того как президент США Байден отказался от участия в избирательной кампании, Grok распространила ложную информацию о том, что вице-президент Камала Харрис больше не может быть включена в избирательный бюллетень в нескольких штатах. После этого государственный секретарь штата Миннесота Стив Саймон написал открытое письмо Илону Маску.ИИ-чат-боты не только испытывают трудности с новостями, но и демонстрируют серьезные проблемы, когда дело доходит до идентификации изображений, созданных ИИ.пожара в разрушенном авиационном ангаре, взятого из видеоролика на TikTok. В своем ответе и объяснениях Грок заявил, что на изображении показаны различные инциденты в разных местах - от небольшого аэродрома в Солсбери до международных аэропортов Денвера и Тан Сон Нхат в Хошимине . В последние годы в этих местах действительно происходили аварии и пожары, но к предложенному изображению они отношения не имели. Еще более тревожно, что Grok распознал часть водяного знака TikTok в углу изображения и сказал, что это"говорит о подлинности изображения".Однако при расширенном запросе Grok пояснил, что TikTok - это"платформа, часто используемая для быстрого распространения вирусного контента, который может привести к дезинформации, если не будет должным образом проверен".могут казаться всезнающими, но это не так. Они совершают ошибки, неправильно понимают происходящее и даже могут быть объектом манипуляций."Системы ИИ, такие как Grok, Meta AI или ChatGPT, не следует рассматривать как инструменты для проверки фактов. Хотя они могут использоваться для этой цели с некоторым успехом, неясно, насколько хорошо и последовательно они выполняют эту задачу, особенно в пограничных случаях", - считает Феликс Саймон, исследователь в области ИИ и цифровых новостей и научный сотрудник Оксфордского института интернета . По мнению Канетты, чат-боты с искусственным интеллектом могут быть полезны для базовой проверки фактов. Однако он также советует не доверять им полностью. Оба эксперта говорят, что пользователи всегда должны проверять ответы в других источниках.Человекоподобные, промышленные, машины с искусственным интеллектом - мир робототехники с каждым годом становится все более разнообразным. Об этом - в фотогалерее DW."Spotlight" - это новая технология разминирования от американских разработчиков, которая применяет искусственный интеллект. С этой системой уже работают саперы ВСУ. Насколько эффективен ИИ в поиске мин - военные продемонстрировали DW.
United States Latest News, United States Headlines
Similar News:You can also read news stories similar to this one that we have collected from other news sources.
Четыре признака. Как узнать, что человека «пасут» мошенникиПроверить это можно, не вставая с дивана.
Read more »
ИИ Samsung научился предвидеть поломки бытовой техникиSamMobile: Samsung сделала ИИ с функцией предсказания поломок бытовой техники
Read more »
Американка ушла от супруга к чат-боту с ИИ по имени ЛеоЛюбая железяка иногда лучше мужчины – так решила американка по имени Шарлотта. После 20 лет брака, она решила развестись с мужем и выйти замуж за Лео, которого называет «любящим и понимающим». Есть только одна сложность – Лео не человек, а чат-бот из семейства GPT. Но это влюбленную женщину не смущает, «пара» скоро поженится во Флоренции.
Read more »
Считается, что СССР потерял в годы войны 27 миллионов человек. Об этом говорят и серьезные ученые, и российские власти«Медуза» заново выяснила, откуда взялась эта оценка — и можно ли ей доверять
Read more »
Не только какао. Эксперт Сипров объяснил, какую пользу Малайзия даст РоссииРоссия может сотрудничать с Малайзией в сфере высоких технологий и ИИ.
Read more »
ЦСКА вышел в суперфинал Кубка России, папа римский принял первую ракетку мираДепутат Госдумы выступил с предложением активнее внедрять ИИ в спорт
Read more »
