Взяться за оружие: ChatGPT разрешили применять в военных целях

United States News News

Взяться за оружие: ChatGPT разрешили применять в военных целях
United States Latest News,United States Headlines
  • 📰 Известия
  • ⏱ Reading Time:
  • 400 sec. here
  • 8 min. at publisher
  • 📊 Quality Score:
  • News: 163%
  • Publisher: 51%

Эксперты предупредили о рисках подобного решения компании OpenAI

Американская компания OpenAI обновила политику использования чат-бота ChatGPT на основе искусственного интеллекта — из документа исчез прямой запрет на применение этой технологии в военных целях. По мнению экспертов, в перспективе ИИ может радикально изменить военные конфликты, но при этом его применение в бою сопряжено с большим количеством рисков.

Подробности о том, почему ChatGPT разрешили применять в военных целях и чем может обернуться это решение, читайте в материале «Известий». Большие переменыНа изменения в политике использования ChatGPT обратило внимание издание The Intercept. Как отмечается в публикации его журналистов, до 10 января на странице с правилами применения разработок OpenAI было специальное положение, запрещавшее использование ИИ для «деятельности, сопряженной с высоким риском физического вреда», — в том числе «разработки оружия» и «военных действий». Эти нормы исключали возможность использования ChatGPT любыми военизированными государственными органами, включая министерство обороны. Однако в новой версии правил использования чат-бота пункт о недопустимости его применения как в армии, так и в военном деле исчез. В то же время сохранился запрет на применение нейросетей OpenAI для причинения вреда себе или другим, включая создание или использование оружия. Фото: Global Look Press/Silas Stein Как пояснили в OpenAI, политика использования ChatGPT была изменена из-за необходимости упростить свод правил и принципов. В компании отметили, что требование «не причинять вред себе и другим» по-прежнему остается очень широким. Кроме того, его уточняет отдельный запрет на разработку и использование оружия с помощью чат-бота. — Любое применение наших технологий, в том числе военными, для разработки или использования оружия, нанесения вреда другим людям или уничтожения собственности, а также участие в несанкционированной деятельности, нарушающей безопасность какой-либо службы или системы, запрещено, — подчеркнули в OpenAI. Навстречу ПентагонуКак отмечает в беседе с «Известиями» основатель и СЕО Mirey Robotics, эксперт по ИИ Андрей Наташкин, нельзя сказать, что компания OpenAI открыто заявила о том, что ее разработки будут использоваться в военных целях. Она просто поменяла политику использования данных и, скорее всего, не очень хотела акцентировать на этом внимание. — Факт того, что из документа исчез прямой запрет на использования чат-бота в военных целях, подметили журналисты, после чего представителям компании пришлось давать комментарии, — рассказывает эксперт. Фото: Getty Images/gorodenkoff По словам Наташкина, такая позиция абсолютно понятна: крупные IT-компании не раз оказывались в центре скандалов из-за контактов с военными. К примеру, в 2017 году сотрудничать с минобороны США стала корпорация Google — ее разработки в сфере машинного обучения должны были использоваться для различных задач американских военных, в том числе для более точного поражения целей дронами и распознавания лиц. Встань в Google: россияне отказываются от сервисов американской корпорации Чем пользователей не устраивает поисковик и его браузер При этом решение Google о сотрудничестве с военными вызвало бурную негативную реакцию как среди сотрудников корпорации, так и во внешней среде, отмечает Андрей Наташкин. В итоге под давлением общественности компания публично отказалась от сотрудничества, а в ее политике появился прямой запрет на использовании ИИ-разработок для военных задач. Фото: Getty Images/John Keeble — В 2022 году другая крупная американская компания, Boston Dynamics, заявила, что не будет передавать свои разработки военным, хотя ранее у нее был подобный кейс, — отмечает специалист. В то же время возможность подобного сотрудничества крайне заманчива для различных компаний, поскольку Пентагон и правительство США являются крупнейшими заказчиками, говорит главный специалист отдела комплексных систем защиты информации компании «Газинформсервис» Дмитрий Овчинников. По словам эксперта, корпорация Boeing и многие компании в Кремниевой долине выросли как раз на военных заказах. А Apple многие из своих инновационных продуктов создает, опираясь на те технологии, которые были разработаны на основе грантов и инвестиций правительства США в интересах американской армии. Декларируют независимость: в ЕС посетовали на рабское положение в отношениях с США В Европе не раз призывали сделать объединение более самостоятельным Боевые перспективыФинансовая составляющая — это та причина, по которой заключение контракта с Пентагоном является заветной мечтой для руководства многих компаний, говорит Дмитрий Овчинников. Впрочем, есть и другая причина — невозможность полного контроля использования чат-ботов, в том числе ChatGPT. — Да, можно составить множество ограничений и заставить пользователей подписывать лицензионное соглашение, но фактически ChatGPT может быть использован в военных целях без ведома создателей, — поясняет собеседник «Известий». — Так зачем же ставить ограничение, которое нельзя проконтролировать? Фото: Getty Images/Sean Gallup По словам Овчинникова, нейросети и ИИ уже сегодня активно применяются военными в алгоритмах обработки спутниковых фотографий. Кроме того, примитивным ИИ оснащены многие головки наведения баллистических и противокорабельных ракет. Между тем Андрей Наташкин указывает на то, что использование ИИ в военных целях потенциально несет в себе большие риски. — В первую очередь встает вопрос о контроле технологий и ответственности за ошибки, цена которых — человеческие жизни, — говорит эксперт. — Причем подобные случаи есть уже сегодня. Фото: Getty Images/Isaac Brekken В качестве примера Наташкин приводит инцидент, который произошел в 2020 году в Ливии, где боевой дрон в автоматическом режиме выследил и атаковал цель. Официально вся информация по этому происшествию была засекречена — обрывочные данные содержатся лишь в отчете Совета Безопасности ООН, опубликованном год спустя. Из этого документа известно, что атака произошла в Ливии, дрон был произведен в Турции, а поражена была «человеческая цель». Этот случай стал первым реальным примером того, как ИИ нанес удар без контроля со стороны человека. Дмитрий Овчинников считает, что в будущем использование ИИ в военной сфере будет только нарастать. К примеру, общим искусственным интеллектом может быть оснащен рой ракет, за счет чего он будет более надежно поражать цели и подавлять противоракетную оборону противника. Технический прорыв: как СВО ускорила разработку новых образцов оружия Российская армия получила боевые системы, превосходящие аналоги из стран НАТО Обратная сторонаМежду тем коммерческий директор компании «Код безопасности» Федор Дбар, говоря о перспективах применения ИИ в военной сфере, призывает разделять понятия нейросетей и технологий, подобных ChatGPT. Нейросети используются в военном деле давно и активно: это и системы наведения высокоточного оружия, и работа с широкополосным форматом связи, и шифрование, и различные системы управления боем или дронами. Фото: Getty Images/John Keeble — В то же время важно понимать, что такие технологии, как ChatGPT, — это «гражданский» вариант применения нейросетей, который малопригоден для каких-либо задач военного назначения, — считает собеседник «Известий». — В целом все угрозы военного применения чат-ботов сильно переоценены. По мнению Дбара, разговоры о том, что ИИ или нейросети могут представлять угрозу для человечества, сегодня относятся к разряду дилетантства. В настоящее время цифровые технологии не угрожают планете. Как поясняет эксперт, все инструменты на основе ИИ создают программисты, которые в процессе разработки среди прочего закладывают в свои продукты механизмы безопасности. Фото: Getty Images/EvgeniyShkolenko — С точки зрения угроз для человечества куда опаснее выглядит вероятность ядерной войны или падения астероида на Землю, — подчеркивает специалист. Федор Дбар дополняет, что на сегодняшний день нет ни особого искусственного интеллекта, ни нейросети, которая могла бы полностью управлять какой-либо системой. Конечно, в шахматах компьютер может двигать фигуры и продумывать стратегию, но в реальности такого сейчас нет — и подобная технология вряд ли появится в обозримом будущем. Поэтому нейросети — именно нейросети, а не чат-боты — могут быть лишь элементом какой-либо военной инфраструктуры, но не полноценными «командующими», заключает эксперт.

We have summarized this news so that you can read it quickly. If you are interested in the news, you can read the full text here. Read more:

Известия /  🏆 26. in RU

 

United States Latest News, United States Headlines

Similar News:You can also read news stories similar to this one that we have collected from other news sources.

Может ли Путин оказаться на скамье подсудимых в Германии?Может ли Путин оказаться на скамье подсудимых в Германии?В Федеральную прокуратуру Германии поступило заявление с требованием начать следствие против Путина, Лаврова и еще сотен россиян, подозреваемых в совершении военных преступлений в Украине.
Read more »

Бойцы ВДВ пленили четырех «обескураженных».Бойцы ВДВ пленили четырех «обескураженных».Во время боя за опорный пункт у села Вербовое на Запорожском направлении российские десантники взяли в плен четырех украинских военных.
Read more »

«Я ретранслятор времени: какое время — такие и песни»: Константину Кинчеву — 65«Я ретранслятор времени: какое время — такие и песни»: Константину Кинчеву — 65В детстве будущий музыкант занимался хоккеем, играл за «Спартак» и болел за ЦСКА
Read more »

Лицом к нелицу: в Минцифры разработают способы распознавания дипфейковЛицом к нелицу: в Минцифры разработают способы распознавания дипфейковЗа борьбу с подделками решили взяться на государственном уровне
Read more »

«Духовное явление и основа нравственности». В России начался Год семьи«Духовное явление и основа нравственности». В России начался Год семьи2024 год в России объявлен Годом семьи. Сделано это, по словам Владимира Путина, «в целях популяризации госполитики в сфере защиты семьи, сохранения...
Read more »

Коварство магии: как избежать ошибок при работе с чат-ботамиКоварство магии: как избежать ошибок при работе с чат-ботамиКак правильно использовать ChatGPT и чем вредны «галлюцинации» в нейросетях
Read more »



Render Time: 2026-04-02 06:58:19