Системы искусственного интеллекта, способные испытывать чувства или осознавать себя, рискуют пострадать, если технология будет разрабатываться безответственно, говорится в открытом письме, подписанном практиками и мыслителями в области искусственного интеллекта, включая сэра Стивена Фрая.
Более 100 экспертов выдвинули пять принципов проведения ответственных исследований сознания ИИ, поскольку стремительный прогресс вызывает опасения, что такие системы могут считаться разумными, пишет The Guardian.
Эти принципы включают в себя приоритетное проведение исследований по пониманию и оценке сознания в ИИ с целью предотвращения “жестокого обращения и страданий”. Другими принципами являются: установление ограничений на разработку систем сознательного ИИ; применение поэтапного подхода к разработке таких систем; доведение результатов до сведения общественности; и воздержание от вводящих в заблуждение или излишне самоуверенных заявлений о создании сознательного ИИ. Среди подписавших письмо - ученые, такие как сэр Энтони Финкельштейн из Лондонского университета, и специалисты в области искусственного интеллекта из таких компаний, как Amazon и рекламная группа WPP. Письмо было опубликовано вместе с новой исследовательской работой, в которой излагаются принципы. В статье утверждается, что в ближайшем будущем могут быть созданы системы с сознательным ИИ – или, по крайней мере, такие, которые создают впечатление сознательного. “Возможно, что может быть создано большое количество сознательных систем, которые будут страдать”, - говорят исследователи, добавляя, что если мощные системы искусственного интеллекта смогут воспроизводить себя, это может привести к созданию “большого количества новых существ, заслуживающих морального уважения”. В статье, написанной Патриком Батлином из Оксфордского университета и Теодоросом Лаппасом из Афинского университета экономики и бизнеса, добавляется, что даже компаниям, не планирующим создавать сознательные системы, понадобятся рекомендации на случай “непреднамеренного создания сознательных объектов”. В материале признается, что существует широко распространенная неопределенность и разногласия по поводу определения сознания в системах искусственного интеллекта и того, возможно ли это вообще, но говорится, что это проблема, которую “мы не должны игнорировать”. Другие вопросы, поднятые в статье, касаются того, что делать с системой ИИ, если она определяется как “моральный пациент” – объект, который имеет моральное значение “сам по себе, ради себя самого”. В этом случае возникает вопрос, сравнимо ли уничтожение ИИ с убийством животного. В статье, опубликованной в Journal of Artificial Intelligence Research, также предупреждается, что ошибочное мнение о том, что системы искусственного интеллекта уже обладают сознанием, может привести к напрасной трате политической энергии, поскольку предпринимаются ошибочные усилия по повышению их благосостояния. Доклад и письмо были подготовлены Conscium, исследовательской организацией, частично финансируемой WPP и соучредителем которой является главный специалист WPP по искусственному интеллекту Дэниел Халм. В прошлом году группа высокопоставленных ученых заявила, что существует “реальная возможность” того, что некоторые системы искусственного интеллекта станут сознательными и “морально значимыми” к 2035 году, пишет The Guardian. В 2023 году сэр Демис Хассабис, руководитель программы Google по искусственному интеллекту и лауреат Нобелевской премии, заявил, что системы искусственного интеллекта “определенно” не обладают разумом в настоящее время, но могут стать таковыми в будущем. “Философы еще толком не определились с определением сознания, но если мы имеем в виду что-то вроде самосознания, то я думаю, что однажды может появиться искусственный интеллект”, - сказал он в интервью американской телекомпании CBS.
United States Latest News, United States Headlines
Similar News:You can also read news stories similar to this one that we have collected from other news sources.
Производитель высокоскоростного поезда серии 'Фусин' изменил компоновку вагоновКомпоновку китайского поезда линейки 'Фусин' изменили при работе с искусственным интеллектом. Об этом заявил старший инженер регионального производителя вагонов CRRC Qingdao Sifang Не Ин.
Read more »
Подрыв Cybertruck в США: Подозреваемый использовал ChatGPTПо данным полиции, подозреваемый в подрыве электромобиля у отеля Трампа в Лас-Вегасе использовал чат-бот с искусственным интеллектом ChatGPT для планирования атаки.
Read more »
Уязвимости в библиотеках открытого ПО: опасность для пользователей и разработчиковЭксперты рассказали о распространённости уязвимостей в популярных библиотеках открытого программного обеспечения и о связанных с ними рисках для пользователей и разработчиков.
Read more »
Работа с искусственным интеллектом названа главным профессиональным навыком 2024 годаVK Education провел опрос среди студентов и выпускников российских университетов, определив главные профессиональные навыки 2024 года.
Read more »
Россия поставила на фронт 3 тысячи дронов-камикадзе 'Микроб' с искусственным интеллектомВ зону СВО на Украине поставлены первые 3 тысячи дронов-камикадзе 'Микроб' с искусственным интеллектом, позволяющим им автономно сопровождать цель после захвата оператором. Разработчик дрона Александр Грязнов рассказал, что 'Микроб' обладает достаточными динамическими характеристиками и модульностью, что позволяет использовать его в разных условиях.
Read more »
Российские специалисты создали дрон-перехватчик «Сокол» с искусственным интеллектомПредсерийный образец дрона «Сокол» разработан российской компанией «КПБ Полет» для нейтрализации вражеских разведывательных и ударных беспилотников. Аппарат оснащен искусственным интеллектом и способен работать автономно.
Read more »
