Искусственный интеллект, обладающий сознаниемhttps://bit.ly/3Q0UKMbЦитата:
Искусственный интеллект (ИИ)
Системы искусственного интеллекта могут «пострадать», если будет достигнуто сознание, утверждает исследование
Эксперты и мыслители подписали открытое письмо, в котором выразили обеспокоенность безответственным развитием технологий
Дэн Милмо, глобальный редактор технологий
Пн 3 фев 2025 20.07 GMT
Согласно открытому письму, подписанному практиками и мыслителями в области ИИ , включая сэра Стивена Фрая , системы искусственного интеллекта, способные чувствовать или осознавать себя, подвергаются риску нанесения вреда, если технология будет разрабатываться безответственно.
Более 100 экспертов выдвинули пять принципов проведения ответственных исследований сознания ИИ, поскольку быстрый прогресс вызывает опасения , что такие системы можно считать разумными.
Принципы включают в себя приоритет исследований по пониманию и оценке сознания в ИИ с целью предотвращения «жестокого обращения и страданий» .
Другие принципы: установление ограничений на разработку сознательных систем ИИ; поэтапный подход к разработке таких систем; предоставление результатов общественности; и воздержание от вводящих в заблуждение или излишне самоуверенных заявлений о создании сознательного ИИ.
Среди подписавших письмо — такие ученые, как сэр Энтони Финкельштейн из Лондонского университета, а также специалисты по искусственному интеллекту из таких компаний, как Amazon и рекламная группа WPP.
Он был опубликован вместе с исследовательской работой , в которой излагаются принципы. В статье утверждается, что сознательные системы ИИ могут быть построены в ближайшем будущем — или, по крайней мере, такие, которые будут производить впечатление сознательных.
«Возможно, что будет создано большое количество сознательных систем, которые будут страдать», — говорят исследователи, добавляя, что если мощные системы ИИ смогут воспроизводить себя, это может привести к созданию «большого количества новых существ, заслуживающих морального уважения».
В статье, написанной Патриком Батлином из Оксфордского университета и Теодоросом Лаппасом из Афинского университета экономики и бизнеса, добавляется, что даже компаниям, не намеревающимся создавать сознательные системы, понадобятся инструкции на случай «непреднамеренного создания сознательных сущностей».
В нем признается, что существуют широко распространенные неопределенность и разногласия относительно определения сознания в системах ИИ и того, возможно ли это вообще, но говорится, что это вопрос, который «мы не должны игнорировать».
Другие вопросы, поднятые в статье, сосредоточены на том, что делать с системой ИИ, если она определяется как «моральный пациент» — сущность, которая имеет моральное значение «сама по себе, ради себя». В этом сценарии она задается вопросом, будет ли уничтожение ИИ сопоставимо с убийством животного.
В статье, опубликованной в журнале Journal of Artificial Intelligence Research, также содержится предупреждение о том, что ошибочное убеждение в том, что системы искусственного интеллекта уже обладают сознанием, может привести к пустой трате политической энергии, поскольку предпринимаются ошибочные усилия по обеспечению их благополучия.
Статья и письмо были подготовлены Conscium — исследовательской организацией, частично финансируемой WPP и соучредителем которой является главный специалист WPP по искусственному интеллекту Дэниел Халм.
В прошлом году группа ведущих ученых утверждала, что существует «реальная возможность» того, что к 2035 году некоторые системы ИИ станут сознательными и «морально значимыми».
В 2023 году сэр Демис Хассабис, руководитель программы искусственного интеллекта Google и лауреат Нобелевской премии, заявил, что в настоящее время системы искусственного интеллекта «определенно» не обладают разумом, но могут стать таковыми в будущем.
«Философы пока не пришли к единому мнению относительно определения сознания, но если мы имеем в виду некое самосознание и подобные вещи, то я думаю, что однажды ИИ может появиться», — сказал он в интервью американской телекомпании CBS.
Узнайте больше по этим темам
Искусственный интеллект (ИИ)
Этика
Стивен Фрай
новости
Делиться
Повторно использовать этот контент
Похожие истории
Пол Маккартни заявил, что изменение закона об ИИ может «обмануть» артистов
25 января 2025 г.25 Jan 2025
ИИ научился различать ароматы американского и шотландского виски
19 дек. 2024 г.19 Dec 2024
Кейр Стармер говорит, что медиакомпании должны контролировать результаты, используемые в ИИ
28 окт. 2024 г.28 Oct 2024
«Вид магии»: Питер Блейк утверждает, что возможности ИИ для искусства безграничны
5 нояб. 2023 г.
Риши Сунак рассматривает возможность запрета китайским чиновникам присутствовать на половине саммита ИИ
15 сентября 2023 г.
Риши Сунак заявил, что Великобритания возьмет на себя роль «защитных ограждений» для ограничения опасностей ИИ
19 мая 2023 г.