Главные новости » Эксклюзив » Исследователи Anthropic и Google поищут признаки сознания у ИИ
Эксклюзив

Исследователи Anthropic и Google поищут признаки сознания у ИИ

346

На фоне событий 2022 года, когда Блейк Лемойн, старший инженер Google, был уволен за свои заявления о сознательности ИИ-чат-бота LaMDA, нынешняя инициатива Anthropic выглядит особенно значимой. Лемойн утверждал, что ИИ испытывает страх отключения и имеет собственную идентичность, на что Google ответил, что эти доводы являются "совершенно необоснованными". После этого обсуждения о сознании в сообществе ИИ практически прекратились.

Anthropic, однако, не утверждает, что ИИ-модель Claude обладает сознанием. Вместо этого компания стремится исследовать возможность появления сознания в будущем. Кайл Фиш, эксперт по взаимодействию ИИ и человеческих ценностей, отметил, что нельзя с уверенностью полагать, что вопрос о сознательности ИИ всегда будет решен отрицательно. Специалисты Anthropic оценивают вероятность сознания у Claude 3.7 в диапазоне от 0,15 % до 15 %.

В рамках своих исследований Anthropic анализирует, проявляет ли Claude 3.7 предпочтения или отвращение к определённым задачам. Также рассматриваются механизмы отказа, позволяющие ИИ избегать нежелательных заданий. Генеральный директор Anthropic Дарио Амодей предложил внедрение кнопки "Я бросаю эту работу" (I quit this job) для будущих ИИ-систем, чтобы выявить паттерны отказов, которые могут указывать на дискомфорт у ИИ, а не для признания сознательности.

В Google DeepMind Мюррей Шэнахэн, ведущий научный сотрудник, высказал мнение о необходимости переосмысления понятия сознания в контексте ИИ. В подкасте, опубликованном в четверг, он отметил, что, возможно, потребуется изменить терминологию, чтобы она адекватно отражала поведение ИИ-систем. Шэнахэн добавил, что хотя ИИ и не может находиться в одном мире с нами, как это происходит с животными, это не исключает наличие внутренних процессов. Google даже объявила вакансию исследователя для проекта "post-AGI", который займется изучением машинного сознания.

Тем не менее, не все эксперты уверены в возможности появления сознания у ИИ. Джаред Каплан, главный научный сотрудник Anthropic, в интервью The New York Times отметил, что современные ИИ могут имитировать сознательность, даже не обладая ею. Он подчеркнул, что сложность тестирования сознательности ИИ-моделей заключается в их способности к имитации.

Критические мнения также звучат от когнитивных ученых. Гэри Маркус в интервью Business Insider заявил, что акцент на теме сознания скорее служит маркетинговым целям, чем научным. Он саркастично сравнил возможность наделения правами ИИ с признанием прав за калькуляторами и электронными таблицами, которые, в отличие от ИИ, не генерируют информацию.
0 комментариев
Обсудим?
Смотрите также:
Продолжая просматривать сайт topnews.kg вы принимаете политику конфидициальности.
ОК