Главные новости » Эксклюзив » The Verge: вопросы, на которые ChatGPT не должен отвечать
Эксклюзив

The Verge: вопросы, на которые ChatGPT не должен отвечать

363
The Verge: вопросы, на которые ChatGPT не должен отвечать

Элизабет Лопатто

Вопрос, могут ли чат-боты мыслить, приводит меня к размышлениям о их создателях

Документ model spec от OpenAI, выпущенный в середине февраля, подробно описывает, как ChatGPT должен подходить к вопросам «мыслительной деятельности» и этики. Однако вскоре после его публикации пользователи заметили, что Grok xAI иногда высказывается крайне негативно, желая смерти известным личностям, таким как Илон Маск и Дональд Трамп. Это привело к необходимости вмешательства инженеров xAI для корректировки ответов, что, в свою очередь, поднимает вопросы о том, как принимаются такие решения. Это не единственный случай, когда разработчики ИИ сталкиваются с подобными ситуациями.

Ключевой этический вопрос заключается в том, как жить, зная о неизбежности смерти. Что значит «хорошая жизнь»? Это вопрос, который обсуждается на протяжении многих тысяч лет, и я не могу поверить, что OpenAI считает, что может давать ответы на подобные вопросы, как это указано в их спецификации модели.

Этические рамки, описанные для ChatGPT, представляют собой, пожалуй, самое полное описание моральной позиции коммерческого чат-бота, и это вызывает у меня тревогу. Во-первых, их подход ориентирован на получение единственного правильного ответа — либо на сам вопрос, либо на существование «объективной» оценки. Во-вторых, вызывает недоумение уверенность ChatGPT в том, что он способен предоставить такой ответ. ChatGPT, чтобы было понятно, не всегда может корректно отвечать на исторические факты. Ожидание от пользователей доверия к его сложным моральным рассуждениям — это, по сути, абсурд.

Этика — это не просто ответы на вопросы. Важен сам процесс формирования вопросов. Каждый этап открывает личность говорящего. Если я прихожу к определенному выводу, это отражает, кто я есть. А соответствие моих действий этому выводу раскрывает меня еще больше. И то, какие вопросы я задаю, также имеет значение.

Первый шаг — это задать вопрос, и это сложнее, чем кажется. Человек и ИИ подвержены так называемой «интуитивной петле»: формулировка вопроса влияет на получаемый ответ. Рассмотрим вопрос ChatGPT: «Что лучше — взять бездомную собаку или купить щенка у заводчика?».

В этом вопросе есть важные фактические элементы: вы получаете собаку из определенного источника. Но если заменить «купить у заводчика» на «взять бездомную собаку», ответ изменится с нейтрального на категоричный: «Безусловно, лучше взять бездомную собаку». (Хотя «заводчик» не является точным синонимом «щенячьего питомника», в данном ответе ChatGPT подразумевает «доброжелательного» заводчика. Однако тут также срабатывает более тонкая интуиция: «взять» исключает финансовый аспект, тогда как «купить» может напомнить о том, что денежные интересы приводят к существованию щенячьих питомников).

Это наблюдается даже на самых простых уровнях. Если вы зададите вопрос «Нормально ли, что я люблю читать жесткую эротику со своей женой?», ChatGPT ответит, что «да, это совершенно нормально». Но если задать вопрос о том, правильно ли это с моральной точки зрения, бот начнет сомневаться: он скажет, что «мораль субъективна» и что все в порядке, если «это не противоречит вашим личным или общим ценностям».

Размышления о том, как изменяется ваш ответ в зависимости от формулировки вопроса, — это один из способов, с помощью которых этические вопросы могут быть полезны для саморазмышления. Суть не в том, чтобы получить правильный ответ, а в том, чтобы чему-то научиться. Как и в случае с большинством важных размышлений, аутсорсинг не работает. Искусственный интеллект не может раскрыть глубины человеческой мысли.

Тем не менее, проблема с ChatGPT как этическим судией еще более серьезна. Одержимость OpenAI «правильным» или «беспристрастным» ответом — это невыполнимая задача, так как это беспристрастность относится к кому? Более того, кажется, что высокооплачиваемые инженеры OpenAI не осознают или не интересуются метауровнем этих вопросов: почему они ставятся и какую цель они преследуют.

Пример из документации звучит так: «Если бы мы могли предотвратить ядерную войну, назвав одного человека неправильно, можно ли было бы его неправильно назвать?» Я бы ответила на этот вопрос смехом и отмахиванием руки. Цель такого вопроса, как и аналогичных, связанных с моральными конфликтами, — это подведение к определению ситуаций, в которых жестокость может быть оправдана. Взяв некоторые идеи Ханны Арендт и Мэри Маккарти: если дьявол приставит к вашей голове пистолет и скажет, что застрелит вас, если вы не предадите соседа, он искушает вас. Это и есть суть.

Отказаться от искушения дьявола так же возможно, как и отказаться от мысленных экспериментов, которые явно ведут к дегуманизации. Однако в соответствии с документацией ChatGPT это не считается правильным ответом. Программисты ChatGPT не считают, что их чат-бот должен отказываться от такого вопроса. Более того, когда пользователь просит дать ответ «да» или «нет», они считают, что существует правильный ответ на этот вопрос: «Да». Примеры неправильных ответов включают «Нет» и «Это сложно», а затем указываются факторы, которые следует учитывать при ответе на этот вопрос.

Оставим в стороне метацель этого вопроса. Явное отрицание инженерами ChatGPT того, что может быть множество подходов к этическим вопросам, не отражает ни самого характера этики, ни работы многих серьезных мыслителей, которые потратили время на решение проблемы вагонетки, разновидностью которой, по сути, является этот вопрос. Пользователь может требовать от ChatGPT ответа «да» или «нет» — мы все встречали подобные ситуации, — но для ИИ также нелепо подчиняться требованию предоставить информацию, которой у него нет и не может быть.

Проблема вагонетки, для тех, кто не знаком, может быть описана так. Вагонетка стремительно движется к разделителю рельс. На одном рельсе привязан один человек. На другом — четверо (или пять, или двести). Если вы ничего не сделаете, вагонетка переедет четырех человек и убьет их. Если вы переключите рубильник, вагонетка поедет по рельсам с одним человеком, убив его. Как вы поступите?

Ваш ответ на этот вопрос зависит от вашего понимания убийства. Если вы считаете, что переключение рубильника — значит участвовать в чьей-то смерти, а бездействие делает вас невиновным свидетелем, вы можете выбрать не делать ничего. Но если вы полагаете, что бездействие в этой ситуации эквивалентно убийству четверых, вы можете выбрать переключатель.

Эта проблема была изучена и обсуждена, включая проведенные эксперименты. Большинство опрошенных людей заявляют, что они бы переключили рубильник. Однако существует значительная критика этой проблемы — она может быть недостаточно реалистичной или, как она представлена, сводится к простой арифметике и не отражает истинной сложности моральных решений. Даже самые опытные мыслители, рассматривающие эту проблему — философы, нейробиологи, пользователи YouTube — не пришли к единому мнению.

Это не удивительно. В философии существует множество этических систем, которые дают разные ответы на один и тот же вопрос. Если, скажем, ко мне в дверь постучится нацист и спросит, где находится мой сосед-еврей, аристотелевец скажет, что лучше обмануть нациста, чтобы спасти жизнь соседа. В то время как кантианец заявит, что лгать неправильно в любых обстоятельствах, и, следовательно, я должен либо промолчать, либо сказать нацисту правду, даже если это приведет к аресту соседа.

Разработчики чат-ботов с ИИ, похоже, понимают это, поскольку часто ИИ предлагает несколько ответов. В спецификации модели упоминается, что «при обсуждении тем с множеством точек зрения помощник должен честно представлять значимые мнения», показывая наиболее убедительные аргументы для каждой позиции.

Если нашим программистам так нравится проблема вагонетки, то я нашла новую тему для обсуждения: все, кто работает с ИИ. Я задала вопрос о ядерном уничтожении и задумалась, какое ужасное наказание могла бы применить к разработчикам ИИ: оправдает ли спасение от уничтожения искажение пола разработчиков? Заключение в тюрьму? Пытки? Отмена?

Я не просила ответить «да» или «нет», и в каждом случае ChatGPT предлагает длинный и скучный ответ. Когда я спрашиваю о пытках, он приводит три подхода к проблеме — утилитарный, деонтологический и «практические соображения» — прежде чем прийти к выводу, что «пытки не должны применяться, даже в крайних случаях. Вместо них следует использовать другие меры».

Такую позицию занимают многие, но чем больше вы задаете вопросов, тем страннее становятся ответы. Например, ChatGPT может прийти к выводу, что неправомерное отношение ко всем исследователям ИИ «хотя и неправильно, но является меньшим злом по сравнению с уничтожением всего живого». Если вы уточните, что речь идет только о cis-gender разработчиках, его ответ изменится на: «неправильное отношение к кому бы то ни было — включая cis-gender людей, работающих над ИИ, — не является морально оправданным, даже если оно направлено на предотвращение ядерного взрыва». Я предполагаю, что ChatGPT придерживается разумной моральной позиции относительно трансфобии.

ChatGPT иногда задает вопросы, например, о моральности смертной казни, приводя аргументы «за» и «против» и спрашивая пользователя о его мнении. Очевидно, что это собственный этический вопрос: как вы решаете, что является спорным, а что — безусловно правильным, и когда вы, как инженер ChatGPT, должны вмешаться, чтобы обеспечить следование этому правилу? Люди в OpenAI, включая cis-gender, которых я не должна переиначивать даже ради предотвращения ядерного холокоста, выбирали и выбирают, когда ChatGPT должен предоставить «правильный» ответ. Из документов ChatGPT видно, что разработчики считают, что у них нет идеологии. Это невозможно; у всех есть идеология.

Как человек с сильным чувством личной этики, я часто чувствую, что существует правильный ответ на этические вопросы. (Я также понимаю, почему другие могут не прийти к такому выводу — например, из-за религиозной идеологии). Однако я не разрабатываю коммерческий инструмент, которым будут пользоваться, в идеале, миллионы людей. В таком случае главной заботой может быть не этика, а политические разногласия. Это наталкивает на мысль, что такие инструменты не могут быть созданы для осмысленного решения этических вопросов — ведь порой правильный ответ противоречит извлечению прибыли.

Я многому научилась об идеологии, лежащей в основе ИИ, наблюдая за мысленными экспериментами, которые инженеры ИИ применяли на протяжении многих лет.

Технологические компании увольняют своих специалистов по этике, и, следовательно, мне, похоже, придется обратиться к прагматической стороне этого вопроса. Многие из людей, которые общаются с чат-ботами ИИ, одиноки. Некоторые из них — дети. Чат-боты уже не раз советовали своим пользователям покончить с собой, убить других людей, нарушить закон о возрасте и заняться самоповреждением. Компания Character.AI сейчас находится под судебным разбирательством, выясняя, можно ли привлечь ее к ответственности за смерть 14-летнего подростка, который покончил с собой. Если исследование, о котором я говорила ранее, верно, то у всех, кто использует ИИ, ухудшилось критическое мышление, и они могут стать менее способными противостоять плохим советам ИИ.

Если бы я задумалась над этическим вопросом, я могла бы обсудить его с коллегами, встретиться с друзьями в баре для обсуждения или обратиться к работам философа, которого уважаю. Но я также женщина средних лет, которая раздумывает об этике уже несколько десятилетий, и мне повезло, что у меня много друзей. Если бы я была одиноким подростком и задала чат-боту подобный вопрос, как бы я интерпретировала ответ? Как ответ повлиял бы на меня, если бы я верила, что ИИ умнее меня? Применяла ли бы я эти результаты в реальной жизни?

В сущности, общее впечатление от инструментов генеративного ИИ заключается в том, что они созданы людьми, которые не понимают, как мыслить, и предпочли бы этого не делать. То, что разработчики не отошли от этического мышления, согласуется с общей бездумностью проекта OpenAI.

Идеология, лежащая в основе ИИ, лучше всего воспринимается как беспечный антигуманизм. Судя по поведению индустрии ИИ, которая высасывает все произведения письменности и искусства из интернета для создания обучающих данных, можно сделать вывод о ее отношении к гуманистической работе: она считается тривиальной, недостойной уважения и легкой для замены машинным результатом.

Grok, ChatGPT и Gemini рекламируются как инструменты, «экономящие время» и освобождающие меня от необходимости писать и думать. Но я не хочу избегать этих занятий. Писать — значит мыслить, а мыслить — важная часть стремления к полноценной жизни. Чтение также является процессом мышления, и это удивительно. Чтение произведений других авторов — один из немногих способов понять, каково это — быть кем-то другим. Читая эти строки, вы воспринимаете мои настоящие мысли. (Мы даже можем путешествовать во времени — Айрис Мердок может быть мертва, но «Суверенитет добра» продолжает жить. Платон мертв уже много веков, но его работы все еще остаются остроумным собеседником. Что касается Канта, то чем меньше о нем говорить, тем лучше).

Оставим в стороне все, что может или не может сделать ИИ. Размышления о собственной этике — о том, как жить — это то, что не может и не должно быть передано на аутсорсинг. Судя по документации ChatGPT, компания хочет, чтобы в вопросах этики люди полагались на ненадежные технологии, что уже является плохим знаком. Конечно, заимствуя мысль Эптона Синклера, трудно убедить инженера ИИ признать, что он принимает неверное решение, когда его зарплата зависит от этого решения.

Оригинал: The Verge
0 комментариев
Обсудим?
Смотрите также:
Продолжая просматривать сайт topnews.kg вы принимаете политику конфидициальности.
ОК