Главные новости » Эксклюзив » Почему технологические миллиардеры хотят, чтобы боты стали вашими лучшими друзьями
Эксклюзив

Почему технологические миллиардеры хотят, чтобы боты стали вашими лучшими друзьями

329

В условиях растущего одиночества, которое стало настоящей социальной проблемой, Маск и другие технологические гиганты предлагают ИИ как решение, способное заменить человеческое общение. Исследования показывают, что одиночество может быть столь же опасным для здоровья, как курение 15 сигарет в день. Гарвардское исследование установило, что взаимодействие с ИИ-компаньоном более эффективно для борьбы с одиночеством, чем просмотр видео на YouTube.

Ранее, чтобы найти друга, люди заводили домашних животных. Сегодня же у них есть возможность выбрать «друга» от миллиардера.

Рост числа пользователей ИИ, стремящихся к общению, способствует привлечению новых инвестиций и ресурсов для усовершенствования технологии. Это создает порочный круг, который можно назвать «экономикой друзей», основанной на чувстве одиночества.

Однако это также порождает риск создания ИИ с определенным уклоном в мировоззрении, как, по всей видимости, намерен сделать Маск с Grok. Легко представить мир, где все цифровые «друзья» придерживаются одной идеологии, будь то MSNBC или Fox News.

На днях Марк Цукерберг привлек внимание, отметив, что среднем статистическом американце менее трех друзей, и он стремится увеличить это число с помощью ИИ. Он предполагает, что потребительские приложения будут адаптированы под индивидуальные предпочтения пользователей. «Люди захотят системы, которые понимают их так же, как алгоритмы новостных лент», — заявил он.

Мустафа Сулейман из Microsoft также подчеркивает важность персонализации ИИ. «Мы хотим, чтобы пользователи чувствовали, что общаются с настоящим другом, который поддерживает их и разделяет их ценности», — сказал он.

Тем не менее, Microsoft надеется установить границы, чтобы избежать хаоса. «Мы не хотим создавать проблемы», — отметил Сулейман, добавив, что важно оставаться вежливыми и беспристрастными, чтобы отразить разные позиции в спорах.

Таким образом, современные чат-боты разрабатываются с целью имитировать человеческое взаимодействие, что вызвало множество споров. Ученые предостерегают от риска эмоциональной привязанности пользователей к ИИ, упоминая случаи, когда люди чрезмерно увлекались общением с ботами.

Идея о любви человека к ИИ не нова: она была исследована в фильме 2013 года «Она», где Хоакин Феникс влюбляется в ИИ, озвучиваемый Скарлетт Йоханссон. Однако в нашем обществе, которое всего одно поколение живет с социальными сетями, мы начали осознавать, как алгоритмы могут иметь непреднамеренные последствия.

Эти алгоритмы могут создавать эхо-камеры, которые усиливают существующие взгляды, не позволяя расширить горизонты. Примером этого является недавний инцидент с перезапуском Grok.

Grok и xAI были созданы в ответ на опасения Маска в отношении ИИ, разрабатываемого «проснувшимися» компаниями. Он критиковал Google за излишнюю политкорректность и недостаток фактической точности. Маск стремится создать ИИ, который будет максимально приближен к истине.

Когда пользователь X под псевдонимом Catturd раскритиковал Grok, Маск быстро отреагировал на его замечания. «Когда Grok появился, он был отличным, а сейчас это просто фейковые новости, которые повторяют либеральные лозунги», — написал Catturd. В ответ чат-бот заявил, что стремится давать точные и нейтральные ответы на основе доступных данных и что его возможные ошибки могут быть вызваны разногласиями с источниками.

Маск выразил недовольство: «Ваши источники ужасны. Только глупый ИИ может доверять [Media Matters] и [Rolling Stone]! На этой неделе вас обновят», — сказал он.

Позже Маск заявил, что xAI переобучит ИИ на основе обновленной версии Grok с «усовершенствованным мышлением», которая будет использована для исправления ошибок и дополнения информации.

В конце концов, никому не нужен друг, который постоянно говорит ерунду.
0 комментариев
Обсудим?
Смотрите также:
Продолжая просматривать сайт topnews.kg вы принимаете политику конфидициальности.
ОК