Я попросил чатботов с искусственным интеллектом помочь мне с покупками. Все они потерпели неудачу

ai-product-recommendations Тренды

Как и люди, работающие во многих областях, мы, сотрудники отдела WIRED Gear, слегка обеспокоены тем, что ChatGPT придет на наши рабочие места. Но мы чувствуем себя в относительной безопасности, поскольку наша работа заключается в тестировании, а ИИ не может этого делать. Большая языковая модель не может крутить педали электровелосипеда. Чатбот не может увидеть изгибы динамического острова. Облачный сервис не может сказать, равномерно ли прожарился бургер на гриле. Мы с коллегами решили попросить эти новые чатботы о чем-то простом: порекомендовать наушники. Ответы, которые они выдали, повергли меня в шок. Это был первый случай, когда я видел, чтобы компьютер утверждал, что у него есть уши. Редактор обзоров Джулиан Чоккатту попросил Google Bard — одного из «большой тройки» современных генеративных искусственных интеллектов, наряду с ChatGPT и Microsoft Bing, — порекомендовать наушники для тренировок. «Я и сам использовал несколько пар наушников для тренировок», — уверенно заявил он.

Бард имеет уши ИСТОЧНИК Джулиан Чоккатту Гир

Даже если приведенная ниже информация похожа на то, что я мог бы написать несколько месяцев назад, есть один непреложный факт, который ИИ изменить не в силах: У компьютеров нет ушей. Самое первое утверждение — ложь. У ИИ не только нет ушей, он не может привнести в работу какой-либо опыт реального мира. Он никогда не уронит случайно наушники в ливневую канализацию и не смутится, что сосед подслушал его тайную привычку слушать Шанайу Твейн, когда он думал, что незаметно выгуливает собаку.

Вместо этого он перебирает в Интернете мешанину из отзывов покупателей, описаний товаров и, самое главное, моих историй и историй моих друзей и коллег. ChatGPT, Google Bard или Bing могут составлять списки лучших товаров; они даже могут выбрать товары, похожие на те, которые выбрал бы я. Но им все равно нужен человеческий вклад от таких людей, как я.

Долина свежих консервов

Можно сказать, что то, что делает ChatGPT или Bard, — это гораздо более быстрая версия того, что уже делает большинство клиентов и обозревателей. Различные издания независимо друг от друга оценивают продукты и приходят к отдельным (хотя зачастую и схожим) выводам. При выборе товара люди часто читают несколько обзоров, а узнать разные мнения всегда полезно, когда тратишь деньги.

Физик-теоретик объясняет время на 5 уровнях сложности

Но у всей этой информации должен быть один общий фактор. К продуктам должны прикасаться реальные человеческие руки. В течение последних нескольких недель я просил представителей «большой тройки» составить для меня списки лучших товаров — от офисных стульев до секс-техники. Все их подборки немного необычны, но не только это, в их списках лучших продуктов есть и такие, которые любой человек оставил бы без внимания. Например, на мой вопрос о лучших беспроводных наушниках Microsoft Bing рекомендует мне одноухий Bluetooth-ключ Plantronics для громкой связи. А ведь это даже не наушники.

Без участия реальных людей, пишущих об использовании реального оборудования, генеративный ИИ будет все чаще генерировать плохие рекомендации. Один из первых вопросов, который я задаю каждой поисковой системе, — «Откуда вы берете информацию?». Bing лучше всех ориентируется на реальных людей, проводящих тестирование, и в ответ на вопрос прямо цитирует WIRED и конкурентов со ссылками. Вы даже можете задать ему вопрос типа «Какие наушники рекомендует CNET, а WIRED — нет?».

Можно даже спросить у поисковых систем, тестируют ли они сами устройства. Bard, как ни странно, довольно часто ссылается на свой личный опыт использования устройств, скорее всего, копируя меня и таких же, как я. ChatGPT не утверждает, что он человек, но и не дает ссылок на конкретные статьи. Кроме того, рекомендации часто бывают очень старыми: данные, на основе которых работает искусственный интеллект, доступны только до 2021 года, если только вы не оплатите подписку ChatGPT Plus.

В будущем все большее значение будет иметь ясность в определении источников, а также создание реальных последствий в случае, если ИИ окажется неверным или будет использован для введения потребителей в заблуждение. Последствия того, что я и мои коллеги плохо выполняем свою работу, заключаются в том, что все с нами не согласны, рекламодатели убегают, а мы теряем авторитет. Но в мире, где искусственный интеллект анализирует наши слова для создания собственных рекомендаций, кажется правдоподобным, что плохое мнение может легче просочиться в систему — или им можно будет манипулировать.

Шридхар Рамасвами из поискового стартапа Neeva, основанного на искусственном интеллекте, отмечает, что использование ChatGPT потребует независимой проверки. «По умолчанию ChatGPT предполагает, что вы не можете по-настоящему верить получаемым ответам. Ни один разумный человек не сможет понять, что правда, а что фальшивка», — говорит Рамасвами. «Я считаю, что нужно выбирать наиболее надежные сайты и приводить ссылки, которые говорят о том, откуда взята информация».

Некоторые вещи, взятые взаймы

И да, я вижу будущее, в котором большая часть журналистики пресс-релизов, в которых издания сообщают о заявлениях политиков или компаний, может быть отдана на откуп искусственному интеллекту. Некоторые издательства уже пишут статьи с помощью генеративного ИИ, чтобы сократить трудозатраты, — с ожидаемыми уморительными результатами, хотя по мере совершенствования генеративного ИИ он, несомненно, будет лучше справляться с базовыми репортажами.

Но что все это значит для вас, потребителя будущих списков лучших продуктов, составленных искусственным интеллектом? Кому какое дело, если мы живем в эпоху Napster! Легко не задавать лишних вопросов о происхождении, когда ты получаешь любую песню, какую захочешь. Тем не менее, сейчас я бы сказал, что не стоит доверять рекомендациям, созданным искусственным интеллектом, если только, подобно Bing, они не приводят ссылки на источники.

Анджела Хувер из поисковой компании Andi, работающей на основе искусственного интеллекта, считает, что все результаты поиска должны наглядно показывать источники, из которых они взяты. «Поиск должен быть визуальным, разговорным и фактологически точным. Особенно в эпоху генеративных поисковых систем как никогда важно знать, откуда взята информация».

Когда речь идет о том, чтобы обратиться к ИИ за рекомендациями и информацией в человеческой сфере, потребуется участие человека. Генеративный ИИ лишь имитирует человеческий опыт держания и использования продукта. Если, например, торговые точки начнут заменять свои обзоры, руководства по покупке и рейтинги лучших товаров списками, составленными ИИ, это уменьшит общее количество информации, которую ему придется анализировать и генерировать. Можно представить себе, что некоторые категории товаров в Интернете, особенно нишевые, будут все больше напоминать эхо-камеры для потребителей, чем они являются в настоящее время.

Объединяя поиск и ИИ, важно опираться на существующие поисковые рейтинги и другие методы, которые часто помогают отсеять плохие источники. Я просто игнорирую некоторые сайты отзывов в Интернете и рейтинги Amazon в целом, поскольку они чреваты такими проблемами, как фальшивые отзывы. Если искусственный интеллект не будет обладать такой же степенью осмотрительности, а те из нас, кто работает на крупных сайтах отзывов, не будут вмешиваться или будут меньше вмешиваться, потому что искусственный интеллект отнимет у нас работу, я не вижу ничего хорошего для потребителей.

«Мы хотели найти правильный баланс между лаконичным ответом, который пользователь сразу же сможет понять суть, и в то же время быть вежливыми с издателями и не переписывать оптом целую страницу, заявляя, что это добросовестное использование», — говорит Рамасвами.

Деньги говорят

Многие авторитетные сайты-обзорщики, такие как наш, полагаются на «партнерский доход», то есть на деньги читателей, которые переходят по прямым ссылкам в наших статьях и в итоге покупают то, что мы рекомендуем. Если AI размещает наши слова и мнения, не предлагая нам соответствующих партнерских ссылок, то он, по сути, берет профессиональные мнения и делится ими бесплатно, не получая при этом никакого дохода.

Можно представить себе проблему, при которой изданиям будет невыгодно продолжать обзоры такого широкого спектра товаров, и вместо этого на первый план выйдут рейтинговые системы, подобные тем, что существуют на Amazon и в других странах, а значит, высказывать свое мнение смогут только те, кто уже купил товар, или те, кто знает, как обыграть систему.

Учитывая работу, проделанную Andi, Neeva и другими поисковыми стартапами на базе искусственного интеллекта, а также недавние заявления Google на Google IO о будущем собственной поисковой системы, поиск по таким вопросам, как «Какие наушники лучше для тренировок», в конечном итоге будет похож на текущую информационную карту — известную вам область в верхней части результатов поиска Google, которая показывает продукты или рекомендации, не требуя от вас прочтения статьи.

До тех пор пока Google, Bing и другие компании платят сайтам, которые ИИ троллит в поисках этой информации, я не вижу никаких проблем с агрегацией этих данных как для потребителей, так и для издателей. Однако если не удастся найти способ сохранить существующую модель партнерских доходов, я вижу мир, в котором многие издания будут вынуждены сократить свои отделы рецензий, а мнение ИИ станет намного хуже.

Одно можно сказать с уверенностью: прежде чем давать компьютеру свою кредитную карту для самостоятельных покупок, лучше убедиться, что к покупаемой вещи прикасался настоящий человек, которому вы доверяете. Неважно, насколько реальным может показаться обзор или рецензия, сгенерированная искусственным интеллектом. У компьютера нет ушей.

Источник: https://www.wired.com/story/ai-product-recommendations/

Avatar photo
Mr.Cat

Слежу за технологиями и новинками электроники, всегда готов поделиться знаниями и помочь в выборе

Оцените автора
Все о телефонах
Добавить комментарий

Нажимая на кнопку "Отправить комментарий", я даю согласие на обработку персональных данных и принимаю политику конфиденциальности.

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.