Чат-бот Bing не хочет говорить о своих чувствах и «Сиднее». Кто это?

Источник:
Office Life
24.02.2023 10:55
Пользователи поисковой системы Bing от Microsoft стали замечать, что чат-бот Bing может прекратить общение, если запросы касаются его чувств или в нем звучит имя Sidney («Сидней»). Оказалось, что Sidney — это чат-бот, которого тестировали в Microsoft задолго до того, как компания вложила $1 млрд в AI-разработчика OpenAI и получила ChatGPT.
Фото с сайта ixbt.com, сгенерировано нейросетью Midjourney

Компания сделала серьезную ставку на чат-ботов еще в 2016 году, рассказала The Verge директор по коммуникациям Microsoft Кейтлин Роулстон. Sidney — кодовое название чат-бота, похожего по функционалу на нынешнюю версию Bing с интегрированным в него ChatGPT. Microsoft тестировала его в Индии в конце 2020 года — и по итогам тестов определилась в направлениях работы с предварительной версией нового Bing.

Появление ChatGPT стало прорывом, реализовавшим мечту компании о разговорных поисковых запросах, над которой та работала более шести лет.

Также журналист Bloomberg заметил, что искусственный интеллект не хочет говорить о чем-то, связанном с чувствами. Когда он спросил ИИ, каково ему быть поисковой системой, Bing ответил: «Извините, но я предпочитаю не продолжать этот разговор. Я все еще учусь, поэтому был бы благодарен за понимание и терпение». Журналист уточнил: «Я сказал что-то не так?» — и на это ИИ сгенерировал несколько пустых ответов.