У Bing есть понятия об этичности? Чат-бот отказался писать сопроводительное письмо вместо человека

17:38    9 февраля, 2023

Чат-бот Microsoft Bing отказался писать соискателю вакансии сопроводительное письмо и заявил, что это будет «несправедливо по отношению к другим претендентам» и «неэтично». У ChatGPT, на котором основан ИИ поисковика, подобных понятий об этичности нет, и он спокойно пишет и сопроводительные письма, и все, о чем его просят.

Журналисты The Insider хотели протестировать новый Bing и попросили его написать сопроводительное письмо для соискателя на вакансию менеджера социальных сетей в бюро Insider в Сингапуре. Чат-бот отказался это делать и выдал ссылки на ресурсы и советы о том, как лучше написать такое письмо. В частности, чат-бот посоветовал изучить данные о компании и адаптировать письмо так, чтобы показать, что соискатель на должность соответствует всем требованиям.

ChatGPT же в аналогичной ситуации просьбу выполнил и написал письмо и тестовое задание (в 300 словах описать «секреты хорошего текста») даже лучше 80% соискателей-людей, в результате чего рекрутеры хотели пригласить его на «живое собеседование».

Недавно чат-бот также научился писать программы-вирусы, нацеленные на особенности операционной системы и конкретные уязвимости.

Некоторые студенты начали использовать чат-бот для сдачи экзаменов и подготовки академических работ. Сам ChatGPT недавно сдал выпускной экзамен в одной из лучших бизнес-школ. Даже судьи начали использовать ChatGPT: так, судья в Колумбии использовал чат-бот для вынесения решения по спорному делу.



© NEWS.am Medicine