Роботы кажутся более убедительными, когда притворяются людьми: когда боты раскрывают свою нечеловеческую природу, их эффективность снижается

В своей статье под названием «Поведенческие доказательства компромисса между прозрачностью и эффективностью при взаимодействии человека и машины», опубликованной в Nature Machine Intelligence, исследователи представили свой эксперимент, в котором участников просили сыграть в игру сотрудничества либо с партнером-человеком, либо с партнером-ботом. Эта игра, получившая название «Итеративная дилемма заключенного», была разработана для выявления ситуаций, в которых каждая из взаимодействующих сторон может либо действовать эгоистично, пытаясь использовать другую, либо действовать сообща, пытаясь достичь взаимовыгодного результата.

Важно отметить, что исследователи предоставили некоторым участникам неверную информацию о личности их партнера. Некоторым участникам, которые взаимодействовали с человеком, сказали, что они взаимодействуют с ботом, и наоборот. С помощью этого эксперимента исследователи смогли определить, предвзято ли люди по отношению к социальным партнерам, которых они считают ботами, и оценить степень, в которой такое предубеждение, если оно существует, влияет на эффективность ботов, которые прозрачны в отношении своей нечеловеческой природы.
Результаты показали, что боты, изображающие людей, более эффективно склоняли партнера к сотрудничеству в игре.

Однако, как только их истинная природа была раскрыта, скорость сотрудничества упала, и превосходство ботов было сведено на нет.
«Хотя существует широкий консенсус в отношении того, что машины должны быть прозрачными в отношении того, как они принимают решения, менее ясно, должны ли они быть прозрачными в отношении того, кто они такие», – сказал Рахван.
"Рассмотрим, например, Google Duplex, автоматический голосовой помощник, способный генерировать человеческую речь, чтобы совершать телефонные звонки и назначать встречи от имени своего пользователя. Речь Google Duplex настолько реалистична, что человек на другой стороне телефона может даже не осознавать, что разговаривает с ботом.

Этично ли разрабатывать такую ​​систему?? Должны ли мы запретить ботам выдавать себя за людей и заставить их открыто сообщать, кто они? Если ответ «Да», то наши выводы подчеркивают необходимость установления стандартов затрат на эффективность, которые мы готовы платить в обмен на такую ​​прозрачность."