사람은 같은 인간과 대화할 때보다, 폼 · 챗봇 등 디지털 요소와 인터렉션할 때 거짓말할 가능성이 2배 이상 높아집니다.

06/28/2022, 02:03

미시간 대학 조교수 Alain Cohn이 논문 Honesty in the Digital Age에서 발표한 실험 결과입니다.

온라인 폼, 챗봇 등 자동화된 문의 · 상담 툴은 고객 지원 리소스를 아껴주기에 많은 제품에서 활용하고 있습니다. 그런데 유저는 얼마나 솔직하게 이 툴을 이용할까요?

1. 848명의 피험자를 대상으로 동전을 10번 던지게 한 후, 특정 면이 많이 나오면 상금을 주겠다고 이야기했습니다.
2. 피험자 중 일부는 던지기 결과를 화상 통화/채팅을 통해 연구원에게 직접 보고하고, 나머지 일부는 온라인 폼이나 음성 비서 봇을 통해 간접 보고하도록 합니다.

실험 결과, 전체 평균 9%의 피험자가 결과를 속였다고 추정했습니다. 온라인 폼이나 음성 비서 등 디지털 요소를 활용해 보고한 피험자에 한해서는 이 수치가 22%까지 올라갔습니다. 노골적인 사기 행각(10번 중 9~10번 성공했다고 보고)도 연구원에게 직접 보고할 때보다 3배 이상 빈번했습니다.

연구자가 자신을 어떻게 생각할까를 묻는 피험자 대상의 설문에서, '디지털 요소 보고 피험자'는 자신과 연구자 사이의 관계를 비교적 덜 친밀한 것으로 답했습니다. 자신의 평판을 떨어뜨리지 않으려는 본능이 인간과 대화했을 때 발현되어 답변의 정직성에 영향을 미친 것입니다.

그렇다고 디지털 요소 상호작용이 곧 거짓말로 이어지는 것은 아닙니다.
두 번째 실험에서는 원래 거짓말을 할 가능성 높은 피험자가 결과 보고 시 디지털 요소를 선택할 확률이 높다는 점을 알아냈습니다.

고객 지원 툴에서의 거짓말로 인한 문제를 예방하려면 이런 툴에 의한 응대를 최대한 인간적으로 설계하고, 거짓말할 가능성이 높은 상황에 놓인 유저를 미리 분리해 실제 사람 상담원과 연결해야 합니다.

게시 멤버

슉슉이

댓글 1

눈으로 읽고 끝내지 마세요. 인사이트에 대한 생각을 공유해주세요!