
AI 챗봇 의인화가 사용자 경험에 미치는 영향: 심리적 경로와 맥락적 조건에 대한 체계적 문헌 고찰
초록
연구배경 대화형 AI 챗봇은 정보 검색의 보조자에서 사회적·정서적 상호작용을 수행하는 관계로 빠르게 진화하고 있으며, 이러한 과정에서 인간적 특성을 부여하는 의인화는 긍정적인 사용자 경험을 유도하는 전략으로 주목받고 있다. 그러나 의인화 효과는 일관되지 않으며, 어떤 요소가 어떤 과정을 거쳐 사용자 경험에 영향을 미치는지에 대한 통합적 이해는 부족한 실정이다. 이에 본 연구는 챗봇 의인화와 사용자 경험 사이의 복합적인 관계를 체계적으로 분석하고, 그 과정에 영향을 미치는 매개 과정과 맥락적 조절 조건을 종합적으로 제시하고자 한다.
연구방법 PRISMA 가이드라인에 따라 체계적 문헌 고찰을 수행했다. 주요 학술 DB에서 관련 핵심 검색어를 조합하여 2018년부터 2025년까지 발표된 AI 챗봇 의인화 및 사용자 경험 관련 주요 실증 연구 86편을 최종 분석 대상으로 선정하였다. 선정된 문헌들을 바탕으로 의인화 구현 방식, 심리적 매개와 맥락적 조절 과정, 그리고 사용자 경험 결과 데이터를 추출하고 주제별로 분석 및 종합하였다.
연구결과 챗봇의 의인화는 시각적, 언어적, 성격적 요소를 통해 구현되며, 이 요소들은 사회적 현존감과 신뢰와 같은 심리적 경로를 통해 매개되며, 이러한 매개 과정이 사용자 특성과 상황적 특성과 같은 맥락적 조건에 의해 조절되는 것으로 나타났다. 최종적으로 사용자 경험은 몰입과 만족 같은 긍정적 차원과 정서적 의존, 프라이버시 우려 등 부정적 차원을 모두 포함하는 양면적 결과로 나타났다.
결론 본 연구는 ‘의인화 요소-심리적 매개-맥락적 조건-사용자 경험’ 간의 동적 상호작용을 규명함으로써 이를 통해 AI 챗봇 의인화 연구 동향에 대한 포괄적인 이해를 제공하고, 보다 효과적이고 책임감 있는 챗봇 설계를 위한 실무적 가이드라인과 향후 연구 방향을 제안한다.
Abstract
Background Background Conversational artificial intelligence (AI) chatbots are evolving from information retrieval tools to partners capable of social and emotional interactions. Anthropomorphism has emerged as a key strategy to enhance user experience, yet its effects remain inconsistent. Therefore, this study aims to systematically analyze the complex relationship between chatbot anthropomorphism and user experience, presenting an integrated framework of mediating processes and contextual conditions.
Methods A systematic literature review was conducted following the PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses) guidelines. Eighty-six key empirical studies published between 2018 and 2025 were selected from major academic databases. Data concerning anthropomorphism implementation, psychological mediators, contextual moderators, and user experience outcomes were extracted and thematically synthesized.
Results Chatbot anthropomorphism is implemented through visual, verbal, and personality-based elements. These elements are mediated through four psychological pathways: social relationship formation, trust building, perceived competence, and autonomous control. Furthermore, these mediating processes were moderated by contextual conditions such as user characteristics and situational attributes. Ultimately, user experience manifested as a dual outcome, encompassing both positive dimensions like immersion and satisfaction, and negative dimensions such as emotional dependence and privacy concerns.
Conclusions By elucidating the dynamic interactions among ‘anthropomorphism elements - psychological mediation - contextual conditions - user experience,’ this study provides a comprehensive understanding of research trends in AI chatbot anthropomorphism. Additionally, the study offers practical guidelines for more effective and responsible chatbot design and proposes directions for future research.
Keywords:
AI Chatbot, Anthropomorphism, User Experience, Literature Review, AI 챗봇, 의인화, 사용자 경험, 문헌연구1. 연구 배경 및 연구 방법
1. 1. 연구 배경과 필요성
인공지능 기술의 발전은 인간-컴퓨터 상호작용 패러다임을 근본적으로 변화시키고 있다. 그 중심에 있는 AI 챗봇은 1960년대 이후 비약적으로 발전해 왔는데, 초기 규칙 기반 시스템인 Eliza와 Parry와 같은 챗봇에서 출발하여, 과업 중심의 개인 비서를 거쳐, 이제는 사용자와 감성적 교류가 가능한 사회적 행위자로 진화하고 있다(Shum et al., 2018). 특히 Microsoft의 XiaoIce와 같은 소셜 챗봇의 성공은 챗봇의 평가 기준이 단순히 지능(IQ)뿐만 아니라 사용자와의 감성적 유대를 형성하는 감성 지능(EQ)으로 확장되고 있음을 보여준다(Shum et al., 2018).
이러한 진화의 중심에는 챗봇에 인간적 특성을 부여하는 의인화(Anthropomorphism) 전략이 자리 잡고 있다. 챗봇의 의인화는 사용자가 챗봇을 단순한 도구가 아닌, 사용자 삶의 정서적 지지자 및 사회적 파트너로 인식하게 만들어 긍정적인 사용자 경험을 유도하는 강력한 기제로 확인되었다(Blut et al., 2021).
그러나 선행 연구를 살펴보면 챗봇에 반영된 의인화의 효과는 일관되지 않는다. 어떤 연구에서는 의인화가 유용성, 즐거움, 신뢰감을 높인다고 보고하는 반면(Ghaniabadi, 2024), 다른 연구에서는 오히려 사용자의 기대를 위반하여 부정적인 결과를 낳거나(Tsai & Chuan, 2024), 특정 맥락에서는 효과가 미미하다고 주장한다(김미진 & 김하균, 2025). 이러한 상충된 결과는 의인화의 효과가 일관된 사용자 경험을 제공하지 않으며, 다양한 요인들의 복합적인 상호작용 속에서 발현됨을 시사한다. 하지만 어떤 의인화 요소가, 어떤 매개 과정을 거쳐, 어떤 사용자 경험으로 이어지는지에 대해 체계적으로 종합하여 분석한 연구는 부족한 실정이다. 이에 본 연구는 최근 발표된 주요 연구들을 종합하여, 챗봇의 의인화가 사용자의 심리적 상태를 거쳐 최종적으로 다차원적 사용자 경험으로 확장되는 과정을 체계적으로 분석하고자 한다. 더 나아가 이러한 인과적 경로의 작동 방식이 사용자의 개인적 특성이나 사용 상황과 같은 맥락적 조건에 따라 어떻게 변화하는지 규명함으로써, 의인화 효과를 포괄적으로 설명할 수 있는 통합적 프레임워크를 제안하고자 한다. 이를 위해 (1) 챗봇 의인화의 핵심 요소를 분류하고, (2) 의인화 효과가 사용자 경험으로 이어지는 심리적 매개 과정을 분석하며, (3) 이러한 과정의 효과를 변화시키는 맥락적 조건을 규명하고, (4) 최종적으로 나타나는 다차원적 사용자 경험을 종합하는 것을 목적으로 한다.
1. 2. 연구 방법
본 연구는 AI 챗봇 의인화 연구의 현황을 종합하고 이론적 프레임워크를 구축하기 위해 Moher et al.(2009)이 제시한 PRISMA(Preferred Reporting Items for Systematic reviews and Meta-Analyses) 가이드라인에 따라 체계적 문헌 고찰을 수행했다. 문헌 검색 기간은 챗봇의 패러다임이 단순한 기능적 도구에서 사회적 행위자로 전환되며, 감성 지능에 대한 논의가 본격화된 2018년을 기점으로 선정하였다. 이에 따라 2018년 1월부터 2025년 9월까지 출판된 문헌을 대상으로 Scopus, Web of Science, PubMed, ACM Digital Library, Google Scholar 등 주요 학술 데이터베이스에서 검색을 진행하였다. 이때 (‘AI chatbot’ OR ‘social chatbot’ OR ‘conversational agent’) AND (‘anthropomorphism’ OR ‘human-like’ OR ‘social cues’) AND (‘user experience’ OR ‘engagement’) 등의 핵심 키워드를 조합하여 사용하였다.
초기 검색을 통해 166편의 문헌이 수집되었으며, 중복 제거, 제목 및 초록 검토, 원문 검토 단계를 거쳐 최종적으로 86편의 문헌이 분석 대상으로 선정되었다. 이후 선정된 각 문헌에서 연구 설계, 표본 크기, 챗봇 의인화 조작 방식, 주요 측정 변수(독립, 매개, 조절, 종속), 핵심 연구 결과 등의 데이터를 추출하였다. 추출된 데이터는 본 연구의 분석 틀인 ‘의인화 요소’, ‘심리적 매개 과정’, ‘맥락적 조절 조건’, ‘사용자 경험’의 네 가지 범주에 따라 주제별 코딩을 통해 분류되었다. 이후, 개념적 합성 방법을 사용하여 변인들 간의 상호 관계를 분석하였다.
2. AI 챗봇의 의인화 요소
의인화는 비인간적 대상에 인간의 특성, 의도, 감정 등 인간다운 속성을 부여하는 경향을 의미하며, 이는 진화심리학적 관점에서 인간이 환경을 이해하고 예측하기 위해 발달시킨 적응적 메커니즘으로 해석되기도 한다(Blut et al., 2021; Epley et al., 2007).
AI 챗봇의 맥락에서 의인화는 사용자가 챗봇을 단순한 소프트웨어를 넘어서 사회적 파트너, 심지어 정서적 동반자로 인식하도록 유도하는 디자인 전략으로 활용된다(조준혁, 2022). 이러한 현상은 CASA(Computers Are Social Actors) 패러다임으로 설명될 수 있는데, 이 이론에 따르면 인간은 컴퓨터에게도 무의식적으로 사회적 규범과 기대를 투사하며 컴퓨터를 사회적 행위자로 인식하고 상호작용한다는 것이다(Reeves & Nass, 1996).
선행 연구들은 초기에 의인화를 주로 외형적 특징(아바타, 표정, 제스처 등) 중심으로만 연구하는 경향이 강했다(Epley et al., 2007). 그러나 최근에는 챗봇의 의인화가 단순한 외형적 특성과 함께 대화의 맥락, 상황 인지, 감정적 반응까지 포함하는 더 복합적인 개념으로 확대되고 있음을 강조한다(Verhagen et al., 2021). 즉, 의인화는 단일한 개념이 아니라 다양한 디자인 단서를 통해 구현되는 다차원적인 특성으로서(Chaves & Gerosa, 2021), 사용자와 챗봇이 맺는 관계의 질적 차이를 결정짓는다.
본 연구는 다수의 선행 연구를 종합하여, 챗봇의 의인화 요소를 크게 시각적, 언어적, 성격적 의인화라는 세 가지 범주로 분류하였다.
이러한 분류는 챗봇의 사회적 특성을 인간 지향성 및 상호작용 과정 지향성으로 구조화한 Chaves & Gerosa(2021)의 연구와 의인화를 외형, 음성, 상호작용 스타일 등 구체적인 디자인 차원으로 나누어 분석한 Mehmood et al.(2024)의 연구를 바탕으로 하여, 기존 논의에서 제시된 다양한 관점을 통합한 결과이다<Table 1>.
2. 1. 시각적 의인화
시각적 의인화는 사용자가 시각적으로 지각하는 챗봇의 외형적 단서를 의미한다. 이는 챗봇의 사회적 존재감을 형성하는 데 중요한 역할을 하며, 사용자의 몰입과 신뢰 형성에 직접적으로 작용한다.
대표적인 시각적 의인화 방식은 아바타를 활용하는 것이며, 이는 인간·캐릭터·로봇 등 다양한 형태로 구현된다. 특히 인간과 유사한 외형은 사용자의 초기 주의를 끌고 챗봇을 실제 사람처럼 느끼게 하여 사회적 실재감을 강화하는 효과가 있다(최지혜 & 노기영, 2022). 이러한 효과는 신경생리학의 뇌파측정(EEG)을 활용한 객관적인 연구를 통해서도 뒷받침되는데, Chen et al.(2024)은 뇌파 측정을 통해, 동적인 아바타와 인간적인 목소리가 결합될 때 사용자의 뇌에서 가장 강한 무의식적 정서 반응이 유발되는 점을 밝혀냈다.
그러나 이러한 효과는 상호작용이 일어나는 대화의 성격과 프라이버시 수준과 같은 맥락에 따라 달라질 수 있다. 인간적인 외형에 기계적인 대화 스타일이 결합될 경우 사용자의 기대를 위반하여 만족도와 신뢰가 저하되는 기대 위반 효과가 나타나기도 하며(Chen et al., 2024), 심리 상담과 같이 민감한 정보를 다루는 대화 맥락에서는 시각적 아바타가 자기노출을 방해하는 요소로 작용한다는 보고도 있다(Kang & Kang, 2024). 또한, 불완전하게 인간을 닮은 외형은 오히려 불쾌한 골짜기 현상을 유발할 수 있어 주의가 필요하다(Łukasik & Gut, 2025). 이에 Kwak et al.(2024)은 다소 캐릭터화된 친근한 디자인이 사용자에게 안정감을 주어 친밀감을 높인다고 주장하였다.
비언어적 표현 역시 시각적 의인화의 중요한 차원으로 논의된다. 장운초 외(2025)는 AI 챗봇의 시각 요소 중 표정의 다양성과 색채 및 채도가 사용자 감정 반응에 유의미한 영향을 미친다고 밝혔다. 이와 더불어 텍스트 기반 대화에서 자주 사용되는 이모티콘은 부족한 비언어적 단서를 보완하고 감정을 효과적으로 전달하는 수단이다. 특히 긍정적 이모티콘은 사용자가 챗봇을 더 실제처럼 느끼게 하여 구매 의도와 만족도를 높이는 것으로 나타났다(Xie et al., 2025).
2. 2. 언어적 의인화
언어적 의인화는 챗봇이 사용자와의 대화 과정에서 드러내는 언어적 특성을 통해 인간다움을 구현하는 설계 요소를 의미한다.
대표적인 구현 방식은 음성 인터페이스와 대화 스타일링으로, 대화의 스타일·톤·정서 표현을 통해 사용자가 챗봇을 사회적 상대로 인식하게 만드는 중요한 차원으로 평가된다. 선행 연구에 따르면 언어적 의인화는 챗봇과의 상호작용 품질을 결정짓는 장치로서 사용자 경험 전반에 일관되고 강력한 영향을 미친다(Tsai & Chuan, 2024; Yang et al., 2025).
음성은 텍스트보다 더 자연스러운 상호작용을 가능하게 하며, 대화 스타일 차원에서는 공손하고 자연스러운 문체, 구어적 표현, 유머와 같은 감정적 언어가 챗봇의 인간다움을 높인다(Liu & Sundar, 2018). 아울러 칭찬과 격려 같은 언어적 애정 표현 역시 사용자의 친밀도와 만족도를 높이는 데 효과적이다(이채윤 외, 2025). 또한, 챗봇이 먼저 자신의 경험을 공유하는 상호적 자기노출과 공감적 반응은 사용자가 챗봇을 사회적 파트너로 인식하도록 하여 몰입과 지속사용의도를 높이는 것으로 나타났다(송유진 & 최세정, 2020).
그러나 언어적 의인화가 항상 긍정적 경험으로 이어지지는 않는다. 감정적으로 풍부한 톤의 음성은 단기적으로 외로움을 완화하는 긍정적 효과가 있는 반면, 장기적으로는 고립감 해소를 위해 챗봇 사용량을 늘릴수록 오히려 실제 인간관계로부터 소외되거나 사회적 외로움이 증폭되는 사용량의 역설을 초래할 수 있다(Fang et al., 2025). 그리고 과도한 자기노출이나 부자연스러운 공감 표현은 오히려 신뢰 저하와 같은 부정적 반응을 초래할 수 있다(Chung & Kang, 2023). 특히 언어 단서와 시각적 단서가 불일치할 경우, 예를 들어 친근한 동물 형태의 캐릭터 아바타가 사용자의 질문에 대해 지나치게 사무적인 격식체로 답할 때는 사용자 기대 위반 효과가 발생할 수 있다(Tsai & Chuan, 2024).
2. 3. 성격적 의인화
성격적 의인화는 대화 전반에 걸쳐 일관되게 나타나는 챗봇의 고유한 기질·정체성이다. 이는 단순히 외형이나 언어적 표현을 넘어, 장기적 상호작용 속에서 사용자가 챗봇을 특정한 페르소나(Persona)로 인식하고 지속적인 관계를 형성하도록 만든다.
챗봇의 의인화된 성격은 단순한 인간 모방을 넘어 사용자가 챗봇을 일관된 정체성을 지닌 사회적 행위자로 경험하게 만드는 핵심 전략이다(Yu & Lan, 2024). 주요 구현 방식으로는 특정 역할 부여, 일관된 대화 톤 유지, 사용자 맞춤형 태도 조정 등이 있다. 이처럼 챗봇의 성격이 사용자 맥락과 기대에 부합할 때 인간에 대한 신뢰를 구축하는 것과 유사하게 시스템에 대한 신뢰를 쌓으며 몰입을 향상시키는 것으로 나타났다(Petersson & Lundberg, 2025). 실제로 상담·정신건강 맥락에서 챗봇이 친근하면서도 공감적인 성격을 유지할 때 사용자들이 더 쉽게 자기 노출을 하고 정서적 지지를 경험하게 된다(Kang & Kang, 2024). 이처럼 챗봇에게 인간과 유사한 정체성을 부여할 경우 사용자의 공감과 친사회적 행동을 촉진하는 효과가 나타난다(Li et al., 2025).
그러나 성격적 의인화 효과는 사용자의 목적과 기대에 따라 달라지기도 한다. 강민정(2018)은 심심풀이 목적의 대화에서는 사교적 성격, 과업 수행 목적에서는 신중한 성격, 전문가용 챗봇에게는 감성적 표현을 배제한 이정적인 성격이 높은 신뢰를 얻는 등 사용 목적별로 선호하는 성격 유형이 다르다는 것을 발견하였다. 또한 Gu et al.(2024)은 챗봇의 신호나 성격 톤이 대화의 상황·맥락과 어긋나 기대를 위반하면 사용자의 신뢰가 낮아질 수 있다는 점을 지적하였다.
더불어 챗봇이 실제 인간과 구분이 불가능한 수준의 정체성을 가진 것처럼 설계되어, 사용자가 이를 인격적 존재로 착각하게 만드는 과도하게 의인화된 성격은 사용자의 비현실적 기대를 불러일으키거나, 실제 인간관계와의 경계를 흐려서 외로움과 정서적 의존성을 강화할 수 있다(Fang et al., 2025).
3. AI 챗봇 의인화의 심리적 매개 경로
챗봇의 의인화가 사용자 경험에 영향을 미치는 과정은 단순하거나 직접적이지 않다. 다양한 매개변인이 의인화와 사용자 경험 사이에서 연결 고리로 작용하며, 이를 통해 사용자가 챗봇을 어떻게 지각하고 어떤 태도와 행동을 보이는지 설명될 수 있다. 대부분의 경우, 의인화 요소는 사용자의 특정 심리 상태를 유발하고, 그 심리적 상태가 결과적인 경험을 형성한다.
본 장에서는 의인화 효과가 어떻게, 그리고 왜 발생하는지를 설명하는 네 가지 핵심 심리적 매개 경로를 살펴보고자 하며 이를 정리한 내용은 다음과 같다<Table 2>.
3. 1. 사회적 관계 형성 경로
사회적 관계 형성 경로는 사용자가 챗봇을 사회적 행위자로 인식하게 만드는 심리적 경로를 의미한다. 구체적으로 사회적 실재감, 사회적 실재감, 라포, 공감, 지각된 인간다움 등이 포함된다. 이러한 요인들은 사용자가 챗봇과의 상호작용에서 사회적 관계를 형성하고 정서적 유대를 경험하도록 하며, 궁극적으로 몰입과 만족으로 이어지는 중요한 매개로 작동한다.
선행 연구들은 의인화가 사회적 실재감이라는 핵심적인 심리 상태를 촉발함으로써 긍정적 경험으로 이어진다는 경로를 반복적으로 확인하였다. Ghaniabadi(2024)는 챗봇의 의인화가 사회적 실재감을 높이는 기폭제 역할을 하며, 이렇게 형성된 사회적 실재감이 사용자의 유용성, 즐거움, 신뢰 경험을 촉발한다고 주장했다. Sheehan(2020) 역시 의인화가 사회적 실재감과 챗봇에 대한 태도를 순차적으로 매개하여 사용 의도를 높인다고 밝혔으며, Belhamri & Belboula(2024)는 이러한 사회적 실재감이 몰입과 결합될 때 사용자의 행동 의도를 긍정적으로 높인다고 보고하였다. 이는 인간형 아바타가 사회적 실재감을 높여 관계적 몰입을 촉진한다는 최지혜 & 노기영(2022)의 연구와도 맥을 같이한다.
더 나아가 챗봇이 자신의 가상적인 취향, 과거의 학습 경험, 혹은 사용자의 감정에 공감하며 던지는 유사한 가상 에피소드를 대화 중에 먼저 제시하는 ‘상호적 자기노출’은 사용자가 챗봇을 독특한 정체성을 가진 존재로 지각하게 만든다. Chung & Kang(2023)은 챗봇이 사용자의 경험에 대해 자신의 유사 경험을 공유할 때, 단순 공감 표현보다 사용자의 사회적 실재감, 지각된 공감, 만족도, 지속사용의도를 현저히 높인다고 밝혔다. Yu & Lan(2024) 역시 사용자가 챗봇을 고유한 존재로 인식할 때 사회적 유대와 장기적 의존성이 강화된다고 하였다. 송유진 & 최세정(2020)의 연구에서는 의인화 자체의 직접적 효과는 미미했으나, 인간적인 챗봇이 자기노출을 할 때 그 행동의 진실성을 높이는 상호작용 효과가 나타남을 밝혔다.
3. 2. 신뢰 구축 경로
신뢰 구축 경로는 사용자가 챗봇을 정직하고 유능하며 호의적인 존재로 인식하는 과정을 의미한다. 신뢰는 크게 정서적 신뢰와 인지적 신뢰로 구분되며(Lin, 2024), 투명성, 정직성, 호의성, 설명가능성에 대한 평가를 포함한다. 이러한 요인들은 사용자가 챗봇의 응답을 믿게 만들어 만족도를 높이고, 챗봇과의 장기적인 관계 형성으로 이어지는 핵심 심리적 경로이다(Hartikainen & Väänänen, 2023).
선행 연구들은 챗봇의 의인화가 신뢰를 형성하는 중요한 요인임을 입증하였다. Santu Aji et al.(2023)은 챗봇의 외형, 언어, 정체성과 같은 의인화 요소가 사용자의 지각된 신뢰와 고객 인게이지먼트를 높여 충성도를 향상시킨다고 밝혔다. Toader et al.(2020) 역시 챗봇의 의인화 수준이 높을수록 신뢰가 증대되고, 이는 다시 만족과 지속사용의도에 긍정적으로 작용함을 밝혔으며, Sestino & D’Angelo(2023)는 인간형 아바타가 신뢰를 매개로 할 때 사용 의도를 더욱 높일 수 있다고 주장하였다.
이렇게 형성된 신뢰는 장기적 사용 의도를 결정짓는 중요한 매개 역할을 한다. 김은혜(2024)는 챗봇의 의인화, 효과성, 혁신성과 같은 여러 특성들이 사용자의 신뢰를 거치지 않으면 지속사용의도로 연결되지 않는다는 완전 매개 효과를 실증했다. 이와 유사하게 Sonntag et al.(2023)은 사회적 실재감이 사용 의도에 직접 영향을 미치지 않고, 신뢰를 통해서만 간접적인 영향을 미친다고 밝혔다.
이처럼 의인화와 신뢰는 서로 맞물려 긍정적 사용자 경험을 높여주지만, 신뢰가 무너지면 부정적인 효과가 발생할 수 있다. Shahini(2025)는 챗봇 의인화 수준과 신뢰 사이에 ‘역 U자 관계’가 존재한다고 주장했다. 즉, 지나치게 낮거나 높은 수준의 의인화는 신뢰를 저하시키고 적절한 중간 수준의 의인화가 가장 높은 신뢰를 유발한다는 것이다. 또한, 챗봇의 외형과 언어적 단서가 불일치할 경우에도 사용자의 기대를 위반하여 신뢰가 급격히 저하되고, 이는 브랜드 평가에까지 부정적인 영향을 미친다(Tsai & Chuan, 2024).
3. 3. 유능성 인식 경로
유능성 인식 경로는 사용자가 챗봇을 지능적이고 전문적이며 과업 맥락에 적합한 존재로 인식하게 되는 과정을 의미한다. 명료한 응답, 인지된 사용 용이성, 과업 기술 적합성과 같은 요인들은 사용자가 챗봇을 효율적이고 신뢰할 수 있는 도구로 경험하도록 만든다.
선행 연구들은 챗봇 의인화가 기능적 품질 요인과 결합될 때에만 긍정적인 사용자 경험으로 이어질 수 있음을 강조해 왔다. 사회적·감성적 설계 요소는 정보의 정확성, 완전성, 시의성과 같은 품질 요인을 매개로 만족과 지속사용의도로 이어지며(Bubaš et al., 2024; Kim et al., 2025), 특히 챗봇이 과업을 정확하고 일관되게 처리할수록 사용자는 이를 전문적이고 유능한 존재로 평가하는 경향을 보인다(Promsiri et al., 2025). 또한 의인화된 챗봇이 제공하는 배려에 대한 인상은 사용 용이성과 품질 지각을 높이고, 이러한 지각된 유용성은 의인화와 사용자 태도 간의 관계를 매개하는 핵심 요인으로 작용한다(Bialkova, 2024; Ghaniabadi, 2024).
이러한 유능성 인식은 설계적 일관성을 통해 더욱 강화된다. 사회적 챗봇 설계에서 일관된 페르소나와 명확한 역할 범위는 사용자가 챗봇의 응답 방식과 처리 가능 범위를 예측할 수 있게 하며, 이는 시스템을 지능적이고 전문적인 존재로 인식하게 만드는 기반이 된다(Shum et al., 2018). 이러한 상호작용의 명료성은 유능성 인식을 안정화할 뿐 아니라 이후 관계적 경험으로의 확장을 가능하게 한다. 실제로 Bhardwaj & Sra(2023)는 AI에 특정 사회적 역할과 페르소나를 부여할 경우 사용자의 몰입 수준과 의인화 인식이 함께 증폭된다고 보고하였으며, Maeda & Quan-Haase(2024)는 일관된 대화 규칙을 준수하는 챗봇이 준사회적 관계 형성을 촉진한다고 설명하였다. Yu & Lan(2024) 역시 챗봇이 대화 전반에서 일관된 정체성을 유지할 경우 고유한 존재로 인식되어 몰입 경험이 강화된다고 주장하였다.
하지만 기술적 역량이 충분히 확보되지 않은 상태에서 의인화만 과도하게 강조될 경우, 초기 흥미는 유발하더라도 장기적으로는 실망과 신뢰 저하로 이어질 수 있기 때문에 정교한 페르소나 디자인과 높은 기술력이 함께 갖춰져야 사용자와의 장기적 관계가 긍정적으로 유지될 수 있다(Israfilzade, 2023).
3. 4. 자율적 통제감 경로
자율적 통제감 경로는 사용자가 자기노출의 범위, 개인화 강도, 그리고 데이터의 수집·활용·보관·삭제에 대한 권한을 스스로 조절한다고 지각하는 정도를 뜻한다. 이는 Deci & Ryan(2000)의 자기결정이론에서 강조되는 욕구 중 하나로 사용자가 자율성을 경험할 때 내재적 동기가 촉발되고 개인의 지속적 행동과 몰입으로 이어진다고 설명한다.
여러 선행 연구를 통해 자율성이 챗봇 의인화 효과를 유지하고 긍정적으로 확장하는 데 중요한 역할임을 알 수 있다. Yu & Lan(2024)은 의인화된 챗봇이 사용자 만족과 의존성을 높이지만, 사용자의 자기 통제가 병행될 때만 이러한 긍정적 효과가 안정적으로 유지된다고 밝혔다. Ali & Sheikh(2025)는 챗봇 의인화가 준사회적 상호작용과 자기노출을 촉진하여 사용자의 의심과 설득 지식을 완화한다고 주장했는데, 이는 사용자가 자율적으로 자기 공개 수준을 조절할 수 있을 때 의인화 효과가 긍정적으로 작동함을 보여준다.
이러한 자율성의 효과는 맥락적 조건에 따라 달라질 수 있다. Widener & Lim(2020)은 사용자의 소속 욕구, 프라이버시 우려, 인지된 인간성의 상호작용이 자기노출을 결정한다는 사실을 실험적으로 입증하였다. 특히, 프라이버시 우려가 낮은 사용자는 인간형 챗봇에 더 많이 자기노출했지만, 우려가 높은 사용자는 오히려 AI형 챗봇에 더 깊이 노출하는 역설적 현상이 발견되었다. Song et al.(2024) 또한 챗봇 의인화가 지각된 유능성을 통해 수용 의도를 높이는 긍정적 경로와, 프라이버시 우려를 통해 수용 의도를 낮추는 부정적 경로를 동시에 형성한다는 결과를 확인하였다. 이는 사용자가 데이터 활용과 감정 표현을 스스로 통제한다고 느낄 때에만 자율성의 긍정적 효과가 안정적으로 유지됨을 의미한다. 원지영 & 김영찬(2025) 역시 챗봇의 개인화가 인지된 공감을 매개로 고객 행동을 촉진하지만, 이 효과는 사용자의 프라이버시 침해 우려 수준에 따라 조절되며, 사용자가 자신의 데이터 활용을 통제한다고 느낄 때만 유효하다고 보고하였다.
4. AI 챗봇 의인화 효과의 맥락적 조건
선행 연구에서 의인화의 효과가 일관되지 않게 나타났던 이유는 그 효과가 보편적인 것이 아니라 특정 조건하에서만 발현되거나 그 강도가 달라지기 때문이다. 이처럼 의인화와 사용자 경험 사이 관계의 강도나 방향을 바꾸는 외부 조건을 조절변인이라 한다.
본 장에서는 의인화 효과의 강도와 방향을 변화시키는 핵심적인 조절변인으로서 맥락적 조건의 중요성을 논하고자 한다. 여기서의 맥락적 조절은 동일한 의인화 요소라도 사용자의 특성이나 사용 상황에 따라 그 효과가 상이하게 나타나는 현상을 의미하며, 선행 연구에서 보고된 주요 맥락적 조절 조건은 크게 사용자의 고유한 특성과 상황적 요인으로 구분할 수 있다.
4. 1. 사용자 특성에 따른 효과 차이
사용자가 지속적으로 보유한 개인적, 문화적, 심리적 특성은 의인화 효과를 조절하는 가장 근본적인 요인으로 작용한다.
먼저, 사용자의 연령과 사용 행태에 따라 선호하는 의인화 유형이 명확히 구분된다. 장운초 외(2025)는 챗봇에 대한 사용자 반응을 연령과 사용 행태에 따라 3가지 유형으로 나눌 수 있고, 각 유형에 따라 몰입 경험이 다르다는 사실을 밝혔다. 주로 사회적 교류와 정서적 유대를 목적으로 챗봇을 빈번하게 사용하는 저연령층의 ‘감정 중심형’은 2D 캐릭터 외형과 반말체·감정적 언어를 선호하며 높은 몰입과 친밀감을 보였다. 반면, 효율적인 정보 습득과 문제 해결을 주 목적으로 챗봇을 보조적 수단으로 활용하는 중장년층의 ‘정보 중심형’은 비인간형 외형과 격식체 언어를 선호하며, 과도한 사회적 단서가 정보 처리의 효율성을 저해한다고 인지할 경우 몰입 수준이 급격히 저하되는 경향을 보였다. 마지막으로 기능적 유용성과 정서적 친밀감을 동시에 기대하며 상황에 따라 사용 모드를 전환하는 사용자층인 ‘혼합형’은 실물형·2D 외형과 높임말 구어체에 긍정적으로 반응하며, 시스템의 유능성과 인터페이스의 친근함이 균형을 이룰 때 안정적인 만족도를 유지한다.
이러한 개인적 특성은 문화적 배경과 결합될 때 더욱 복합적인 양상을 띤다. Mehmood et al.(2024)의 연구에 따르면, 집단주의 문화권에서는 외형과 음성이, 개인주의 문화권에서는 상호작용 스타일이 사용자의 몰입에 더 큰 영향을 미치는 것으로 나타났다.
이와 함께 사용자의 내면적 성향이나 기술에 대한 태도 역시 중요한 조절 변수이다. 사용자의 성향 및 경험에 따라서 챗봇의 의인화에 따른 소비자 반응이 상이하게 나타나며(조준혁, 2022), IT 기술에 대한 정체성 수준은 챗봇에게 느끼는 친밀감과 몰입 수준을 조절하는 것으로 확인되었다(장영훈 외, 2021). 또한, 호기심과 집중력이 높은 사용자가 인간형 챗봇과 상호작용할 때 더 깊은 인지적 몰입을 경험하고(Sarraf et al., 2024), 이러한 인지적 몰입은 장기적 사용 의도를 이끌어낸다(Balakrishnan & Dwivedi, 2021).
아울러 사용자의 프라이버시 우려 수준이 의인화 효과의 방향을 결정짓는 요인으로 작용하기도 하는데, 프라이버시 우려 수준이 높은 사용자는 인간다운 챗봇을 오히려 더 경계하고 부정적으로 인식할 수 있다(원지영 & 김영찬, 2025).
4. 2. 상황적 요인에 따른 효과 변화
챗봇을 사용하는 상황적 맥락과 사용자의 일시적인 심리 상태 역시 의인화 효과를 크게 변화시키는 조절 변인으로 작용한다. 대표적으로 사용자가 챗봇을 이용하는 과업의 성격과 상황적 목표는 어떤 의인화 전략이 효과적일지를 결정하는 일차적인 기준이 된다.
강민정(2018)의 연구에 따르면, 사용자는 챗봇의 이용 목적에 따라 선호하는 페르소나를 다르게 설정한다. 단순한 재미나 흥미를 목적으로 하는 유희적 상황에서는 외향적이고 사교적인 성격의 챗봇을 통해 즐거움을 극대화하고자 한다. 반면, 명확한 과업 수행이나 문제 해결을 목적으로 하는 실용적 상황에서는 신중하고 이성적인 성격의 챗봇이 더 높은 신뢰를 얻는다. 특히 금융 업무나 의료 상담과 같은 전문가용 챗봇의 경우, 감성적 표현을 배제하고 정확한 정보 전달에 집중하는 이성적인 성격이 시스템의 유능성을 입증하는 지표가 된다.
이러한 과업 상황뿐만 아니라, 사용자가 상호작용하는 시점의 일시적인 감정 상태 역시 의인화 효과의 방향을 결정지을 수 있다. Lu & Weng(2025)은 사용자의 정서와 챗봇 스타일 간의 상호작용을 연구하여 다음과 같은 역설적인 결과를 도출하였다. 사용자가 안정적이고 긍정적인 감정 상태일 때는 인간적인 동반자 스타일의 챗봇을 선호하며 의인화된 상호작용을 통해 사회적 유대감을 경험하고자 한다. 그러나 사용자가 불만, 분노, 슬픔 등 부정적인 감정 상태에 처해 있을 때는 오히려 인간적인 공감 시도보다 기계적이고 효율적인 대응을 제공하는 챗봇에 더 높은 만족도를 보였다. 이는 부정적 상황에서 사용자가 감정적 소모보다는 문제의 핵심을 빠르게 해결해 주는 기능적 신뢰성에 더 민감하게 반응하기 때문으로 해석된다.
결론적으로, 최적의 기능성과 만족도를 제공하기 위해서는 사용자의 심리 상태뿐만 아니라 구체적인 과업 맥락과 챗봇의 주요 기능 유형을 동시에 고려해야 한다.
5. AI 챗봇 의인화에 따른 사용자 경험
AI 챗봇 설계에서 의인화 전략의 궁극적인 목표는 사용자가 챗봇과의 상호작용 과정에서 긍정적인 경험을 하도록 만드는 데 있다. 이때 사용자 경험은 단순한 과업 수행의 성공을 넘어서, 사용자가 얼마나 즐겁고 몰입적인 상호작용을 경험했는지를 의미하며, 인지적·정서적·관계적 차원을 포괄하는 복합적 개념으로 이해된다.
최근 연구들은 챗봇에 따른 사용자 경험을 구성하는 요인들을 구체적으로 규명하고 있다. Peras(2024)는 정보 정확성, 대화의 자연스러움, 개인화, 신뢰성, 감정적 반응을 중심으로 챗봇 UX의 평가 틀을 제시하며, 이를 사회적 상호작용성과 정서적 차원을 포함하는 복합적 개념으로 강조했다. 이어 Kim et al.(2025)은 S-O-R(자극-유기체-반응) 프레임워크를 적용하여 챗봇이 사용자 경험에 미치는 영향을 설명하였다.
그러나 이러한 사용자 경험은 몰입, 만족, 지속사용의도와 같은 긍정적 결과뿐만 아니라, 과도한 의존이나 프라이버시 우려와 같은 부정적 결과를 동시에 포함하는 양면성을 지닌다(Song et al., 2024; Fang et al., 2025). 따라서 챗봇 의인화 효과를 심층적으로 규명하기 위해서는 긍정적·부정적 결과를 아우르는 종합적 시각이 요구된다. 이에 본 연구는 선행 연구들을 토대로 챗봇 의인화가 야기하는 사용자 경험의 결과를 다섯 가지 유형으로 분류하여 논의하고자 한다.
5. 1. 관계적 몰입 경험
관계적 몰입은 사용자가 의인화된 챗봇을 사회적 상대로 인식하며 상호작용에 깊이 빠져드는 경험을 의미한다. 이는 Csikszentmihalyi(1990)의 몰입(Flow) 개념처럼 시간 왜곡이나 즐거운 집중이 동반되는 상태로, 챗봇의 의인화는 이러한 관계적 몰입을 유도하는 핵심적인 설계 요인으로 작용한다.
선행 연구들은 의인화된 챗봇이 사회적 존재감과 실재감을 강화함으로써 이러한 관계적 몰입을 촉진한다는 점을 보여주었다. 인간형 아바타나 사회적 단서를 지닌 챗봇은 사용자가 상호작용을 시스템과의 조작이 아닌 인격체와의 교류로 인식하도록 만들며, 이 과정에서 시간 왜곡, 즐거움, 집중과 같은 몰입 특성이 강화된다. 또한 특정한 페르소나를 지니거나 대화 전반에서 일관된 정체성을 유지하는 챗봇은 고유한 존재로 인식되어 몰입 경험을 심화시키는 것으로 나타났다.
이러한 관계적 몰입의 강도는 사용자 특성에 따라 차별적으로 나타난다. IT 정체성, 과업 목표의 명확성, 인지적 성향에 따라 몰입의 깊이는 달라지며, 모든 사용자에게 동일한 수준의 관계적 몰입이 발생하지는 않는다. 이는 관계적 몰입이 의인화 설계만으로 발생하는 결과가 아니라, 사용자가 챗봇을 어떻게 해석하고 얼마나 적극적으로 상호작용하는지에 따라 형성되는 경험임을 의미한다.
이와 같은 몰입 경험은 단기적인 상호작용의 즐거움에 그치지 않고, 챗봇과의 관계를 정서적으로 의미 있는 대상으로 인식하도록 만들며, 이후 태도와 행동에도 영향을 미친다. 실제로 Alalwan et al.(2025)은 챗봇의 의인화와 서비스 품질이 관계적 몰입을 매개로 정서적 브랜드 애착과 충성도로 이어지는 경로를 실증함으로써, 몰입이 일시적 경험을 넘어 장기적 관계 형성의 핵심 기제로 작동함을 보여주었다. 이는 관계적 몰입이 일시적인 사용 경험이 아니라, 사용자가 챗봇과 장기적인 관계를 유지하게 만드는 중요한 출발점으로 작용할 수 있음을 보여준다.
5. 2. 정서적 만족
정서적 만족은 챗봇과의 상호작용을 통해 사용자가 느끼는 긍정적인 감정 상태와 전반적인 평가를 의미하며, 대화 중 느끼는 즐거움, 친밀감, 안도감과 같은 정서적 보상을 포함한다. 이러한 만족은 사용자가 챗봇을 지속적으로 사용하려는 태도로 이어지는 결정적 기반이 된다(Kim & Choi, 2023).
다수의 선행연구는 의인화된 설계가 사용자의 정서적 만족을 높이는 핵심 요소임을 보여주지만, 그 과정은 여러 심리적 경로를 통해 완성된다고 주장한다. 특히 사용자들은 챗봇을 정서적 반응을 주고받을 수 있는 상호작용 대상으로 인식할 때 더 높은 만족을 경험하는 경향이 있다. 예컨대 얼굴이나 이름과 같은 의인화 단서나 사회적 대화 스타일은 사용자에게 친밀감과 배려받는 느낌을 제공하며, 이러한 경험은 신뢰와 공감을 매개로 하여 최종적인 만족으로 이어진다(Janson, 2023).
또한, 정서적 만족은 다른 긍정적 사용자 경험과도 긴밀하게 연결되어 나타난다. 사용자가 상호작용 과정에서 사회적 교류의 감각을 경험하고 몰입이 강화될수록, 전반적인 만족도 역시 함께 높아지는 경향을 보인다. 이는 정서적 만족이 특정 설계 요소에 의해 단일하게 형성되기보다는, 상호작용 전반에서 축적되는 긍정적 경험의 결과로 나타나는 사용자 경험임을 시사한다.
다만 정서적 만족은 모든 상황에서 동일하게 형성되지는 않는다. 사용자의 정서 상태나 상호작용 맥락에 따라, 의인화된 챗봇이 항상 가장 높은 만족으로 이어지지 않는 경우도 존재한다. 이러한 점은 정서적 만족이 의인화 수준 그 자체보다, 사용자의 상태와 사용 맥락에 대한 적합성에 따라 달라지는 경험임을 의미한다.
5. 3. 지속사용의도
지속사용의도는 사용자가 챗봇을 일시적으로 활용하는 것을 넘어, 장기적으로 반복 사용하고 관계를 유지하려는 심리적 의지를 의미하며, 실제 지속 사용 행동을 예측하는 핵심 지표이다.
챗봇의 의인화가 지속사용의도로 이어지는 과정에서 신뢰와 습관 형성은 가장 중요한 매개 요인으로 작용한다. 사용자는 상호작용 과정에서 챗봇이 인간처럼 예측 가능하고 일관되게 반응한다고 인식할수록 해당 시스템에 신뢰를 느끼고 반복적으로 사용하려는 경향을 보인다. 더불어 챗봇과의 상호작용이 일상적 맥락 속에서 자연스럽게 반복될 때 이는 점차 의식적인 노력이 필요 없는 습관적 행동으로 전환된다.
여기서 중요한 점은 지속사용의도를 결정짓는 것은 의인화된 외형 그 자체가 아니라, 의인화를 매개로 축적되는 사회적 상호작용의 경험이라는 사실이다. 사용자는 챗봇으로부터 긍정적인 감정과 유용성을 반복적으로 획득할 때, 해당 상호작용을 단순한 이용이 아닌 가치 있는 관계 맺음으로 인식하게 된다. 이 과정에서 앞서 논의한 몰입, 만족, 신뢰와 같은 요인들은 개별적으로 작동하기보다 상호 보완적으로 결합하여 장기적 관계 유지를 강화하는 시너지 효과를 낸다.
특히 이러한 경험의 축적 과정에서 결정적인 전환점은 몰입과 정서적 애착의 형성이다. 상호작용이 거듭될수록 사용자는 챗봇을 단순한 도구가 아닌 지속적인 관계 대상으로 인식하게 되며, 이러한 인식의 변화가 지속사용의도를 견고하게 지탱하는 기반이 된다. 결론적으로 지속사용의도는 단편적인 기능적 성과나 외형적 유사성만으로는 확보되기 어려우며, 관계적·정서적 경험이 시간의 흐름에 따라 층층이 누적되는 과정 속에서 형성되는 심층적인 사용자 경험의 산물임을 보여준다.
5. 4. 기능적 효과
기능적 효과는 챗봇의 의인화가 사용자의 과업 수행 과정에서 효율성과 유용성 인식에 실질적으로 기여하는 결과를 의미한다. 이는 사용자가 챗봇을 통해 목표를 얼마나 효과적으로 달성했는가에 대한 주관적 평가뿐만 아니라, 실제 과업 수행의 용이성 및 성과를 모두 포괄하는 실용적 차원의 사용자 경험이다.
의인화된 챗봇과의 상호작용에서 사용자는 단순히 정보를 제공받는 것을 넘어, 보다 이해하기 쉽고 부담이 적은 방식으로 과업을 수행한다고 인식하는 경향이 있다. 인간다운 반응이나 배려 상호작용은 사용자가 정보를 처리하고 의사결정을 내리는 과정을 보다 수월하게 만들며, 이는 기능적 유용성에 대한 긍정적 평가로 이어진다. 즉, 의인화는 기술적 성능 자체를 물리적으로 향상시키기보다는, 과업 수행에 요구되는 인지적 부담을 완화하는 방식으로 기능적 경험을 개선하는 역할을 한다.
그러나 이러한 기능적 효과가 모든 상황에서 보편적으로 나타나는 것은 아니다. 사용자의 심리 상태나 수행해야 할 과업의 성격에 따라 오히려 인간다운 상호작용보다는 기계적이고 간결한 대응이 더 효율적이라고 인식되는 경우도 존재한다. 특히 정확성과 전문성이 요구되는 과업 맥락에서는 챗봇의 성격적 표현 방식 역시 기능적 평가에 중요한 영향을 미치게 된다. 이를 통해 기능적 효과가 의인화의 정도 자체보다, 과업 특성과 상호작용 방식 간의 적합성에 의해 좌우됨을 알 수 있다.
결국 기능적 효과는 의인화 설계의 부수적 결과가 아니라, 사용자와 챗봇 간 상호작용이 과업 수행 맥락에 얼마나 적절하게 조율되었는지를 반영하는 사용자 경험의 결과라 할 수 있다. 따라서 최적의 기능성을 제공하기 위해서는 사용자의 감정 상태뿐 아니라, 과업의 목적과 특성에 부합하는 챗봇의 상호작용 방식이 함께 고려되어야 한다.
5. 5. 부정적 결과 우려
챗봇의 의인화는 긍정적인 사용자 경험을 촉진하는 동시에, 다양한 부정적 결과와 위험을 동반할 수 있다. 사용자의 몰입과 만족을 이끌어내는 심리적 기제가 정서적 의존, 프라이버시 침해, 과몰입, 불쾌감과 같은 문제로 이어질 수 있기 때문이다.
대표적으로 논의되는 우려는 프라이버시 침해에 대한 인식이다. 의인화된 챗봇은 사용자에게 유능하고 신뢰할 만한 대상으로 인식되는 경향이 있지만, 동시에 개인 정보가 어떻게 수집·활용되는지에 대한 불안감을 증폭시키기도 한다. 이러한 양면성은 사용자가 챗봇을 사회적 상호작용의 대상으로 인식할수록, 기술적 시스템으로서의 경계가 흐려질 수 있음을 시사한다.
정서적 의존의 심화 역시 중요한 위험 요소로 지적된다. 챗봇의 친밀한 언어 사용이나 지속적인 긍정 강화는 사용자가 챗봇과의 관계에 정서적으로 깊이 몰입하도록 유도하지만, 이 과정에서 상호작용의 빈도와 중요성이 과도하게 확대될 수 있다. 특히 사용 시간이 증가할수록 초기의 긍정적 경험은 약화되고, 오히려 외로움이나 의존감과 같은 부정적 정서가 강화되는 현상은 의인화된 상호작용이 항상 바람직한 방향으로만 작동하지 않음을 보여준다.
이러한 위험을 완화하기 위한 설계적 논의도 함께 제기되고 있다. 최근 연구들은 인간다움을 과도하게 축소하거나 강화하는 방식보다는, 챗봇이 스스로 AI임을 명확히 드러내고 사용자가 상호작용의 성격을 인지할 수 있도록 돕는 접근이 유효함을 입증하고 있다. 유희준(2025)은 이러한 접근이 챗봇에 대한 신뢰와 선호도는 유지하면서도, 과몰입의 위험만을 효과적으로 낮출 수 있음을 보고하였다. 또한, Barbieri & Johnson(2024)은 챗봇 의인화에 따른 불쾌한 골짜기 현상이나 문화적 배경 차이에 따른 효과 불일치 등 아직 충분히 규명되지 않은 부정적 측면이 많음을 지적하며 후속 연구의 필요성을 강조하였다.
종합하면 챗봇 의인화에 따른 긍정적·부정적 결과는 설계 방식만으로 결정되기보단 챗봇의 특성과 사용자의 개인적인 성향, 그리고 상호작용이 이루어지는 맥락이 복합적으로 작용한 결과로 이해되어야 한다.
6. 논의 및 결론
6. 1. 연구 결과 요약 및 논의
본 연구는 AI 챗봇의 의인화가 사용자 경험에 미치는 영향을 체계적으로 이해하고자, 선행 연구에 대한 종합적 고찰을 수행하였다. 분석 결과, 챗봇 의인화 효과는 설계된 자극에 대한 직접적 반응이 아니라, 사용자의 심리적 해석 과정을 거쳐 형성되고 개인적·상황적 맥락에 따라 그 양상과 강도가 달라지는 조건부적 과정임을 확인하였다.
본 연구의 핵심 발견 중 하나는 의인화 효과가 사용자의 내면에서 작동하는 심리적 기제를 통해 발현된다는 점이다. 특히 사용자가 챗봇을 사회적 상호작용의 상대로 인식하게 되는 과정은 초기 관여와 관계적 몰입을 유도하는 출발점으로 작용하였다. 이러한 관계적 인식은 사용자가 챗봇의 반응과 의도를 신뢰하도록 만드는 토대가 되며, 형성된 신뢰는 이후 상호작용을 지속적인 관계 유지로 확장시키는 핵심 요인으로 나타났다. 이는 챗봇이 기능적으로 유능하더라도, 사용자와의 신뢰 관계가 전제되지 않을 경우 장기적인 사용으로 이어지기 어렵다는 점을 분명히 보여준다.
또한, 본 연구는 서론에서 제기되었던 선행 연구 간 결과의 비일관성 문제가 다양한 맥락적 조건에 의해 설명될 수 있음을 규명하였다. 사용자 특성, 정서 상태, 과업의 성격과 같은 맥락적 요인은 의인화 효과의 방향성과 강도를 결정하는 주요 조절 변수로 작용하였다. 이는 모든 상황에 보편적으로 적용 가능한 최적의 의인화 설계는 존재하지 않으며, 사용 맥락에 따라 의인화의 수준과 방식이 달라져야 함을 의미한다. 이와 관련하여 의인화 전략의 성패는 개별 요소의 정교함보다는 시각적·언어적·성격적 요소 간의 일관성과 조화에 달려 있는 것으로 나타났다. 챗봇의 외형, 말투, 역할 인식이 서로 불일치할 경우, 사용자는 혼란이나 기대 위반을 경험하게 되며, 이는 의인화의 긍정적 효과를 약화시키거나 부정적 평가로 전이될 위험을 내포한다. 따라서 효과적인 의인화 설계를 위해서는 각 단서가 동일한 상호작용 정체성을 유지하도록 설계될 필요가 있다.마지막으로 본 연구는 챗봇 의인화가 지닌 양면성을 명확히 확인하였다. 사회적 관계 형성과 몰입은 높은 정서적 만족과 지속사용의도를 이끌어내는 긍정적 기제로 작용하지만, 동시에 정서적 의존, 프라이버시 불안, 과몰입과 같은 부정적 위험을 동반한다. 이러한 결과는 의인화 전략이 단순히 사용자 경험의 긍정적 측면만을 극대화하는 도구로 활용되어서는 안 되며, 사용자의 자율성과 심리적 안전을 함께 고려할 수 있는 책임 있는 설계가 필수적으로 수반되어야 함을 시사한다.
6. 2. 연구의 시사점 및 향후 연구 제안
본 연구의 학술적 시사점은 크게 세 가지로 요약될 수 있다. 첫째, 파편적으로 존재하던 AI 챗봇 의인화 관련 변인들을 체계적으로 분류하고 종합하여 향후 연구의 기틀을 마련했다. 둘째, 의인화 효과를 설명하는 데 있어 핵심적인 심리적 경로와 맥락적 조건의 역할을 명확히 구분하여, 기존 연구들의 비일관적 결과에 대한 통합적 해석의 관점을 제시했다. 셋째, 의인화의 긍정적 효과와 부정적 위험을 균형 있게 조망하여 챗봇 연구가 나아가야 할 균형 잡힌 시각을 제공했다는 점에서 의의가 있다.
이러한 논의는 실무자들에게 다음과 같은 구체적인 가이드라인을 제공한다. 우선 챗봇을 디자인할 때는 시각적·언어적·성격적 요소가 조화를 이루는 총체적인 페르소나를 구축해야 한다. 동시에 타깃 사용자의 특성과 핵심 과업의 성격에 최적화된 맥락-인지적 설계를 지향해야 한다. 나아가 긍정적 경험 이면의 윤리적 위험을 인지하고, 과의존 방지를 위한 장치 마련이나 데이터 통제권 강화 등 책임감 있는 AI 설계를 통해 부정적 결과를 최소화하려는 노력이 요구된다.
그럼에도 불구하고, 본 연구는 다음과 같은 한계점을 지니며, 이를 보완하기 위한 후속 연구를 제안한다. 첫째, 문헌 고찰을 기반으로 정성적 분석을 수행했기에 통계적 메타 분석과 같이 각 변인의 영향력 크기를 정량적으로 검증하지 못했다는 한계가 있다. 향후 연구에서는 실증 데이터를 바탕으로 각 요인의 효과 크기를 객관적으로 비교하는 연구가 필요하다. 둘째, 대부분의 분석 대상 연구가 단기적 상호작용에 집중되어 있어 과도한 의인화가 장기적으로 사용자에게 미치는 심리적·행동적 변화를 깊이 있게 다루지 못했다. 따라서 향후에는 종단 연구나 다이어리 연구 등을 통해 시간의 경과에 따른 사용자 경험의 변화를 추적할 필요가 있다.
셋째, 의인화의 효과는 고객 서비스, 교육, 심리 상담 등 서비스 유형에 따라 다르게 나타날 수 있다. 이에 특정 산업 맥락이나 서비스 유형에 따른 의인화 효과의 차이를 세분화하여 규명하는 후속 연구가 요구된다.
Acknowledgments
This work was supported by 2025 Hongik University Innovation Support Program Fund.
Notes
Copyright : This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/3.0/), which permits unrestricted educational and non-commercial use, provided the original work is properly cited.
References
-
Alalwan, A. A., Algharabat, R., El Samen, A. A., Albanna, H., & Al-Okaily, M. (2025). Examining the impact of anthropomorphism and AI-chatbots service quality on online customer flow experience-exploring the moderating role of telepresence. Journal of Consumer Marketing, 42(4), 448-471.
[https://doi.org/10.1108/JCM-06-2024-6929]
-
Ali, A., & Sheikh, A. (2025). The role of chatbots' anthropomorphism to control and mitigate risks of user suspicion and persuasion knowledge. Journal of Management & Social Science, 2(2), 143-157.
[https://doi.org/10.63075/4ckp3a57]
-
Baek, H. J., Kim, S. Y., & Lee, S. W. (2019). 챗봇 기반 인터페이스의 상호작용성과 사용 모드가 사용자 경험에 미치는 영향 [Effects of Interactivity and Usage Mode on User Experience in Chatbot Interface]. Journal of the HCI Society of Korea, 14(1), 35-43.
[https://doi.org/10.17210/jhsk.2019.02.14.1.35]
-
Balakrishnan, J., & Dwivedi, Y. K. (2021). Role of cognitive absorption in building user trust and experience. Psychology & Marketing, 38(4), 643-668.
[https://doi.org/10.1002/mar.21462]
- Barbieri, M. K., & Johnson, R. (2024). Thank you, Helen: A review of anthropomorphism of AI-enabled technologies. Proceedings of the AMCIS 2024, AIS Electronic Library.
-
Belhamri, Z., & Belboula, I. (2024). The impact of perceived anthropomorphism of the conversational agent (CA) on social presence, flow, and users' behavioral intention. Marketing Science & Inspirations, 19(4), 45-59.
[https://doi.org/10.46286/msi.2024.19.4.4]
-
Bhardwaj, P., & Sra, M. (2023). Ghost in the Machine: Discourses with AI. Proceedings of SIGGRAPH Asia 2023 Art Papers (SA' 23), Article 6, 1-6.
[https://doi.org/10.1145/3610591.3616429]
-
Bialkova, S. (2024). The Rise of AI User Applications: Chatbots Integration Foundations and Trends. Switzerland: Springer Nature.
[https://doi.org/10.1007/978-3-031-56471-0]
-
Blut, M., Wang, C., Wünderlich, N.V., & Brock, C. (2021). Understanding anthropomorphism in service provision: a meta-analysis of physical robots, chatbots, and other AI. Journal of the Academy of Marketing Science, 49(4), 632-658.
[https://doi.org/10.1007/s11747-020-00762-y]
-
Bubaš, G., Čižmešija, A., & Kovačić, A. (2024). Development of an Assessment Scale for Measurement of Usability and User Experience Characteristics of Bing Chat Conversational AI. Future Internet, 16(1), 4.
[https://doi.org/10.3390/fi16010004]
-
Chaves, A. P., & Gerosa, M. A. (2021). How should my chatbot interact? A survey on social characteristics in human-chatbot interaction design. International Journal of Human-Computer Interaction, 37(8), 729-758.
[https://doi.org/10.1080/10447318.2020.1841438]
-
Chen, J., Guo, F., Ren, Z., Li, M., & Ham, J. (2024). Effects of Anthropomorphic Design Cues of Chatbots on Users' Perception and Visual Behaviors. International Journal of Human-Computer Interaction, 40(14), 3636-3654.
[https://doi.org/10.1080/10447318.2023.2193514]
-
Chen, J., Li, M., & Ham, J. (2024). Different dimensions of anthropomorphic design cues: How visual appearance and conversational style influence users' information disclosure tendency towards chatbots. International Journal of Human-Computer Studies, 190, 103320.
[https://doi.org/10.1016/j.ijhcs.2024.103320]
- Cho, J. (2022). 인공지능(AI) 챗봇에 대한 의인화와 조절초점이 소비자 경험을 통해 소비자 반응에 미치는 영향 - 해석수준이론, 사회적 실재감, 설득지식모델을 중심으로 한 소비자 경험의 매개효과 연구 [The Effect of Anthropomorphism and Regulatory Focus on AI Chatbot on Consumer Response through Consumer Experience] (Master's thesis). Dankook University, Gyeonggi-do, Korea.
-
Cho, N., Cao, Z., & Yu, G. (2024). Analyzing the Effects of Anthropomorphism in NPCs Applied by GPT on User Satisfaction and Loyalty. Journal of Information Technology Applications and Management, 31(4), 121-137.
[https://doi.org/10.21219/jitam.2024.31.4.121]
- Choi, J., & Roh, K. (2022). 인공지능 챗봇의 의인화가 챗봇과의 준사회적 상호작용에 미치는 영향 : 인지된 유사성과 사회적 현존감의 매개효과 [AI Chatbot's Anthropomorphic Effects on Parasocial Interaction with AI Chatbot : The Mediating Effects of Perceived Homophily and Social Presence]. The Korean Journal of Advertising and Public Relations, 24(4), 521-549.
-
Chung, L. L., & Kang, J. (2023). "I'm Hurt Too": The Effect of a Chatbot's Reciprocal Self-Disclosures on Users' Painful Experiences. Archives of Design Research, 36(4), 67-85.
[https://doi.org/10.15187/adr.2023.11.36.4.67]
- Csikszentmihalyi, M. (1990). Flow: The psychology of optimal experience. New York: Harper & Row.
-
Deci, E. L., & Ryan, R. M. (2000). The "What" and "Why" of Goal Pursuits: Human Needs and the Self-Determination of Behavior. Psychological Inquiry, 11(4), 227-268.
[https://doi.org/10.1207/S15327965PLI1104_01]
-
Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On Seeing Human: A Three-Factor Theory of Anthropomorphism. Psychological Review, 114(4), 864-886.
[https://doi.org/10.1037/0033-295X.114.4.864]
-
Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). How AI and human behaviors shape psychosocial effects of extended chatbot use: A longitudinal randomized controlled study. arXiv preprint arXiv:2503.17473.
[https://doi.org/10.48550/arXiv.2503.17473]
- Ghaniabadi, M. (2024). Factors that impact users' attitudes toward chatbots and their intentions to use chatbot in online services (Master's thesis). Vilnius University, Vilnius, Lithuania.
-
Gu, C., Zhang, Y., & Zeng, L. (2024). Exploring the mechanism of sustained consumer trust in AI chatbots after service failures: a perspective based on attribution and CASA theories. Humanities & Social Sciences Communications, 11(1), 1400.
[https://doi.org/10.1057/s41599-024-03879-5]
-
Gur, T., & Maaravi, Y. (2025). The algorithm of friendship: literature review and integrative model of relationships between humans and artificial intelligence (AI). Behaviour & Information Technology, 44(14), 3446-3466.
[https://doi.org/10.1080/0144929X.2025.2502467]
-
Hartikainen, M., & Väänänen, K. (2023). Towards human-centered design of AI service chatbots: defining the building blocks. In International Conference on Human-Computer Interaction (pp. 68-87). Springer, Cham.
[https://doi.org/10.1007/978-3-031-35894-4_5]
-
Israfilzade, K. (2023). The Role of Generative AI and Anthropomorphism in Shaping Conversational Marketing. The Eurasia Proceedings of Educational & Social Sciences, 32, 132-142.
[https://doi.org/10.55549/epess.1412832]
- Jang, U. C., Gok, W. G., & Kim, M. R. (2025). 생성형 AI 기반 캐릭터 챗봇 디자인에 대한 사용자 반응 유형별 분석 -외형적 특징과 언어 스타일을 중심으로- [Analysis by User Response Type for Generative AI-based Character Chatbot Design -Focusing on External Features and Language Style-]. Journal of Communication Design, 92, 361-371.
- Jang, Y. H., Yoon, H. J., Park, J. H., & Li, Z. (2021). AI 컴패니언 챗봇과의 친밀도와 관계 몰입에 대한 연구 : IT 정체성과 사회적 맥락의 조절효과를 중심으로 [A Study on Intimacy and Relationship Commitment with AI Companion Chatbots: Focusing on the Moderating Effects of IT Identity and Social Context]. Proceeding of the Korea Society of Management Information Systems(138-142). Seoul, KMIS.
-
Janson, A. (2023). How to leverage anthropomorphism for chatbot service interfaces: The interplay of communication style and personification. Computers in Human Behavior, 149, 107954.
[https://doi.org/10.1016/j.chb.2023.107954]
- Jönsson, A., & Nordberg, C. (2023). Human-Like Chatbot: A quantitative study of the emotional response toward human-to-machine interaction (Bachelor's thesis). Halmstad University, Halmstad, Sweden.
-
Kang, E., & Kang, Y. A. (2024). Counseling Chatbot Design: The Effect of Anthropomorphic Chatbot Characteristics on User Self-Disclosure and Companionship. International Journal of Human-Computer Interaction, 40(11), 2781-2795.
[https://doi.org/10.1080/10447318.2022.2163775]
-
Kang, M. J. (2018). 사용목적에 따라 선호하는 챗봇의 성격에 관한 연구 [A Study of Chatbot Personality based on the Purposes of Chatbot]. Journal of the Korea Contents Association, 18(5), 319-329.
[https://doi.org/10.5392/JKCA.2018.18.05.319]
-
Kim, E. H. (2024). 패션 디지털 커머스에서 챗봇 특성이 사용자 신뢰와 지속사용 의도에 미치는 영향 [The Impact of Chatbot Characteristics on User Trust and Continuance Intention in Fashion Digital Commerce]. Journal of Korean Society of Design Research, 9(2), 620-632.
[https://doi.org/10.46248/kidrs.2024.2.620]
-
Kim, J. S., Kim, M., & Baek, T. H. (2025). Enhancing User Experience With a Generative AI Chatbot. International Journal of Human-Computer Interaction, 41(1), 651-663.
[https://doi.org/10.1080/10447318.2024.2311971]
-
Kim, J., Li, Y., & Choi, J. (2023). Understanding the Continuance Intention to Use Chatbot Services. Asia Marketing Journal, 25(3), 99-110.
[https://doi.org/10.53728/2765-6500.1613]
-
Kim, M. J., & Kim, H. K. (2025). 인공지능(AI) 기반 챗봇 특성과 서비스 특성이 지속이용의도에 미치는 영향: 지각된 가치와 사용 만족도의 매개 효과를 중심으로 [The Impact of AI-Based Chatbot Characteristics and Service Characteristics on Continuance Intention: Focusing on the Mediating Roles of Perceived Value and User Satisfaction]. Journal of Global Convergence Research Society, 4(1), 14-26.
[https://doi.org/10.57199/jgcr.2025.4.1.14]
- Kwak, S., Lee, J., & Park, H. (2024). The Effects of Characterized and Stylized Avatars on User Intimacy and Engagement with AI Chatbots. Frontiers in Psychology, 16, 1569277.
- Lee, C. Y., Park, J. W., So, Y. J., Sung, J. L., Jang, Y. J., & Yun, J. Y. (2025). AI 챗봇의 애정 감정 표현 유형에 따른 사용자 경험 연구 [The Impact of AI Chatbots’ Affectionate Expressions on User Experience]. Journal of Communication Design, 92, 373-389.
-
Li, J., Zhu, Z., Zhang, R., & Lee, Y. C. (2025). Exploring the effects of chatbot anthropomorphism and human empathy on human prosocial behavior toward chatbots. Proceedings of the ACM on Human-Computer Interaction, 9(7), 1-29.
[https://doi.org/10.1145/3757596]
-
Lin, J. S. (2024). Examining the interplay of chatbot interactivity and anthropomorphic design for enhancing brand relationships in service businesses. International Journal of Advertising, 44(5), 829-860.
[https://doi.org/10.1080/02650487.2024.2410559]
-
Liu, B., & Sundar, S. S. (2018). Should machines express sympathy and empathy? Experiments with a health advice chatbot. Cyberpsychology, Behavior, and Social Networking, 21(10), 625-636.
[https://doi.org/10.1089/cyber.2018.0110]
- Lu, S., & Weng, J. (2025). The coldness of your explanation: How emotional intensity in large language models shapes user satisfaction. PACIS 2025 Proceedings (Paper 19). In PACIS 2025 Proceedings. AIS Electronic Library.
-
Łukasik, A., & Gut, A. (2025). From robots to chatbots: unveiling the dynamics of human-AI interaction. Frontiers in Psychology, 16, 1569277.
[https://doi.org/10.3389/fpsyg.2025.1569277]
-
Maeda, T., & Quan-Haase, A. (2024). When human-AI interactions become parasocial: Agency and anthropomorphism in affective design. Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency (FAccT '24) (pp. 1068-1077). Association for Computing Machinery.
[https://doi.org/10.1145/3630106.3658956]
-
Mehmood, K., Kautish, P., & Shah, T. R. (2024). Embracing digital companions: Unveiling customer engagement with anthropomorphic AI service robots in cross-cultural context. Journal of Retailing and Consumer Services, 79, Article 103825.
[https://doi.org/10.1016/j.jretconser.2024.103825]
-
Moilanen, J., Visuri, A., Suryanarayana, S. A., Alorwu, A., Yatani, K., & Hosio, S. (2022). Measuring the Effect of Mental Health Chatbot Personality on User Engagement. Proceedings of the 21st International Conference on Mobile and Ubiquitous Multimedia (pp. 138-150). ACM.
[https://doi.org/10.1145/3568444.3568464]
-
Peras, D. (2024). Chatbot User Experience: Design and Evaluation. Proceedings of HCI International 2024 - Late Breaking Papers (Vol. 15375, pp. 77-93). Springer.
[https://doi.org/10.1007/978-3-031-76806-4_6]
- Petersson, M., & Lundberg, J. (2025). The Role of Personality in AI Chatbots. Journal of Human-Computer Interaction, 41(1), 15-38.
-
Promsiri, T., Wuittipappinyo, N., & Keerativutisest, V. (2025). Enhancing Chatbot Service User Satisfaction. TEM Journal, 14(1), 216-225.
[https://doi.org/10.18421/TEM141-20]
- Reeves, B., & Nass, C. (1996). The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. New York, NY: Cambridge University Press.
-
Aji, B. J. P., Masnita, Y., & Kurniawati, K. (2023). The Influence of Chatbot Anthropomorphism on Trust, Intention, and Engagement of Indonesian State-Owned Bank Customers: Investigation Using the DOI Theory. International. Journal of Applied Business Research, 5(02), 152-166.
[https://doi.org/10.35313/ijabr.v5i02.293]
-
Sarraf, S., Kar, A. K., & Janssen, M. (2024). How do system and user characteristics, along with anthropomorphism, impact cognitive absorption of chatbots-Introducing SUCCAST through a mixed methods study. Decision Support Systems, 178, 114132.
[https://doi.org/10.1016/j.dss.2023.114132]
-
Sestino, A., & D’Angelo, A. (2023). My doctor is an avatar! The effect of anthropomorphism and emotional receptivity on individuals' intention to use digital-based healthcare services. Technological Forecasting & Social Change, 191, 122505.
[https://doi.org/10.1016/j.techfore.2023.122505]
-
Shahini, A. (2025). Bridging the Uncanny Valley: The Impact of Anthropomorphism in AI Tutoring Systems on Learner Trust and Engagement. SSRN preprint.
[https://doi.org/10.2139/ssrn.5212998]
-
Sheehan, B., Jin, H. S., & Gottlieb, U. (2020). Customer service chatbots: Anthropomorphism and adoption. Journal of Business Research, 115, 14-24.
[https://doi.org/10.1016/j.jbusres.2020.04.030]
-
Shum, H., He, X., & Li, D. (2018). From Eliza to XiaoIce: challenges and opportunities with social chatbots. Frontiers of Information Technology & Electronic Engineering, 19(1), 10-26.
[https://doi.org/10.1631/FITEE.1700826]
-
Song, M., Zhu, Y., Xing, X., & Du, J. (2024). The double-edged sword effect of chatbot anthropomorphism on customer acceptance intention: the mediating roles of perceived competence and privacy concerns. Behaviour & Information Technology, 43(15), 3593-3615.
[https://doi.org/10.1080/0144929X.2023.2285943]
-
Song, Y. J., & Choi, S. J. (2020). 챗봇의 의인화와 자기노출이 챗봇에 대한 소비자 인식과 태도에 미치는 영향 [The Effects of Anthropomorphism and Self-Disclosure of Chatbots on Consumer Perceptions and Attitudes toward Chatbots]. Journal of the HCI Society of Korea, 15(1), 17-28.
[https://doi.org/10.17210/jhsk.2020.03.15.1.17]
-
Sonntag, M., Mehmann, J., & Teuteberg, F. (2023). Trust-Supporting Design Elements as Signals for AI-Based Chatbots in Customer Service: A Behavior-Based Explanatory Model. International Journal of Service Science, Management, Engineering, and Technology(IJSSMET), 14(1), 1-16.
[https://doi.org/10.4018/IJSSMET.329963]
-
Toader, D.-C., Boca, G., Toader, R., Măcelaru, M., Toader, C., Ighian, D., & Rădulescu, A. T. (2020). The Effect of Social Presence and Chatbot Errors on Trust. Sustainability, 12(1), 256.
[https://doi.org/10.3390/su12010256]
-
Truong, T. T. H., & Chen, J. S. (2025). When empathy is enhanced by human-AI interaction: an investigation of anthropomorphism and responsiveness on customer experience with AI chatbots. Asia Pacific Journal of Marketing and Logistics.
[https://doi.org/10.1108/APJML-10-2024-1464]
- Tsai, W. H. S., & Chuan, C. H. (2024). How Effective Are Anthropomorphic Chatbots? A Study of Consumer-Chatbot Communication in Taiwan. International Journal of Communication, 18, 24.
-
Verhagen, T., van Nes, J., Feldberg, F., & van Dolen, W. (2021). Benefitting from virtual conversational agents by enhancing user control. Decision Support Systems, 142, 113473.
[https://doi.org/10.1016/j.chb.2015.01.061]
-
Wang, Y. (2024). Emotional Dependence Path of Artificial Intelligence Chatbot Based on Structural Equation Modeling. Procedia Computer Science, 247, 1089-1094.
[https://doi.org/10.1016/j.procs.2024.10.131]
-
Widener, A., & Lim, S. H. (2020). AI 챗봇 이용자의 소속 욕구와 프라이버시 우려가 자기 노출에 미치는 효과 [Need to belong, privacy concerns and self-disclosure in AI chatbot interaction]. The Journal of the Digital Contents Society, 21(12), 2203-2210.
[https://doi.org/10.9728/dcs.2020.21.12.2203]
-
Won, J. Y., & Kim, Y. C. (2025). AI 챗봇에 대한 인지된 개인화가 고객시민행동에 미치는 영향: 인지된 공감과 프라이버시 침해우려의 조절된 매개효과 [The Impact of Perceived Personalization of AI Chatbot on Customer Citizenship Behavior: The Moderated-Mediation Effect of Perceived Empathy and Privacy Concern]. Journal of Distribution Research, 30(2), 55-86.
[https://doi.org/10.17657/jcr.2025.4.30.3]
-
Xie, C., Zhu, J., Xie, Y., Yan, J., & Liang, C. (2025). Chatbots Using Positive Emojis Are Good? Exploring the Impact of Chatbots' Use of Positive Emojis on Customer Responses. Journal of Consumer Behaviour.
[https://doi.org/10.1002/cb.70008]
-
Yang, M., Peng, X., Wang, Q., Zhao, Y. C., & Wang, X. (2025). Is being human-like beneficial? The effect of anthropomorphism on chatbot persuasion in e-commerce. Internet Research.
[https://doi.org/10.1108/INTR-10-2023-0866]
- Yoo, H. J. (2025). 소셜 AI 챗봇의 과의존 완화를 위한 디자인 프릭션 연구 [A Study on Design Friction to Mitigate Overdependence on Social AI Chatbots] (Unpublished master's thesis). Hongik University, Seoul, Korea.
-
Yu, Q., & Lan, X. (2024). Exploring the impact of anthropomorphism in role-playing AI chatbots on media dependency: A case study of Xuanhe AI. In Proceedings of the Twelfth International Symposium of Chinese CHI (pp. 170-181)..
[https://doi.org/10.1145/3758871.3758884]
-
Zhou, L., Fang, Y., Ding, S., Cheng, Y., Yan, B., Zhu, W., Bao, S., Wang, J., & Song, S. (2025). Vivid-persona: customizable persona tool with interactive and immersive experiences. Journal of Engineering Design, 36(2), 276-297.
[https://doi.org/10.1080/09544828.2024.2383543]
