연구요약
|
최근 2~3년간 스마트 스피커, 지능형개인비서(Intelligent Personal Assistant) 등으로 불리는 AI 스피커가 AI플랫폼 중에서도 괄목할만한 성장을 보여주고 있다. AI 스피커가 각광받으면서 자동음성인식기술(ASR), 자연어처리시스템(NLU), 음성합성기술(TTS)의 결합을 통해 구현되는 음성기반인터페이스(VUI)가 빠른 처리 속도, 손 사용이 자유로운 ‘핸즈프리’시스템, 직관성, 톤, 음량, 강세 등의 풍부한 정보량을 통해 감정이입(empathy)이 용이하다는 차원에서 그래픽 기반 인터페이스(GUI)에서 나아간 차세대 인터페이스로서 주목받고 있다(Pearl, 2016,Amazon, 2019).
보이스 기반 대화형 인터페이스(VUI)는 일찍이 1950년대부터 가능성이 논의되어왔던 개념이지만, 2000년대 이후 음성 인식 및 합성 등 관련 기술이 실용화되면서 활용도가 나날이 증가하고 있다. 음성 대화형 인터페이스(VUI)는 이제 단순히 스마트폰과 PC에만 해당되는 것이 아니라, 과거보다 발전된 IoT기술 및 인공지능 기술과 결합하여 앞으로 더욱 더 많은 제품에서 사용자가 사용하게 될 인터페이스이다(Klein, 2016; 배혜진,박남춘, 2017).
AI 스피커의 VUI 지능정보기술의 집약체라고 할 만큼 다양한 융합기술을 탑재하고 있는 만큼 학제 간 융복합을 통한 기술 개선이 요구된다. 현재 상용화된 AI 스피커는 간단한 물음에 응답하는 수준에서 이용자 의사결정에 보조적 역할을 행한다. 따라서, AI 스피커의 효용성을 높이기 위해서는 고차원적 의사 결정에 필요한 데이터를 수집하고, 분석할 필요가 있다. 특히 AI 스피커는 보이스 기반 대화형 미디어라는 점에서 보다 정교한 디자인설계가 요구되는데, 시각적으로 사용자에게 다양한 선택지와 구체적인 정보를 제공할 수 있는 그래픽 기반 인터페이스(GUI)와 달리 음성 정보만을 통해 사용자와 상호작용을 해야 하기 때문이다.
특히, 대인간 커뮤니케이션과 마찬가지로 인간 대 컴퓨터 간 상호작용(Human-computer interaction)에서도 서로에 대한 이해가 요구된다. 본 연구는 AI 스피커가 인간의 심리적인 성격 유형 정보를 학습함으로서 이용자에 대해 더 많이 이해하고, 더 나은 서비스를 제공할 것으로 본다.
따라서, 본 연구에서는 AI 스피커의 매커니즘을 한층 도약시키기 위해 이용자의 성향 및 심리 요인에 바탕을 둔 대응 전략을 개발할 수 있는 방안을 제안하고자 한다. 이를 위해 구체적으로 첫째, AI 스피커가 인간의 심리적 특성을 반영할 수 있도록 인간의 성격 및 커뮤니케이션 유형을 교류분석이론에 근거하여 구분하고자 한다. 둘째, 이용자 성격 및 커뮤니케이션 유형에 관한 데이터를 AI 스피커가 학습 가능한 형태로 데이터화 시킬 것이다. 이후, AI 스피커가 이용자 반응을 추론하고 판단할 수 있는 능력을 학습을 통해 개선시키는 작업을 진행하고자 한다. 이처럼 이용자의 성격 및 커뮤니케이션 유형을 세분화하고, 이를 데이터화시켜 AI 스피커에 적용함으로서, 이용자별 맞춤형 AI 스피커 알고리즘 및 시스템 개발이 가능할 것이다.
|