KR102475038B1 - 음성 기반 대화 서비스 제공 방법 및 장치 - Google Patents

음성 기반 대화 서비스 제공 방법 및 장치 Download PDF

Info

Publication number
KR102475038B1
KR102475038B1 KR1020220054310A KR20220054310A KR102475038B1 KR 102475038 B1 KR102475038 B1 KR 102475038B1 KR 1020220054310 A KR1020220054310 A KR 1020220054310A KR 20220054310 A KR20220054310 A KR 20220054310A KR 102475038 B1 KR102475038 B1 KR 102475038B1
Authority
KR
South Korea
Prior art keywords
user
user device
meaning
dictionary
speaker
Prior art date
Application number
KR1020220054310A
Other languages
English (en)
Other versions
KR20220066228A (ko
Inventor
안민지
윤설화
홍창득
Original Assignee
카티어스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 카티어스 주식회사 filed Critical 카티어스 주식회사
Priority to KR1020220054310A priority Critical patent/KR102475038B1/ko
Publication of KR20220066228A publication Critical patent/KR20220066228A/ko
Application granted granted Critical
Publication of KR102475038B1 publication Critical patent/KR102475038B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

음성 기반 대화 서비스 제공 방법이 제공된다. 본 발명의 일 실시예에 따른 음성 기반 대화 서비스 제공 방법은, 사용자 장치로부터 오디오 입력을 획득하는 단계와, 상기 오디오 입력의 의미를 식별하는 단계와, 상기 의미의 식별에 실패하였다는 판정에 기초하여, 상기 사용자 장치의 관리자에게 상기 의미를 입력 받는 단계와, 상기 입력 받은 의미를 저장하는 단계를 포함한다.

Description

음성 기반 대화 서비스 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING SPEECH BASED CONVERSATION SERVICE}
본 발명은 음성 기반 대화 서비스 제공 방법 및 장치에 관한 것이다. 보다 자세하게는, 성인에 비해 언어 구사 수준이 낮은 영유아 또는 미취학 아동을 대상으로 한 음성 기반 대화 서비스를 효율적으로 제공하는 방법 및 장치에 관한 것이다.
인공 신경망 기반의 머신 러닝 기술의 발전은, 음성 기반의 대화 서비스나 텍스트 기반의 챗봇 서비스 등 사람과의 대화를 통해 질문에 대한 적절한 답이나 각종 연관 정보를 제공하는 기술의 발전에 큰 영향을 미치고 있다. 특히 머신 러닝 기술은 텍스트 생성, 자연어 처리, 음성 인식, 및 음성 합성 등의 세부 요소 기술의 발전을 촉진하여, 음성 비서(voice assistant) 서비스나 음성 기반의 대화 서비스를 제공하는 인공지능 스피커와 같은 장치들이 실생활에 보급되는데 크게 기여하고 있다.
특히 음성 비서나 음성 기반 대화 서비스들은, 사용자의 요청에 의해 정보를 제공하거나 사용자의 요청에 따라 다른 장치를 제어하여 사용자가 원하는 방식대로 동작하도록 하는 등 사용자의 요청을 처리하는 기능을 넘어서, 사용자가 표현하지 않은 사용자의 니즈를 충족시켜주는 기능까지 제공하는 수준으로 발전되고 있다. 예를 들어, 사용자의 명시적인 요청이 없어도, 사용자가 알아야 할 정보를 적시에 제공하거나, 사용자의 무료함이나 외로움을 완화하기 위한 엔터테인먼트 성격의 컨텐츠나 감성적인 서비스를 제공하는 것 등이다.
한편, 머신 러닝에 기반한 음성 인식 자연어 처리 모델은 특정 언어 전반 및 특정인의 발화에 대한 학습 정도에 따라 그 성능이 달라질 수 있지만, 최근 세계 주요 언어들을 기준으로 성인의 발화에 대한 인식률은 크게 개선되어, 높은 빈도로 이용되는 주제 분야에 대해서는 상당히 자연스러운 서비스를 제공하는 수준에 이르렀다.
반면에 성인이 아닌 영유아를 포함한 아동들을 대상으로 음성 기반의 서비스를 제공하는 것에는 아직 여러 가지 어려움들이 있다. 아동들은 발성 기관이 완전히 발달되지 않아서 발음이 불완전하고, 어휘력 및 언어 구사 능력이 성인에 비해서 부족하며, 때로는 성인들이 사용하지 않는 또래 어휘나 다른 아동들은 사용하지 않는 자신만의 어휘를 사용하는 특징을 가진다. 이는, 아동의 발화를 올바로 인식하고 그에 내재된 의미를 정확히 파악하여 원활한 음성 기반 대화 서비스를 제공하지 못하는 원인이 된다.
특히 어린 아동의 발화나 어린 아동이 사용하는 어휘는 부모 등 보호자나 동거하는 가족들 외의 다른 사람들은 전혀 이해하기 어려운 경우가 많으므로, 음성 기반 대화 서비스 제공자 측에서, 필드 서비스를 통해 수집된 대화 로그에 포함된 아동의 발화를 사람이 듣고 인식하여 대화 엔진을 지도 학습시키려고 노력하더라도, 발화자인 아동이 표현한 의사를 이해하기 어려운 경우가 많다.
그런데 지금까지 위와 같은 문제점들을 해결하는 기술이나 서비스는 제공되지 못하고 있다.
한국공개특허 제10-2017-0034154호 (2017.3.28. 공개)
본 발명의 몇몇 실시예들을 통해 해결하고자 하는 기술적 과제는, 아동을 대상으로 한 음성 기반 대화 서비스를 효율적으로 제공하는 방법 및 장치를 제공하는 것이다.
본 발명의 몇몇 실시예들을 통해 해결하고자 하는 다른 기술적 과제는, 사용자인 아동의 발화 및 아동이 사용하는 어휘의 의미를 제대로 파악하여 응답을 제공할 수 있는 음성 기반 대화 서비스를 제공하는 방법 및 장치를 제공하는 것이다.
본 발명의 몇몇 실시예들을 통해 해결하고자 하는 또 다른 기술적 과제는, 사용자인 아동과 높은 친밀도를 형성하여 아동의 서비스 사용 시간을 증가시킬 수 있는 음성 기반 대화 서비스를 제공하는 방법 및 장치를 제공하는 것이다.
본 발명의 몇몇 실시예들을 통해 해결하고자 하는 또 다른 기술적 과제는, 사용자인 아동의 어휘 사용 습관을 개선하고 보호자에게 통지할 수 있는 음성 기반 대화 서비스를 제공하는 방법 및 장치를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 음성 기반 대화 서비스 제공 방법은, 사용자 장치로부터 오디오 입력을 획득하는 단계와, 상기 오디오 입력의 의미를 식별하는 단계와, 상기 의미의 식별에 실패하였다는 판정에 기초하여, 상기 사용자 장치의 관리자에게 상기 의미를 입력 받는 단계와, 상기 입력 받은 의미를 저장하는 단계를 포함한다.
일 실시예에서, 상기 오디오 입력의 의미를 식별하는 단계는, 상기 오디오 입력으로부터 인식된 사용자 발화 단어를 사전에 포함된 사전 수록 단어들과 비교하는 단계를 포함하고, 상기 입력 받은 의미를 저장하는 단계는, 상기 사용자 발화 단어를 상기 사전에 추가하는 단계를 포함한다.
일 실시예에서, 상기 사용자 발화 단어를 상기 사전 수록 단어들과 비교하는 단계는, 상기 사용자 발화 단어를 제1 사전에 포함된 단어들과 비교하는 단계와, 상기 사용자 발화 단어를 상기 사용자 장치에 개인화된 제2 사전에 포함된 단어들과 비교하는 단계를 포함하며, 상기 사용자 발화 단어를 상기 사전에 추가하는 단계는, 상기 사용자 발화 단어를 상기 제2 사전에 추가하는 단계를 포함한다.
일 실시예에서, 상기 음성 기반 대화 서비스 제공 방법은, 상기 사용자 발화 단어를 상기 사전 수록 단어들과 비교하는 단계는, 상기 사용자 발화 단어를 상기 사용자 장치와 구별되는 다른 사용자 장치에 개인화된 제3 사전에 포함된 단어들과 비교하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 다른 사용자 장치의 화자는 상기 사용자 장치의 화자와 동일한 화자 그룹에 속하는 사용자이며, 상기 화자 그룹은 화자의 나이 및 구사 언어 수준 중 적어도 하나에 기초하여 결정될 수 있다.
일 실시예에서, 상기 사용자 발화 단어와 관련된 정보를 상기 관리자에게 요청하는 단계는, 상기 사용자 장치를 통해 발생한 대화 이력의 적어도 일부를 상기 관리자에게 제공하는 단계와, 상기 관리자로부터 상기 사용자 발화 단어의 의미를 입력 받는 단계를 포함한다.
일 실시예에서, 상기 사용자 발화 단어와 관련된 정보를 상기 관리자에게 요청하는 단계는, 상기 사용자 장치와 구별되는 다른 사용자 장치에 개인화된 사전에 포함된 단어들 중 상기 사용자 발화 단어와 매칭되는 단어를 상기 관리자에게 제공하는 단계를 포함한다.
일 실시예에서, 상기 사용자 발화 단어와 관련된 정보를 상기 관리자에게 요청하는 단계는, 상기 사용자 장치의 화자가 상기 사용자 발화 단어를 기설정된 횟수를 초과하여 발화하였다는 판정에 기초하여, 상기 사용자 발화 단어와 관련된 정보를 상기 관리자에게 요청하는 단계를 포함한다.
일 실시예에서, 상기 사용자 발화 단어와 관련된 정보를 상기 관리자에게 요청하는 단계는, 상기 사용자 장치의 화자가 상기 사용자 발화 단어를 사전 수록 단어로 교정하도록 상기 음성 기반 대화 서비스가 유도할지 여부를 입력받는 단계를 포함한다.
일 실시예에서, 상기 의미의 식별에 성공하였다는 판정에 기초하여, 상기 음성 기반 대화 서비스가 상기 사용자 장치에 제공하는 응답 발화에 상기 사용자 발화 단어를 사용하도록 설정하는 단계를 포함한다.
일 실시예에서, 상기 의미의 식별에 성공하였다는 판정에 기초하여, 상기 음성 기반 대화 서비스가 상기 사용자 장치에 제공하는 컨텐츠에서 상기 의미에 대응되는 단어를 상기 사용자 발화 단어로 치환하여 제공하도록 설정하는 단계를 포함한다.
일 실시예에서, 상기 음성 기반 대화 서비스 제공 방법은, 상기 의미의 식별에 성공하였다는 판정에 기초하여, 상기 사용자 장치의 화자의 레벨을 판정하는 단계와, 상기 화자가 제1 레벨에 해당한다는 판정에 기초하여, 상기 사용자 발화 단어를 사용하여 상기 사용자 장치에 음성 기반 대화 서비스를 제공하도록 설정하는 단계와, 상기 화자가 제2 레벨에 해당한다는 판정에 기초하여, 상기 사용자 발화 단어에 매칭되는 사전 수록 단어로 상기 사용자 발화 단어를 교정하도록 유도하는 응답 발화를 상기 사용자 장치에 제공하도록 설정하는 단계를 더 포함한다.
일 실시예에서, 상기 음성 기반 대화 서비스 제공 방법은, 상기 화자가 제3 레벨에 해당한다는 판정에 기초하여, 상기 사용자 발화 단어 및 상기 매칭된 사전 수록 단어를 혼용하여 상기 사용자 장치에 음성 기반 대화 서비스를 제공하도록 설정하는 단계를 더 포함한다.
일 실시예에서, 상기 화자의 레벨을 판정하는 단계는, 상기 화자의 나이 및 구사 언어 수준 중 적어도 하나에 기초하여 상기 레벨을 판정하는 단계를 포함한다.
일 실시예에서, 상기 음성 기반 대화 서비스 제공 방법은, 기설정된 기간동안 상기 사용자 장치의 화자가 상기 사용자 발화 단어를 및 상기 사용자 발화 단어와 매칭되는 사전 수록 단어를 각각 사용한 빈도에 관한 정보를 상기 사용자 장치의 관리자에게 제공하는 단계를 더 포함한다.
일 실시예에서, 상기 오디오 입력의 의미를 식별하는 단계는, 상기 오디오 입력으로부터 사용자 발화 단어를 인식하는 단계를 포함하고, 상기 의미의 식별에 실패하였다는 판정에 기초하여, 상기 사용자 장치의 관리자에게 상기 의미를 입력받는 단계는, 상기 오디오 입력을 상기 사용자 장치의 관리자에게 제공하는 단계를 포함하며, 상기 입력받은 의미를 저장하는 단계는, 상기 관리자로부터 입력 받은 정보에 기초하여 오디오 인식 모델을 업데이트하는 단계를 포함한다.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 일 실시예에 따른 음성 기반대화 서비스 제공 장치는, 사용자 장치로부터 오디오 입력을 획득하는 단계와, 상기 오디오 입력의 의미를 식별하는 단계와, 상기 의미의 식별에 실패하였다는 판정에 기초하여, 상기 사용자 장치의 관리자에게 상기 의미를 입력 받는 단계와, 상기 입력 받은 의미를 저장하는 단계를 수행한다.
상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 일 실시예에 따른 컴퓨터 판독 가능한 비일시적 기록 매체는, 사용자 장치로부터 오디오 입력을 획득하는 단계와, 상기 오디오 입력의 의미를 식별하는 단계와, 상기 의미의 식별에 실패하였다는 판정에 기초하여, 상기 사용자 장치의 관리자에게 상기 의미를 입력 받는 단계와, 상기 입력 받은 의미를 저장하는 단계를 포함하는 방법을 컴퓨터로 하여금 수행하도록 하는 컴퓨터 프로그램이 저장된 것이다.
도 1은 본 발명의 일 실시예에 따른 음성 기반 대화 서비스가 제공될 수 있는 예시적인 시스템을 도시한 도면이다.
도 2는 본 발명의 다른 일 실시예에 따른, 음성 기반 대화 서비스 제공 장치의 블록 구성도이다.
도 3은 본 발명의 또 다른 일 실시예에 따른, 음성 기반 대화 서비스 제공 방법의 순서도이다.
도 4는 도 3을 참조하여 설명한 음성 기반 대화 서비스 제공 방법의 일부 단계를 보다 구체적으로 설명하기 위한 도면이다.
도 5 및 도 6은 도 4를 참조하여 설명한 일부 단계를 보다 구체적으로 설명하기 위한 도면이다.
도 7은 도 6을 참조하여 설명한 일부 단계를 보다 구체적으로 설명하기 위한 도면이다.
도 8 및 도 9는 도 4를 참조하여 설명한 일부 단계를 보다 구체적으로 설명하기 위한 도면이다.
도 10은 본 발명의 몇몇 실시예들에 따른 음성 기반 대화 서비스 제공 장치의 하드웨어 구성을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명의 기술적 사상을 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.
각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
이하, 본 발명의 몇몇 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 음성 기반 대화 서비스가 제공될 수 있는 예시적인 시스템을 도시한 도면이다.
도 1에 도시된 바와 같이, 음성 기반 대화 서비스 제공 시스템은, 음성 기반 대화 서비스 제공 서버(1; 이하 "서버"라고 지칭한다) 및 복수의 사용자 장치들(11a 내지 11d)를 포함한다. 일 실시예에서, 음성 기반 대화 서비스 제공 시스템은 사용자 장치를 관리하는 별도의 관리자 장치(15) 및/또는 서버(1)에 연결된 외부 컨텐츠 제공 장치(3)를 더 포함할 수 있다.
본 실시예에서, 사용자 장치(11a 내지 11d)는 예컨대 인공지능 스피커, 음성 비서 또는 가상 비서 기능이 탑재되고 오디오 입출력 기능을 갖춘 스마트 장치, 장난감이나 인형, 스마트 워치, 스마트 디스플레이, 및 기타 가전 제품 등을 포함한다. 사용자 장치(11a 내지 11d)는 스피커 및 마이크 등의 오디오 입출력 장치를 통해 사용자와 음성 기반의 인터랙션을 수행할 수 있으며, 카메라 및 디스플레이 장치 등의 영상 입출력 장치를 추가로 이용할 수 있다. 사용자 장치(11a 내지 11d)는 사용자로부터의 입력 받은 음성이나 영상 데이터를 서버(1)에 전달하고, 음성 또는 영상을 포함한 다양한 형식의 응답이나 컨텐츠를 서버(1)로부터 획득하여 사용자에게 제공할 수 있다.
본 실시예에서, 서버(1)는 사용자 장치(11a 내지 11d)로부터의 입력 받은 음성이나 영상 데이터를 분석하여, 적절한 응답을 사용자 장치(11a 내지 11d)에게 제공한다. 이때 서버(1)는 자체적으로 보유한 컨텐츠 외에도, 외부 컨텐츠 제공자가 관리하는 별도의 컨텐츠 제공 장치(3)로부터 컨텐츠를 제공받아서 사용자 장치(11a 내지 11d)에게 제공할 수도 있다. 서버(1)는 사용자 장치(11a 내지 11d)로부터의 입력을 분석하고 그 결과를 기초로 적절한 대화 서비스를 제공하기 위하여 다양한 세부 구성들을 포함할 수 있으며, 이에 대해서는 도 2를 참조하여 보다 자세히 설명하기로 한다.
본 실시예에서, 서버(1)와 사용자 장치(11a 내지 11d)는 근거리 네트워크(LAN: Local Area Network), 무선 네트워크(Wireless Network), 원거리 네트워크(WAN: Wide Area Network) 및 이동 통신망(Mobile Network) 등을 통해 상호 연결될 수 있다.
일 실시예에서, 사용자 장치(11a 내지 11d)는 와이파이(WiFi), 블루투스(Bluetooth), 저전력 블루투스(BLE), 지그비(Zigbee), 지웨이브(Z-Wave), RFID, NFC 등의 근거리 무선 통신을 통해, 스마트폰 및 태블릿 PC 등 중장거리 무선 통신이 가능한 장치(예컨대 관리자 장치 15)에 연결된 후, 상기 장치를 통해 음성 기반 대화 서비스 제공 서버(1)에 연결될 수 있다. 이와 같이 사용자 장치(11a 내지 11d)에 근거리 무선 통신을 위한 통신 모듈만을 내장할 경우, 사용자 장치(11a 내지 11d)의 제조 단가를 절감할 수 있다는 장점이 있다.
이하에서는, 본 발명의 일 실시예에 따른 음성 기반 대화 서비스 제공 장치(1)의 구성 및 동작에 대하여 도 2를 참조하여 설명한다. 음성 기반 대화 서비스 제공 장치(1)는 예컨대 도 1을 참조하여 설명한 음성 기반 대화 서비스 제공 시스템의 서버(1)일 수 있다.
도 2에 도시된 바와 같이, 본 실시예에 따른 음성 기반 대화 서비스 제공 장치(1)는 대화 엔진(10), 사전 관리부(20), 관리자 장치 인터페이스(30), 컨텐츠 관리부(40), 리포트 생성부(50), 컨텐츠 DB(60), 사전 DB(70), 및 대화 이력 DB(80) 등을 포함할 수 있다.
다만, 도 2에는 본 발명의 실시예와 관련 있는 구성 요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 2에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다. 또한, 도 2에 도시된 음성 기반 대화 서비스 제공 장치(1)의 각각의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 복수의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의한다. 이하, 각 구성요소에 대하여 설명한다.
대화 엔진(10)은 사용자 장치(11)와의 전반적인 대화를 처리하는 기능을 제공한다. 대화 엔진(10)은 사전 관리부(20) 및 컨텐츠 관리부(40)로부터 조회되는 데이터 및 대화 이력 DB(80)에 기록된 사용자 장치(11)와의 대화 이력으로부터 파악되는 문맥 정보 등에 기초하여, 사용자 장치(11)와의 대화를 처리한다. 보다 구체적으로, 사용자 장치(11)로부터 입력 받은 사용자 발화 오디오를 인식 및 분석하고, 적절한 응답이나 상황에 맞는 컨텐츠 등 출력 데이터를 생성하여 제공한다.
사전 관리부(20)는 음성 기반 대화 서비스 제공 장치(1)가 제공하는 대화 서비스에서 사용하는 사전으로부터 단어를 조회하고, 사전에 새로운 단어를 추가하는 등, 사전을 관리한다. 사전 데이터는 사전 DB(70)에 기록되어 보관될 수 있다.
사전 관리부(20)는, 대화 엔진(10)이 사용자 발화 오디오로부터 인식한 단어의 의미를, 사전 DB(70)를 이용하여 파악하고, 그 결과를 대화 엔진(10)에 제공한다. 또한 사전 관리부(20)는 사전 DB(70)를 이용하여 의미를 파악할 수 없는 단어가 발생할 경우, 후술할 관리자 장치 인터페이스(30)에 상기 단어를 전달하여, 사용자 장치(11)의 관리자를 통해 상기 단어의 의미를 파악할 수 있도록 시도한다.
사전 관리부(20)는 복수의 사전들을 이용 및 관리할 수 있다. 예를 들어, 일반적인 어휘 사전, 대화 서비스에서 사용되는 어휘들이나 대화 서비스에서 제공되는 주제들에 매칭되는 단어들만을 포함하는 공통 사전, 복수의 사용자 또는 사용자 장치들 각각에 개인화된 사전들이 사전 관리부(20)에 의해 관리 및 이용될 수 있다.
본 실시예에서, 사용자 또는 사용자 장치에 개인화된 사전은, 특정 사용자가 사용하는 독특한 단어 및 그 단어의 의미가 무엇인지를 기록한 것일 수 있다.
특정 사용자가 사용하는 독특한 단어란, 예를 들어 특정 시대에 특정 나이대의 또래들이 공통적으로 사용하는 단어(아동용 컨텐츠에 등장하는 캐릭터 이름, 최신 약어나 은어 등)일 수 있다.
특정 사용자가 사용하는 독특한 단어는, 다른 사용자들은 일반적으로 사용하지 않으나, 오로지 특정 사용자만이 사용하는 고유한 단어일 수 있다. 예를 들어, 아이스크림을 "아꿍" 또는 "아킴"이라고 지칭 또는 발음하는 사용자가 있을 수 있고, 할머니를 "나나", 할아버지를 "바바"라고 지칭하는 사용자가 있을 수 있다. 이처럼, 특히 영유아 아동들이 사용하는 어휘는 아동별로 편차가 크고, 동일한 단어도 서로 다른 의미로 사용되는 경우가 많다. 따라서, 특정 사용자 또는 특정 사용자가 사용하는 사용자 장치에 개인화된 사전에 기록 및 관리될 필요가 있다.
그 밖에도 사용자 또는 사용자 장치에 개인화된 사전에는, 가족들이나 반려동물의 이름 등의 고유명사가 기록되어 관리될 수 있다.
본 실시예에서는 사전 관리부(20)를 통해 전술한 바와 같이 특정 사용자 또는 특정 사용자 장치에 개인화된 사전을 관리 및 이용함으로써, 사용자로 하여금 대화 서비스에 더 높은 친밀감을 가지도록 유도하고, 궁극적으로 대화 서비스에 대한 사용자 인게이지먼트를 향상시킬 수 있게 된다.
다음으로, 관리자 장치 인터페이스(30)는 특정 사용자 장치(11)의 관리자가 이용하는 관리자 장치(15)에게 정보를 제공하고, 대화 서비스에 필요한 정보를 관리자 장치(15)로부터 획득한다. 관리자 장치(15)란, 예컨대 사용자 장치(11)의 사용자인 아동의 부모 등 보호자가 사용하는 장치이다. 본 실시예에서 관리자란, 음성 기반 대화 서비스 제공자 측의 관리 인원을 지칭하는 것이 아니라, 최종 사용자가 사용하는 사용자 장치(11)를 소유 및/또는 관리하는 자로서, 최종 사용자의 부모나 보호자 등을 의미한다는 것에 유의한다.
구체적으로, 관리자 장치 인터페이스(30)는 사용자 장치(11)의 사용자(화자)의 대화 이력을 관리자 장치(15)에 제공하고, 사용자 장치(11)의 화자가 사용한 단어의 의미를 관리자 장치(15)로부터 입력받을 수 있다. 또한 관리자 장치 인터페이스(30)는 사용자 장치(11)의 화자가 발화한 오디오 클립을 관리자 장치(15)에 제공하고, 상기 오디오 클립을 통해 파악되는 화자의 의사나 상기 오디오 클립에 담긴 소리의 의미를 관리자 장치(15)로부터 입력받을 수 있다.
나아가, 관리자 장치 인터페이스(30)는 사용자 장치(11)의 사용자(화자)의 언어 능력 또는 언어 습관을 가리키는 리포트를 관리자 장치(15)에게 제공할 수 있다. 예컨대, 사용자 장치(11)의 사용자(화자)가 사용하는 단어의 종류 및 빈도 등에 관한 통계 데이터를 관리자 장치(15)에게 제공할 수 있다.
리포트 생성부(50)는 대화 이력 DB(80)로부터, 각각의 사용자 장치(11)의 사용자(화자)의 언어 능력 또는 언어 습관을 가리키는 리포트를 생성하여, 관리자 장치 인터페이스(30)에 제공할 수 있다.
다음으로 컨텐츠 관리부(40)는, 대화 엔진(10)로부터의 컨텐츠 요청에 응답하여, 컨텐츠를 제공한다. 본 실시예에서, 컨텐츠는 오디오 북 및 팟캐스트 등의 오디오 컨텐츠, 동영상 컨텐츠, 인터랙션 가능한 멀티 미디어 컨텐츠 등을 포함한다. 사용자 장치(11)의 사용자가 아동일 경우, 아동에 특화된 컨텐츠가 제공될 수 있다.
컨텐츠는 음성 기반 대화 서비스 장치(1)의 컨텐츠 DB(60)로부터 획득된 것일 수 있다. 일 실시예에서, 컨텐츠는 외부의 컨텐츠 제공 장치(3)로부터 획득된 것일 수 있다. 일 실시예에서, 컨텐츠 DB(60)에는 주제어와 컨텐츠 식별자의 연관 관계를 포함한 인덱스 데이터만이 저장되고, 컨텐츠 관리부(40)는 컨텐츠 제공 장치(3)로부터 제공받은 컨텐츠를 대화 엔진(10)에 전달할 수 있다.
컨텐츠 관리부(40)는, 컨텐츠 DB(60) 및/또는 컨텐츠 제공 장치(3)로부터 제공받은 컨텐츠를 대화 엔진(10)에 제공하기 전에 적절히 가공할 수 있다. 예를 들어, 사용자 장치(11)의 사용자(화자)가 보다 높은 친밀도를 가지도록 유도하기 위하여, 컨텐츠에 등장하는 주인공 캐릭터의 이름을 화자의 이름으로 치환하거나, 컨텐츠에 포함된 일반 단어(예컨대 "아이스크림")를, 사용자 장치(11)에 개인화된 사전에 포함된 화자 고유의 단어(예컨대 "아꿍")로 치환하는 가공을 거쳐서, 대화 엔진(10)에 제공할 수 있다. 다른 일 실시예에서는, 상기 가공을 대화 엔진(10)이 처리할 수도 있다.
다음으로, 본 실시예에 따른 음성 기반 대화 서비스 제공 장치(1)의 동작을 설명하기로 한다.
먼저 대화 엔진(10)에 의해 사용자 장치(11)의 화자와의 대화가 개시되고, 사용자 장치(11)로부터 사용자 발화를 담은 오디오가 획득된다. 대화 엔진(10)은 사용자 장치(11)와 주고받은 대화의 적어도 일부를 대화 이력 DB(80)에 기록한다. 대화 엔진(10)은 사용자 발화 오디오를 분석하여, 사용자 발화 오디오에 포함된 단어들을 식별한다. 대화 엔진(10)은 상기 식별된 사용자 발화 단어를 사전 관리부(20)에 제공한다.
사전 관리부(20)는 사전 DB(70)에 저장된 단어들과 사용자 발화 단어를 비교하여, 사용자 발화 단어의 의미를 파악한다. 이때 사전 관리부(20)는 전술한 바와 같이, 하나 이상의 유형의 사전들을 이용 및 조회할 수 있다. 예를 들어, 사전 관리부(20)는 일반 어휘 사전, 공통 사전, 및 사용자 장치(11)에 개인화된 사전, 사용자 장치(11)가 아닌 다른 사용자 장치에 개인화된 사전 등을 조회하여, 사용자 발화 단어의 의미를 파악해 볼 수 있다.
만약, 상기 사전들 중 적어도 하나에 사용자 발화 단어와 매칭되는 사전 수록 단어가 존재하는 경우, 사전 관리부(20)는 사용자 발화 단어의 의미를 파악할 수 있다. 이 경우 사전 관리부(20)는 사용자 발화 단어의 의미를 대화 엔진(10)에 제공한다. 대화 엔진(10)은 상기 의미에 기초하여 음성 기반의 대화 서비스를 계속하여 제공한다. 예를 들어 대화 엔진(10)은 컨텐츠 관리부(40)를 통해 상기 사용자 발화 단어(아이스크림을 의미하는 "아꿍")가 포함되는 주제(예컨대 간식)에 매칭되는 컨텐츠를 제공받아서, 사용자 장치(11)에 제공할 수 있다. 또한 대화 엔진(10)은 상기 사용자 발화 단어("아꿍")를 문장 내에 사용하면서 사용자 장치(11)와 대화를 이어 나갈 수 있다. 또 다른 예로 대화 엔진(10)은 기성 컨텐츠에서 일반 명사 "아이스크림"이 사용된 부분을 "아꿍"으로 치환하는 방식으로 가공된 컨텐츠를 사용자 장치(11)에 제공함으로써, 사용자 장치(11)의 사용자로 하여금 보다 친밀하고 개인화된 대화 서비스를 제공받는 느낌을 가지도록 할 수 있다.
상기 사전들 중 적어도 하나에 사용자 발화 단어와 매칭되는 사전 수록 단어가 존재하지 않는 경우, 사전 관리부(20)는 사용자 발화 단어의 의미를 파악하는데 일차적으로 실패한 것일 수 있다.
이 경우 사전 관리부(20)는 대화 엔진(10)으로 하여금 상기 사용자 발화 단어의 의미를 질문하는 발화를 사용자 장치(11)에게 제공하도록 하고, 사용자 장치(11)의 화자가 답변하도록 유도함으로써, 사용자 발화 단어의 의미를 파악해 볼 수 있다.
또한 사전 관리부(20)는 소정의 조건이 만족되었을 경우(예컨대 사익 사용자 발화 단어의 누적 사용 횟수가 임계치를 초과하였을 경우), 관리자 장치 인터페이스(30)를 통해 관리자 장치(15)를 통해 상기 사용자 발화 단어의 의미를 파악해 볼 수 있다. 여기서, 관리자는 상기 사용자 발화 단어가 획득된 사용자 장치(11)를 소유 및/또는 관리하는 자로서 사용자 장치(11)의 화자의 보호자 등이며, 관리자 장치(15)는 상기 관리자가 사용하는 장치를 지칭하는 것임에 유의한다. 관리자 장치 인터페이스(30)는, 예를 들어 사용자 발화 단어가 포함된 대화 기록의 일부를 관리자 장치(15)에 제공하고, 관리자 장치(15)로부터 상기 사용자 발화 단어의 의미를 입력받을 수 있다. 사전 관리부(20)는 관리자 장치(15)로부터의 입력에 기초하여, 사전 DB(70)에 상기 사용자 발화 단어 및 그 의미를 추가할 수 있다.
지금까지 도 2를 참조하여, 본 실시예에 따른 음성 기반 대화 서비스 제공 장치(1)의 구성과 동작에 대하여 설명하였다. 이하에서는 도 3 내지 도 9를 참조하여, 본 발명의 다른 일 실시예에 따른 음성 기반 대화 서비스 제공 방법에 대하여 설명한다.
도 3은 본 실시예에 따른 음성 기반 대화 서비스 제공 방법의 순서도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.
도 3에 도시된 음성 기반 대화 서비스 제공 방법의 각 단계는 예컨대 도 2를 참조하여 설명한 음성 기반 대화 서비스 제공 장치(1)에 의해 수행될 수 있다. 다시 말하면, 상기 음성 기반 대화 서비스 제공 방법의 각 단계는 음성 기반 대화 서비스 제공 장치(1) 등의 컴퓨팅 장치의 프로세서에 의해 실행되는 하나 이상의 인스트럭션들로 구현될 수 있다. 상기 음성 기반 대화 서비스 제공 방법에 포함되는 제1 단계들은 제1 컴퓨팅 장치에 의하여 수행되고, 상기 방법의 제2 단계들은 제2 컴퓨팅 장치에 의하여 수행될 수 있다. 이하에서는, 상기 음성 기반 대화 서비스 제공 방법의 각 단계가 음성 기반 대화 서비스 제공 장치(1)에 의해 수행되는 것을 가정하여 설명을 이어가도록 한다. 다만, 각 단계의 수행 주체는 단지 예시일 뿐, 본 발명이 이하의 설명에 의해 한정되는 아니며, 설명의 편의를 위해 상기 음성 기반 대화 서비스 제공 방법에 포함되는 일부 단계의 동작 주체는 그 기재가 생략될 수도 있다.
별도로 언급하지 않더라도, 본 실시예에 따른 음성 기반 대화 서비스 제공 방법의 각 동작에 있어서, 도 1 내지 도 2를 참조하여 설명된 실시예들의 기술 사상이 반영될 수 있음은 물론이다. 또한, 반대로 본 실시예에 따른 음성 기반 대화 서비스 제공 방법의 각 동작에 반영된 기술 사상 역시 도 2를 참조하여 설명된 음성 기반 대화 서비스 제공 장치(1)의 구성 및 동작에 반영될 수 있을 것이다.
도 3에 도시된 바와 같이, 본 실시예에 따른 음성 기반 대화 서비스 제공 방법은, 인사말 제공 단계(S10), 사용자 장치로부터 사용자 발화 오디오를 획득하는 단계(S20), 사용자 발화 오디오를 분석하는 단계(S30), 응답을 제공하는 단계(S40)를 포함할 수 있다.
먼저 단계(S10)에서는 음성 기반 대화 서비스 제공 장치(1)가 사용자 장치(11)에 인사말을 제공할 수 있다. 예를 들어 사용자 장치(11)가 출고 후 처음으로 음성 기반 대화 서비스 제공 장치(1)에 연결되어 대화 서비스가 구동되는 경우, 그러한 상황에 적절한 인사말에 제공될 수 있으며, 사용자 장치(11)가 오늘 처음 구동된 경우 또는 일시 정지된 후에 재시작된 경우 등, 다양한 상황을 반영한 적절한 인사말이 제공됨으로써, 사용자 장치(11)의 화자에게 보다 높은 친밀감을 유발할 수 있다.
이어서, 대화 모델을 이용하여, 화자가 관심을 가질 만한 주제에 관한 대화를 시도할 수 있다. 예를 들어 "좋아하는 동물이 뭐니?", "어떤 맛의 아이스크림을 가장 좋아하니?" 등과 같이 화자의 관심을 끌어서 대화를 유도할 만한 질문 문장을 제공할 수 있다.
단계(S20)에서는 사용자 장치로부터 사용자 발화 오디오가 획득된다. 예를 들어, 사용자 장치(11)를 사용하는 아동으로부터 상기 질문 문장에 대한 답변을 획득할 수 있다.
단계(S30)에서는 단계(S20)에서 획득된 사용자 발화 오디오가 분석된다. 단계(S30)에서는 사용자 발화 오디오를 텍스트로 변환하고, 이를 자연어 처리하여 문장 구조를 파악한 후, 문장에 포함된 단어의 의미를 사전에서 조회하는 등의 동작이 수행될 수 있다. 단계(S30)에 대해서는 도 4 내지 도 9를 참조하여 보다 자세히 설명하기로 한다.
단계(S40)에서는 단계(S30)에서 분석된 결과에 기초하여, 사용자에게 적절한 응답이 제공될 수 있다. 예를 들어, 대화 모델을 이용하여 대화를 계속하여 진행하거나, 사용자의 발화를 기초로 파악되는 사용자의 관심사에 부합하는 컨텐츠를 사용자 장치(11)를 통해 사용자에게 제공할 수 있다.
이하에서는 도 4를 참조하여, 도 3의 단계(S30)에서 사용자 발화 오디오를 분석하는 과정에 대하여 보다 자세히 설명한다.
도 4를 참조하면, 우선 단계(S31)에서는 사용자 발화 오디오를 텍스트로 변환하고(STT: Speech to Text), 단계(S32)에서는 변환된 텍스트를 대상으로 자연어 처리(NLP: Natural Language Processing)를 처리하여, 사용자 발화 오디오에 포함된 문장을 구조화된 사용자 발화 단어들의 모음으로 인식한다. STT와 NLP 처리는 종래에 알려진 다양한 기술과 방법들이 사용될 수 있으며, 본 발명은 그 중 어느 하나의 기술이나 방법을 사용하는 것으로 한정되지 않는다. 단계(S31) 및 단계(S32)는 예컨대 음성 기반 대화 서비스 제공 장치(1)의 대화 엔진(10)에 의해 독자적으로 수행될 수도 있지만, 음성 기반 대화 서비스 제공 장치(1)와 네트워크로 연결된 외부 서비스 또는 외부 엔진을 이용하여 수행될 수도 있다. 도 4에 도시되지는 않았지만, 본 발명의 몇몇 실시예에서는, 단계(S31) 또는 단계(S32)의 과정이 실패한 경우, 단계(S35)의 매칭 실패 처리 루틴(S35)으로 진행할 수 있다.
단계(S33)에서는 전 단계에서 인식된 사용자 발화 단어를 사전에 수록된 단어들과 비교하여, 사용자 발화 단어의 의미가 파악된다. 다시 말해 상기 사용자 발화 단어에 매칭되는 사전 수록 단어가 존재하는지 여부가 판정된다. 단계(S33)에 대해서는 도 5를 참조하여 보다 자세히 후술하기로 한다.
단계(S34)에서는, 상기 사용자 발화 단어에 매칭되는 사전 수록 단어가 존재하지 않는다면 단계(S35)로 분기하고, 상기 사용자 발화 단어에 매칭되는 사전 수록 단어가 존재한다면 단계(S36)로 분기한다.
단계(S35) 및 단계(S36)에서는, 사용자 발화 단어가 사전에 존재하지 않을 경우를 위한 루틴 및 사용자 발화 단어가 사전에 존재하는 경우를 위한 루틴이 각각 수행된다. 이에 관해서는 도 6 내지 도 9를 참조하여 보다 자세히 설명하기로 한다.
이하에서는 도 5를 참조하여, 도 4의 단계(S33)에서 사용자 발화 단어를 사전과 비교하는 과정을 보다 자세히 설명한다.
본 실시예에 따른 음성 기반의 대화 서비스 제공 방법에서는, 도 2를 참조하여 설명한 실시예에서와 같이, 복수의 사전들이 이용될 수 있다. 복수의 사전들은 예를 들어, 일반적인 어휘 사전, 대화 서비스에서 사용되는 어휘들이나 대화 서비스에서 제공되는 주제들에 매칭되는 단어들만을 포함하는 공통 사전, 복수의 사용자 또는 사용자 장치들 각각에 개인화된 사전들을 포함한다.
단계(S331)에서는 일반 어휘 사전 및/또는 공통 사전에서 사용자 발화 단어가 조회된다. 다시 말해, 사용자 발화 단어가 일반 어휘 사전 및/또는 공통 사전에 수록된 단어들과 비교되고, 매칭되는 사전 수록 단어가 존재하는지 여부가 판정된다.
단계(S332)에서는 현재 사용자 장치에 개인화된 사전에서 사용자 발화 단어가 조회되고, 매칭되는 사전 수록 단어가 존재하는지 여부가 판정된다. 사용자 장치에 개인화된 사전이란, 대화가 진행 중인 사용자 장치 #1 또는 그 화자 #1에 개인화된 사전일 수 있다. 사용자 장치에 개인화된 사전은, 사용자 발화 단어가 입력된 해당 사용자 장치 #1 또는 그 장치를 사용하는 화자 #1이 고유하게 사용하는 단어들을 기록한 사전일 수 있다.
단계(S333)에서는 상기 사용자 장치 #1가 아닌 다른 사용자 장치(사용자 장치 #2, #3, ...)에 개인화된 사전에서 사용자 발화 단어가 조회되고, 매칭되는 사전 수록 단어가 있는지 판정된다. 즉, 사용자 발화 단어를 발화한 화자 #1의 사용자 장치 #1가 아닌, 다른 화자들(화자 #2, #3, ...)의 사용자 장치(장치 #2, #3, ...)에 개인화된 사전에, 상기 사용자 발화 단어가 존재하는지 조회된다.
이때 이용되는 다른 사용자 장치의 개인화된 사전은, 사용자 장치 #1의 화자 #1와 동일한 화자 그룹에 속하는 화자들의 장치에 개인화된 사전일 수 있다.
화자 그룹은 화자의 거주 지역, 나이, 언어 구사 레벨, 컨텐츠 소비 취향 등에 기초하여 결정되는 그룹일 수 있다. 예를 들어, 화자 #1이 수도권에 거주하는 34개월령의 아동이고, 제1 내지 제3 레벨로 구별되는 언어 구사 레벨 중에 제1 레벨에 해당하는 아동일 경우, 이와 비슷한 나이와 유사한 언어 구사 레벨을 가지는, 수도권에 거주하는 다른 화자의 장치에 개인화된 사전이 우선적으로 사용될 수 있다. 다른 예로, 화자 #1이 수도권에 거주하는 45개월령의 아동이고, 로보카폴리 애니메이션을 즐겨 시청하는 아동일 경우, 이와 유사한 거주지와 나이를 가지고 유사한 컨텐츠를 즐겨 시청하는 아동이 사용하는 장치에 개인화된 사전이 우선적으로 사용될 수 있다.
다시 말해, 사용자 장치 #1의 화자 #1이 발화한 단어의 의미를 파악하기 위해, 화자 #1과 유사한 거주지, 나이, 언어 구사 레벨, 및/또는 취향을 가지는 다른 화자가 구사하는 단어들이 참조됨으로써, 사용자 발화 단어의 의미를 파악하는 과정의 효율과 정확도를 높일 수 있게 된다.
다른 일 실시예에서, 단계(S333)에서 이용되는 다른 사용자 장치의 개인화된 사전은, 사용자 장치 #1의 화자 #1와 컨텐츠 소비 취향이 유사한 동일한 화자 그룹에 속하는 화자들의 장치에 개인화된 사전일 수 있다.
단계(S334)에서는 상기 단계들(S331 내지 S333)에서 조회된 결과가 종합되고, 매칭된 사전 수록 단어가 하나라도 있다면 최종적으로 매칭된 사전 수록 단어가 결정될 수 있다.
예를 들어, 사용자 발화 단어에 매칭되는 사전 수록 단어가 둘 이상의 사전에서 발견되었다면, 최종적으로 매칭된 사전 수록 단어는 우선 순위에 따라 결정될 수 있다. 예를 들어, 사용자 장치에 개인화된 사전에 수록된 단어가 가장 큰 우선 순위를 가지고, 공통 사전에 수록된 단어가 그 다음 우선 순위를 가지며, 다른 사용자 장치에 개인화된 사전들에 수록된 단어가 가장 낮은 우선 순위를 가질 수 있다. 즉, 사용자 발화 단어를 발화한 사용자 본인의 사전에 수록된 단어가 가장 큰 우선 순위를 가지고, 해당 단어의 의미가 이용된다.
최종적으로 매칭된 사전 수록 단어는 단계(S36)의 매칭 성공 처리 루틴으로 제공된다.
한편, 단계(S334)에서, 사용자 발화 단어와 매칭되는 사전 수록 단어가 하나도 없다고 결정될 수 있다. 이 경우, 사용자 발화 단어는, 음성 기반 대화 서비스 제공 장치(1)가 관리하는 사전에 전혀 존재하지 않는 단어로서, 의미를 파악할 수 없는 단어이다. 단계(S334)에서 사용자 발화 단어와 매칭되는 사전 수록 단어가 하나도 없다고 결정될 경우, 단계(S34)에서 단계(S35)로 분기하여 매칭 실패 처리 루틴이 진행된다.
이하에서는 도 6 및 도 7을 참조하여, 도 4의 단계(S35)에서 수행되는 매칭 실패 처리 루틴에 대하여 보다 자세히 설명한다. 먼저 도 6을 참조한다.
사용자 발화 단어의 의미를 파악할 수 없는 경우, 먼저 단계(S351)에서 사용자 장치를 통한 의미 파악을 시도한다. 사용자 장치(11)의 화자가 발화한 단어 "아킴"의 의미를 파악할 수 없는 경우를 예로 들어 설명을 이어간다.
단계(S351)에서는, "아킴"의 의미를 파악하기 위하여, 사용자 장치(11)를 통해 화자에게 질문할 수 있다. 예를 들어 "아킴? 아킴은 내가 모르는 말인데, 무슨 뜻이야?"라는 질문을 사용자 장치(11)를 통해 화자에게 제공함으로써, 화자로부터 직접 "아킴"의 의미를 획득하는 것을 시도할 수 있다.
일 실시예에서, "아킴"의 의미를 열린 질문으로 물어보기 보다는, "아킴"이 의미하는 바를 나타내는 후보 단어를 선정하고, 그 단어가 맞는지 물어보는 질문을 사용자 장치(11)를 통해 화자에게 제공할 수 있다. 이를테면, 사용자 장치(11)의 화자가 아닌 다른 사용자 장치 #2의 화자 #2에 개인화된 사전에 "아스킴"은 "아이스크림"을 의미한다는 것이 수록되어 있을 수 있다. 이 경우, "아킴"과 유사한 형태와 발음을 가지는 "아스킴"의 의미인 "아이스크림"이 후보 단어로 선정될 수 있고, "아킴? 혹시 아이스크림을 말하는 거니?" 라는 방식으로 사용자 장치(11)의 화자에게 되물음으로써, 보다 효과적인 방식으로 사용자 발화 단어의 의미를 파악해 볼 수 있다.
단계(S351)에서 사용자 장치(11)를 통해 사용자 발화 단어의 의미를 파악하는데 성공하였다면(S352), 이를 사용자 장치(11)에 개인화된 사전에 기록하고, 도 3의 단계(S40)로 진행하여 음성 기반 대화 서비스의 제공을 지속할 수 있다.
단계(S351)에서 사용자 장치(11)를 통해 사용자 발화 단어의 의미를 파악하는데 성공하지 못했다면(S352), 단계(S353)으로 진행하여 사용자 장치의 관리자를 통해 사용자 발화 단어의 의미 파악을 시도한다. 도 7을 참조하여 단계(S353)에 대하여 보다 구체적으로 설명한다.
도 7을 참조하면, 단계(S353)는 사용자 발화 단어의 누적 사용 횟수를 임계치와 비교하는 단계(S3531), 사용자 장치의 관리자에게 사용자 발화 단어에 관한 정보를 요청하는 단계(S3532), 사용자 발화 단어의 의미 및 교정 희망 여부를 관리자로부터 획득하는 단계(S3533), 및 사용자 발화 단어 및 그 의미를 사용자 장치에 개인화된 사전에 추가하는 단계(S3534) 등의 세부 단계들을 포함할 수 있다.
먼저 단계(S3531)에서는, 사용자 장치(11)에서 사용자 발화 단어가 사용된 누적 횟수가 사전 설정된 임계치를 초과하는지 여부가 판정된다. 후술할 단계(S3532)에서 사용자 장치(11)의 관리자에게 사용자 발화 단어에 관한 정보를 요청하기에 앞서서, 사용자 발화 단어가 사용된 누적 횟수가 임계치를 초과하는지를 확인함으로써, 사용자 장치(11)의 화자가 반복적으로 사용하지 않는 단어들이나 실수로 잘못 발음한 단어들까지 관리자에게 정보를 요청하여 번거롭게 하는 비효율을 방지할 수 있다.
단계(S3532)에서는, 사용자 장치의 관리자에게 사용자 발화 단어에 관한 정보가 요청된다. 전술한 바와 같이 관리자란 상기 사용자 발화 단어가 획득된 사용자 장치(11)를 소유 및/또는 관리하는 자를 지칭한다. 많은 경우에, 사용자 장치(11)를 주로 사용하는 아동의 보호자 등이 상기 사용자 장치(11)의 관리자에 해당할 것이다. 상기 사용자 장치(11)와 관리자의 매칭 관계, 또는 상기 사용자 장치(11)의 화자와 관리자의 매칭 관계는 음성 기반 대화 서비스 제공 장치(1) 내의 DB(미도시)에 기록되어 이용될 수 있다.
단계(S3532)에서, 음성 기반 대화 서비스 제공 장치(1)는 예컨대 관리자 장치 인터페이스(30)를 통해 상기 관리자가 사용하는 관리자 장치(15)로 메시지 또는 푸쉬 알림을 전송함으로써, 상기 사용자 장치의 관리자가 상기 사용자 발화 단어에 관한 정보를 입력하도록 요청할 수 있다. 음성 기반 대화 서비스 제공 장치(1)는 관리자 장치(15)의 UI를 통해 사용자 장치(11)를 통해 이루어진 대화 이력의 적어도 일부를 제공하고, 대화 이력을 통해 파악되는 문맥 내에서 사용자 발화 단어가 가지는 의미를 관리자가 입력하도록 유도할 수 있다.
일 실시예에서는, 단계(S3532)에서 상기 대화 이력과 함께 상기 사용자 발화 단어에 해당되는 후보 단어를 관리자에게 제시할 수 있다. 예를 들어, 상기 사용자 발화 단어의 의미가 상기 사용자 장치(11)가 아닌 다른 사용자 장치(예컨대 다른 아동이 사용하는 장치)에 개인화된 사전에 수록되어 있다면, 그 의미를 사용자 장치(11)의 관리자에게 제시함으로써, 사용자 발화 단어가 가지는 의미에 대한 단서를 상기 관리자에게 제공할 수 있다. 이때 다른 사용자 장치는, 사용자 장치(11)의 화자와 동일한 화자 그룹에 속하는 화자가 사용하는 장치일 수 있다. 즉, 사용자 장치(11)의 화자와 유사한 거주지, 나이, 언어 구사 레벨, 컨텐츠 소비 취향 등을 가지는 화자가 사용하는 단어들 중에 상기 사용자 발화 단어에 대응되는 것이 있다면, 그 의미를 관리자가 참고할 수 있도록 제시할 수 있다.
단계(S3532)에서는, 예를 들어, "우리 아이가 '아꿍'이라는 단어를 사용했는데, 어머님은 무슨 뜻인지 아시나요? 참고로 우리 아이 또래의 다른 아이 중 한 명은 '아이스크림'이라는 의미로 '아꿍'을 사용한대요" 라는 메시지지를 관리자 장치(15)를 통해 관리자에게 제공함으로써, "아꿍" 이라는 사용자 발화 단어의 의미를 관리자가 입력할 수 있도록 한다.
단계(S3533)에서는, 사용자 발화 단어의 의미가 관리자 장치(15)를 통해 관리자로부터 획득될 수 있다. 사용자 장치(11)의 화자(예컨대 아동)가 사용하는 단어의 의미를 사용자 장치(11)의 관리자(예컨대 아동의 부모 또는 보호자)로부터 제공받음으로써, 사용자 장치(11)를 사용하는 아동의 부모나 보호자만이 알 수 있는 특정 아동만의 독특한 표현들의 의미까지도 파악할 수 있게 된다.
일 실시예에서, 단계(S3533)에서는, 사용자 장치(11)의 화자가 상기 사용자 발화 단어를 표준어로 교정하도록 유도하는 것을 상기 관리자가 희망하는지 여부에 관한 정보가 추가적으로 획득될 수 있다. 사용자 장치(11)의 화자인 아동의 나이나 언어 구사 수준에 따라서, 표준어가 아닌 화자 고유의 단어를 계속해서 사용하는 것에 대해 교정을 유도하는 것이 바람직할지 또는 일정 기간 동안은 계속해서 화자 고유의 단어를 사용하도록 할 지 여부에 대하여, 화자인 아동의 부모 등의 선호가 다를 수 있다. 또한 상기 사용자 발화 단어가 무엇인지, 그 어감은 어떠한 지 여부에 따라서도, 화자의 부모의 선호가 다를 수 있다. 단계(S3533)에서는, 상기 사용자 발화 단어를 표준어로 교정하도록 유도할지 여부를 상기 관리자가 지정할 수 있도록 하는 인터페이스가 제공됨으로써, 음성 기반 대화 서비스가 사용자 장치(11)의 화자의 언어 사용 습관에 어떤 영향을 줄지를 관리자가 결정할 수 있게 된다.
단계(S3534)에서는, 관리자 장치(15)를 통해 관리자로부터 입력 받은 사용자 발화 단어의 의미를, 사용자 발화 단어와 함께 사용자 장치(11)에 개인화된 사전에 기록한다. 향후 사용자 장치(11)로부터 동일한 단어가 발화될 경우 단계(S33)의 사전 조회 과정에서 사용자 발화 단어의 의미가 파악될 수 있게 된다.
몇몇 실시예에서는, 단계(S3532)에서, 사용자 발화 단어가 아닌 사용자 발화가 포함된 오디오 클립이 관리자 장치(15)에 제공 및 재생되고, 사용자 발화가 포함된 오디오 클립에 담긴 화자의 표현의 의미를 관리자로 하여금 입력하도록 할 수 있다. 발음이 부정확한 어린 아이의 발화는 오디오를 텍스트로 변환하는 오디오 인식 모델에 의해서 인식되지 못하는 경우가 많으므로, 텍스트 형태의 사용자 발화 단어로 변환되지 못하는 경우가 발생한다. 이 경우 사용자 발화가 포함된 오디오 클립 자체를 관리자(화자의 부모 등)에게 제공함으로써, 텍스트로 변환되지 못한 발화의 의미까지도 파악할 수 있게 된다. 또한 그 결과를 기초로 오디오 인식 모델을 지도 학습하여 업데이트 할 수 있게 된다.
지금까지 도 6 및 도 7을 참조하여, 도 4의 단계(S35)에서 수행되는 매칭 실패 처리 루틴에 대하여 설명하였다. 본 실시예에 따른 매칭 실패 처리 루틴에서는, 사전 조회 과정에서 매칭되는 단어를 찾지 못한 사용자 발화 단어의 의미를, 상기 단어를 발화한 사용자의 부모 등 발화가 이루어진 사용자 장치의 관리자 내지는 소유자로부터 획득한다. 이는 음성 기반 대화 서비스의 대상자가 영유아 등의 아동일 경우에 특히 매우 큰 효과를 가진다. 어린 아동의 발화나 어린 아동이 사용하는 어휘는 부모 등 보호자나 동거하는 가족들 외의 다른 사람들은 전혀 이해하기 어려운 경우가 많으므로, 어린 아동이 발화한 단어의 의미를 서비스 제공자 측이 고용한 운영자나 관리자가 알아 내어 사전에 추가하는 것은 불가능에 가깝다. 본 발명의 실시예들에서는, 어린 아동의 발화가 이루어진 사용자 장치의 관리자, 즉 부모 등으로부터 단어의 의미를 획득하므로, 어린 아동이 사용하는 단어의 의미를 효율적이고 정확하게 파악하여, 보다 고도한 음성 기반 대화 서비스를 제공할 수 있다는 장점을 가지게 된다.
이하에서는 도 8 및 도 9를 참조하여, 도 4의 단계(S36)에서 수행되는 매칭 성공 처리 루틴에 대하여 보다 자세히 설명한다.
도 8은, 본 발명의 몇몇 실시예에 따른 매칭 성공 처리 루틴의 순서도이다. 사용자 발화 단어와 매칭되는 사전 수록 단어가 사전으로부터 발견된 경우, 단계(S36)에서는 상기 사용자 발화 단어를 이용한 음성 기반 대화 서비스가 제공될 수 있다.
예를 들어, 도 8의 단계(S361)를 참조하면, 사용자 발화 단어에 매칭되는 사전 수록된 단어, 다시 말해 사용자 발화 단어의 의미에 대응되는 음성/영상 컨텐츠가 사용자 장치(11)에게 제공될 수 있다. 예컨대, 사용자 발화 단어가 "아꿍"이고, "아꿍"이 "아이스크림"에 매칭된다고 판정된 경우, "아이스크림"에 관련된 오디오북 컨텐츠나 동영상 컨텐츠가 사용자 장치(11)를 통해서 제공될 수 있다.
다른 예로서, 도 8의 단계(S362)를 참조하면, 사전 수록 단어의 의미에 기초하여, 대화 엔진의 응답 발화 내에 사용자 발화 단어가 사용될 수 있다. 예컨대, "어떤 맛 아꿍을 제일 좋아해?", "최근에 엄마와 함께 아꿍을 먹은 것은 언제야?" 등과 같이, "아이스크림" 대신에 "아꿍"을 사용한 응답 발화를 사용자 장치(11)에 제공함으로써, "아꿍" 이라는 표현을 사용하는 사용자 장치(11)의 화자와의 친밀감을 형성할 수 있다.
또 다른 예로서, 기존 컨텐츠에 등장하는 사전 수록 단어를 사용자 발화 단어로 치환하는 가공을 수행하고(단계 S3631), 이와 같이 가공된 컨텐츠를 사용자 장치(11)에 제공할 수 있다(단계 S3632). 예컨대, 동화 오디오북 컨텐츠에서 "아이스크림"이라는 단어가 등장하는 부분에서 "아이스크림"을 "아꿍"으로 치환하고, 이와 같이 가공된 컨텐츠를 사용자 장치(11)에 제공할 수 있다. 이처럼 사용자 장치(11)의 화자만이 고유하게 사용하는 표현을, 음성 기반 대화 서비스 제공 장치(1)가 적절히 모사하도록 함으로써, 사용자 장치(11)의 화자와의 친밀감을 한층 더 향상시킬 수 있으며, 궁극적으로 대화 서비스에 대한 사용자 인게이지먼트를 극대화시킬 수 있게 된다.
몇몇 실시예에서는, 상기 사용자 발화 단어의 사용에 관한 리포트를 사용자 장치(11)의 관리자에게 제공할 수 있다(단계 S364). 구체적으로, 사용자 발화 단어 및 이에 대응되는 표준어의 사용 빈도, 상대적인 사용 비율 등에 관한 통계 데이터를 관리자 장치(15)에게 제공함으로써, 사용자 장치(11)의 화자의 언어 사용 습관 및 언어 구사 능력의 발달 수준을, 화자의 부모 등이 파악할 수 있도록 한다.
도 9는, 본 발명의 다른 몇몇 실시예에 따른 매칭 성공 처리 루틴의 순서도이다. 본 실시예는, 사용자 장치(11)의 화자의 언어 구사 레벨에 따라서, 음성 기반 대화 서비스의 응답을 다르게 한다는 점에서, 도 8를 참조하여 전술한 실시예와 구별된다.
도 9를 참조하면, 먼저 사용자 장치(11)의 화자의 언어 구사 레벨이 판정된다(단계 S366).
화자의 언어 구사 레벨이 제1 레벨일 경우, 사용자 발화 단어를 사용하여 음성 기반 대화 서비스를 제공한다(단계 S367). 예컨대 발성 기관이 완전히 발달되지 않아서 발음이 불완전하고 언어 구사 레벨이 낮은 화자를 대상으로는, "아이스크림"을 의미하는 사용자 발화 단어인 "아꿍"을 사용하여 음성 기반 대화 서비스를 제공함으로써, 화자와의 친밀감 형성을 촉진할 수 있다. 사용자 발화 단어를 사용하여 음성 기반 대화 서비스를 제공하는 것의 구체적인 예는, 도 8에 도시된 순서도의 단계(S361 내지 S3632)에 관한 설명들이 참조될 수 있다.
화자의 언어 구사 레벨이 제2 레벨일 경우, 사용자 발화 단어에 매칭되는 사전 수록 단어(표준어 등)를 사용하여 음성 기반 대화 서비스를 제공하며 화자가 사용하는 단어의 교정을 유도할 수 있다(단계 S369). 제2 레벨은 제1 레벨보다 높은 수준의 언어를 구사하는 레벨일 수 있다. 예컨대 "아이스크림"을 발음하는데 지장이 없을 정도로 화자의 발음이 정확하고 언어 구사력도 충분한 경우에는, 화자가 "아꿍"이라고 발화하더라도 "아이스크림"이라는 표준어를 사용하여 응답함으로써, 화자가 앞으로는 표준어를 사용하도록 유도할 수 있다.
만약 화자의 언어 구사 레벨이 상기 제1 레벨과 제2 레벨의 사이인 제3 레벨에 해당할 경우, 사용자 발화 단어 및 사전 수록 단어(표준어 등)를 혼용하여 음성 기반 대화 서비스를 제공할 수 있다. 제3 레벨에 해당하는 화자를 대상으로는, 사용자 발화 단어를 사용함으로써 친밀감을 유지하면서도, 표준어를 함께 사용함으로써 화자가 점차적으로 표준어를 사용하도록 유도할 수 있다.
지금까지 도 3 내지 도 9를 참조하여, 본 발명의 일 실시예에 따른 음성 기반의 대화 서비스 제공 방법에 대하여 설명하였다.
본 실시예에 따르면, 특정 사용자 또는 특정 사용자 장치에 개인화된 사전을 관리 및 이용함으로써, 사용자로 하여금 대화 서비스에 더 높은 친밀감을 가지도록 유도하고, 궁극적으로 대화 서비스에 대한 사용자 인게이지먼트를 향상시킬 수 있게 된다.
*129또한, 본 실시예에 따르면, 사용자와 유사한 거주지, 나이, 언어 구사 레벨, 컨텐츠 소비 취향 등을 가지는 다른 사용자에 개인화된 사전을 참고함으로써, 사용자가 발화한 단어의 의미를 효과적으로 파악할 수 있게 된다.
또한, 본 실시예에 따르면, 사전 조회를 통해 의미를 파악하지 못한 사용자 발화 단어에 대하여, 사용자 장치의 관리자나 사용자의 부모 등에게 단어의 의미를 입력하도록 함으로써, 부모 등 보호자나 동거 가족들 외의 다른 사람들은 극도로 이해하기 어려운, 어린 아동이 발화한 단어의 의미를 효율적으로 파악할 수 있게 된다. 이는 서비스 제공자 측이 고용한 운영자나 관리자 등 특정 아동과 관계가 없는 제3자를 통해 특정 아동의 어휘를 파악하는 종전의 방식으로부터는 전혀 기대할 수 없는 수준의 높은 정확도로 단어의 의미를 파악할 수 있도록 한다.
또한, 본 실시예에 따르면, 사용자의 언어 구사 레벨 내지는 언어 발달 수준에 맞추어, 사용자가 고유하게 사용하는 단어와 이에 대응되는 표준어를 적절히 사용하여 음성 기반 대화 서비스를 제공함으로써, 사용자와의 친밀감을 형성하면서도 사용자의 단어 사용 습관의 개선을 점진적으로 유도할 수 있게 된다.
또한, 본 실시예에 따르면, 사용자의 단어 사용 습관에 관한 리포트를 자동으로 생성하여 사용자의 부모에게 제공함으로써, 아동의 언어 구사 레벨과 발달 수준을 부모가 손쉽게 파악할 수 있도록 한다.
이하에서는, 도 10을 참조하여, 본 발명의 몇몇 실시예들에 음성 기반 대화 서비스 제공 장치(1)를 구현할 수 있는 예시적인 컴퓨팅 장치(1500)에 대하여 설명하도록 한다.
도 10은 본 발명의 몇몇 실시예들에 따른 음성 기반 대화 서비스 제공 장치(1)를 구현할 수 있는 예시적인 컴퓨팅 장치(1500)를 나타내는 하드웨어 구성도이다.
도 10에 도시된 바와 같이, 컴퓨팅 장치(1500)는 하나 이상의 프로세서(1510), 버스(1550), 통신 인터페이스(1570), 상기 프로세서(1510)에 의하여 수행되는 컴퓨터 프로그램(1591)을 로드(load)하는 메모리(1530)와, 컴퓨터 프로그램(1591)을 저장하는 스토리지(1590)를 포함할 수 있다. 다만, 도 10에는 본 발명의 실시예와 관련 있는 구성 요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 10에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.
프로세서(1510)는 컴퓨팅 장치(1500)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1510)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(1510)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(1500)는 하나 이상의 프로세서를 구비할 수 있다.
메모리(1530)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1530)는 본 발명의 실시예들에 따른 방법을 실행하기 위하여 스토리지(1590)로부터 하나 이상의 프로그램(1591)을 로드할 수 있다. 메모리(1530)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 발명의 기술적 범위가 이에 한정되는 것은 아니다.
버스(1550)는 컴퓨팅 장치(1500)의 구성 요소 간 통신 기능을 제공한다. 버스(1550)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.
통신 인터페이스(1570)는 컴퓨팅 장치(1500)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(1570)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(1570)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.
몇몇 실시예들에 따르면, 통신 인터페이스(1570)는 생략될 수도 있다.
스토리지(1590)는 상기 하나 이상의 프로그램(1591)과 각종 데이터를 비임시적으로 저장할 수 있다.
스토리지(1590)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.
컴퓨터 프로그램(1591)은 메모리(1530)에 로드될 때 프로세서(1510)로 하여금 본 발명의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(1510)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 발명의 다양한 실시예에 따른 방법/동작들을 수행할 수 있다.
위와 같은 경우, 컴퓨팅 장치(1500)를 통해 본 발명의 몇몇 실시예들에 따른 장치들이 구현될 수 있다.
지금까지 도 1 내지 도 10을 참조하여 본 발명의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 발명의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
지금까지 도 1 내지 도 10을 참조하여 설명된 본 발명의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.
도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 발명이 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (5)

  1. 음성 기반 대화 서비스 제공 방법으로서,
    제1 화자의 발화를 포함하는 오디오 입력의 의미를 식별하는 단계; 및
    상기 의미의 식별에 실패하였다는 판정에 기초하여, 사용자 장치의 관리자의 단말로부터 상기 의미를 입력 받는 단계를 포함하되,
    상기 사용자 장치의 관리자에게 상기 의미를 입력 받는 단계는,
    상기 사용자 장치와 구별되는 다른 사용자 장치에 개인화된 사전에 포함된 단어들 중 상기 오디오 입력으로부터 인식된 사용자 발화 단어와 매칭되는 단어를 상기 관리자의 단말에 디스플레이하는 단계를 포함하는,
    음성 기반 대화 서비스 제공 방법.
  2. 제1 항에 있어서,
    상기 개인화된 사전은, 상기 다른 사용자 장치의 제2 화자가 사용하는 단어 및 상기 단어의 의미가 무엇인지 기록한 것인,
    음성 기반 대화 서비스 제공 방법.
  3. 제2항에 있어서,
    상기 제2 화자는, 상기 제1 화자와 동일한 사용자 그룹에 속하는 화자이며,
    상기 사용자 그룹은 거주 지역, 나이, 언어 구사 수준 및 컨텐츠 소비 취향 중 적어도 하나에 기초하여 결정되는 것인,
    음성 기반 대화 서비스 제공 방법.
  4. 제1 항에 있어서,
    상기 개인화된 사전은, 복수의 나이대별 화자의 사용자 장치의 개인화된 사전 중, 상기 제1 화자의 사전 등록된 나이대에 대응되는 개인화된 사전인,
    음성 기반 대화 서비스 제공 방법.
  5. 음성 기반 대화 서비스 제공 방법으로서,
    오디오 입력을 획득하는 단계;
    상기 오디오 입력의 의미를 식별하는 단계를 포함하되,
    상기 오디오 입력의 의미를 식별하는 단계는,
    상기 오디오 입력으로부터 인식된 사용자 발화 단어를, 사용자 장치와 구별되는 다른 사용자 장치에 개인화된 사전에 포함된 단어들과 비교하는 단계를 포함하는,
    음성 기반 대화 서비스 제공 방법.
KR1020220054310A 2020-06-26 2022-05-02 음성 기반 대화 서비스 제공 방법 및 장치 KR102475038B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220054310A KR102475038B1 (ko) 2020-06-26 2022-05-02 음성 기반 대화 서비스 제공 방법 및 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200078353A KR102395164B1 (ko) 2020-06-26 2020-06-26 음성 기반 대화 서비스 제공 방법 및 장치
KR1020220054310A KR102475038B1 (ko) 2020-06-26 2022-05-02 음성 기반 대화 서비스 제공 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200078353A Division KR102395164B1 (ko) 2020-06-26 2020-06-26 음성 기반 대화 서비스 제공 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20220066228A KR20220066228A (ko) 2022-05-24
KR102475038B1 true KR102475038B1 (ko) 2022-12-07

Family

ID=79342409

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200078353A KR102395164B1 (ko) 2020-06-26 2020-06-26 음성 기반 대화 서비스 제공 방법 및 장치
KR1020220054310A KR102475038B1 (ko) 2020-06-26 2022-05-02 음성 기반 대화 서비스 제공 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200078353A KR102395164B1 (ko) 2020-06-26 2020-06-26 음성 기반 대화 서비스 제공 방법 및 장치

Country Status (1)

Country Link
KR (2) KR102395164B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018072578A (ja) * 2016-10-31 2018-05-10 パナソニックIpマネジメント株式会社 辞書修正方法、辞書修正プログラム、音声処理装置及びロボット

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101394284B1 (ko) * 2012-06-05 2014-05-13 김태윤 어학 학습정보 제공 시스템, 이를 이용한 어학 학습정보 제공방법 및 이를 위한 외국어 교정 처리방법
KR20170034154A (ko) 2015-09-18 2017-03-28 삼성전자주식회사 콘텐츠 제공 방법 및 이를 수행하는 전자 장치
KR20190096856A (ko) * 2019-07-30 2019-08-20 엘지전자 주식회사 음성 인식 방법 및 음성 인식 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018072578A (ja) * 2016-10-31 2018-05-10 パナソニックIpマネジメント株式会社 辞書修正方法、辞書修正プログラム、音声処理装置及びロボット

Also Published As

Publication number Publication date
KR102395164B1 (ko) 2022-05-11
KR20220066228A (ko) 2022-05-24
KR20220000565A (ko) 2022-01-04

Similar Documents

Publication Publication Date Title
CN112119454B (zh) 适应多个年龄组和/或词汇水平的自动助理
US20240168933A1 (en) Ai story platform with customizable personality for education, entertainment, and therapy
US11126825B2 (en) Natural language interaction for smart assistant
US11100384B2 (en) Intelligent device user interactions
CN106548773B (zh) 基于人工智能的儿童用户搜索方法及装置
KR102012968B1 (ko) 인터렉션 로봇의 제어 방법 및 제어 서버
CN109710748B (zh) 一种面向智能机器人的绘本阅读交互方法和系统
Wilks et al. A prototype for a conversational companion for reminiscing about images
CN110610627A (zh) 启发式诗词学习方法及装置
EP3776173A1 (en) Intelligent device user interactions
KR101926328B1 (ko) 음성인식기반 의사소통훈련 서비스장치 및 시스템
KR102475038B1 (ko) 음성 기반 대화 서비스 제공 방법 및 장치
Kiy et al. Learning Smart in Home
Tewari et al. A question-answering agent using speech driven non-linear machinima
JP7350384B1 (ja) 対話システム、及び対話方法
CN114155479B (zh) 语言交互处理方法、装置及电子设备
CN110059231B (zh) 一种回复内容的生成方法及装置
Rupitz et al. Development of an Amazon Alexa App for a University Online Search
CN115905475A (zh) 答案评分方法、模型训练方法、装置、存储介质及设备
Ebner et al. Development of an Amazon Alexa app for a university online search

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right