KR20200116688A - 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법 - Google Patents

대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법 Download PDF

Info

Publication number
KR20200116688A
KR20200116688A KR1020190038360A KR20190038360A KR20200116688A KR 20200116688 A KR20200116688 A KR 20200116688A KR 1020190038360 A KR1020190038360 A KR 1020190038360A KR 20190038360 A KR20190038360 A KR 20190038360A KR 20200116688 A KR20200116688 A KR 20200116688A
Authority
KR
South Korea
Prior art keywords
user
response
conversation
feedback
preference
Prior art date
Application number
KR1020190038360A
Other languages
English (en)
Inventor
김선아
박영민
이정엄
Original Assignee
현대자동차주식회사
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020190038360A priority Critical patent/KR20200116688A/ko
Priority to US16/673,624 priority patent/US20200320993A1/en
Priority to CN201911191195.1A priority patent/CN111798843A/zh
Publication of KR20200116688A publication Critical patent/KR20200116688A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/03Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for
    • B60R16/0315Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for using multiplexing techniques
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

개시된 발명의 일 실시예에 따른 차량은 사용자의 음성을 입력 받는 음성 입력부; 외부 장치로부터 사용자의 대화 이력 정보를 수신하는 통신부; 사용자의 음성에 대응하는 응답을 시각적 또는 청각적으로 출력하는 출력부; 및 대화 이력 정보에 기초하여 사용자 선호 응답을 결정하고, 사용자의 음성이 수신되면, 사용자 선호 응답에 기초하여 사용자의 음성에 대응하는 응답을 생성하고, 생성된 응답을 출력하도록 출력부를 제어하는 제어부;를 포함한다.

Description

대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법{DIALOGUE PROCESSING APPARATUS, VEHICLE HAVING THE SAME AND DIALOGUE PROCESSING METHOD}
개시된 발명은 사용자와의 대화를 통하여 사용자의 의도를 파악하고, 사용자에게 필요한 정보나 서비스를 제공하는 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법에 관한 것이다.
대화 처리 장치는 사용자와의 대화를 수행하는 장치로서, 사용자의 음성을 인식하고, 음성 인식 결과를 통하여 사용자의 의도를 파악하고, 사용자에게 필요한 정보나 서비스를 제공하기 위한 응답을 출력할 수 있다.
한편, 사용자와의 대화를 수행하기 위하여 응답을 출력하는데 있어서, 기존의 대화 처리 장치는 저장된 데이터에 기초하여 미리 정해진 어휘와 말투에 의하여 응답을 출력하는 한계가 있었다. 이에 실제 인간과 인간 사이의 대화는 대화자가 처한 상황, 대화자의 감정 또는 선호도에 따라 다양한 어휘와 말투에 의해 이루어지므로, 사용자의 감정이나 선호도를 반영한 대화 응답의 생성 및 출력을 위한 기술이 요구된다.
일 측면은 사용자의 음성을 입력 받고, 입력된 사용자의 음성에 대응하는 응답을 출력할 수 있는 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법을 제공한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 측면에 따른 대화 처리 장치는, 사용자의 음성을 입력 받는 음성 입력부; 외부 장치로부터 상기 사용자의 대화 이력 정보를 수신하는 통신부; 상기 사용자의 음성에 대응하는 응답을 시각적 또는 청각적으로 출력하는 출력부; 및 상기 대화 이력 정보에 기초하여 사용자 선호 응답을 결정하고, 상기 사용자의 음성이 수신되면, 상기 사용자 선호 응답에 기초하여 상기 사용자의 음성에 대응하는 응답을 생성하고, 상기 생성된 응답을 출력하도록 상기 출력부를 제어하는 제어부;를 포함한다.
또한, 상기 제어부는, 상기 대화 이력 정보에 기초하여 상기 사용자의 발화, 상기 사용자의 발화 에 대응하는 대화 상대방의 응답 및 상기 대화 상대방의 응답에 대한 상기 사용자의 피드백을 결정하고, 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정할 수 있다.
또한, 상기 제어부는, 상기 사용자의 피드백이 미리 정해진 조건을 만족하면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정할 수 있다.
또한, 상기 제어부는, 상기 사용자의 피드백 내용에 미리 정해진 키워드가 포함되면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정할 수 있다.
또한, 상기 제어부는, 상기 사용자의 피드백 내용에 포함된 키워드를 추출하고, 상기 추출된 키워드와 미리 저장된 긍정 키워드 정보와의 유사도가 미리 정해진 유사도 이상이면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정할 수 있다.
또한, 상기 제어부는, 상기 사용자의 피드백 내용에 포함된 이모티콘 또는 아이콘을 추출하고, 상기 추출된 이모티콘 또는 아이콘의 종류가 미리 정해진 종류이면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정할 수 있다.
또한, 상기 제어부는, 상기 대화 상대방의 응답에 대한 상기 사용자의 피드백의 반응 시간이 미리 정해진 시간 이하인 경우, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정할 수 있다.
또한, 상기 제어부는, 상기 사용자의 피드백에 기초하여 상기 사용자의 감정을 결정하고, 상기 사용자의 감정이 미리 정해진 종류의 감정인 경우, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정할 수 있다.
또한, 상기 제어부는, 상기 사용자의 피드백에 기초하여 상기 대화 상대방의 응답 별 사용자의 선호도를 결정하고, 상기 사용자의 선호도에 기초하여 상기 사용자가 선호하는 대화 상대방을 결정하고, 상기 사용자가 선호하는 대화자의 응답을 상기 사용자의 선호 응답으로 결정할 수 있다.
또한, 상기 제어부는, 상기 대화 이력 정보에 기초하여 대화 상대방 별 연락 빈도를 결정하고, 상기 연락 빈도에 기초하여 상기 사용자의 선호도에 가중치를 적용하고, 상기 가중치가 적용된 상기 사용자의 선호도에 기초하여 상기 사용자 선호 응답을 결정할 수 있다.
또한, 상기 결정된 사용자 선호 응답을 저장하는 저장부;를 더 포함하고, 상기 사용자의 음성을 인식하여 음성 인식 결과를 생성하고, 상기 음성 인식 결과에 기초하여 상기 사용자의 의도를 결정하고, 상기 사용자의 의도 별 상기 사용자 선호 응답을 저장하도록 상기 저장부를 제어할 수 있다.
다른 측면에 따른 대화 처리 방법은, 사용자의 음성을 입력 받는 음성 입력부; 및 상기 사용자의 음성에 대응하는 응답을 시각적 또는 청각적으로 출력하는 출력부;를 포함하는 대화 처리 장치의 대화 처리 방법으로서, 외부 장치로부터 사용자의 대화 이력 정보를 수신하고; 상기 대화 이력 정보에 기초하여 사용자 선호 응답을 결정하고; 상기 결정된 사용자 선호 응답을 저장하고; 상기 사용자의 음성이 수신되면, 상기 저장된 사용자 선호 응답에 기초하여 사용자의 음성에 대응하는 응답을 생성하고; 및 상기 생성된 응답을 출력하는 것;을 포함한다.
또한, 상기 대화 이력 정보에 기초하여 상기 사용자 선호 응답을 결정하는 것은, 상기 대화 이력 정보에 기초하여 상기 사용자의 발화, 상기 사용자의 발화 에 대응하는 대화 상대방의 응답 및 상기 대화 상대방의 응답에 대한 상기 사용자의 피드백을 결정하고; 및 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것;을 포함할 수 있다.
또한, 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은, 상기 사용자의 피드백이 미리 정해진 조건을 만족하면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 것;을 포함할 수 있다.
또한, 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은, 상기 사용자의 피드백 내용에 미리 정해진 키워드가 포함되거나 미리 정해진 종류의 이모티콘 또는 아이콘이 포함되면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정할 수 있다.
또한, 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은, 상기 대화 상대방의 응답에 대한 상기 사용자의 피드백의 반응 시간이 미리 정해진 시간 이하인 경우, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 것;을 포함할 수 있다.
또한, 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은, 상기 사용자의 피드백에 기초하여 상기 사용자의 감정을 결정하고; 및 상기 사용자의 감정이 미리 정해진 종류의 감정인 경우, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 것;을 포함할 수 있다.
또한, 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은, 상기 사용자의 피드백에 기초하여 상기 대화 상대방의 응답 별 사용자의 선호도를 결정하고; 상기 사용자의 선호도에 기초하여 상기 사용자가 선호하는 대화 상대방을 결정하고; 및 상기 사용자가 선호하는 대화자의 응답을 상기 사용자의 선호 응답으로 결정하는 것;을 포함할 수 있다.
또한, 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은, 상기 대화 이력 정보에 기초하여 대화 상대방 별 연락 빈도를 결정하고; 상기 연락 빈도에 기초하여 상기 사용자의 선호도에 가중치를 적용하고; 및 상기 가중치가 적용된 상기 사용자의 선호도에 기초하여 상기 사용자 선호 응답을 결정하는 것;을 더 포함할 수 있다.
다른 측면에 따른 차량은 사용자의 음성을 입력 받는 음성 입력부; 외부 장치로부터 상기 사용자의 대화 이력 정보를 수신하는 통신부; 상기 사용자의 음성에 대응하는 응답을 시각적 또는 청각적으로 출력하는 출력부; 및 상기 대화 이력 정보에 기초하여 사용자 선호 응답을 결정하고, 상기 사용자의 음성이 수신되면, 상기 사용자 선호 응답에 기초하여 상기 사용자의 음성에 대응하는 응답을 생성하고, 상기 생성된 응답을 출력하도록 상기 출력부를 제어하는 제어부;를 포함한다.
또한, 상기 제어부는, 상기 대화 이력 정보에 기초하여 상기 사용자의 발화, 상기 사용자의 발화 에 대응하는 대화 상대방의 응답 및 상기 대화 상대방의 응답에 대한 상기 사용자의 피드백을 결정하고, 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정할 수 있다.
일 측면에 따른 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법에 따르면, 사용자 개개인의 선호도에 부합하는 대화 서비스를 제공할 수 있으므로, 사용자의 편의성 및 만족도가 증대될 수 있다.
도 1은 일 실시예에 따른 대화 처리 장치의 제어 블록도이다.
도 2a는 일 실시예에 따른 대화 처리 장치가 사용자 선호 응답을 결정하는 동작을 설명하기 위한 도면이다.
도 2b는 일 실시예에 따른 대화 처리 장치가 사용자 선호 응답을 결정하는 동작을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 대화 처리 장치가 획득한 사용자 선호 응답 예시를 나타낸 도면이다.
도 4는 일 실시예에 따른 대화 처리 방법의 흐름도이다.
도 5는 일 실시예에 따른 대화 처리 방법의 흐름도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 일 실시예에 따른 대화 처리 장치의 제어 블록도이다.
도 1을 참조하면, 일 실시예에 따른 대화 처리 장치(100)는 사용자의 음성을 입력 받는 음성 입력부(110), 외부 장치와 통신을 수행하는 통신부(120), 대화 처리 장치(100)의 내부 구성에 대한 전반적인 제어를 수행하는 제어부(130), 출력부(140), 저장부(150)를 포함할 수 있다.
음성 입력부(110)는 사용자의 음성을 입력 받을 수 있다. 음성 입력부(110)는 음향을 입력 받아 전기적인 신호로 변환하여 출력하는 마이크로폰을 포함할 수 있다.
통신부(120)는 외부 장치로부터 사용자와 관련된 대화 이력 정보를 수신할 수 있다. 이 때, 대화 이력 정보는 불특정 대화 상대방과 수행한 사용자의 대화를 파악하기 위한 정보를 의미하며, 사용자의 대화는 전화 통화에 의한 음성 대화 및 메시지 서비스 또는 메신저 등을 이용한 문자 대화를 포함할 수 있다.
이 외에도, 사용자의 대화는 Facebook, Twitter, Instagram, Kakaotalk 등의 SNS(Social network service)에 의한 상호 작용을 포함할 수 있다. 예를 들어, SNS에 의한 상호 작용으로써 사용자는 Facebook 서비스를 이용하면서 특정인이 공유한 컨텐츠에 '좋아요(like)' 아이콘을 입력할 수 있다. 이 경우, 사용자가 '좋아요' 아이콘을 입력한 대상 컨텐츠의 내용, 종류 등의 정보는, 상호 작용 이력으로서 사용자의 대화에 포함될 수 있다.
이러한 대화 이력 정보는 전술한 대화 내용뿐만 아니라 대화 빈도에 대한 정보를 포함할 수 있으며, 전화 정보, 문자 정보 또는 SNS 정보 중 적어도 하나를 포함할 수 있다. 전화 정보는 사용자의 통화 목록 또는 전화번호부 정보 중 적어도 하나를 포함할 수 있고, 문자 정보는 사용자가 발신 또는 수신한 메시지 정보 또는 메시지를 주고 받은 상대방 정보를 포함할 수 있고, SNS 정보는 전술한 SNS에 의한 상호 작용 정보를 포함할 수 있다.
다만, 대화 이력 정보는 전술한 예에 한정되지 않고, 사용자가 불특정 상대방과 수행한 커뮤니케이션과 관련된 모든 정보를 포함할 수 있다.
이를 위해, 통신부(120)는 외부 장치와 통신을 수행할 수 있고, 외부 장치는 사용자 단말 또는 외부 서버를 포함할 수 있다.
사용자 단말은 네트워크를 통해 대화 처리 장치(100) 또는 차량(200)에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.
한편, 통신부(120)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.
유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈 , 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 신호를 송신하는 안테나 및 송신기(Transmitter)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 제어부의 제어에 따라 무선 통신 인터페이스를 통해 제어부(130)로부터 출력된 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조하는 신호 변환 모듈을 더 포함할 수 있다.
무선 통신 모듈은 신호를 수신하는 안테나 및 수신기(Receiver)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 무선 통신 인터페이스를 통하여 수신한 아날로그 형태의 무선 신호를 디지털 제어 신호로 복조하기 위한 신호 변환 모듈을 더 포함할 수 있다.
출력부(140)는 사용자의 음성에 대응하는 응답을 시각적 또는 청각적으로 출력할 수 있다. 이를 위해, 출력부(140)는 사용자의 음성에 대응하는 응답을 음향으로 출력하는 스피커 또는 사용자의 음성에 대응하는 응답을 이미지 또는 문자로 출력하는 디스플레이 중 적어도 하나를 포함할 수 있다.
제어부(130)는 사용자의 음성이 수신되면, 미리 저장된 사용자 선호 응답에 기초하여 사용자의 음성에 대응하는 응답을 생성할 수 있고, 생성된 응답을 출력하도록 출력부(140)를 제어할 수 있다.
이를 위해, 제어부(130)는 통신부(120)로부터 수신하거나 저장부(150)에 저장된 대화 이력 정보에 기초하여 사용자 선호 응답을 결정할 수 있고, 결정된 사용자 선호 응답을 저장부(150)에 저장할 수 있다.
이 때, 사용자 선호 응답은 사용자가 선호하는 대화 응답을 의미하며, 사용자가 선호하는 대화 상대방의 응답으로서 사용자의 발화에 대응하는 대화 상대방의 응답을 의미할 수 있다. 이하, 사용자 선호 응답 결정에 대한 자세한 동작은 후술한다.
제어부(130)는 음성 입력부(110)로부터 입력된 사용자의 음성을 인식할 수 있고, 텍스트 형태의 발화문으로 변환할 수 있다. 제어부(130)는 이러한 발화문에 자연어 이해(Natural Language Understanding) 알고리즘을 적용하여 사용자 또는 대화 상대방의 의도를 파악할 수 있다. 이 때, 제어부(130)에 의해 파악된 사용자 또는 대화 상대방의 의도는 발화문에 기초하여 파악된 대화 주제 또는 통화 주제를 포함할 수 있다.
이를 위해, 제어부(130)는 음성 인식 모듈을 포함할 수 있으며, 입력된 음성을 처리하기 위한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다.
한편, 제어부(130)는 사용자와 대화 상대방과의 대화가 전화 통화 등을 포함하는 음성 대화인 경우, 사용자 및 대화 상대방의 음성을 인식하여, 텍스트 형태의 발화문으로 변환할 수 있고, 이를 대화 이력 정보로서 저장부(150)에 저장할 수 있다.
또한, 제어부(130)는 사용자 또는 대화 상대방의 의도 별로 적어도 하나의 사용자 선호 응답을 대응시킬 수 있고, 사용자 또는 대화 상대방의 의도 별 사용자 선호 응답을 저장하도록 저장부(150)를 제어할 수 있다.
제어부(130)는 대화 처리 장치(100) 내 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.
저장부(150)는 대화 처리 장치(100) 또는 차량(200)에 대한 다양한 정보를 저장할 수 있다.
저장부(150)는 제어부(130)의 제어 신호에 기초하여 제어부(130)에 의하여 수집된 사용자 선호 응답을 저장할 수 있다. 이 외에도 저장부(150)는 통신부(120)로부터 수신한 사용자 정보를 저장할 수 있고, 사용자의 음성 인식을 위하여 필요한 다양한 정보를 저장할 수 있다.
이를 위해, 저장부(150)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다. 저장부(150)는 제어부(130)와 관련하여 전술한 프로세서와 별개의 칩으로 구현된 메모리일 수 있고, 프로세서와 단일 칩으로 구현될 수도 있다.
일 실시예에 따른 차량(200)은 전술한 대화 처리 장치(100)를 포함할 수 있다. 이 때, 사용자는 차량(200)의 운전자가 될 수 있으나, 이에 한정되지 않고 동승자를 포함할 수 있다.
도 1에 도시된 대화 처리 장치(100) 및 차량(200)의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
한편, 도 1에서 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다.
이하, 제어부(130)의 구체적인 동작에 대하여 설명한다.
도 2a 및 도 2b는 일 실시예에 따른 대화 처리 장치가 사용자 선호 응답을 결정하는 동작을 설명하기 위한 도면이고, 도 3은 일 실시예에 따른 대화 처리 장치가 획득한 사용자 선호 응답 예시를 나타낸 도면이다.
제어부(130)는 대화 이력 정보에 기초하여 사용자 선호 응답을 결정할 수 있다. 구체적으로, 제어부(130)는 대화 이력 정보에 기초하여 사용자의 발화, 사용자의 발화에 대응하는 대화 상대방의 응답 및 대화 상대방의 응답에 대한 사용자의 피드백을 결정하고, 사용자의 피드백에 기초하여 사용자 선호 응답을 결정할 수 있다.
예를 들어, 도 2a에 도시된 바와 같이, 사용자가 '날씨 좋은데 놀러 가자'라는 발화(U1)를 한 경우, 대화 상대방은 사용자의 발화(U1)에 대응하는 응답으로 '어디든 가자~!!'라는 발화(R1)를 할 수 있다. 이러한 대화 상대방의 응답(R1)에 대응하여 사용자가 '역시 넌 최고야♥'라는 발화(U2)를 한 대화 이력이 존재하는 경우, 제어부(130)는 '날씨 좋은데 놀러 가자'라는 발화(U1)를 사용자의 발화로, 이에 대응하는 대화 상대방의 응답을 ‘어디든 가자~!!'라는 발화(R1)로, 대화 상대방의 응답(R1)에 대응하는 사용자의 피드백을 '역시 넌 최고야♥'라는 발화(U2)로 결정할 수 있다. 이후, 제어부(130)는 사용자의 피드백(U2)에 기초하여 사용자 선호 응답을 결정할 수 있다.
제어부(130)는 사용자의 피드백이 미리 정해진 조건을 만족하면, 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다.
이 때, 미리 정해진 조건은 사용자의 반응이 긍정적인지 여부를 판단하기 위한 조건으로, 사용자의 피드백 내용 또는 사용자의 피드백 시간에 대한 조건 중 적어도 하나를 포함할 수 있다. 이러한 사용자의 긍정적인 반응을 추정하기 위한 미리 정해진 조건은 설계시에 미리 정해질 수 있으며, 통신부(120)를 통하여 수신될 수도 있다.
구체적으로, 제어부(130)는 사용자의 피드백 내용에 미리 정해진 키워드가 포함되면, 사용자의 피드백에 대응하는 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정할 수 있다.
이를 위해, 제어부(130)는 사용자의 피드백 내용에 포함된 키워드를 추출할 수 있고, 추출된 키워드에 기초하여 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다.
제어부(130)는 사용자의 피드백 내용에 포함된 키워드와 미리 저장된 긍정 키워드 정보와의 유사도를 결정할 수 있고, 사용자의 피드백 내용에 포함된 키워드와 미리 저장된 긍정 키워드 정보와의 유사도가 미리 정해진 유사도 이상이면, 해당 키워드를 포함하는 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다.
이 때, 긍정 키워드 정보는 사용자의 긍정적인 반응을 추정하기 위한 키워드로, 예를 들어, '최고', '짱(cool)' 등의 키워드를 포함할 수 있다. 이러한 긍정 키워드는 통신부(120)를 통하여 수신될 수 있으며, 저장부(150)에 저장될 수 있다.
예를 들어, 도 2a의 대화 이력 정보를 획득하는 경우, 제어부(130)는 사용자의 피드백(U2)의 내용에 포함된 '최고'라는 키워드를 추출할 수 있다. '최고'라는 키워드가 미리 정해진 긍정 키워드와의 유사도가 미리 정해진 유사도 이상인 경우, 제어부(130)는 사용자의 피드백(U2)에 대응하는 대화 상대방의 응답(R1)을 사용자 선호 응답으로 결정할 수 있고, 저장할 수 있다.
또한, 제어부(130)는 사용자의 피드백 내용에 포함된 이모티콘 또는 아이콘을 추출할 수 있고, 추출된 이모티콘 또는 아이콘의 종류가 미리 정해진 종류이면, 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다.
제어부(130)는 사용자의 피드백 내용에 포함된 이모티콘 또는 아이콘의 종류가 사용자의 긍정적인 반응이 추정되는 종류의 이모티콘 또는 아이콘인 경우, 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다.
예를 들어, 도 2a의 대화 이력 정보를 획득하는 경우, 제어부(130)는 사용자의 피드백(U2)의 내용에 포함된 '♥'라는 이모티콘을 추출할 수 있다. '♥'라는 이모티콘이 미리 정해진 이모티콘 종류인 경우, 제어부(130)는 사용자의 피드백(U2)에 대응하는 대화 상대방의 응답(R1)을 사용자 선호 응답으로 결정할 수 있고, 저장할 수 있다.
다른 예로, 도 2b에 도시된 바와 같이, 사용자의 '뭐하니'라는 발화(U1')에 대응하여 대화 상대방이 '그냥 있지'라는 응답(R1')을 하고, 사용자가 '뭐야(hmm..)'라는 피드백(U2')을 입력한 대화 이력 정보가 획득되는 경우와 같이, 피드백(U2')의 내용에 사용자의 긍정적인 반응이 추정되는 키워드, 이모티콘 또는 아이콘이 존재하지 않는 경우, 제어부(130)는 대화 상대방의 응답(R1')을 저장하지 않을 수 있다.
또한, 제어부(130)는 대화 상대방의 응답에 대한 사용자의 피드백의 반응 시간이 미리 정해진 시간 이하인 경우, 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다. 이 때, 사용자의 피드백의 반응 시간은 대화 상대방의 응답 시간으로부터 사용자의 피드백을 입력하기까지의 시간을 의미할 수 있다.
이를 위해, 제어부(130)는 대화 이력 정보에서 대화 상대방의 응답 시간 및 이에 대응하는 사용자의 피드백 시간을 추출할 수 있고, 추출된 사용자의 피드백의 반응 시간에 기초하여 사용자 선호 응답을 결정할 수 있다.
또한, 제어부(130)는 사용자의 피드백에 기초하여 사용자의 감정을 결정하고, 사용자의 감정이 미리 정해진 종류의 감정인 경우, 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다.
이 때, 제어부(130)는 사용자의 피드백 내용에 기초하여 사용자의 감정을 결정할 수 있고, 통신부(120)를 통하여 수신되거나 미리 저장된 감정맵을 사용하여 사용자의 감정 키워드를 결정하고, 감정 키워드가 미리 정해진 종류인 경우, 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다. 이 외에도, 사용자의 감정을 판단하기 위하여 제어부(130)는 음성 입력부(110)를 통하여 수신된 사용자의 음성의 높낮이, 톤 정보 등을 활용할 수 있다.
또한, 제어부(130)는 사용자의 피드백에 기초하여 대화 상대방의 응답 별 사용자의 선호도를 결정할 수 있다. 제어부(130)는 사용자의 선호도에 기초하여 사용자가 선호하는 대화 상대방을 결정할 수 있고, 사용자가 선호하는 대화자의 응답을 사용자의 선호 응답으로 결정할 수 있다.
이러한 대화 상대방의 응답 별 사용자의 선호도는 대화 상대방의 응답에 대한 사용자의 피드백이 전술한 미리 정해진 조건을 만족하는 정도, 즉 대화 상대방의 응답에 대한 사용자의 긍정적인 반응의 강도를 의미할 수 있다.
제어부(130)는 전술한 사용자의 피드백의 내용 또는 시간에 대한 미리 정해진 조건을 만족하는 정도를 수치화할 수 있고, 이를 선호도로 결정할 수 있다.
예를 들어, 제어부(130)는 대화 상대방의 응답에 대응하는 사용자의 피드백 내용에 포함된 키워드의 종류 또는 미리 정해진 키워드와의 유사도를 수치화할 수 있고, 이를 사용자의 선호도로 결정할 수 있다. 또는, 제어부(130)는 대화 상대방의 응답에 대응하는 사용자의 피드백 내용에 포함된 이모티콘 또는 아이콘의 종류, 또는 미리 정해진 키워드와의 유사도를 수치화할 수 있고, 이를 사용자의 선호도로 결정할 수 있다.
제어부(130)는 사용자의 선호도가 미리 정해진 선호도 이상인 응답을 입력한 대화 상대방을 사용자가 선호하는 대화 상대방으로 결정할 수 있고, 이러한 사용자가 선호하는 대화 상대방의 응답을 사용자의 선호 응답으로 결정할 수 있다. 이 때, 제어부(130)는 사용자가 선호하는 대화 상대방과의 대화 이력 정보를 추출할 수 있고, 추출된 대화 이력 정보에 기초하여 사용자가 선호하는 대화 상대방의 응답을 의도 별로 구분하여 저장할 수 있다.
한편, 제어부(130)는 대화 이력 정보에 기초하여 대화 상대방 별 연락 빈도를 결정할 수 있고, 연락 빈도에 기초하여 사용자의 선호도에 가중치를 적용할 수 있다. 제어부(130)는 가중치가 적용된 사용자의 선호도에 기초하여 사용자 선호 응답을 결정할 수 있다.
예를 들어, 제어부(130)는 연락 빈도에 비례하여 사용자의 선호도에 가중치를 적용할 수 있다. 제어부(130)는 연락 빈도가 가장 높은 대화 상대방의 응답에는 가장 높은 가중치를 적용하여 사용자의 선호도를 결정할 수 있으며, 가중치가 적용된 사용자의 선호도가 제일 높은 사용자의 응답을 사용자 선호 응답으로 결정할 수 있다.
이러한 사용자 선호 응답은 저장부(150)에 저장될 수 있으며, 사용자의 대화 의도 별로 구분되어 저장될 수 있다. 또한, 대화 상대방의 응답에 대응하는 사용자의 선호도 또한 상대방의 대화 응답 데이터에 매칭되어 저장될 수 있다.
예를 들어, 도 3에 도시된 바와 같이, 저장부(150)의 사용자 선호 응답 DB(151)에는 적어도 하나의 의도(Greeting, Weather_greeting, Ask_name, Ask_age, bye)에 각각 대응하는 적어도 하나의 응답 데이터가 매칭되어 저장될 수 있다. 이 때, 적어도 하나의 응답 데이터에는 그에 대응하는 선호도가 함께 매칭되어 저장될 수 있다.
사용자의 음성이 입력되면, 제어부(130)는 사용자 선호 응답 DB(151)에 저장된 사용자 선호 응답에 기초하여 사용자의 음성에 대응하는 응답을 생성할 수 있다. 제어부(130)는 사용자의 음성에 대한 음성 인식 결과로부터 사용자의 의도를 파악할 수 있고, 사용자 선호 응답 DB(151)에서 사용자의 의도에 대응하는 응답을 검색할 수 있다.
이 때, 제어부(130)는 검색된 사용자 선호 응답을 그대로 이용하여 사용자의 음성에 대응하는 최종 응답을 생성할 수 있다. 또는, 제어부(130)는 검색된 사용자 선호 응답을 구체적인 상황에 맞게 변경함으로써 사용자의 음성에 대응하는 최종 응답을 생성할 수 있다.
또는, 제어부(130)는 사용자의 의도에 대응하는 사용자 선호 응답이 복수개인 경우, 사용자의 선호도에 기초하여 사용자의 음성에 대응하는 응답을 생성할 수 있다.
제어부(130)는 사용자의 음성에 대응하는 응답을 출력하도록 출력부(140)를 제어할 수 있고, 출력부(140)는 생성된 응답을 시각적 또는 청각적으로 출력할 수 있다.
이를 통해, 사용자가 선호하는 상대방의 대화 응답을 이용하여 사용자와 대화를 수행하므로, 사용자에게 사용자가 선호하는 대화 상대방과 대화를 하는 느낌을 제공할 수 있다. 따라서, 사용자의 편의성 및 만족도가 증대될 수 있다.
도 4는 일 실시예에 따른 대화 처리 방법의 흐름도이다.
도 4를 참조하면, 일 실시예에 따른 대화 처리 장치(100)는 대화 이력 정보를 수신할 수 있다(401). 이 때, 대화 이력 정보는 불특정 대화 상대방과 수행한 사용자의 대화를 파악하기 위한 정보를 의미하며, 사용자의 대화는 전화 통화에 의한 음성 대화 및 메시지 서비스 또는 메신저 등을 이용한 문자 대화를 포함할 수 있다. 이 외에도, 사용자의 대화는 Facebook, Twitter, Instagram, Kakaotalk 등의 SNS(Social network service)에 의한 상호 작용을 포함할 수 있다. 이에 대한 구체적인 설명은 전술한 바와 동일하다.
대화 처리 장치(100)는 수신된 대화 이력 정보에 기초하여 사용자 선호 응답을 결정할 수 있다(402). 이 때, 사용자 선호 응답은 사용자가 선호하는 대화 응답을 의미하며, 사용자가 선호하는 대화 상대방의 응답으로서 사용자의 발화에 대응하는 대화 상대방의 응답을 의미할 수 있다.
구체적으로, 대화 처리 장치(100)는 대화 이력 정보에 기초하여 사용자의 발화, 사용자의 발화에 대응하는 대화 상대방의 응답 및 대화 상대방의 응답에 대한 사용자의 피드백을 결정하고, 사용자의 피드백에 기초하여 사용자 선호 응답을 결정할 수 있다.
대화 처리 장치(100)는 사용자의 피드백이 미리 정해진 조건을 만족하면, 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다. 이 때, 미리 정해진 조건은 사용자의 반응이 긍정적인지 여부를 판단하기 위한 조건으로, 사용자의 피드백 내용 또는 사용자의 피드백 시간에 대한 조건 중 적어도 하나를 포함할 수 있다.
구체적으로, 대화 처리 장치(100)는 사용자의 피드백 내용에 미리 정해진 키워드가 포함되면, 사용자의 피드백에 대응하는 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정할 수 있다. 대화 처리 장치(100)는 사용자의 피드백 내용에 포함된 키워드와 미리 저장된 긍정 키워드 정보와의 유사도를 결정할 수 있고, 사용자의 피드백 내용에 포함된 키워드와 미리 저장된 긍정 키워드 정보와의 유사도가 미리 정해진 유사도 이상이면, 해당 키워드를 포함하는 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다.
또한, 대화 처리 장치(100)는 사용자의 피드백 내용에 포함된 이모티콘 또는 아이콘을 추출할 수 있고, 추출된 이모티콘 또는 아이콘의 종류가 미리 정해진 종류이면, 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다.
또한, 대화 처리 장치(100)는 대화 상대방의 응답에 대한 사용자의 피드백의 반응 시간이 미리 정해진 시간 이하인 경우, 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다. 이 때, 사용자의 피드백의 반응 시간은 대화 상대방의 응답 시간으로부터 사용자의 피드백을 입력하기까지의 시간을 의미할 수 있다.
또한, 대화 처리 장치(100)는 사용자의 피드백에 기초하여 사용자의 감정을 결정하고, 사용자의 감정이 미리 정해진 종류의 감정인 경우, 사용자의 피드백에 대응하는 대화 상대방의 응답을 사용자 선호 응답으로 결정할 수 있다.
또한, 대화 처리 장치(100)는 사용자의 피드백에 기초하여 대화 상대방의 응답 별 사용자의 선호도를 결정할 수 있다. 대화 처리 장치(100)는 사용자의 선호도에 기초하여 사용자가 선호하는 대화 상대방을 결정할 수 있고, 사용자가 선호하는 대화자의 응답을 사용자의 선호 응답으로 결정할 수 있다.
이러한 대화 상대방의 응답 별 사용자의 선호도는 대화 상대방의 응답에 대한 사용자의 피드백이 전술한 미리 정해진 조건을 만족하는 정도, 즉 대화 상대방의 응답에 대한 사용자의 긍정적인 반응의 강도를 의미할 수 있다.
대화 처리 장치(100)는 전술한 사용자의 피드백의 내용 또는 시간에 대한 미리 정해진 조건을 만족하는 정도를 수치화할 수 있고, 이를 선호도로 결정할 수 있다. 대화 처리 장치(100)는 사용자의 선호도가 미리 정해진 선호도 이상인 응답을 입력한 대화 상대방을 사용자가 선호하는 대화 상대방으로 결정할 수 있고, 이러한 사용자가 선호하는 대화 상대방의 응답을 사용자의 선호 응답으로 결정할 수 있다.
또한, 대화 처리 장치(100)는 대화 이력 정보에 기초하여 대화 상대방 별 연락 빈도를 결정할 수 있고, 연락 빈도에 기초하여 사용자의 선호도에 가중치를 적용할 수 있다. 대화 처리 장치(100)는 가중치가 적용된 사용자의 선호도에 기초하여 사용자 선호 응답을 결정할 수 있다.
이러한 미리 정해진 조건에 기초한 사용자 선호 응답 결정에 관한 대화 처리 장치(100)의 동작은 전술한 바와 동일하다.
이러한 사용자 선호 응답이 결정되면, 대화 처리 장치(100)는 사용자 선호 응답을 저장할 수 있다(403). 이 때, 대화 처리 장치(100)는 사용자의 대화 의도 별로 사용자 선호 응답을 저장할 수 있다. 또한, 대화 처리 장치(100)는 대화 상대방의 응답에 대응하는 사용자의 선호도 또한 상대방의 대화 응답 데이터에 매칭함으로써 저장할 수 있다.
또한, 대화 처리 장치(100)는 사용자가 선호하는 대화 상대방과의 대화 이력 정보를 추출할 수 있고, 추출된 대화 이력 정보에 기초하여 사용자가 선호하는 대화 상대방의 응답을 의도 별로 구분하여 저장할 수 있다.
이를 통해, 사용자의 대화 이력 정보를 기초하여 사용자가 선호하는 대화 응답을 파악할 수 있고, 이를 사용자의 대화 의도 별로 저장함으로써 사용자의 개인의 취향에 부합하는 대화 서비스를 제공할 수 있다. 따라서, 사용자의 편의성이 증대될 수 있다.
도 5는 일 실시예에 따른 대화 처리 방법의 흐름도이다.
도 5를 참조하면, 일 실시예에 따른 대화 처리 장치(100)는 사용자 음성이 수신되는지 여부를 확인할 수 있고(501), 사용자의 음성이 수신되면(501의 예), 사용자의 음성에 대한 음성 인식 결과를 생성할 수 있다(502). 이 때, 대화 처리 장치(100)는 사용자의 음성 인식 결과로서 사용자의 음성을 텍스트 형태의 발화문으로 변환할 수 있고, 이러한 발화문에 자연어 이해(Natural Language Understanding) 알고리즘을 적용하여 사용자 또는 대화 상대방의 의도를 파악할 수 있다(503).
이후, 대화 처리 장치(100)는 저장된 사용자 선호 응답에 기초하여 사용자의 음성 인식 결과에 대응하는 응답을 생성할 수 있다(504). 대화 처리 장치(100)는 사용자 선호 응답 DB(151)에서 사용자의 의도에 대응하는 응답을 검색할 수 있고, 검색된 사용자의 의도에 대응하는 응답 데이터에 기초하여 응답을 생성할 수 있다.
이 때, 대화 처리 장치(100)는 검색된 사용자 선호 응답을 그대로 이용하여 사용자의 음성에 대응하는 최종 응답을 생성할 수 있다. 또는, 대화 처리 장치(100)는 검색된 사용자 선호 응답을 구체적인 상황에 맞게 변경함으로써 사용자의 음성에 대응하는 최종 응답을 생성할 수 있다.
또는, 대화 처리 장치(100)는 사용자의 의도에 대응하는 사용자 선호 응답이 복수개인 경우, 사용자의 선호도에 기초하여 사용자의 음성에 대응하는 응답을 생성할 수 있다.
대화 처리 장치(100)는 사용자의 음성에 대응하는 응답을 시각적 또는 청각적으로 출력할 수 있다(505).
이를 통해, 사용자가 선호하는 상대방의 대화 응답을 이용하여 사용자와 대화를 수행하므로, 사용자에게 사용자가 선호하는 대화 상대방과 대화를 하는 느낌을 제공할 수 있다. 따라서, 사용자의 편의성 및 만족도가 증대될 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
100: 대화 처리 장치
110: 음성 입력부
120: 통신부
130: 제어부
140: 출력부
150: 저장부
200: 차량

Claims (21)

  1. 사용자의 음성을 입력 받는 음성 입력부;
    외부 장치로부터 상기 사용자의 대화 이력 정보를 수신하는 통신부;
    상기 사용자의 음성에 대응하는 응답을 시각적 또는 청각적으로 출력하는 출력부; 및
    상기 대화 이력 정보에 기초하여 사용자 선호 응답을 결정하고, 상기 사용자의 음성이 수신되면, 상기 사용자 선호 응답에 기초하여 상기 사용자의 음성에 대응하는 응답을 생성하고, 상기 생성된 응답을 출력하도록 상기 출력부를 제어하는 제어부;를 포함하는 대화 처리 장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 대화 이력 정보에 기초하여 상기 사용자의 발화, 상기 사용자의 발화 에 대응하는 대화 상대방의 응답 및 상기 대화 상대방의 응답에 대한 상기 사용자의 피드백을 결정하고, 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 대화 처리 장치.
  3. 제2항에 있어서,
    상기 제어부는,
    상기 사용자의 피드백이 미리 정해진 조건을 만족하면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 대화 처리 장치.
  4. 제3항에 있어서,
    상기 제어부는,
    상기 사용자의 피드백 내용에 미리 정해진 키워드가 포함되면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 대화 처리 장치.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 사용자의 피드백 내용에 포함된 키워드를 추출하고, 상기 추출된 키워드와 미리 저장된 긍정 키워드 정보와의 유사도가 미리 정해진 유사도 이상이면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 대화 처리 장치.
  6. 제3항에 있어서,
    상기 제어부는,
    상기 사용자의 피드백 내용에 포함된 이모티콘 또는 아이콘을 추출하고, 상기 추출된 이모티콘 또는 아이콘의 종류가 미리 정해진 종류이면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 대화 처리 장치.
  7. 제3항에 있어서,
    상기 제어부는,
    상기 대화 상대방의 응답에 대한 상기 사용자의 피드백의 반응 시간이 미리 정해진 시간 이하인 경우, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 대화 처리 장치.
  8. 제3항에 있어서,
    상기 제어부는,
    상기 사용자의 피드백에 기초하여 상기 사용자의 감정을 결정하고, 상기 사용자의 감정이 미리 정해진 종류의 감정인 경우, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 대화 처리 장치.
  9. 제3항에 있어서,
    상기 제어부는,
    상기 사용자의 피드백에 기초하여 상기 대화 상대방의 응답 별 사용자의 선호도를 결정하고, 상기 사용자의 선호도에 기초하여 상기 사용자가 선호하는 대화 상대방을 결정하고, 상기 사용자가 선호하는 대화자의 응답을 상기 사용자의 선호 응답으로 결정하는 대화 처리 장치.
  10. 제9항에 있어서,
    상기 제어부는,
    상기 대화 이력 정보에 기초하여 대화 상대방 별 연락 빈도를 결정하고, 상기 연락 빈도에 기초하여 상기 사용자의 선호도에 가중치를 적용하고, 상기 가중치가 적용된 상기 사용자의 선호도에 기초하여 상기 사용자 선호 응답을 결정하는 대화 처리 장치.
  11. 제1항에 있어서,
    상기 결정된 사용자 선호 응답을 저장하는 저장부;를 더 포함하고,
    상기 제어부는,
    상기 사용자의 음성을 인식하여 음성 인식 결과를 생성하고, 상기 음성 인식 결과에 기초하여 상기 사용자의 의도를 결정하고, 상기 사용자의 의도 별 상기 사용자 선호 응답을 저장하도록 상기 저장부를 제어하는 대화 처리 장치.
  12. 사용자의 음성을 입력 받는 음성 입력부; 및
    상기 사용자의 음성에 대응하는 응답을 시각적 또는 청각적으로 출력하는 출력부;를 포함하는 대화 처리 장치의 대화 처리 방법으로서,
    외부 장치로부터 사용자의 대화 이력 정보를 수신하고;
    상기 대화 이력 정보에 기초하여 사용자 선호 응답을 결정하고;
    상기 결정된 사용자 선호 응답을 저장하고;
    상기 사용자의 음성이 수신되면, 상기 저장된 사용자 선호 응답에 기초하여 사용자의 음성에 대응하는 응답을 생성하고; 및
    상기 생성된 응답을 출력하는 것;을 포함하는 대화 처리 방법.
  13. 제12항에 있어서,
    상기 대화 이력 정보에 기초하여 상기 사용자 선호 응답을 결정하는 것은,
    상기 대화 이력 정보에 기초하여 상기 사용자의 발화, 상기 사용자의 발화 에 대응하는 대화 상대방의 응답 및 상기 대화 상대방의 응답에 대한 상기 사용자의 피드백을 결정하고; 및
    상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것;을 포함하는 대화 처리 방법.
  14. 제13항에 있어서,
    상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은,
    상기 사용자의 피드백이 미리 정해진 조건을 만족하면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 것;을 포함하는 대화 처리 방법.
  15. 제14항에 있어서,
    상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은,
    상기 사용자의 피드백 내용에 미리 정해진 키워드가 포함되거나 미리 정해진 종류의 이모티콘 또는 아이콘이 포함되면, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 대화 처리 장치.
  16. 제14항에 있어서,
    상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은,
    상기 대화 상대방의 응답에 대한 상기 사용자의 피드백의 반응 시간이 미리 정해진 시간 이하인 경우, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 것;을 포함하는 대화 처리 방법.
  17. 제14항에 있어서,
    상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은,
    상기 사용자의 피드백에 기초하여 상기 사용자의 감정을 결정하고; 및
    상기 사용자의 감정이 미리 정해진 종류의 감정인 경우, 상기 사용자의 피드백에 대응하는 상기 대화 상대방의 응답을 상기 사용자 선호 응답으로 결정하는 것;을 포함하는 대화 처리 방법.
  18. 제14항에 있어서,
    상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은,
    상기 사용자의 피드백에 기초하여 상기 대화 상대방의 응답 별 사용자의 선호도를 결정하고;
    상기 사용자의 선호도에 기초하여 상기 사용자가 선호하는 대화 상대방을 결정하고; 및
    상기 사용자가 선호하는 대화자의 응답을 상기 사용자의 선호 응답으로 결정하는 것;을 포함하는 대화 처리 방법.
  19. 제18항에 있어서,
    상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 것은,
    상기 대화 이력 정보에 기초하여 대화 상대방 별 연락 빈도를 결정하고;
    상기 연락 빈도에 기초하여 상기 사용자의 선호도에 가중치를 적용하고; 및
    상기 가중치가 적용된 상기 사용자의 선호도에 기초하여 상기 사용자 선호 응답을 결정하는 것;을 더 포함하는 대화 처리 방법.
  20. 사용자의 음성을 입력 받는 음성 입력부;
    외부 장치로부터 상기 사용자의 대화 이력 정보를 수신하는 통신부;
    상기 사용자의 음성에 대응하는 응답을 시각적 또는 청각적으로 출력하는 출력부; 및
    상기 대화 이력 정보에 기초하여 사용자 선호 응답을 결정하고, 상기 사용자의 음성이 수신되면, 상기 사용자 선호 응답에 기초하여 상기 사용자의 음성에 대응하는 응답을 생성하고, 상기 생성된 응답을 출력하도록 상기 출력부를 제어하는 제어부;를 포함하는 차량.
  21. 제20항에 있어서,
    상기 제어부는,
    상기 대화 이력 정보에 기초하여 상기 사용자의 발화, 상기 사용자의 발화 에 대응하는 대화 상대방의 응답 및 상기 대화 상대방의 응답에 대한 상기 사용자의 피드백을 결정하고, 상기 사용자의 피드백에 기초하여 상기 사용자 선호 응답을 결정하는 차량.
KR1020190038360A 2019-04-02 2019-04-02 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법 KR20200116688A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190038360A KR20200116688A (ko) 2019-04-02 2019-04-02 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법
US16/673,624 US20200320993A1 (en) 2019-04-02 2019-11-04 Dialogue processing apparatus, a vehicle having the same, and a dialogue processing method
CN201911191195.1A CN111798843A (zh) 2019-04-02 2019-11-28 对话处理装置、具有它的车辆和对话处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190038360A KR20200116688A (ko) 2019-04-02 2019-04-02 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법

Publications (1)

Publication Number Publication Date
KR20200116688A true KR20200116688A (ko) 2020-10-13

Family

ID=72662445

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190038360A KR20200116688A (ko) 2019-04-02 2019-04-02 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법

Country Status (3)

Country Link
US (1) US20200320993A1 (ko)
KR (1) KR20200116688A (ko)
CN (1) CN111798843A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022131805A1 (ko) * 2020-12-16 2022-06-23 삼성전자 주식회사 음성 입력의 응답 제공 방법 및 이를 지원하는 전자 장치
WO2022145883A1 (ko) * 2020-12-30 2022-07-07 삼성전자 주식회사 음성 입력에 응답하는 방법 및 이를 지원하는 전자 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114296680B (zh) * 2021-12-24 2024-04-02 领悦数字信息技术有限公司 基于面部图像识别的虚拟试驾装置、方法和存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4377718B2 (ja) * 2004-02-27 2009-12-02 富士通株式会社 対話制御システム及び方法
DE102004056166A1 (de) * 2004-11-18 2006-05-24 Deutsche Telekom Ag Sprachdialogsystem und Verfahren zum Betreiben
CN101482884A (zh) * 2009-01-21 2009-07-15 华东师范大学 一种基于用户偏好评分分布的协作推荐系统
US10241752B2 (en) * 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US8954317B1 (en) * 2011-07-01 2015-02-10 West Corporation Method and apparatus of processing user text input information
CN103763302B (zh) * 2013-12-16 2017-01-25 东南大学 一种web服务组合生成方法
CN105512349B (zh) * 2016-02-23 2019-03-26 首都师范大学 一种用于学习者自适应学习的问答方法及装置
US9875740B1 (en) * 2016-06-20 2018-01-23 A9.Com, Inc. Using voice information to influence importance of search result categories
JP2018054850A (ja) * 2016-09-28 2018-04-05 株式会社東芝 情報処理システム、情報処理装置、情報処理方法、及びプログラム
KR102338990B1 (ko) * 2017-01-23 2021-12-14 현대자동차주식회사 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
DK179745B1 (en) * 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
KR102403355B1 (ko) * 2017-07-25 2022-06-02 현대자동차주식회사 차량, 그와 통신하는 모바일 기기 및 차량의 제어 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022131805A1 (ko) * 2020-12-16 2022-06-23 삼성전자 주식회사 음성 입력의 응답 제공 방법 및 이를 지원하는 전자 장치
WO2022145883A1 (ko) * 2020-12-30 2022-07-07 삼성전자 주식회사 음성 입력에 응답하는 방법 및 이를 지원하는 전자 장치

Also Published As

Publication number Publication date
CN111798843A (zh) 2020-10-20
US20200320993A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
CN107895578B (zh) 语音交互方法和装置
CN102117614B (zh) 个性化文本语音合成和个性化语音特征提取
US20190088262A1 (en) Method and apparatus for pushing information
US9886952B2 (en) Interactive system, display apparatus, and controlling method thereof
US20200320993A1 (en) Dialogue processing apparatus, a vehicle having the same, and a dialogue processing method
KR102613210B1 (ko) 차량 및 그 제어방법
KR20180020368A (ko) 통역 장치 및 방법
US11922128B2 (en) Characterized chatbot with personality
US11699360B2 (en) Automated real time interpreter service
Husnjak et al. Possibilities of using speech recognition systems of smart terminal devices in traffic environment
US20060093098A1 (en) System and method for communicating instant messages from one type to another
KR101277313B1 (ko) 의사소통 보조 장치 및 방법
KR20200114230A (ko) 사용자 감정 파악에 따른 응답을 생성하는 시스템 및 방법
EP3113175A1 (en) Method for converting text to individual speech, and apparatus for converting text to individual speech
US20130244623A1 (en) Updating Contact Information In A Mobile Communications Device
CN108806675B (zh) 语音输入输出装置、无线连接方法、语音对话系统
KR20180089242A (ko) 챗봇에서의 출력 유형에 따라 대화 내용을 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
US11475893B2 (en) Vehicle and a control method thereof
KR102485253B1 (ko) 대화 시스템 및 그 제어방법
KR20210065629A (ko) 챗봇 채널연계 통합을 위한 챗봇 통합 에이전트 플랫폼 시스템 및 그 서비스 방법
US20210241755A1 (en) Information-processing device and information-processing method
KR20200082232A (ko) 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법
KR102371038B1 (ko) 다국어 번역 지원이 가능한 채팅시스템 및 제공방법
KR20220099083A (ko) 화자분리 기반 자동통역 서비스를 제공하는 시스템, 사용자 단말 및 방법
WO2022035887A1 (en) System and method for generating responses for conversational agents

Legal Events

Date Code Title Description
A201 Request for examination