KR20190061706A - 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법 - Google Patents

복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법 Download PDF

Info

Publication number
KR20190061706A
KR20190061706A KR1020170160367A KR20170160367A KR20190061706A KR 20190061706 A KR20190061706 A KR 20190061706A KR 1020170160367 A KR1020170160367 A KR 1020170160367A KR 20170160367 A KR20170160367 A KR 20170160367A KR 20190061706 A KR20190061706 A KR 20190061706A
Authority
KR
South Korea
Prior art keywords
intent data
intent
intention
uttered
data set
Prior art date
Application number
KR1020170160367A
Other languages
English (en)
Inventor
박성수
Original Assignee
현대자동차주식회사
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170160367A priority Critical patent/KR20190061706A/ko
Priority to US15/980,326 priority patent/US20190164540A1/en
Priority to CN201810550997.6A priority patent/CN109841212B/zh
Priority to DE102018113034.1A priority patent/DE102018113034A1/de
Publication of KR20190061706A publication Critical patent/KR20190061706A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)

Abstract

본 발명의 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템은 발화된 명령어로부터 발화자의 의도에 따라 추출된 복수개의 의도 데이터세트 중, 제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하여 피드백 메세지를 결정하는 제어부와, 상기 발화된 명령어 및 상기 추출된 복수개의 의도 데이터세트가 저장되는 저장부 및 상기 피드백 메세지를 출력하는 출력부를 포함하여, 발화자의 복수의 의도를 파악함으로써, 자동으로 복수의 내용을 연동시켜 복수의 명령을 실행시키는 효과를 제공한다.

Description

복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법{VOICE RECOGNITION SYSTEM AND METHOD FOR ANALYZING PLURAL INTENTION COMMAND}
본 발명은 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법에 관한 것으로, 복수개의 의도를 가진 음성 명령어에 대한 의미 연결을 통하여 발화자의 의도대로 명령을 실행하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법에 관한 것이다.
최근 스마트폰 등 모바일 기기의 넓은 보급으로 인하여 음성 인식 시스템에 대한 관심이 증대되고 있다. 음성 인식이란 자동적 수단에 의하여 음성으로부터 언어적 의미 내용을 식별하는 것이다. 구체적으로 음성 파형을 입력하여 단어나 단어열을 식별하고 의미를 추출하는 처리 과정이며, 크게 음성 분석, 음소 인식, 단어
인식, 문장 해석, 의미 추출의 5가지로 분류된다. 좁은 의미로는 음성 분석에서 단어 인식까지를 말하는 경우가 많다.
음성 인식의 궁극적인 목표는 자연스러운 발성에 의한 음성을 인식하여 실행 명령어로서 받아들이거나 자료로서 문서에 입력하는 완전한 음성·텍스트 변환의 실현이다. 단지 단어를 인식할 뿐 아니라 구문 정보, 의미 정보, 작업에 관련된 정보와 지식 등을 이용하여 연속 음성 또는 문장의 의미 내용을 정확하게 추출하는 음성 이해 시스템을 개발하는 것이다. 이러한 시스템의 연구 개발이 전 세계에서 활발하게 진행되고 있다.
한편, 음성 처리 방법은 발화의도 예측과 개체명 인식을 이용하여 인식된 음성을 처리한다. 발화의도 예측은 발화자가 발화를 통해 하고자 하는 일이 무엇인지를 판별하는 것으로 일반적으로 발화의도 예측 분류를 이용하여 예측하게되며, 개체명 인식의 경우 문장 내에 있는 단어 중 발화의도의 인자 값이 되는 개체를 찾아내는 것으로 일반적으로 다수레이블 분류를 이용하여 예측한다.
그러나, 발화의도 예측 분류를 이용하여 발화의도를 예측하게 되면, 하나의 발화에 포함된 다수의 발화의도를 예측할 수 없으며, 다수레이블 분류를 이용하면 발화의도 예측 성능이 낮아지는 문제점이 있다. 또한, 예측된 발화의도에 연결되는 개체명을 찾아내는 모델에 대한 연구도 미진한 상태이다.
본 발명은 상술한 한계점을 극복하기 위한 것으로, 발화자가 복수의 의도를 가지고 발화하는 것에 대하여 복수의 의도를 인지하도록 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법을 제공하는데 목적이 있다.
본 발명의 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템은 발화된 명령어로부터 발화자의 의도에 따라 추출된 복수개의 의도 데이터세트 중, 제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하여 피드백 메세지를 결정하는 제어부와, 상기 발화된 명령어 및 상기 추출된 복수개의 의도 데이터세트가 저장되는 저장부 및 상기 피드백 메세지를 출력하는 출력부를 포함하는 것을 특징으로 한다.
그리고, 상기 제어부는 상기 제1의도 데이터세트에 포함된 복수의 엔티티(entity) 중 제1엔티티의 컨텐츠를 기반으로 상기 제2의도 데이터세트에 포함된 복수의 엔티티 중 상기 제1엔티티와 동일한 제2엔티티의 컨텐츠를 추론하는 것을 특징으로 한다.
그리고, 상기 제어부는 상기 발화된 명령어 내에 연결어가 존재하는 경우, 상기 발화된 명령어가 복수의 의도를 포함하는 것으로 판단하는 것을 특징으로 한다.
그리고, 상기 제어부는 상기 발화된 명령어를 의도별 문장으로 분류하고, 상기 분류된 의도별 문장을 기반으로 상기 복수의 의도를 분석하는 것을 특징으로 한다.
그리고, 상기 제어부는 상기 분류된 의도별 문장으로부터 상기 복수의 의도에 따른 상기 복수개의 의도 데이터세트를 추출하는 것을 특징으로 한다.
그리고, 상기 제어부는 형태소 및 구문 분석에 의해 상기 발화된 명령어를 상기 의도별 문장으로 분류하는 것을 특징으로 한다.
그리고, 상기 제어부는 상기 제1의도 데이터세트 및 상기 제2의도 데이터세트를 서로 연관된 의도 데이터세트로 판단하는 것을 특징으로 한다.
그리고, 상기 제어부는상기 제1의도 데이터세트를 기반으로 상기 제2의도 데이터세트를 추론하지 못한 경우, 외부 컨텐츠 정보를 기반으로 상기 제2의도 데이터세트를 추론하는 것을 특징으로 한다.
그리고, 상기 제어부는 텍스트 분석을 기반으로 상기 발화된 명령어의 의미를 파악하는 것을 특징으로 한다.
그리고, 상기 제어부는 상기 발화된 명령어 내에 연결어가 존재하지 않는 경우, 상기 발화자의 의도에 따른 의도 데이터세트를 추출하고, 상기 발화된 명령어의 의미를 기반으로 신규의 의도 데이터세트를 추가적으로 추출하는 것을 특징으로 한다.
그리고, 상기 제어부는 상기 발화된 명령어 내용의 일부가 문자송신의 내용을 포함하는 경우, 상기 문자송신에 따른 의도 데이터세트를 포함하는 복수개의 의도 데이터세트를 추출하되, 상기 문자송신에 따른 의도 데이터세트 내의 소정 엔티티의 컨텐츠는 상기 문자송신을 제외한 나머지의 발화된 명령어 내용에 따라 추출된 의도 데이터세트 내의 소정 엔티티의 컨텐츠를 기반으로 추론되는 것을 특징으로 한다.
그리고, 상기 제어부는 상기 의도 데이터세트를 기반으로 상기 발화된 명령어의 결과정보를 포함하는 액션 데이터세트를 생성하는 것을 특징으로 한다.
그리고, 상기 액션 데이터세트를 기반으로 상기 피드백 메세지를 생성하는 것을 특징으로 한다.
그리고, 상기 출력부는 상기 피드백 메세지를 음성 및 이미지 중 어느 하나로 출력하는 것을 특징으로 한다.
그리고, 본 발명의 복수의도를 포함하는 명령어를 분석하는 음성인식 방법은 발화된 명령어로부터 발화자의 의도에 따라 복수개의 의도 데이터세트를 추출하는 단계와, 상기 복수개의 의도 데이터세트 중 제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하는 단계와, 상기 제1의도 데이터세트 및 상기 제2의도 데이터세트를 기반으로 피드백 메세지를 결정하는 단계와, 상기 피드백 메세지를 출력하는 단계를 포함하는 것을 특징으로 한다.
그리고, 상기 의도 데이터세트를 추출하는 단계는 상기 발화된 명령어가 복수의 의도를 포함하는지 여부를 판단하는 단계를 포함하는 것을 특징으로 한다.
그리고, 상기 발화된 명령어가 복수의 의도를 포함하는지 여부를 판단하는 단계는 상기 발화된 명령어 내에 연결어가 존재하는 경우, 상기 발화된 명령어가 복수의 의도를 포함하는 것으로 판단하는 것을 특징으로 한다.
그리고, 상기 의도 데이터세트를 추출하는 단계는 상기 발화된 명령어가 복수의 의도를 포함하는지 여부를 판단하는 단계에서, 상기 복수의 의도가 상기 발화된 명령어에 포함된 것으로 판단된 경우, 상기 발화된 명령어를 의도별 문장으로 분류하는 단계 및 상기 의도별 문장을 기반으로 복수의 의도를 분석하는 단계를 포함하는 것을 특징으로 한다.
그리고, 상기 발화된 명령어를 의도별 문장으로 분류하는 단계는 형태소 및 구문 분석을 통하여 상기 발화된 명령어를 상기 의도별 문장으로 분류하는 것을 특징으로 한다.
그리고, 상기 의도 데이터세트를 추출하는 단계는 상기 분류된 의도별 문장으로부터 상기 복수의 의도에 따른 복수개의 의도 데이터세트를 추출하는 단계를 포함하는 것을 특징으로 한다.
그리고, 상기 복수개의 의도 데이터세트를 추출하는 단계는 복수의 엔티티(Entity)를 포함하는 제1의도 데이터세트 및 제2의도 데이터세트를 추출하는 것을 특징으로 한다.
그리고, 상기 복수개의 의도 데이터세트를 추출하는 단계 이후, 상기 복수개의 의도 데이터세트 간 연관관계를 판단하는 단계를 수행하는 것을 특징으로 한다.
그리고, 상기 복수개의 의도 데이터세트 간 연관관계를 판단하는 단계는 상기 제1의도 데이터세트 및 상기 제2의도 데이터세트 내에서 공통되는 엔티티를 추출되는 경우, 제1의도 데이터세트 및 상기 제2의도 데이터세트이 서로 연관된 것으로 판단하는 것을 특징으로 한다.
그리고, 상기 복수개의 의도 데이터세트 간 연관관계를 판단하는 단계 이후, 제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하는 단계 를 수행하는 것을 특징으로 한다.
그리고, 제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하는 단계는 상기 제1의도 데이터세트에 포함된 제1엔티티의 컨텐츠를 기반으로 상기 제2의도 데이터세트에 포함된 상기 제1엔티티와 동일한 제2엔티티의 컨텐츠를 추론하는 것을 특징으로 한다.
그리고, 제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하는 단계에서, 상기 제2의도 데이터세트를 추론하지 못한 경우, 외부 컨텐츠 정보를 기반으로 상기 제2의도 데이터세트의 정보를 획득하는 것을 특징으로 한다.
그리고, 상기 발화된 명령어가 복수의 의도를 포함하는지 여부를 판단하는 단계에서 상기 발화된 명령어 내에 연결어가 존재하지 않는 경우, 상기 의도 데이터세트를 추출하는 단계 이후, 상기 발화된 명령어 의미를 기반으로 신규의 의도 데이터세트를 추가적으로 추출하는 단계를 포함하는 것을 특징으로 한다.
그리고, 상기 발화된 명령어 내용의 일부가 문자송신의 내용을 포함하는 경우, 상기 문자송신에 따른 의도 데이터세트를 포함하는 복수개의 의도 데이터세트를 추출하는 단계와, 상기 문자송신에 따른 의도 데이터세트 내의 소정 엔티티 정보는 상기 문자송신을 제외한 나머지의 발화된 명령어의 내용에 따라 추출된 의도 데이터세트를 기반으로 추론되는 것을 특징으로 한다.
그리고, 제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하는 단계이후, 상기 발화된 명령어의 결과정보를 포함하는 액션 데이터세트를 생성하는 단계를 수행하는 것을 특징으로 한다.
그리고, 상기 피드백 메세지를 결정하는 단계는 상기 액션 데이터세트를 기반으로 상기 피드백 메세지를 결정하는 것을 특징으로 한다.
그리고, 상기 피드백 메세지를 출력하는 단계는 상기 피드백 메세지를 음성 및 이미지 중 어느 하나로 출력하는 것을 특징으로 한다.
본 발명의 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법은 차량 내 발화자의 음성을 인식하는데 있어서, 복수의 의도 간 의미 연결 처리를 통하여, 발화자의 복수의 의도를 파악함으로써, 자동으로 복수의 내용을 연동시켜 복수의 명령을 실행시키는 효과를 제공한다.
도 1은 차량 내 포함되는 차량 단말 시스템과 본 발명의 음성 인식 시스템을 포함하는 스마트 에이전트를 나타내는 개략도.
도 2는 본 발명의 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 을 나타낸 구성도.
도 3은 본 발명의 음성 인식 시스템 내에서 비슷한 의도끼리 클러스터링된 것을 나타낸 도면.
도 4는 각 의도 따라 추출되는 엔티티를 나타낸 도면.
도 5는 본 발명의 실시예에 따라 각 의도 데이터세트 내의 추출된 공통 엔티티를 도시한 도면.
도 6은 본 발명의 실시예에 따라 각 의도 데이터세트 내의 정보 맵핑을 도시한 도면.
도 7은 본 발명의 실시예에 따라 각 의도 데이터세트 내의 정보 추론을 도시한 도면.
도 8은 본 발명의 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법을 나타낸 순서도.
도 9는 본 발명의 일실시예에 따른 음성 인식 방법을 나타낸 개략도.
도 10은 본 발명의 다른 실시예에 따른 음성 인식 방법을 나타낸 개략도.
도 11은 본 발명의 일 실시예에 따른 방법을 실행하는 컴퓨팅 시스템의 구성을 도시한 도면.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 차량 내 포함되는 차량 단말 시스템과 본 발명의 음성 인식 시스템을 포함하는 스마트 에이전트를 나타내는 개략도이다.
도 1에 도시된 바와 같이, 차량은 차량 단말 시스템과 스마트 에이전트를 포함할 수 있다.
차량 단말 시스템은 각 기능에 따라 앱 이벤트 매니저(App Event Manager), ccOS API(Application Programming Interface), 상황인지 엔진, 음성인식엔진으로 분류될 수 있다.
앱 이벤트 매니저는 차량 상태 및 어플리케이션에서 발생하는 이벤트를 모니터링할 수 있고, 어플리케이션 상태 관리 및 제어를 수행할 수 있다. ccOS API는 단말 및 서버의 음성인식엔진을 연동하는 API와 상황인지 엔진 및 스마트 에이전트를 연동하는 API를 포함할 수 있다. 상황인지 엔진은 상황 데이터 기반 서비스를 추천하거나 제안할 수 있으며, 결과 데이터에 상황 분석결과를 적용하여 동작 단계를 처리할 수 있다. 또한, 검색 정보에 상황 분석 결과를 적용하여 재 정열할 수 있다. 음성인식 엔진은 스마트 에이전트와 중복되므로, 아래의 스마트 에이전트의 설명을 참조한다.
스마트 에이전트는 각 기능에 따라 입력 관리, 출력관리, 시나리오 관리, 대화관리, 상황인지 분석엔진, 차량환경 빅데이터를 분류될 수 있다.
입력관리는 음성인식 엔진과, 의도 분석 엔진을 포함할 수 있으며, 본 발명의 음성 인식 시스템은 의도 분석 엔진에서 수행되는 기능을 포함할 수 있다.
음성인식 엔진은 음성을 텍스트로 변환할 수 있으며, 차량 단말 시스템 내에서는 고립어에 대한 음성을 인식할 수 있으며, 스마트에이전트 내에서는 대용량 음성을 인식할 수 있다. 의도 분석 엔진은 음성인식 처리 결과인 텍스트를 자연어처리 기법을 활용하여 의도 데이터세트를 추출할 수 있다. 또한, 텍스트의 의도 분류와 해당 의도와 관련된 주요정보인 엔티티(Entity)를 추출할 수 있다.
출력관리는 액션관리로도 표현할 수 있으며, 자연어 생성 엔진과 음성 합성 엔진을 포함할 수 있다. 본 발명의 음성 인식 시스템은 출력관리에서 수행되는 기능을 포함할 수 있다.
자연어 생성 엔진은 미래에 예상되는 액션을 분석하여 출력이 필요한 텍스트를 생성할 수 있다. 또한, 생성한 텍스트를 분석하여 합성관련 파라미터를 생성할 수 있다. 음성 합성 엔진은 자연어 생성 엔진에서 생성한 텍스트를 음성으로 변환시킬 수 있다. 차량 단말 시스템 내에서는 고정된 음성을 합성하여 출력할 수 있고, 스마트에이젼트 내에서는 파라미터 기반 감정 및 개인화 음성을 합성하여 출력할 수 있다.
시나리오 관리는 차량 서비스를 위한 시나리오(목적지 검색, 음악추천, 일정 관리 등)을 관리하고, 콘텐츠 제공자 어댑터를 포함하여 차량 이외의 외부 컨텐츠(지도, 음악, 일정 등)과 연동되도록 할 수 있다.
대화관리는 세션관리, 대화 추가 관리, 대화 상태 관리, 대화 이력 관리, 서비스 관리를 포함할 수 있으며, 본 발명의 음성 인식 시스템은 대화 이력 관리에서 수행되는 기능을 포함할 수 있다.
세션관리는 대화주제(의도 데이터세트)별 연속성을 관리하고, 대화 추가 관리는 대화주제(의도 데이터세트)를 추가하거나 삭제하여 관리할 수 있다. 대화 상태 관리는 대화주제(의도 데이터세트)간 상태를 관리할 수 있다. 또한, 대화 이력관리는 대화주제(의도 데이터세트)간 연관관계를 파악하여 재구성할 수 있고, 서비스 관리는 대화 주제(의도 데이터세트)와 연결되는 서비스를 관리하거나, 시나리오 데이터 베이스와, 시나리오의 상태, CP 연동 등을 관리할 수 있다.
상황인지분석엔진은 대용량 통계분석, 단기/장기 기억분석, 복합추론, 텍스트/음성 분석, 질의응답 분석의 기능을 포함할 수 있다. 본 발명의 음성 인식 시스템은 복합추론에서 수행되는 기능을 포함할 수 있다.
대용량 통계 분석은 사용이력을 기반으로 사용패턴을 분석하는 것을 포함하고, 단기/장기 기억분석은 사용이력 기반으로 연관 정보를 복원하기 위한 분석을 포함할 수 있고, 복합추론은 서로 다른 정보를 맵핑하여 복합적으로 추론하는 것을 포함할 수 있고, 텍스트/음성 분석은 음성정보 및 텍스트 정보를 분석하여 상황을 추론하는 것을 포함할 수 있다. 질의응답 사용자의 질문내용을 분석하여 답변을 추론하는 것을 포함할 수 있다.
차량환경 내 빅 데이터는 VCRM, 고객 데이터, 이력 데이터, 관계 데이터, 지식 베이스를 포함할 수 있다.
VCRM은 차량의 사용 정보 데이터를 포함할 수 있고, 고객 데이터는 가입 고객 정보 데이터를 포함할 수 있고, 이력 데이터는 서비스 사용 이력에 대한 정보 데이터를 포함할 수 있고, 관계 데이터는 데이터간 관계 및 연동되는 정보에 대한 데이터를 포함할 수 있고, 지식베이스는 질의 응답에 필요한 지식 정보 데이터를 포함할 수 있다.
본 발명에서는 도 1에 도시된 일부 기능들을 이용하여 발화자의 복수의도를 포함하는 명령어를 분석해낼 수 있다.
도 2는 본 발명의 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 을 나타낸 구성도이다.
도 2에 도시된 바와 같이, 본 발명의 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템은 제어부(10), 저장부(20) 및 출력부(30)를 포함할 수 있다.
제어부(10)는 복수의도를 포함하는 명령어를 분석할 수 있다.
제어부(10)는 발화자의 발화된 명령어 내에 복수의 의도가 포함되어 있는지 판단할 수 있다. 제어부(10)는 발화자의 발화된 명령어는 문장을 포함하는 자연어를 포함할 수 있다. 실시예에 따르면, 발화된 명령어 내에 '~하고', '~하면서', '그리고' 등의 연결어가 포함될 수 있다. 발화된 명령어 내에 연결어가 포함된 경우, 복수의 의도가 포함된 것으로 판단할 수 있다.
제어부(10)는 발화된 명령어 내 복수의 의도가 포함된 경우, 의도 별로 문장을 분류할 수 있다. 이를 위하여 먼저, 비슷한 의도를 가진 문장끼리 클러스터링될 수 있도록 학습할 수 있으며, 복수 의도를 가지는 명령어를 추가로 학습할 수 있다.
실시예에 따르면, 제어부(10)는 비슷한 의도를 가진 문장끼리 클러스터링되도록 학습하기 위하여, 먼저 발화된 명령어들에 대하여 텍스트로 변환시킨다. 그리고, 변환된 텍스트들은 수 백 차원의 벡터로 변환시켜 실수 공간으로 치환시킨다. 실수 공간에서 같은 의미를 갖는 명령어들은 도 3에 도시된 바와 같이, 동일한 색으로 클러스터링될 수 있다. 동일한 색으로 클러스터링 공간 내에서는 같은 의미를 갖는 명령어들이 존재할 수 있으며, 본 발명의 제어부(10)는 같은 의미를 갖는 명령어 들 중에서 복수의 의도를 가진 명령어를 추가로 학습하게 된다.
또한, 제어부(10)는 문장이 중첩되어 모호한 영역에 대하여 형태소 및 구문 분석을 통해 문장을 분류할 수 있다. 예를들면, 발화자의 발화된 음성 내에 '~때', '~하고', '그리고' 등의 연결어가 포함된 경우, 문장을 분류할 수 있다. 가령, 발화된 명령어가 '목적지 도착할 때 그 곳 날씨 알려줘'라면, 분류부(12)는 '~때'를 연결어로 판단하고, '목적지 도착'과 '그 곳 날씨 알려줘'의 두 문장으로 분류할 수 있다. 이하에서는 편의상 '목적지 도착'을 제1문장, '그 곳 날씨 알려줘'를 제2문장으로 지칭한다.
제어부(10)는 분류된 문장 내에서 발화자의 의도를 분석할 수 있다. 가령, 제1문장에 대한 발화자의 의도는 목적지 정보에 대하여 알고 싶어 하는 것으로 분석될 수 있으며, 제2문장에 대한 발화자의 의도는 날씨정보에 대해 알고 싶어 하는 것으로 분석될 수 있다.
제어부(10)는 분석된 발화자의 의도에 따른 의도 데이터세트 를 추출할 수 있다. 의도 데이터세트는 분석된 발화자의 의도를 기반으로, 발화된 명령어를 실행하기 위한 정보를 포함하는 데이터를 의미할 수 있다. 의도 데이터세트는 발화된 명령어를 실행하기 위한 정보가 항목별로 분류된 복수의 엔티티(Entity)를 포함할 수 있다. 엔티티는 POI(Point Of Interest)명, 지역, 업종, 거리, 소요시간, 날씨, 이름, 콜카테고리, 전화번호, 날짜 및 시간, 메세지 등을 포함할 수 있다.
가령, 제1문장에 대한 발화자의 의도에 따라 추출부(14)는 표 1과 같은 제1의도 데이터세트를 추출할 수 있다. 제1의도 데이터세트는 5개의 엔티티를 포함할 수 있으며, 그에 따른 정보는 다음과 같다. 제1의도 데이터세트에 포함된 엔티티의 컨텐츠는 제1문장의 정보를 이용하여 획득할 수 있다. 제1문장에 대한 정보는 '목적지'와 관련이 있으므로, 차량 내의 네비게이션의 정보를 이용하여 각 엔티티에 대한 컨텐츠를 획득할 수 있다.
엔티티 컨텐츠
POI명 AA센터
지역 경기도 화성시...
업종 쇼핑몰
거리 30Km
소요시간 58분
가령, 제2문장에 대한 발화자의 의도에 따라 제어부(10)는 표 2와 같은 제2의도 데이터세트를 추출할 수 있다. 제2의도 데이터세트는 3개의 엔티티를 포함할 수 있으며, 그에 따른 컨텐츠는 다음과 같다. 제2의도 데이터세트에 포함된 엔티티의 컨텐츠는 제2문장의 정보를 이용하여 획득할 수 있다. 그러나, 제2문장은 '그 곳의 날씨'와 관련되어 있으므로 지역과 관련된 엔티티 이외의 시간, 날씨에 대한 컨텐츠는 획득할 수 없다.
엔티티 컨텐츠
지역 그 곳
시간 ?
날씨 ?
도 4는 각 의도 따라 추출되는 엔티티를 나타낸 도면이다.
도 4에 도시된 바와 같이, 소정 엔티티는 서로 다른 의도 내에서 공통적으로 추출될 수 있다. 예를들면, '지역'은 발화자의 의도가 목적지 설정, 목적지 정보 및 날씨 정보 중 어느 하나와 관련이 있는 경우 추출되는 엔티티일 수 있다.
소정의 엔티티가 서로 다른 의도 내에서 공통적으로 추출되는 경우, 서로 다른 의도는 연관관계가 있다고 볼 수 있다. 따라서, 한 의도 데이터세트 내에서 획득된 소정의 엔티티의 컨텐츠는 다른 의도 데이터세트 내에서 획득된 소정의 엔티티의 컨텐츠와 대응될 수 있다. 도 4에서 세로방향으로 나열된 것은 엔티티를 나타낸 것이고, 가로방향으로 나열된 것은 사용자의 의도를 나타낸 것이다.
예를들어, 엔티티 중 '지역'은 사용자의 의도 내에서 목적지 설정, 목적지 정보 및 날씨정보에서 공통적으로 추출된 엔티티이다. 따라서, 목적지 설정에서 추출된 '지역'의 컨텐츠는 목적지 정보 및 날씨정보에서 추출된 '지역'의 컨텐츠와 맵핑될 수 있다.
따라서, 도 4에 기재된 엔티티들 중 'POI명, 지역, 업종, 시간, 이름, 콜카테고리, 전화번호, 날짜 및 시간'의 컨텐츠들은 해당 엔티티를 포함하고 있는 서로 다른 사용자의 의도 내에서 맵핑될 수 있다.
한편, 발화자의 의도 내에서 '문자 송신'의 의도가 포함되어 있는 경우 추출되는 엔티티 중 '메세지'의 정보는 '문자 읽기'에서 추출되는 엔티티의 '메세지'의 정보와 공통적으로 적용되는데 국한되지 않고, 다른 엔티티들의 정보들이 공통적으로 맵핑될 수 있다. '문자 송신'과 관련된 자세한 설명은 도 10의 설명을 참조한다.
제어부(10)는 도 4의 정보들을 이용하여 각 서로 다른 의도간의 연관관계를 파악하기 위하여 각 의도 내에서 추출된 엔티티들 중 공통되는 엔티티를 추출해 낼 수 있다. 보다 자세한 설명은 도 5을 참조한다.
도 5는 본 발명의 실시예에 따라 각 의도 데이터세트 내의 추출된 공통 엔티티를 도시한 도면이다. 실시예에 따르면, 제어부(10)는 도 11에 도시된 바와 같이, 제1문장과 제2문장에서 공통적으로 추출되는 엔티티는 '지역' 및 '시간'일 수 있다. 이를 통하여 제1문장과 제2문장은 '지역' 및 '시간'이 연관관계가 있다고 파악할 수 있다. 따라서, 도 5의 각 의도 데이터세트는 서로 연관된 의도 데이터세트로 파악할 수 있다.
또한, 제어부(10)는 각 의도 데이터세트가 서로 연관되었다고 파악한 경우, 연관된 의도 데이터세트 중 어느 하나의 의도 데이터세트에 포함된 정보를 이용하여, 다른 하나의 의도 데이터세트에 포함된 정보를 추론할 수 있다.
이를 위하여, 어느 하나의 의도 데이터세트내에서 획득된 소정의 엔티티의 컨텐츠는 다른 하나의 의도 데이터세트 내에서 획득된 소정의 엔티티의 컨텐츠에 맵핑시킬 수 있다. 자세한 설명은 도 6을 참조한다.
도 6은 본 발명의 실시예에 따라 각 의도 데이터세트 내의 정보 맵핑을 도시한 도면이다. 실시예에 따르면, 제어부(10)는 도 6에 도시된 바와 같이, 제1의도 데이터세트의 엔티티 '지역'의 컨텐츠를 제2의도 데이터세트의 엔티티 '지역'의 컨텐츠와 맵핑시킬 수 있고, 제2의도 데이터세트의 엔티티 '소요시간'의 컨텐츠를 제2의도 데이터세트의 엔티티 '시간'의 컨텐츠와 맵핑시킬 수 있다.
제어부(10)는 제2의도 데이터세트의 엔티티 컨텐츠에 맵핑된 제1의도 데이터세트의 엔티티 컨텐츠들을 이용하여 제2의도 데이터세트 내에서 획득되지 않은 엔티티 컨텐츠들의 정보를 추론할 수 있다. 보다 자세한 설명은 도 7을 참조한다.
도 7은 본 발명의 실시예에 따라 각 의도 데이터세트 내의 컨텐츠의 추론을 도시한 도면이다.
제어부(10)는 인식된 단어만으로 정확한 의미를 파악하기 어려운 경우 텍스트를 분석하여 인식된 단어의 정확한 의미를 파악하도록 할 수 있다. 실시예에 따르면, 제2문장 내의 '그 곳'만으로는 정확한 의미를 파악할 수 없다. 따라서, 제어부(10)는 텍스트 분석을 통하여 '그 곳'이 의미하는 바가 '장소'를 지칭하는 대명사인 것을 도출할 수 있다. 이 경우 제어부(10)는 도 11에 도시된 바와 같이, 제1의도 데이터세트로부터 추출된 엔티티 중 '지역'의 컨텐츠가 '그 곳'에 대응되는 것으로 추론할 수 있다.
또한, 제어부(10)는 도 7에 도시된 바와 같이, 제2의도 데이터세트로부터 추출된 엔티티 중 '시간'에 대한 컨텐츠는 제1의도 데이터세트로부터 추출된 엔티티 중 '시간'의 정보에 현재 시간을 더하여 추론할 수 있다. 실시예에 따라 표 1을 참조하면, 제어부(10)는 제1의도 데이터세트로부터 추출된 엔티티 중 '소요시간'은 58분이고, 현재시간은 17시라고 하면, 제2의도 데이터세트로부터 추출된 엔티티 중 '시간'은 17시 58분으로 추론할 수 있다.
또한, 제어부(10)는 추론된 정보를 기반으로 제2의도 데이터세트 내의 해당 엔티티의 컨텐츠를 획득한다. 추론되지 못한 엔티티의 컨텐츠들은 외부 컨텐츠를 이용하여 획득될 수 있다. 외부 컨텐츠는 음악, 지도, 일정, 날씨, 검색서비스 등을 포함할 수 있다. 따라서, 제2의도 데이터세트는 표 3과 같은 결과를 얻을 수 있다.
엔티티 컨텐츠
지역 경기도 화성시...
시간 17시 58분
날씨 맑음
또한, 제어부(10)는 액션 데이터세트를 생성할 수 있다. 액션 데이터세트는 발화된 명령어의 결과정보를 기반으로 생성될 수 있다. 즉, 발화자의 의도를 기반으로 발화자가 원하는 정보만 포함되도록 생성할 수 있다. 실시예에 따르면, 표 3을 기반으로 한 액션 데이터세트는 표 4와 같이 생성할 수 있다.
엔티티 컨텐츠
도착시간 17시 58분
날씨 맑음
또한, 제어부(10)는 생성된 액션 데이터세트로부터, 피드백 메세지를 결정할 수 있다. 실시예에 따르면, 피드백 메세지는 '목적지까지 도착시간은 17시 58분이며, 그 때, 목적지의 날씨는 맑음입니다'로 결정할 수 있다.
다시, 도 2를 참조하면, 저장부(20)는 발화된 명령어, 제어부(10)로부터 추출된 복수개의 의도 데이터세트 및 액션 데이터세트 등의 정보들이 저장될 수 있다.
출력부(30)는 생성된 액션 데이터세트를 기반으로 피드백 메시지를 결정할 수 있다. 실시예에 따르면, 출력부(30)는 피드백 메세지를 음성으로 출력하거나, 이미지로 출력할 수 있다.
도 8은 본 발명의 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법을 나타낸 순서도이다.
도 8에 도시된 바와 같이, 발화자가 발화한 명령어를 인식한다(S100).
발화된 명령어에 대하여 명령어 내에 복수의 의도가 포함되었는지 판단한다(S110). S110 단계는 발화된 명령어 내에 '~하고', '~하면서', '그리고' 등의 연결어가 포함된 경우, 복수의 의도가 포함된 것으로 판단할 수 있다. 명령어 내에 복수의도가 포함된 것으로 판단되면(Y) S120 단계를 수행하고, 명령어에 복수의도가 포함되지 않은 것으로 판단되면(N) 단일 의도가 포함된 것으로 판단한다(S115).
S115 단계 이후, S13O 단계를 수행하여, 발화자의 의도를 분석하고, S14O 단계를 수행하여 의도 데이터세트를 추출할 수 있다. 여기서, 단일 의도 데이터세트 내 포함되는 엔티티의 컨텐츠가 불충분할 경우, 엔티티의 컨텐츠를 획득할 수 있는 의도 데이터세트를 추가로 생성할 수 있다.
명령어 내에 복수의 의도가 포함된 것으로 판단되면, 발화자의 명령어를 의도별 문장으로 분류한다(S120). S120 단계는 비슷한 의도를 가진 문장끼리 클러스터링 되도록 학습하는 단계와, 복수 의도를 가지는 명령어를 학습하는 단계를 포함할 수 있다. 또한, S120 단계는 연결어가 포함된 경우 의도별 문장으로 분류할 수 있다. 연결어는 '~때', '~하고', '그리고' 등을 포함할 수 있다. 실시예에 따라, 발화된 명령어가 '목적지 도착할 때 그 곳 날씨 알려줘'라면, S120 단계에 '목적지 도착'을 제1문장으로, '그 곳 날씨 알려줘'를 제2문장으로 분류할 수 있다.
의도별 문장으로 분류된 경우, 분류된 문장 내에서 발화자의 의도를 분석한다(S130). S130 단계에서 제1문장은 목적지 정보에 대하여 알고 싶어 하는 것으로 분석할 수 있고, 제2문장은 그 곳의 날씨정보에 대하여 알고 싶어 하는 것으로 분석할 수 있다.
발화자의 의도가 분석되면, 발화자의 의도에 따른 의도 데이터세트를 추출한다(S140). 실시예에 따르면, S140 단계는 상술한 표 1 및 표 2와 같이 제1문장에 대한 발화자의 의도에 따른 제1의도 데이터세트 및 제2문장에 대한 발화자의 의도에 따른 제2의도 데이터세트를 추출할 수 있다. 제1의도 데이터세트 및 제 2의도 데이터세트는 분석된 발화자의 의도와 관련있는 데이터들을 포함하여, 발화된 명령어를 실행하기 위한 정보를 포함하는 데이터를 포함할 수 있으며, 복수의 엔티티(Entity)를 포함할 수 있다. 보다 자세한 설명은 표 1 및 표 2의 설명을 참조한다.
추출된 제1의도 데이터세트 및 제2의도 데이터세트의 연관관계를 판단한다(S150). S150 단계는 제1의도 데이터세트 및 제2의도 데이터세트 내에서 추출된 엔티티들 중 공통되는 엔티티가 추출되는 경우 제1의도 데이터세트과 제2의도 데이터세트가 연관된 것으로 판단한다.
공통되는 엔티티를 기반으로 제1의도 데이터세트와 제2의도 데이터세트가 서로 연관된 것이라고 판단된 경우, 제1의도 데이터세트에 포함된 컨텐츠를 이용하여, 제2의도 데이터세트에 포함될 컨텐츠를 추론할 수 있다. 이를 위하여 제1의도 데이터세트와 제2의도 데이터세트에서 공통되는 엔티티의 컨텐츠를 각각 맵핑한다(S16O). S160 단계는 실시예에 따르면, 제1의도 데이터세트에서 추출된 제1엔티티의 컨텐츠를 제2의도 데이터세트에서 추출된 제1엔티티의 컨텐츠와 맵핑한다.
엔티티의 정보를 맵핑한 후, 제2의도 데이터세트의 정보를 추론한다(S170). S170 단계는 제2의도 데이터세트의 엔티티 컨텐츠에 맵핑된 제1의도 데이터세트의 엔티티 컨텐츠들을 이용하여 제2의도 데이터세트 내에서 획득되지 않은 엔티티들의 컨텐츠를 추론할 수 있다. 또한, 제1의도 데이터세트의 엔티티 컨텐츠를 이용하여 제2의도 데이터세트의 컨텐츠를 추론하지 못한 경우 외부 컨텐츠를 이용하여 제2의도 데이트세트의 컨텐츠를 추론할 수 있다.
제2의도 데이터세트의 추론된 컨텐츠를 기반으로, 제2의도 데이터세트의 컨텐츠를 획득한다(S180). S170 단계에서 추론되지 않은 컨텐츠들은 외부 컨텐츠 정보를 기반으로 획득될 수 있다. 따라서, 제2의도 데이터세트의 컨텐츠는 모두 획득될 수 있다.
제2의도 데이터세트의 컨텐츠가 획득되면, 액션 데이터세트를 생성한다(S190). S190 단계는 최초 발화자가 명령한 내용을 기반으로 발화된 명령어의 결과정보를 포함하는 액션 데이터세트를 생성하도록 수행된다. 즉, 발화자의 의도를 기반으로 발화자가 알고 싶어하는 결과정보만을 포함하도록 수행될 수 있다. 보다 자세한 설명은 표 4를 참조한다.
액션 데이터세트가 생성되면 피드백 메세지를 결정하고 출력한다(S200). S200 단계는 '목적지까지 도착시간은 17시 58분이며, 그 때, 목적지의 날씨는 맑음입니다'이라는 피드백 메세지를 결정할 수 있다. 그리고, 피드백 메세지는 음성으로 출력하거나, 이미지로 출력할 수 있다.
도 9는 본 발명의 일실시예에 따른 음성 인식 방법을 나타낸 개략도이다.
먼저, 발화된 명령어가 '최근 부재중 전화 온 곳으로 전화 걸어줘'인 경우 제어부(10)는 발화된 명령어 내에 연결어가 없으므로, 단일 의도인 것으로 판단할 수 있다. 그리고, 제어부(10)는 발화자의 의도가 '전화걸기' 인 것으로 분석할 수 있다. 제어부(10)는 전화걸기에 대한 의도 데이터세트를 추출할 수 있으며, 이는 표 5와 같다.
전화걸기 의도 데이터세트
엔티티 컨텐츠
대상 최근 부재중 전화 온 곳
콜카테고리 ?
전화번호 ?
전화걸기의 대상은 '최근 부재중 전화온 곳'이므로, '부재중'이 발화자 휴대전화의 연락처에 저장된 이름인지 확인하고, 저장되어 있는 경우 제어부(10)는 표 6과 같은 액션 데이터세트를 생성하고, 출력부(30)는 피드백 메세지를 결정하고 출력한다. 피드백 메세지는 '부재중에게 전화걸겠습니다'로 결정될 수 있으며, 이는 음성이나 이미지로 출력될 수 있다.
전화걸기 액션 데이터세트
엔티티 컨텐츠
대상 부재중
콜카테고리 휴대전화
전화번호 010-0000-1111
한편, '부재중'이 발화자 휴대전화의 연락처에 저장된 이름이 아닌 경우, 제어부(10)는 최초 발화된 명령어 내용 중 다른 의도와 연동되는 내용을 기반으로 신규의 의도 데이터세트를 추출할 수 있다. 예를들면, 부재중 전화확인의 의도 데이터세트를 추가로 추출할 수 있다. 이는 표 7과 같다.
부재중 전화확인 의도 데이터세트
엔티티 컨텐츠
대상 홍길동
콜카테고리 휴대전화
날짜 및 시간 최근
전화번호 010-1234-5678
따라서, 제어부(10)는 표 7의 부재중 전화확인 의도 데이터세트의 컨텐츠와 표 5의 전화걸기 의도 데이터세트를 맵핑한다. 제어부(10)는 표 5의 전화걸기 의도 데이터세트에서 획득되지 않은 엔티티의 컨텐츠를 추론한다. 그리고, 제어부(10)는 추론된 컨텐츠를 이용하여 표 8과 같이 액션 데이터세트를 생성할 수 있다.
전화걸기 액션 데이터세트
엔티티 컨텐츠
대상 홍길동
콜카테고리 휴대전화
전화번호 010-1234-5678
제어부(10)는 액션 데이터세트로부터 피드백 메세지를 결정할 수 있다. 실시예에 따르면, 피드백 메세지는 '홍길동에게 전화걸겠습니다'로 결정될 수 있다. 또한, 출력부(30)는 피드백 메세지를 음성이나 이미지로 출력할 수 있다.
도 10은 본 발명의 다른 실시예에 따른 음성 인식 방법을 나타낸 개략도이다.
발화된 명령어가 'AA센터로 목적지 설정하고, james에게 목적지를 문자로 보내줘'인 경우, 제어부(10)는 발화된 명령어 내에 연결어가 포함되어 있으므로, 복수의 의도가 포함된 것이라고 판단할 수 있다.
또한, 제어부(10)는 명령어를 의도별 문장 'AA센터로 목적지를 설정'과 'james에게 목적지를 문자로 송신'으로 분류하고, 제어부(10)는 발화자의 의도가 목적지를 설정하라는 것과, 문자를 송신하라는 것으로 분석할 수 있다.
제어부(10)는 발화자의 의도에 따라 목적지 설정과, 문자 송신에 따른 의도 데이터세트를 추출할 수 있으며 이는 표 9, 표 10과 같다.
목적지 설정 의도 데이터세트
엔티티 컨텐츠
POI명 AA센터
지역 경기도 화성시...
문자송신 의도 데이터세트
엔티티 컨텐츠
이름 James
메세지 목적지
제어부(10)는 문자송신에 대한 의도 데이터세트가 추출된 경우, 도 4의 설명에서 언급된 바와 같이, 엔티티의 정보를 공통되는 엔티티의 정보와 맵핑하는 것에 국한되지 않고, 다른 엔티티들의 정보들을 공통적으로 맵핑할 수 있다.
즉, 표 9와 표 10을 참조하면, 목적지 설정 의도 데이터세트와 문자송신 의도 데이터세트에는 서로 공통되는 엔티티가 존재하지 않는다. 그렇지만, 문자송신 의도 데이터세트의 메세지 관련 엔티티는 목적지 설정 의도 데이터세트 내의 목적지와 관련된 엔티티들과 맵핑될 수 있다. 또한, 제어부(10)는 메세지의 컨텐츠를 목적지와 관련된 엔티티의 컨텐츠로부터 추론할 수 있으며, 추론된 컨텐츠를 이용하여 표 11과 같이 액션 데이터세트를 생성한다.
문자송신 액션 데이터세트
엔티티 컨텐츠
이름 James
메세지 AA센터
제어부(10)는 표 11과 같이 생성된 액션 데이터세트로부터 피드백 메세지를 결정할 수 있다. 실시예에 따르면, 피드백 메세지는 'James에게 AA센터를 송신하겠습니다'로 결정될 수 있다. 또한, 출력부(30)는 피드백 메세지를 음성이나 이미지로 출력할 수 있다.
도 11는 본 발명의 일 실시예에 따른 방법을 실행하는 컴퓨팅 시스템의 구성을 도시한 도면이다.
도 11를 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
제어부 10
저장부 20
출력부 30

Claims (31)

  1. 발화된 명령어로부터 발화자의 의도에 따라 추출된 복수개의 의도 데이터세트 중, 제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하여 피드백메세지를 결정하는 제어부;
    상기 발화된 명령어 및 상기 추출된 복수개의 의도 데이터세트가 저장되는 저장부; 및
    상기 피드백메세지를 출력하는 출력부를 포함하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  2. 청구항 1에 있어서,
    상기 제어부는
    상기 제1의도 데이터세트에 포함된 복수의 엔티티(entity) 중 제1엔티티의 컨텐츠를 기반으로 상기 제2의도 데이터세트에 포함된 복수의 엔티티 중 상기 제1엔티티와 동일한 제2엔티티의 컨텐츠를 추론하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  3. 청구항 1에 있어서,
    상기 제어부는
    상기 발화된 명령어 내에 연결어가 존재하는 경우, 상기 발화된 명령어가 복수의 의도를 포함하는 것으로 판단하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  4. 청구항 3에 있어서,
    상기 제어부는
    상기 발화된 명령어를 의도별 문장으로 분류하고, 상기 분류된 의도별 문장을 기반으로 상기 복수의 의도를 분석하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성인식 시스템.
  5. 청구항 4에 있어서,
    상기 제어부는
    상기 분류된 의도별 문장으로부터 상기 복수의 의도에 따른 상기 복수개의 의도 데이터세트를 추출하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  6. 청구항 4에 있어서,
    상기 제어부는
    형태소 및 구문 분석에 의해 상기 발화된 명령어를 상기 의도별 문장으로 분류하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  7. 청구항 2에 있어서,
    상기 제어부는
    상기 제1의도 데이터세트 및 상기 제2의도 데이터세트를 서로 연관된 의도 데이터세트로 판단하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  8. 청구항 1에 있어서,
    상기 제어부는상기 제1의도 데이터세트를 기반으로 상기 제2의도 데이터세트를 추론하지 못한 경우,
    외부 컨텐츠 정보를 기반으로 상기 제2의도 데이터세트를 추론하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  9. 청구항 1에 있어서,
    상기 제어부는
    텍스트 분석을 기반으로 상기 발화된 명령어의 의미를 파악하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  10. 청구항 1에 있어서,
    상기 제어부는
    상기 발화된 명령어 내에 연결어가 존재하지 않는 경우, 상기 발화자의 의도에 따른 의도 데이터세트를 추출하고, 상기 발화된 명령어의 의미를 기반으로 신규의 의도 데이터세트를 추가적으로 추출하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  11. 청구항 1에 있어서,
    상기 제어부는
    상기 발화된 명령어 내용의 일부가 문자송신의 내용을 포함하는 경우, 상기 문자송신에 따른 의도 데이터세트를 포함하는 복수개의 의도 데이터세트를 추출하되, 상기 문자송신에 따른 의도 데이터세트 내의 소정 엔티티의 컨텐츠는 상기 문자송신을 제외한 나머지의 발화된 명령어 내용에 따라 추출된 의도 데이터세트 내의 소정 엔티티의 컨텐츠를 기반으로 추론되는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  12. 청구항 1에 있어서,
    상기 제어부는
    상기 의도 데이터세트를 기반으로 상기 발화된 명령어의 결과정보를 포함하는 액션 데이터세트를 생성하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  13. 청구항 12에 있어서,
    상기 제어부는
    상기 액션 데이터세트를 기반으로 상기 피드백메세지를 생성하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  14. 청구항 1에 있어서,
    상기 출력부는
    상기 피드백 메세지를 음성 및 이미지 중 어느 하나로 출력하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템.
  15. 발화된 명령어로부터 발화자의 의도에 따라 복수개의 의도 데이터세트를 추출하는 단계;
    상기 복수개의 의도 데이터세트 중 제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하는 단계;
    상기 제1의도 데이터세트 및 상기 제2의도 데이터세트를 기반으로 피드백메세지를 결정하는 단계;
    상기 피드백메세지를 출력하는 단계를 포함하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  16. 청구항 15에 있어서,
    상기 의도 데이터세트를 추출하는 단계는
    상기 발화된 명령어가 복수의 의도를 포함하는지 여부를 판단하는 단계를 포함하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  17. 청구항 16에 있어서,
    상기 발화된 명령어가 복수의 의도를 포함하는지 여부를 판단하는 단계는
    상기 발화된 명령어 내에 연결어가 존재하는 경우, 상기 발화된 명령어가 복수의 의도를 포함하는 것으로 판단하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  18. 청구항 16에 있어서,
    상기 의도 데이터세트를 추출하는 단계는
    상기 발화된 명령어가 복수의 의도를 포함하는지 여부를 판단하는 단계에서, 상기 복수의 의도가 상기 발화된 명령어에 포함된 것으로 판단된 경우,
    상기 발화된 명령어를 의도별 문장으로 분류하는 단계; 및
    상기 의도별 문장을 기반으로 복수의 의도를 분석하는 단계를 포함하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  19. 청구항 18에 있어서,
    상기 발화된 명령어를 의도별 문장으로 분류하는 단계는
    형태소 및 구문 분석을 통하여 상기 발화된 명령어를 상기 의도별 문장으로 분류하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  20. 청구항 18에 있어서,
    상기 의도 데이터세트를 추출하는 단계는
    상기 분류된 의도별 문장으로부터 상기 복수의 의도에 따른 복수개의 의도 데이터세트를 추출하는 단계를 포함하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  21. 청구항 20에 있어서,
    상기 복수개의 의도 데이터세트를 추출하는 단계는
    복수의 엔티티(Entity)를 포함하는 제1의도 데이터세트 및 제2의도 데이터세트를 추출하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  22. 청구항 21에 있어서,
    상기 복수개의 의도 데이터세트를 추출하는 단계 이후,
    상기 복수개의 의도 데이터세트 간 연관관계를 판단하는 단계를 수행하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  23. 청구항 22에 있어서,
    상기 복수개의 의도 데이터세트 간 연관관계를 판단하는 단계는
    상기 제1의도 데이터세트 및 상기 제2의도 데이터세트 내에서 공통되는 엔티티를 추출되는 경우, 제1의도 데이터세트 및 상기 제2의도 데이터세트가 서로 연관된 것으로 판단하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  24. 청구항 18에 있어서,
    상기 복수개의 의도 데이터세트 간 연관관계를 판단하는 단계 이후,
    제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하는 단계 를 수행하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  25. 청구항 24에 있어서,
    제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하는 단계는상기 제1의도 데이터세트에 포함된 제1엔티티의 컨텐츠를 기반으로 상기 제2의도 데이터세트에 포함된 상기 제1엔티티와 동일한 제2엔티티의 컨텐츠를 추론하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  26. 청구항 24에 있어서,
    제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하는 단계에서, 상기 제2의도 데이터세트를 추론하지 못한 경우,
    외부 컨텐츠 정보를 기반으로 상기 제2의도 데이터세트의 정보를 획득하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  27. 청구항 16에 있어서,
    상기 발화된 명령어가 복수의 의도를 포함하는지 여부를 판단하는 단계에서 상기 발화된 명령어 내에 연결어가 존재하지 않는 경우,
    상기 의도 데이터세트를 추출하는 단계 이후,
    상기 발화된 명령어 의미를 기반으로 신규의 의도 데이터세트를 추가적으로 추출하는 단계를 포함하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  28. 청구항 15에 있어서,
    상기 발화된 명령어 내용의 일부가 문자송신의 내용을 포함하는 경우,
    상기 문자송신에 따른 의도 데이터세트를 포함하는 복수개의 의도 데이터세트를 추출하는 단계;
    상기 문자송신에 따른 의도 데이터세트 내의 소정 엔티티 정보는 상기 문자송신을 제외한 나머지의 발화된 명령어의 내용에 따라 추출된 의도 데이터세트를 기반으로 추론되는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  29. 청구항 15에 있어서,
    제1의도 데이터세트를 기반으로 제2의도 데이터세트를 추론하는 단계이후,
    상기 발화된 명령어의 결과정보를 포함하는 액션 데이터세트를 생성하는 단계를 수행하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  30. 청구항 29에 있어서,
    상기 피드백메세지를 결정하는 단계는
    상기 액션 데이터세트를 기반으로 상기 피드백메세지를 결정하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
  31. 청구항 15에 있어서,
    상기 피드백메세지를 출력하는 단계는
    상기 피드백 메세지를 음성 및 이미지 중 어느 하나로 출력하는 것을 특징으로 하는 복수의도를 포함하는 명령어를 분석하는 음성 인식 방법.
KR1020170160367A 2017-11-28 2017-11-28 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법 KR20190061706A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020170160367A KR20190061706A (ko) 2017-11-28 2017-11-28 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법
US15/980,326 US20190164540A1 (en) 2017-11-28 2018-05-15 Voice recognition system and voice recognition method for analyzing command having multiple intents
CN201810550997.6A CN109841212B (zh) 2017-11-28 2018-05-31 分析具有多个意图的命令的语音识别系统和语音识别方法
DE102018113034.1A DE102018113034A1 (de) 2017-11-28 2018-05-31 Stimmenerkennungssystem und stimmenerkennungsverfahren zum analysieren eines befehls, welcher mehrere absichten hat

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170160367A KR20190061706A (ko) 2017-11-28 2017-11-28 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20190061706A true KR20190061706A (ko) 2019-06-05

Family

ID=66442253

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170160367A KR20190061706A (ko) 2017-11-28 2017-11-28 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법

Country Status (4)

Country Link
US (1) US20190164540A1 (ko)
KR (1) KR20190061706A (ko)
CN (1) CN109841212B (ko)
DE (1) DE102018113034A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220154532A (ko) 2021-05-13 2022-11-22 (주)와이즈에이아이 주문 및 예약을 위한 자동 콜 응대 시스템
KR20230012715A (ko) 2021-07-16 2023-01-26 주식회사 케이티 대화 서비스를 제공하는 서버, 방법 및 컴퓨터 프로그램
WO2024043729A1 (ko) * 2022-08-26 2024-02-29 삼성전자주식회사 전자 장치 및 전자 장치의 사용자에 대한 응답 처리 방법
WO2024072142A1 (ko) * 2022-09-29 2024-04-04 삼성전자 주식회사 서술어를 포함하지 않는 발화를 처리하는 전자 장치, 동작 방법 및 저장 매체

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108600911B (zh) * 2018-03-30 2021-05-18 联想(北京)有限公司 一种输出方法及电子设备
US11226832B2 (en) * 2018-11-09 2022-01-18 International Business Machines Corporation Dynamic generation of user interfaces based on dialogue
US11132511B2 (en) * 2019-02-05 2021-09-28 International Business Machines Corporation System for fine-grained affective states understanding and prediction
CN111241245B (zh) * 2020-01-14 2021-02-05 百度在线网络技术(北京)有限公司 人机交互处理方法、装置及电子设备
CN113314123B (zh) * 2021-04-12 2024-05-31 中国科学技术大学 语音处理方法、电子设备及存储装置
CN115440200B (zh) * 2021-06-02 2024-03-12 上海擎感智能科技有限公司 车机系统的控制方法及控制系统
CN113591463B (zh) * 2021-07-30 2023-07-18 中国平安人寿保险股份有限公司 意图识别方法、装置、电子设备及存储介质
CN113990301B (zh) * 2021-12-28 2022-05-13 广州小鹏汽车科技有限公司 语音交互方法及其装置、服务器和可读存储介质
CN114842847A (zh) * 2022-04-27 2022-08-02 中国第一汽车股份有限公司 一种车载用语音控制方法以及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446627B1 (ko) * 2002-03-29 2004-09-04 삼성전자주식회사 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법
US8849648B1 (en) * 2002-12-24 2014-09-30 At&T Intellectual Property Ii, L.P. System and method of extracting clauses for spoken language understanding
WO2013155619A1 (en) * 2012-04-20 2013-10-24 Sam Pasupalak Conversational agent
EP2816553A1 (en) * 2013-06-20 2014-12-24 2236008 Ontario Inc. Natural language understanding automatic speech recognition post processing
AU2015266863B2 (en) * 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US20160004501A1 (en) * 2014-07-01 2016-01-07 Honeywell International Inc. Audio command intent determination system and method
US10614799B2 (en) * 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
US10394886B2 (en) * 2015-12-04 2019-08-27 Sony Corporation Electronic device, computer-implemented method and computer program
US9905248B2 (en) * 2016-02-29 2018-02-27 International Business Machines Corporation Inferring user intentions based on user conversation data and spatio-temporal data
US9990176B1 (en) * 2016-06-28 2018-06-05 Amazon Technologies, Inc. Latency reduction for content playback
US10467509B2 (en) * 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US10546583B2 (en) * 2017-08-30 2020-01-28 Amazon Technologies, Inc. Context-based device arbitration

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220154532A (ko) 2021-05-13 2022-11-22 (주)와이즈에이아이 주문 및 예약을 위한 자동 콜 응대 시스템
KR20230012715A (ko) 2021-07-16 2023-01-26 주식회사 케이티 대화 서비스를 제공하는 서버, 방법 및 컴퓨터 프로그램
WO2024043729A1 (ko) * 2022-08-26 2024-02-29 삼성전자주식회사 전자 장치 및 전자 장치의 사용자에 대한 응답 처리 방법
WO2024072142A1 (ko) * 2022-09-29 2024-04-04 삼성전자 주식회사 서술어를 포함하지 않는 발화를 처리하는 전자 장치, 동작 방법 및 저장 매체

Also Published As

Publication number Publication date
US20190164540A1 (en) 2019-05-30
CN109841212A (zh) 2019-06-04
DE102018113034A1 (de) 2019-05-29
CN109841212B (zh) 2023-12-15

Similar Documents

Publication Publication Date Title
KR20190061706A (ko) 복수의도를 포함하는 명령어를 분석하는 음성 인식 시스템 및 방법
KR102289917B1 (ko) 화행 정보를 이용한 대화 처리 방법 및 그 장치
CN111028827B (zh) 基于情绪识别的交互处理方法、装置、设备和存储介质
CN106201424B (zh) 一种信息交互方法、装置及电子设备
CN107039038B (zh) 学习个性化实体发音
US8812316B1 (en) Speech recognition repair using contextual information
US20170084274A1 (en) Dialog management apparatus and method
KR101322486B1 (ko) 범용 대화서비스 장치 및 그 방법
US20030040907A1 (en) Speech recognition system
CN103077714A (zh) 信息的识别方法和装置
KR20190051600A (ko) 차량의 기능 추천 장치 및 방법
US20200211560A1 (en) Data Processing Device and Method for Performing Speech-Based Human Machine Interaction
US10643601B2 (en) Detection mechanism for automated dialog systems
CN111258529B (zh) 电子设备及其控制方法
CN112669842A (zh) 人机对话控制方法、装置、计算机设备及存储介质
KR20190068830A (ko) 차량의 환경에 기반한 추천 신뢰도 판단 장치 및 방법
WO2017168637A1 (ja) 意図推定装置及び意図推定方法
KR102536944B1 (ko) 음성 신호 처리 방법 및 장치
KR20210042520A (ko) 전자 장치 및 이의 제어 방법
US20220324460A1 (en) Information output system, server device, and information output method
CN114860910A (zh) 智能对话方法及系统
US11755652B2 (en) Information-processing device and information-processing method
KR101890704B1 (ko) 음성 인식과 언어 모델링을 이용한 간편 메시지 출력장치 및 출력방법
CN109830239A (zh) 语音处理装置、语音识别输入系统及语音识别输入方法
US20220245344A1 (en) Generating and providing information of a service

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application