KR102332826B1 - 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법 - Google Patents

차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법 Download PDF

Info

Publication number
KR102332826B1
KR102332826B1 KR1020170066530A KR20170066530A KR102332826B1 KR 102332826 B1 KR102332826 B1 KR 102332826B1 KR 1020170066530 A KR1020170066530 A KR 1020170066530A KR 20170066530 A KR20170066530 A KR 20170066530A KR 102332826 B1 KR102332826 B1 KR 102332826B1
Authority
KR
South Korea
Prior art keywords
voice recognition
contact information
databases
vehicle
database
Prior art date
Application number
KR1020170066530A
Other languages
English (en)
Other versions
KR20180130670A (ko
Inventor
이진호
조재민
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170066530A priority Critical patent/KR102332826B1/ko
Priority to US15/804,673 priority patent/US10559304B2/en
Publication of KR20180130670A publication Critical patent/KR20180130670A/ko
Application granted granted Critical
Publication of KR102332826B1 publication Critical patent/KR102332826B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/03Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for
    • B60R16/0315Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for using multiplexing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Abstract

차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법에 관한 것으로, 차량용 음성 인식 장치는, 단말 장치로부터 전달된 주소록 데이터베이스를 기초로 획득된 복수의 음성 인식용 데이터베이스가 저장되는 저장부, 적어도 하나의 요소를 상기 복수의 음성 인식용 데이터베이스로부터 검출하고, 상기 요소에 대응하는 연락처 정보의 표시 순서를 결정하는 프로세서 및 상기 요소에 대응하는 연락처 정보를 상기 표시 순서에 따라서 표시하고, 상기 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보에 대한 사용자의 선택 명령을 수신하는 사용자 인터페이스를 포함하되, 상기 프로세서는, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스를 검출하고, 상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정할 수 있다.

Description

차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법{A vehicle-mounted voice recognition apparatus, a vehicle including the same, a vehicle-mounted voice recognition system and the method for the same}
차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법에 관한 것이다.
차량은, 도로나 선로를 주행하면서 목적지까지 이동 가능한 장치를 의미한다. 통상적으로 차량은, 차체에 설치된 하나 이상의 차륜의 회전 구동에 의해 이동 가능하게 마련된다. 이와 같은 차량은, 예를 들어, 삼륜 또는 사륜 자동차나, 모터사이클 등의 이륜 자동차나, 건설 기계나, 자전거나 또는 선로 상에 배치된 레일 위에서 주행하는 열차 등을 포함할 수 있다.
근자에 차량에는 사용자의 편의를 위한 각종 장치가 설치된다. 예를 들어, 차량에는 내비게이션 장치, 라디오 장치, 텔레비전 장치 또는 차량용 음성 인식 장치 등이 설치될 수 있다. 내비게이션 장치, 라디오 장치, 텔레비전 장치 또는 차량용 통화 장치 등은, 물리 버튼 등의 조작이나 또는 터치스크린에 대한 터치 인가에 따라 소정의 동작을 수행하도록 설계된 것일 수 있고, 또는 사용자가 발화한 음성을 인식하여 소정의 동작을 수행하도록 설계된 것일 수도 있다.
사용자의 사용 패턴 또는 사용 의도에 부합되도록 보다 적절하게 사용자에게 음성 인식 결과를 제공할 수 있는 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법을 제공하는 것을 해결하고자 하는 과제로 한다.
상술한 과제를 해결하기 위하여 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법이 제공된다.
단말 장치로부터 전달된 주소록 데이터베이스를 기초로 획득된 복수의 음성 인식용 데이터베이스가 저장되는 저장부, 적어도 하나의 요소를 상기 복수의 음성 인식용 데이터베이스로부터 검출하고, 상기 요소에 대응하는 연락처 정보의 표시 순서를 결정하는 프로세서 및 상기 요소에 대응하는 연락처 정보를 상기 표시 순서에 따라서 표시하고, 상기 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보에 대한 사용자의 선택 명령을 수신하는 사용자 인터페이스를 포함하되, 상기 프로세서는, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스를 검출하고, 상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정할 수 있다.
사용자의 음성을 수신하고, 음향 신호를 출력하는 음향 수신부;를 더 포함하고, 상기 프로세서는, 상기 음향 신호로부터 음성 인식을 수행하여 상기 복수의 음성 인식용 데이터베이스로부터 사용자의 음성에 대응하는 적어도 하나의 요소를 검출할 수 있다.
상기 프로세서는, 상기 적어도 하나의 요소 각각에 대한 신뢰도를 더 검출할 수 있다.
상기 프로세서는, 상기 복수의 음성 인식용 데이터베이스의 검출 빈도에 대응하여 상기 적어도 하나의 요소 각각에 대한 신뢰도를 수정하여 보정된 신뢰도를 획득할 수 있다.
상기 프로세서는, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스가 검출되면, 검출된 음성 인식용 데이터베이스에 대응하는 카운트를 증가시켜 갱신할 수 있다.
상기 프로세서는, 상기 각각의 요소에 대한 신뢰도 및 검출된 음성 인식용 데이터베이스에 대응하는 카운트를 이용하여 상기 적어도 하나의 요소 각각에 대한 보정된 신뢰도를 결정할 수 있다.
상기 프로세서는, 상기 적어도 하나의 요소 각각에 대한 보정된 신뢰도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정할 수 있다.
상기 프로세서는, 동일한 음성 인식용 데이터베이스 내의 복수의 요소 각각에 대한 선택 빈도를 더 이용하여 상기 연락처 정보의 표시 순서를 다시 결정할 수 있다.
상기 프로세서는, 상기 단말 장치를 이용하여, 상기 선택된 연락처 정보에 대응하는 외부의 단말 장치와 통화를 수행할 수 있다.
상기 요소는, 성, 이름, 성과 이름의 순차적 조합, 이름과 성의 순차적 조합, 단음절 단어 및 특이 발음의 단어 중 적어도 하나를 포함할 수 있다.
차량용 음성 인식 장치의 제어 방법은, 단말 장치로부터 전달된 주소록 데이터베이스가 전달되는 단계, 상기 주소록 데이터베이스를 기초로 복수의 음성 인식용 데이터베이스가 획득되는 단계, 상기 복수의 음성 인식용 데이터베이스로부터 적어도 하나의 요소를 검출하는 단계, 상기 적어도 하나의 요소에 대응하는 연락처 정보를 연락처 정보의 표시 순서를 기초로 표시하는 단계, 상기 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보에 대한 사용자의 선택 명령을 수신하는 단계, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스를 검출하는 단계 및 상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계를 포함할 수 있다.
상기 복수의 음성 인식용 데이터베이스로부터 적어도 하나의 요소를 검출하는 단계는, 사용자의 음성을 수신하고, 음향 신호를 출력하는 단계 및 상기 음향 신호로부터 음성 인식을 수행하여, 상기 복수의 음성 인식용 데이터베이스로부터 적어도 하나의 요소를 검출하는 단계를 포함할 수 있다.
상기 음향 신호로부터 음성 인식을 수행하여, 상기 복수의 음성 인식용 데이터베이스로부터 적어도 하나의 요소를 검출하는 단계는, 상기 적어도 하나의 요소 및 상기 적어도 하나의 요소 각각에 대한 신뢰도를 검출하는 단계를 포함할 수 있다.
상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계는, 상기 복수의 음성 인식용 데이터베이스의 검출 빈도에 대응하여 상기 적어도 하나의 요소 각각에 대한 신뢰도를 수정하여 보정된 신뢰도를 획득하는 단계를 포함할 수 있다.
상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계는, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스가 검출되면, 검출된 음성 인식용 데이터베이스에 대응하는 카운트를 증가시켜 갱신하는 단계를 포함할 수 있다.
상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계는, 상기 각각의 요소에 대한 신뢰도 및 검출된 음성 인식용 데이터베이스에 대응하는 카운트를 이용하여 상기 적어도 하나의 요소 각각에 대한 보정된 신뢰도를 결정하는 단계를 더 포함할 수 있다.
상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계는, 상기 적어도 하나의 요소 각각에 대한 보정된 신뢰도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계를 더 포함할 수 있다.
차량용 음성 인식 장치의 제어 방법은, 동일한 음성 인식용 데이터베이스 내의 복수의 요소 각각에 대한 선택 빈도를 더 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계를 더 포함할 수 있다.
차량용 음성 인식 장치의 제어 방법은, 상기 단말 장치를 이용하여, 상기 선택된 연락처 정보에 대응하는 외부의 단말 장치와 통화를 수행하는 단계를 더 포함할 수 있다.
상기 요소는, 성, 이름, 성과 이름의 순차적 조합, 이름과 성의 순차적 조합, 단음절 단어 및 특이 발음의 단어 중 적어도 하나를 포함할 수 있다.
주소록 데이터베이스를 포함하는 단말 장치 및 상기 주소록 데이터베이스를 상기 단말 장치로부터 수신하고, 상기 주소록 데이터베이스를 기초로 복수의 음성 인식용 데이터베이스를 획득하고, 적어도 하나의 요소를 상기 복수의 음성 인식용 데이터베이스로부터 검출하고, 상기 요소에 대응하는 연락처 정보의 표시 순서를 결정하고, 상기 요소에 대응하는 연락처 정보를 상기 표시 순서에 따라서 표시하고, 상기 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보에 대한 사용자의 선택 명령을 수신하는 차량용 음성 인식 장치를 포함하되, 상기 차량용 음성 인식 장치는, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스를 검출하고, 상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정할 수 있다.
차량은, 단말 장치로부터 전달된 주소록 데이터베이스를 기초로 획득된 복수의 음성 인식용 데이터베이스가 저장되는 저장부, 적어도 하나의 요소를 상기 복수의 음성 인식용 데이터베이스로부터 검출하고, 상기 요소에 대응하는 연락처 정보의 표시 순서를 결정하는 프로세서 및 상기 요소에 대응하는 연락처 정보를 상기 표시 순서에 따라서 표시하고, 상기 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보에 대한 사용자의 선택 명령을 수신하는 사용자 인터페이스를 포함하되, 상기 프로세서는, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스를 검출하고, 상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정할 수 있다.
상술한 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법에 의하면, 사용자의 사용 패턴 또는 사용 의도에 부합되는 보다 적절한 음성 인식 결과, 일례로 연락처 검색 결과를 사용자에게 제공할 수 있는 효과를 얻을 수 있다.
상술한 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법에 의하면, 사용자의 언어 사용 스타일에 따라서 연락처 데이터베이스로부터 보다 적절하게 연락처를 검출할 수 있게 되는 효과도 얻을 수 있다.
상술한 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법에 의하면, 단말 장치의 연락처 데이터베이스를 기초로 복수의 연락처 데이터베이스를 생성하는 경우에도, 보다 신속하고 사용자 의도에 부합하게 적절한 연락처를 사용자에게 제공할 수 있게 되는 효과를 얻을 수도 있다.
도 1은 차량용 음성 인식 시스템의 일 실시예에 대한 블록도이다.
도 2는 프로세서가 복수의 음성 인식용 데이터베이스를 생성하는 동작의 일례를 설명하기 위한 제1 도이다.
도 3은 프로세서가 복수의 음성 인식용 데이터베이스를 생성하는 동작의 일례를 설명하기 위한 제2 도이다.
도 4는 프로세서의 동작의 일례를 설명하기 위한 도면이다.
도 5는 표시부에 표시되는 화면의 일례를 도시한 도면이다.
도 6은 프로세서에 의해 선택 결과에 대응하는 음성 인식용 데이터베이스에 대한 정보를 저장하는 일례를 도시한 도면이다.
도 7은 저장부에 저장된 복수의 데이터베이스에 대한 가중치의 일례를 도시한 도면이다.
도 8은 프로세서에 의해 보정된 신뢰도를 기반으로 검색 결과가 표시되는 과정의 일례를 도시한 도면이다.
도 9는 프로세서에 의해 동일 데이터베이스 내의 어느 하나의 레코드의 선택에 따른 결과를 저장하는 과정의 일례를 도시한 도면이다.
도 10은 차량용 음성 인식 장치의 제어 방법의 일 실시예에 대한 제1 흐름도이다.
도 11은 차량용 음성 인식 장치의 제어 방법의 일 실시예에 대한 제2 흐름도이다.
도 12는 차량용 음성 인식 장치의 제어 방법의 일 실시예에 대한 제3 흐름도이다.
이하 명세서 전체에서 동일 참조 부호는 특별한 사정이 없는 한 동일 구성요소를 지칭한다. 이하에서 사용되는 '부'가 부가된 용어는, 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예에 따라 '부'가 하나의 부품으로 구현되거나, 하나의 '부'가 복수의 부품들로 구현되는 것도 가능하다.
명세서 전체에서 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 어떤 부분과 다른 부분에 따라서 물리적 연결을 의미할 수도 있고, 또는 전기적으로 연결된 것을 의미할 수도 있다.
또한, 어떤 부분이 다른 부분을 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 부분 이외의 또 다른 부분을 제외하는 것이 아니며, 설계자의 선택에 따라서 또 다른 부분을 더 포함할 수 있음을 의미한다.
제 1 이나 제 2 등의 용어는 하나의 부분을 다른 부분으로부터 구별하기 위해 사용되는 것으로, 특별한 기재가 없는 이상 이들이 순차적인 표현을 의미하는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함할 수 있다.
이하 도 1 내지 도 9를 참조하여 차량용 음성 인식 장치, 차량용 음성 인식 장치가 설치된 차량 및 차량용 음성 인식 시스템의 일 실시예에 대해서 설명하도록 한다.
도 1은 차량용 음성 인식 시스템의 일 실시예에 대한 블록도이다.
도 1에 도시된 바를 참조하면, 차량용 음성 인식 시스템(1)은, 차량용 음성 인식 장치(100) 및 단말 장치(200)를 포함할 수 있다.
차량용 음성 인식 장치(100)는, 차량(2)에 장착 및 설치되며, 운전자 또는 동승자와 같은 사용자의 음성을 인식할 수 있도록 마련된다. 차량용 음성 인식 장치(100)는, 예를 들어, 차량용 통화 장치를 포함할 수 있으며, 차량용 통화 장치는 단말 장치(200)와 연동하거나, 또는 별도의 통신 모듈을 이용하여 외부의 다른 단말 장치(3)와 통화를 수행할 수 있도록 마련된다.
일 실시예에 의하면, 차량용 음성 인식 장치(100)는, 프로세서(110), 저장부(150), 제1 통신부(170), 및 사용자 인터페이스(190)를 포함할 수 있다.
프로세서(110), 저장부(150), 제1 통신부(170) 및 사용자 인터페이스(190) 중 적어도 하나는, 실시예에 따라서, 케이블 및 무선 통신 네트워크 중 적어도 하나를 이용하여 상호 데이터를 송수신할 수 있도록 마련된다. 케이블은, 예를 들어, 페어 케이블, 동축 케이블, 광섬유 케이블 또는 이더넷 케이블을 포함할 수 있다. 무선 통신 네트워크는 근거리 통신 기술, 예를 들어, 캔(CAN) 통신, 와이 파이(Wi-Fi), 지그비(zigbee), 블루투스(Bluetooth), 와이파이 다이렉트(Wi-Fi Direct), 저전력 블루투스(Bluetooth Low Energy) 또는 엔에프씨(NFC, Near Field Communication)를 이용하여 구현될 수 있다.
프로세서(110)는, 차량용 음성 인식 장치(100)의 전반적인 동작을 제어할 수 있다. 프로세서(110)는, 예를 들어, 적어도 하나의 중앙 처리 장치(CPU, Central Processing Unit)나, 적어도 하나의 마이크로 컨트롤러 유닛(MCU, Micro Controller Unit)이나, 또는 적어도 하나의 전자 제어 유닛(ECU, Electronic Control Unit)을 이용하여 구현될 수 있다.
프로세서(110)는, 실시예에 따라서 차량(2)에 직접 장착 및 설치된 전자 제어 유닛을 이용하여 구현된 것일 수도 있고, 또는 차량(2)과 별도로 마련된 다른 전자 장치의 프로세서를 이용하여 구현된 것일 수도 있다. 예를 들어, 프로세서(110)는 차량(2)에 장착 및 이탈 가능한 내비게이션 장치, 헤드 유닛 또는 스마트폰 등에 내장되어 설치된 중앙 처리 장치나 마이크로 컨트롤러 유닛을 이용하여 구현된 것일 수도 있다.
일 실시예에 의하면, 프로세서(110)는, 단말 장치(200)로부터 주소록 데이터베이스(251)를 전달 받고, 전달 받은 주소록 데이터베이스(251)로부터 음성 인식용 데이터베이스(151)를 생성할 수도 있다.
예를 들어, 프로세서(110)는, 단말 장치(200)로부터 주소록 데이터베이스(251)를 전달 받고, 주소록 데이터베이스(251)에 저장된 각각의 레코드 그 자체를 미리 정의된 바에 따라 추출하거나, 적어도 하나의 레코드에 포함된 적어도 하나의 필드 데이터, 일례로 성 또는 이름만을 추출하거나, 추출된 적어도 하나의 필드 데이터의 순서를 변경하여 새로운 레코드를 생성하거나, 및/또는 추출된 레코드에 새로운 필드 데이터를 부가하여 복수의 음성 인식용 데이터베이스(151:151-1, 151-2, ... , 151-n)를 생성할 수도 있다. 이외에도 프로세서(110)는 설계자가 고려할 수 있는 다양한 방법 중 적어도 하나를 이용하여 복수의 음성 인식용 데이터베이스(151:151-1, 151-2, ... , 151-n)를 생성할 수도 있다.
프로세서(110)는, 음향 수신부(195)로부터 수신된 음향 데이터를 이용하여 음성 인식용 데이터베이스(151)로부터 적어도 하나의 요소를 획득할 수도 있다. 여기서, 적어도 하나의 요소는, 사용자가 음성 통화를 수행하기 위하여 발화하는 식별자를 포함할 수 있다. 식별자는 예를 들어 특정인의 성, 이름, 별명, 칭호, 직급 및 직책 등 중 적어도 하나를 포함할 수 있다.
예를 들어, 프로세서(110)는 음향 데이터로부터 음성 부분을 검출하고, 검출된 음성 부분과 음성 인식용 데이터베이스(151)에 저장된 데이터를 비교하여, 음성 부분에 대응하는 적어도 하나의 요소, 예를 들어 식별자를 포함하는 레코드를 획득하고, 획득 결과에 따라서 사용자 인터페이스(190) 또는 제2 통신부(185)에 대한 제어 신호를 생성할 수 있다.
또한, 프로세서(110)는, 음성의 특징을 추출하고, 추출된 특징 및 음향 모델(Acoustic model)을 이용하여 패턴을 결정하고, 결정된 패턴을 사전에 미리 정의된 패턴과 비교하여 매칭하고, 매칭 결과를 기초로 음성 인식을 수행하고, 음성 인식 결과에 의해 음성 인식용 데이터베이스(151)에 저장된 복수의 요소 중 적어도 하나의 요소를 획득할 수 있다. 여기서, 음향 모델은 설계자에 의해 미리 결정된 것일 수 있다.
일 실시예에 따르면, 프로세서(110)는 매칭 결과에 따라 음성 부분에 대응하는 단어 또는 문구를 하나 이상 결정하고, 획득된 하나 이상의 단어 또는 문구를 음성 인식용 데이터베이스(151)에 저장된 복수의 요소와 각각 비교함으로써, 음성 인식용 데이터베이스(151)로부터 적어도 하나의 요소를 검출할 수도 있다.
또한, 프로세서(110)는 음성 인식용 데이터베이스(151)를 음향 모델로 이용하여, 결정된 패턴을 음성 인식용 데이터베이스(151)에 저장된 복수의 요소와 각각 비교하고, 음성 인식용 데이터베이스(151)로부터 적어도 하나의 요소를 검출할 수도 있다.
필요에 따라, 프로세서(110)는 소정의 언어 모델(language model)을 더 이용하여 음성 인식을 수행하도록 설계되는 것도 가능하다.
프로세서(110)는, 실시예에 따라서, 동적 정합(DTW: Dynamic Time Warping) 방법, 은닉 마르코프 모델(Hidden Markov models) 및 인공 신경망(ANN: Artificial Neural Network) 중 적어도 하나를 이용하여 음성 인식을 수행할 수 있다.
또한, 일 실시예에 따르면, 프로세서(110)는 음성 인식 과정에서 음성 인식용 데이터베이스(151)로부터 검출된 요소 각각에 대응하는 신뢰도(confidential value)를 획득할 수도 있다. 신뢰도는 음성 인식 결과가 어느 정도로 신뢰할만한 것인지를 수치적으로 나타낸 것이다. 구체적으로 예를 들어, 신뢰도는 음향 데이터로부터 검출된 음성과 음성 인식용 데이터베이스(151)의 어느 하나의 요소가 상호 얼마나 매칭되는지 여부로 정의될 수 있다. 신뢰도는 소정의 확률 모델을 이용하여 획득된 것일 수 있다. 신뢰도는 상술한 음향 모델이나 언어 모델을 이용하여 음성을 인식하는 과정에서 획득될 수도 있다.
또한, 프로세서(110)는, 사용자의 선택을 기초로 신뢰도를 유지하거나 보정함으로써 보정된 신뢰도를 획득할 수도 있다. 프로세서(110)는, 사용자에 의해 선택된 검색 결과에 따라서, 음성 인식용 데이터베이스(151)에 저장된 적어도 하나의 연락처에 대한 신뢰도를 조정할 수 있다.
일 실시예에 의하면, 프로세서(110)는 사용자의 선택에 따라서 복수의 음성 인식용 데이터베이스 중에서 적어도 하나의 음성 인식용 데이터베이스(151)를 검출하고, 음성 인식용 데이터베이스(151)의 검출 빈도를 기초로 음성 인식용 데이터베이스(151) 각각에 저장된 연락처에 대한 신뢰도를 결정할 수 있다. 여기서, 프로세서(110)에 의해 검출되는 음성 인식용 데이터베이스(151)는, 사용자가 선택된 연락처를 포함하는 음성 인식용 데이터베이스(151)를 포함할 수 있다.
구체적으로 예를 들어, 프로세서(110)는, 사용자에 의해 어느 하나의 요소가 선택되면, 선택된 요소가 검출된 음성 인식용 데이터베이스(151:151-1, 151-2, ... , 151-n)를 검색하여 결정하고, 결정된 음성 인식용 데이터베이스(151:151-1, 151-2, ... , 151-n)로부터 검출 가능한 적어도 하나의 요소의 음성 인식 결과에 대한 신뢰도를 동일하게 보정 또는 조정할 수 있다. 필요에 따라서, 프로세서(110)는, 사용자의 선택 빈도에 따라서, 어느 하나의 사용자의 선택에 대응하는 특정한 요소에 대한 신뢰도를 더 보정 또는 조정할 수도 있다.
프로세서(110)는, 신뢰도 또는 보정된 신뢰도를 기초로 사용자 인터페이스(190) 또는 제2 통신부(185)의 동작에 관한 제어 신호를 생성할 수도 있다.
일 실시예에 의하면, 프로세서(110)는, 적어도 하나의 요소가 검출되면, 적어도 하나의 요소에 대응하는 연락처를 획득하고, 획득한 요소 및 연락처를 기반으로 사용자 인터페이스(190)를 제어하여 적어도 하나의 연락처가 사용자에게 시각적 또는 청각적으로 제공되도록 할 수 있다. 이 경우, 프로세서(110)는, 각각의 요소에 대응하는 신뢰도 또는 보정된 신뢰도에 따라서 연락처 정보의 표시 순서를 결정할 수 있다. 결정된 연락처 정보의 표시 순서에 따라서 적어도 하나의 연락처는 사용자에게 제공된다.
만약 사용자가 제공된 적어도 하나의 연락처 중 어느 하나의 연락처를 선택하면, 프로세서(110)는, 선택된 연락처에 따라서 차량용 음성 인식 장치(100)가 단말 장치(200) 및 외부의 단말 장치(3) 중 적어도 하나와 통신 연결되도록 제어할 수 있다.
프로세서(110)의 상세한 동작에 대해선 후술하도록 한다.
저장부(150)는, 차량용 음성 인식 장치(100)의 동작에 필요한 여러 정보를 일시적 또는 비일시적으로 저장할 수 있다.
저장부(150)는, 예를 들어, 주기억장치 및/또는 보조기억장치를 포함할 수 있다. 주기억장치는 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있다. 롬은, 예를 들어, 이프롬(EPROM), 이이프롬(EEPROM) 및/또는 마스크롬(MASK-ROM) 등을 포함할 수 있다. 램은 예를 들어, 디램(DRAM) 및/또는 에스램(SRAM) 등을 포함할 수 있다. 보조기억장치는, 플래시 메모리 장치, SD(Secure Digital) 카드, 솔리드 스테이트 드라이브(SSD, Solid State Drive), 하드 디스크 드라이브(HDD, Hard Disc Drive), 자기 드럼, 콤팩트 디스크, 레이저 디스크, 자기 테이프, 광자기 디스크 및/또는 플로피 디스크 등과 같은 적어도 하나의 저장 매체를 이용하여 구현된 것일 수 있다.
일 실시예에 따르면, 저장부(150)는, 차량용 음성 인식 장치(100)의 프로세서(110)에 의해 획득되거나, 또는 단말 장치(200)의 프로세서(210)에 의해 획득된 음성 인식용 데이터베이스(151)를 저장할 수 있다.
일 실시예에 따르면, 저장부(150)는 복수의 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)를 저장할 수 있다. 이하 설명의 편의를 위하여 복수의 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n) 각각을 제1 음성 인식용 데이터베이스(151-1), 제2 음성 인식용 데이터베이스(151-2) 내지 제n 음성 인식용 데이터베이스(151-n)라 지칭한다.
저장부(150)는, 프로세서(110)에 의해 연산된 신뢰도를 저장할 수도 있으며, 또한 신뢰도의 연산에 필요한 각종 정보를 저장할 수도 있다. 예를 들어, 저장부(150)는 복수의 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n) 각각에 대한 가중치를 저장할 수도 있다. 이 경우, 가중치를 지시하는 변수는, 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n) 개수에 대응하는 개수만큼 정의될 수 있다. 또한, 저장부(150)는 동일한 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n) 내의 각각의 요소마다 대응하는 가중치를 저장할 수도 있다.
저장부(150)는, 프로세서(110)의 호출에 따라 음성 인식용 데이터베이스(151), 신뢰도 및/또는 신뢰도의 연산에 필요한 각종 정보를 케이블 또는 무선 통신 네트워크를 통하여 프로세서(110)에 제공하고, 프로세서(110)로부터 처리 결과를 수신하여 저장한다.
음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)는, 적어도 하나의 레코드를 포함할 수 있으며, 레코드는 식별자와, 식별자에 대응하는 적어도 하나의 필드 데이터를 포함할 수 있다. 필드 데이터는, 어느 하나의 레코드에 있어서, 적어도 하나의 필드에 해당하는 데이터를 의미한다. 식별자는, 예를 들어, 이름, 성, 성과 이름의 순차적인 조합, 이름과 성의 순차적인 조합, 호칭 및/또는 기타 미리 정의된 식별자를 포함할 수 있다. 필드 데이터는 전화번호 또는 이메일 주소 등과 같은 적어도 하나의 연락처를 포함할 수 있다. 여기서, 전화번호는 휴대폰 번호, 회사 전화 번호 및 집 전화 번호 중 적어도 하나를 포함 가능하다.
서로 상이한 음성 인식용 데이터베이스(151-1, 151-2, ..., 151-n)의 레코드는, 서로 상이한 식별자를 포함하여 구축된 것일 수 있다. 예를 들어, 제1 음성 인식용 데이터베이스(151-1)의 식별자는 이름으로만 이루어지고, 제2 음성 인식용 데이터베이스(151-2)의 식별자는 성으로만 이루어지도록 구축될 수 있다. 이 경우, 서로 상이한 음성 인식용 데이터베이스(151-1, 151-2, ..., 151-n)의 레코드의 필드 데이터는 서로 동일할 수도 있고, 또는 서로 상이할 수도 있다.
제1 통신부(170)는, 단말 장치(200)의 제3 통신부(270)와 유선 또는 무선으로 통신 가능하게 마련되며, 필요에 따라 안테나, 통신 칩, 기판 및 관련 부품 등을 포함하여 구현된다.
차량용 음성 인식 장치(100)는, 제1 통신부(170) 및 제3 통신부(270) 사이의 통신을 통하여, 주소록 데이터베이스(251)를 전달 받을 수 있다.
또한, 차량용 음성 인식 장치(100)는, 제1 통신부(170) 및 제3 통신부(270) 사이에 개설된 통신 네트워크를 통하여, 음향 수신부(195)를 통해 수신된 사용자의 음성 신호를 단말 장치(200)로 송신하고 또한 외부의 단말 장치(3)에서 전송된 음성 신호를 단말 장치(200)를 경유하여 수신함으로써, 외부의 단말 장치(3)와의 통화 동작을 수행할 수도 있다. 차량용 음성 인식 장치(100)가 단말 장치(200)로부터 수신한 음성 신호는 음향 출력부(197)를 통하여 외부로 출력되고, 이에 따라 사용자는 외부의 단말 장치(3)와 음성 통화를 할 수 있게 된다.
제1 통신부(170)는 근거리 통신 기술을 이용하여 제3 통신부(270)와 통신을 수행할 수 있다. 예를 들어, 제1 통신부(170)는 캔 통신, 와이 파이, 와이파이 다이렉트, 지그비, 블루투스, 저전력 블루투스 또는 엔에프씨를 이용하여 제3 통신부(270)와 통신을 수행할 수 있으며, 이를 위한 각종 부품을 포함할 수 있다.
사용자 인터페이스(190)는, 사용자로부터 각종 명령을 입력 받고, 및/또한 사용자에게 각종 정보를 시각적 또는 청각적으로 제공할 수 있도록 마련된다.
사용자 인터페이스(190)는, 예를 들어, 독립적으로 제작되어 차량(2)에 장착된 것일 수 있으며, 이 경우, 사용자 인터페이스(190)는, 예를 들어, 오디오 비디오 내비게이션(AVN: Audio Video Navigation) 장치과 같은 내비게이션 장치 또는 센터페시아 등에 장착 가능한 헤드 유닛 등을 이용하여 구현된 것일 수 있다.
일 실시예에 따르면, 사용자 인터페이스(190)는 표시부(191) 및 입력부(193)를 포함할 수 있다.
표시부(191)는, 차량(2) 또는 차량(2)에 설치된 차량용 음성 인식 장치(100)의 동작과 관련된 정보를, 숫자, 기호, 문자, 도형 및/또는 모양을 이용하여 시각적으로 사용자에게 제공할 수 있다.
표시부(191)는, 예를 들어, 플라즈마 디스플레이 패널(PDP, plazma display panel)이나, 발광 다이오드(LED, light emitting diode) 디스플레이 패널이나, 또는 액정 디스플레이(LCD, liquid crystal display) 등을 이용하여 구현된 것일 수 있다. 여기서, 발광 다이오드 패널은, 유기 발광 다이오드(OLED, organic light emitting diode) 등을 포함할 수 있으며, 유기 발광 다이오드는 수동형 유기 발광 다이오드(PMOLED, Passive Matrix OLED) 또는 능동형 유기 발광 다이오드(AMOLED, Active Matrix OLED)를 이용하여 구현 가능하다.
일 실시예에 의하면, 표시부(191)는, 프로세서(110)의 음성 인식에 의해 획득된 연락처를 표시할 수 있다. 이 경우, 표시부(191)는 하나의 화면에 하나의 연락처를 표시할 수도 있고, 복수의 연락처를 표시할 수도 있다. 만약 복수의 연락처가 프로세서(110)로부터 검출된 경우라면, 표시부(191)는, 프로세서(110)의 제어에 따라서 복수의 연락처를 동시에 표시하거나, 또는 적어도 하나의 연락처를 순차적으로 표시할 수도 있다. 복수의 연락처를 표시하는 경우, 표시부(191)는 상단에서부터 하단까지 신뢰도에 따라 순차적으로 연락처를 표시할 수 있다. 적어도 하나의 연락처를 순차적으로 표시하는 경우, 표시부(191)는 신뢰도에 따라서 적어도 하나의 연락처를 선행하여 표시할 수 있다.
입력부(193)는, 사용자로부터 명령이나 데이터를 입력 받을 수 있다. 입력부(193)는, 예를 들어, 물리 버튼, 마우스, 노브, 조그셔틀, 조이스틱, 터치패드이나 터치스크린에 마련된 센서, 동작 센서 등과 같은 각종 센서 또는 범용 직렬 버스(USB: Universal Serial Bus) 단자나 HDMI(High Definition Multimedia Interface) 단자와 같은 인터페이스용 단자 등을 포함할 수 있다.
일 실시예에 의하면, 입력부(193)는 표시부(191)에 의해 적어도 하나의 연락처가 표시된 이후, 사용자로부터 적어도 하나의 연락처 중 어느 하나의 연락처에 대한 선택 명령을 입력 받고, 선택 명령에 대응하는 전기적 신호를 프로세서(110)로 전달할 수 있다.
음향 수신부(195)는, 외부로부터 음파를 수신하고, 수신한 음파를 전기적 신호로 변환하여, 수신된 음파에 대응하는 전기적 신호를 출력할 수 있다. 음향 수신부(195)에 의해 출력된 전기적 신호는, 케이블 등을 통해서 프로세서(110)로 전달될 수 있다. 음향 수신부(195)가 수신하는 음파는 사용자의 발화에 따라 발생된 음성을 포함할 수 있다.
음향 수신부(195)에 의해 수신되고 음성을 포함하는 음향은, 전기적 신호의 형태로 프로세서(110)로 전달되고, 프로세서(110)에 의해 인식된 후 적어도 하나의 연락처의 검색에 이용될 수도 있다.
또한, 음향 수신부(195)에 의해 수신된 음향은, 소정의 전기적 신호의 형태로 제1 통신부(170) 및 제3 통신부(270)를 통하여 단말 장치(200)로 전달된 후, 이동 통신 네트워크 등을 통하여 외부의 단말 장치(3)로 전송될 수도 있다.
음향 수신부(195)는, 예를 들어, 마이크로폰을 포함할 수 있다.
음향 수신부(195)는, 차량(2)의 내부 공간에 설치된 것일 수 있다. 음향 수신부(195)는, 운전자 또는 동승자의 발화를 용이하게 수신할 수 있는 위치에 설치될 수 있다. 예를 들어, 음향 수신부(20)는, 음향의 전파 방향을 고려하여, 센터페시아, 운전대, 계기판이나 그 주변, 리어 뷰 미러나 그 주변 및/또는 선바이저 주변 등 운전자 및 동승자 중 적어도 하나의 얼굴과 인접한 구역 등에 설치될 수 있다. 필요에 따라서, 하나의 차량(2) 내에는 둘 이상의 음향 수신부(195)가 설치될 수도 있다.
음향 출력부(197)는, 음성 등을 포함하는 음향을 출력할 수 있도록 마련된다. 음향 출력부(197)는, 외부의 단말 장치(3)로 입력된 후 제1 통신부(170) 및 제3 통신부(270)를 통하여 단말 장치(200)로부터 전달된 음성을 출력할 수 있다.
상술한 음향 수신부(195)의 음성 수신 동작 및 음향 출력부(197)의 음성 출력 동작에 의해서, 사용자는 외부의 단말 장치(3)의 사용자와 통화를 할 수 있게 된다.
음향 출력부(197)는, 예를 들어, 적어도 하나의 스피커 장치를 이용하여 구현 가능하다. 적어도 하나의 스피커 장치는, 예를 들어, 차량(2)의 도어, 대시보드, 센터페시아 또는 리어 셀프(Rear Shelf) 등에 설치될 수 있다.
차량용 음성 인식 장치(100)는, 일 실시예에 의하면, 제2 통신부(185)를 더 포함할 수도 있다.
제2 통신부(185)는, 외부의 단말 장치(3)와 직접 또는 별도의 서버 장치(미도시)를 경유하여 통신을 수행할 수 있다. 제2 통신부(185)는 이동 통신 기술을 이용하여 외부의 단말 장치(3)와 통신을 수행하도록 마련된 것일 수 있다. 예를 들어, 제2 통신부(185)는 3GPP, 3GPP2 또는 와이맥스 계열 등의 이동 통신 표준을 기반으로 하는 통신 기술을 이용하여 외부의 단말 장치(3)와 상호 통신을 수행할 수 있다.
제2 통신부(185)를 포함하는 경우, 차량용 음성 인식 장치(185)는 단말 장치(200)와의 통신 없이도 외부의 단말 장치(3)와 통신이 가능해진다. 이에 따라, 운전자 또는 동승자 등의 사용자는, 차량용 음성 인식 장치(100)와 단말 장치(200) 간의 페어링 없이도, 차량용 음성 인식 장치(100)를 이용하여 외부의 단말 장치(3)의 사용자와 통화를 할 수 있게 된다.
제2 통신부(180)는 실시예에 따라 생략될 수도 있다.
단말 장치(200)는, 차량(2) 및 외부의 다른 단말 장치(3) 중 적어도 하나와 통신 가능하게 마련된다.
단말 장치(200)는, 예를 들어, 셀룰러폰, 스마트폰, 태블릿 피씨, 데스크톱 컴퓨터, 랩톱 컴퓨터, 내비게이션 장치, 휴대용 게임기, 개인용 디지털 어시스턴트(PDA, Personal Digital Assistant) 및 스마트 안경, 스마트 반지 또는 스마트 시계와 같은 웨어러블 디바이스 중 적어도 하나를 포함할 수 있다. 이외에도 주소록 데이터베이스가 저장 가능하고, 차량용 음성 인식 장치(100)의 제1 통신부(170)와의 통신을 수행할 수 있는 다양한 단말 장치 중 적어도 하나가 상술한 단말 장치(200)의 일례가 될 수 있다.
단말 장치(200)는, 일 실시예에 있어서, 프로세서(210), 저장부(250), 제3 통신부(270) 및 제4 통신부(280)를 포함할 수 있다.
프로세서(210)는 단말 장치(200)의 전반적인 동작을 제어할 수 있도록 마련된다. 프로세서(210)는, 예를 들어, 중앙 처리 장치, 마이크로 컨트롤러 유닛 또는 전자 제어 유닛을 포함할 수 있다.
프로세서(210)는, 사용자의 조작이나 미리 정의된 설정에 따라서 적어도 하나의 연락처를 조합하여 저장부(250)에 저장시킴으로써 주소록 데이터베이스(251)를 생성하거나, 및/또는 저장부(250)에 저장된 주소록 데이터베이스(251)로부터 적어도 하나의 연락처를 검출할 수 있다.
일 실시예에 의하면, 프로세서(210)는, 상술한 차량용 음성 인식 장치(100)의 프로세서(110)와 동일하거나 또는 일부 변형된 방법으로 주소록 데이터베이스(251)로부터 음성 인식용 데이터베이스(151)를 생성할 수도 있다. 이 경우, 프로세서(210)는, 차량용 음성 인식 장치(100)의 저장부(150)에 저장된 복수의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)의 전부를 생성할 수도 있고, 또는 복수의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n) 중 일부의 음성 인식용 데이터베이스만을 생성할 수도 있다.
프로세서(210)에 의해 생성된 음성 인식용 데이터베이스(151)는 제3 통신부(270) 및 제1 통신부(170)를 경유하거나, 또는 제4 통신부(280) 및 제2 통신부(185)를 경유하여 차량용 음성 인식 장치(100)로 전달될 수 있다. 실시예에 따라서, 프로세서(210)에 의해 생성된 음성 인식용 데이터베이스(151)는 차량용 음성 인식 장치(100)와 단말 장치(200)가 서로 페어링될 때마다 차량용 음성 인식 장치(100)로 전송될 수도 있고, 사용자의 조작에 따라 차량용 음성 인식 장치(100)로 전송될 수도 있으며, 또는 미리 정의된 설정에 따라 소정의 주기로 차량용 음성 인식 장치(100)로 전송될 수도 있다.
다른 실시예에 의하면, 프로세서(210)는, 주소록 데이터베이스(251)를 차량용 음성 인식 장치(100)의 프로세서(110)로 전달하는 동작의 제어만을 수행할 뿐, 음성 인식용 데이터베이스(151)를 생성하지 않을 수도 있다. 이 경우, 차량용 음성 인식 장치(100)의 프로세서(110)가 단독적으로 복수의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)를 모두 생성할 수 있다.
저장부(250)는 단말 장치(200)의 동작에 필요한 여러 정보를 일시적 또는 비일시적으로 저장할 수 있다.
저장부(250)는, 예를 들어, 롬이나 램과 같은 주기억장치 및 플래시 메모리나 SD 카드 등과 같은 보조기억장치를 포함할 수 있다.
저장부(250)는, 주소록 데이터베이스(251)를 저장할 수 있다. 주소록 데이터베이스(251)는, 적어도 하나의 연락처에 대응하는 적어도 하나의 레코드를 포함하여 구현되며, 적어도 하나의 레코드는, 적어도 하나의 식별자 및 적어도 하나의 필드에 대응하는 적어도 하나의 필드 데이터를 포함할 수 있다. 주소록 데이터베이스(251)의 적어도 하나의 식별자는, 예를 들어, 이름, 성, 이름과 성의 순차적인 조합, 호칭 및 기타 미리 정의된 식별자 중 어느 하나를 포함할 수 있으며, 적어도 하나의 필드 데이터는 전화번호 또는 이메일 주소 등과 같은 적어도 하나의 연락처를 포함할 수 있다.
단말 장치(200)의 종류에 따라서, 식별자는 다양하게 정의되어 저장부(250)에 저장될 수 있다. 예를 들어, 특정 단말 장치(200)의 경우, 이름과 성의 순서로 식별자를 정의하여 저장하도록 설계되고, 다른 단말 장치(200)의 경우에는 성과 이름의 순서로 식별자를 정의하여 저장하도록 설계될 수도 있다.
저장부(250)는, 일 실시예에 의하면, 주소록 데이터베이스(251)로부터 획득된 음성 인식용 데이터베이스(151)를 일시적 또는 비일시적으로 저장할 수 있다.
제3 통신부(270)는, 차량용 음성 인식 장치(100)의 제1 통신부(170)와 통신 가능하게 마련된다. 제3 통신부(270)는, 필요에 따라 안테나, 통신 칩 및 관련 부품을 포함할 수 있다.
제3 통신부(270)는, 외부의 단말 장치(3)로부터 제4 통신부(280)를 통해 전송된 음성 신호를 차량용 음성 인식 장치(100)로 전송하거나, 및/또는 차량용 음성 인식 장치(100)로부터 전송되는 음성 신호를 수신함으로써, 차량용 음성 인식 장치(100)와 외부의 단말 장치(3) 간의 통화가 가능하도록 할 수 있다.
제3 통신부(270)는, 근거리 무선 통신을 수행할 수 있는 통신 모듈을 이용하여 구현 가능하다. 근거리 무선 통신을 수행할 수 있는 통신 모듈은 블루투스, 저전력 블루투스, 와이파이, 와이파이 다이렉트, 캔 통신, 지그비 및 엔에프씨 중 적어도 하나를 이용하여 통신을 수행할 수 있도록 제작된 것일 수 있다.
제4 통신부(280)는, 외부의 단말 장치(3)와 직접 또는 별도의 서버 장치를 경유하여 통신을 수행할 수 있도록 마련된다. 제4 통신부(280)는 적어도 하나의 통신 칩, 안테나, 기판 또는 관련 부품을 이용하여 구현된다.
제4 통신부(280)는, 일 실시예에 따르면, 이동 통신 기술을 이용하여 외부의 단말 장치(3)와 통신을 수행하도록 마련된 것일 수 있다. 예를 들어, 제4 통신부(280)는 3GPP, 3GPP2 또는 와이맥스 계열 등의 이동 통신 표준을 기반으로 제작된 통신 모듈 및 프로그램을 이용하여 외부의 단말 장치(3)와 상호 통신을 수행할 수 있다.
단말 장치(200)는 필요에 따라 사용자로부터 명령을 수신하거나 또는 사용자에게 각종 정보를 제공할 수 있도록 마련된 사용자 인터페이스를 더 포함할 수 있다. 사용자 인터페이스는 디스플레이 패널로 구현 가능한 표시부와, 터치스크린이나, 각종 물리 버튼이나, 스피커 장치나, 또는 각종 센서로 구현 가능한 입력부를 포함할 수 있다. 사용자는 단말 장치(200)에 마련된 물리 버튼이나 터치 스크린 등을 조작하여, 식별자 또는 식별자에 대응하는 연락처를 단말 장치(200)에 직접 입력할 수도 있다.
외부의 단말 장치(3)는, 소정의 통신 모듈을 이용하여 차량용 음성 인식 장치(100) 및 단말 장치(200) 중 적어도 하나와 통신 가능하게 마련된다. 이들(3, 100, 200) 간의 통신에 의하여, 외부의 단말 장치(3)의 사용자는, 외부의 단말 장치(3)를 이용하여, 차량용 통화 장치(100) 및 단말 장치(200) 중 적어도 하나의 사용자와 통화 가능하게 된다.
외부의 단말 장치(3)는, 예를 들어, 셀룰러폰, 스마트폰, 태블릿 피씨, 데스크톱 컴퓨터, 랩톱 컴퓨터, 내비게이션 장치, 휴대용 게임기, 개인용 디지털 어시스턴트 및 스마트 안경, 스마트 반지 또는 스마트 시계와 같은 웨어러블 디바이스 중 적어도 하나로 구현될 수 있다. 그러나, 외부의 단말 장치(3)는 이들에 한정되는 것은 아니며, 이들 이외에도 차량용 음성 인식 장치(100) 및 단말 장치(200) 중 적어도 하나와 통신 가능한 장치가 외부의 단말 장치(3)의 일례가 될 수 있다.
이하 도 2 내지 도 9를 참조하여 프로세서(100)의 동작의 일 실시예에 대해 보다 구체적으로 설명하도록 한다.
도 2는 프로세서가 복수의 음성 인식용 데이터베이스를 생성하는 동작의 일례를 설명하기 위한 제1 도이고, 도 3은 프로세서가 복수의 음성 인식용 데이터베이스를 생성하는 동작의 일례를 설명하기 위한 제2 도이다.
도 2에 도시된 바를 참조하면, 프로세서(110)는 단말 장치(100)로부터 주소록 데이터베이스(251)를 전달받고, 주소록 데이터베이스(250)로부터 복수의 음성 인식용 데이터베이스(150: 151-1, 151-2, ... 151-n)를 생성할 수 있다(111).
주소록 데이터베이스(250)는 특정인을 식별하기 위한 성, 이름, 별명, 칭호, 직급 및 직책 등 중 적어도 하나와, 이에 대응하는 필드 데이터, 일례로 전화 번호나 이메일 주소 등을 데이터의 형태로 저장하고 있을 수 있다. 프로세서(110)는, 주소록 데이터베이스(250)의 성, 이름, 별명, 칭호, 직급 및 직책 중 어느 하나를 단독적으로 분리하거나, 성, 이름, 별명, 칭호, 직급 및 직책 중 적어도 둘을 다양한 순서로 조합하고, 분리 및 조합 결과에 대해 대응하는 필드 데이터를 할당하여 음성 인식용 데이터베이스(150: 151-1, 151-2, ... 151-n)를 생성한다.
예를 들어, 프로세서(110)는 도 3에 도시된 바와 같이 주소록 데이터베이스(250)의 각각의 레코드(E11, E12, E13)를 독출하고, 독출된 각각의 레코드(E11, E12, E13)에 저장된 성과 이름을, 이름 및 성의 순서로 조합하고, 이름 및 성의 조합을 이용하여 제1 음성 인식용 데이터베이스(151-1)를 구축 및 생성할 수 있다. 이 경우, 제1 음성 인식용 데이터베이스(151-1)는 이름 및 성의 조합을 포함하는 적어도 하나의 레코드(E21)를 포함할 수 있다.
또한, 프로세서(110)는, 독출된 각각의 레코드(E11, E12, E13)에 저장된 성과 이름을 상술한 바와 반대로 성 및 이름의 순서로 조합하여 성 및 이름의 순차적 조합을 포함하는 적어도 하나를 레코드(E22)를 생성함으로써, 제2 음성 인식용 데이터베이스(151-2)를 구축할 수 있다.
이와 같이 프로세서(110)가 성 및 이름이 반대 순서로 조합된 제2 음성 인식용 데이터베이스(151-2)를 구축하는 경우, 단말 장치(200)와 차량용 음성 인식 장치(100) 사이의 통신 오류에 기인하여 성과 이름이 반대로 전달된 경우나, 또는 사용자의 언어 사용 습관에 따라서 성과 이름을 통상적인 경우와 반대의 순서로 발화하는 경우에도 사용자의 음성을 상대적으로 적절하고 정확하게 인식할 수 있게 된다.
또한, 프로세서(110)는 제3 음성 인식용 데이터베이스(151-3)를 더 구축할 수도 있다. 이 경우, 프로세서(110)는, 독출된 각각의 레코드(E11, E12, E13)에서 성 및 이름 중 적어도 하나를 분리하여 추출하고, 추출된 성 및 이름 중 적어도 하나를 저장함으로써 제3 음성 인식용 데이터베이스(151-3)를 구축할 수 있다.
예를 들어, 제3 음성 인식용 데이터베이스(151-3)는, 성만을 포함하는 레코드(E23)와, 이름만을 포함하는 적어도 하나를 레코드(E24) 중 어느 하나만을 포함할 수도 있다. 또한, 다른 예를 들어, 제3 음성 인식용 데이터베이스(151-3)는, 도 3에 도시된 바와 같이, 성과 성에 대응하는 필드 데이터를 포함하는 레코드(E23)와, 이름과 이름에 대응하는 필드 데이터를 포함하는 적어도 하나를 레코드(E24) 양자 모두를 포함하여 구축될 수도 있다.
또한, 프로세서(110)는 사용자의 사용 빈도가 높은 단음절의 단어(들), 예를 들어, 맘(Mom)이나 대드(Dad) 등을 포함하는 제4 음성 인식용 데이터베이스(151-4)를 더 구축할 수도 있다.
예를 들어, 프로세서(110)는 사용자의 사용 빈도가 높은 단음절의 단어(들)을 생성하여 제4 음성 인식용 데이터베이스(151-4)를 구축하여 생성할 수도 있고, 및/또는 주소록 데이터베이스(251)의 각각의 레코드(E11, E12, E13)에서 단음절의 단어, 일례로 맘(Mom)를 추출하여 제4 음성 인식용 데이터베이스(151-4)를 구축하여 생성할 수도 있다.
또한, 프로세서(110)는 특이한 발음을 가진 단어(들)로 이루어진 제5 음성 인식용 데이터베이스(151-5)를 더 생성 및 구축할 수도 있다.
예를 들어, 프로세서(110)는, 영어나 불어와는 상이한 발음을 갖는 다른 언어, 예를 들어 스페인어나 포르투갈어를 보다 정확하게 인식하기 위하여, 특정한 언어 발음에 의해 인식 가능한 식별자, 일례로 스페인어 이름이나 성과, 이와 같은 식별자에 대응하는 필드 데이터, 일례로 연락처를 포함하는 적어도 하나의 레코드(E26)를 생성함으로써, 생성된 레코드(E26)를 기반으로 제5 음성 인식용 데이터베이스(151-5)를 구축할 수 있다.
실시예에 따라서, 필요에 따라서, 프로세서(110)는 이름 및 성의 순차적 조합, 성과 이름의 순차적인 조합, 성, 이름, 단음절의 단어 또는 특이한 발음의 단어에 대응하는 필드 데이터, 일례로 전화 번호 등과 같은 연락처를 더 추가하여 제1 음성 인식용 데이터베이스 내지 제5 음성 인식용 데이터베이스(151-1 내지 151-5)를 구축 및 생성하는 것도 가능하다.
프로세서(110)는, 실시예에 따라서, 상술한 제1 음성 인식용 데이터베이스 내지 제5 음성 인식용 데이터베이스(151-1, 151-2, ... , 151-n) 모두를 생성할 수도 있고, 또는 이들 음성 인식용 데이터베이스(151-1, 151-2, ... , 151-n) 중 일부만을 생성할 수도 있다. 또한, 프로세서(110)는, 설계자의 필요에 따라서, 다른 음성 인식용 데이터베이스(미도시)를 더 생성 및 구축할 수도 있다.
프로세서(110)에 의해 생성된 제1 음성 인식용 데이터베이스 내지 제5 음성 인식용 데이터베이스(151-1, 151-2, ... , 151-n)는 저장부(150)에 저장된다.
도 4는 프로세서의 동작의 일례를 설명하기 위한 도면이다.
상술한 바와 같이 적어도 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ... , 151-n)가 생성된 이후, 사용자는 차량(2) 내에서 발화를 할 수 있다. 이 경우, 사용자는 통화를 하고자 하는 사람의 성을 발화할 수도 있고, 이름을 발화할 수도 있으며, 성과 이름의 조합을 발화할 수도 있다. 또한, 사용자와의 관계를 나타내는 단어, 일례로 어머니나, 직책 등을 발화할 수도 있다. 뿐만 아니라, 사용자는 사용 언어에 따라서 영어나 불어 등과는 상이한 발음 체계로 사람의 성이나 이름을 발화할 수도 있다.
음향 수신부(195)는, 사용자의 음성을 포함하는 음향을 수신하고 수신한 음향을 대응하는 전기적 신호로 변환하여 프로세서(110)로 전달할 수 있다. 프로세서(110)는 전달된 전기적 신호를 기초로 음성 인식을 수행할 수 있다(120).
일 실시예에 의하면, 프로세서(110)는 음향 수신부(195)가 수신한 음향으로부터 사용자의 음성 부분을 추출하고, 추출된 음성 부분으로부터 음성에 대응하는 특징을 특징 벡터의 형태로 추출하는 과정을 수행할 수 있다. 프로세서(110)는 소정의 음향 모델을 이용하여 추출된 특징에 대응하는 패턴을 결정하는 과정을 더 수행할 수도 있다. 또한, 프로세서(110)는 언어 모델을 이용하여 추출된 특징에 대응하는 패턴을 이용하여 언어 처리 과정을 더 수행하는 것도 가능하다.
프로세서(110)는, 저장부(150)를 열람하여 저장부(150)에 저장된 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)를 호출하고, 저장된 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)의 각각의 요소들과, 추출 및 결정된 특징, 패턴 및 언어 처리 결과 중 적어도 하나와 비교할 수 있다. 이에 따라 프로세서(110)는, 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 사용자가 발화한 음성에 대응하는 적어도 하나의 요소, 일례로 성, 이름, 성과 이름의 조합, 단음절 단어 또는 특이 발음의 단어 등과 같이 저장된 식별자를 검출할 수 있다(121). 이 경우, 프로세서(110)는 인식된 음성에 대응하는 식별자, 예를 들어, 성 또는 이름 등을 검출함으로써, 사용자가 발화한 음성에 대응하는 적어도 하나의 요소를 검출하도록 설계된 것일 수도 있다.
프로세서(110)는, 복수의 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)를 미리 정의된 설정에 따라 순차적으로 열람하여, 사용자가 발화한 음성에 대응하는 적어도 하나의 요소를 적어도 하나의 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 검출할 수 있다.
일 실시예에 의하면, 프로세서(110)는, 제1 음성 인식용 데이터베이스 내지 제n 음성 인식용 데이터베이스(151-1, 151-2, ..., 151-n)를 순차적으로 열람할 수도 있다. 예를 들어, 프로세서(110)는 식별자가 이름과 성의 순서로 조합되어 마련된 제1 음성 인식용 데이터베이스(151-1)를 열람하고, 식별자가 성 및 이름의 순서로 조합되어 마련된 제2 음성 인식용 데이터베이스(151-2)를 검색하고, 이어서 식별자가 성 또는 이름 각각으로 정의된 제3 음성 인식용 데이터베이스(151-3)을 검색하여, 각각의 음성 인식용 데이터베이스(151-1 내지 151-3)으로부터 적어도 하나의 요소를 검출할 수도 있다.
적어도 하나의 요소가 검출된 경우, 검출된 적어도 하나의 요소가 어느 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)에서 검출되었는지 여부를 판단할 수 있도록, 검출된 적어도 하나의 요소에는 출처를 나타내기 위한 메타 데이터가 더 부가될 수도 있다.
일 실시예에 의하면, 프로세서(110)는, 신뢰도를 기반으로 복수의 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 적어도 하나의 요소를 검출할 수도 있다. 예를 들어, 프로세서(110)는 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n) 각각의 레코드와, 특징 또는 패턴을 비교하고, 비교 결과에 대응하는 신뢰도가 미리 정의된 기준 값 이상인 적어도 하나의 레코드를 추출함으로써, 적어도 하나의 요소를 검출할 수 있다.
프로세서(110)는, 어느 하나의 요소가 검출되면, 이에 응하여 검출된 요소에 대응하는 필드 데이터, 예를 들어, 전화 번호와 같은 연락처를 검출하고, 이에 따라 연락처 정보(이하 연락처 정보)를 획득할 수 있다. 연락처 정보는 식별자 및 연락처를 포함할 수 있다.
도 5는 표시부에 표시되는 화면의 일례를 도시한 도면이다.
적어도 하나의 요소가 검색되어 획득되고, 검색된 요소에 대응하는 연락처가 획득되면, 프로세서(110)는 사용자 인터페이스(190)의 표시부(191)를 제어하여 표시부(191)가 검색 결과를 표시하도록 할 수 있다(122). 표시부(191)는 검출된 요소에 대응하는 복수의 연락처 정보(192d, 192e), 일례로 검출된 레코드의 식별자와 대응하는 연락처를 함께 화면(192b)에 표시할 수 있다.
도 5에 도시된 바와 같이, 표시부(151)는 오디오 비디오 내비게이션 장치(192)를 이용하여 구현될 수 있다. 이 경우, 오디오 비디오 내비게이션 장치(192)는 소정의 디스플레이 패널(192a)을 이용하여 구현될 수 있다.
소정의 디스플레이 패널(192a)은, 프로세서(110)의 검색 결과를 나타내기 위해 디자인된 화면(192b)을 표시할 수 있다. 소정의 화면(192b)에는 프로세서(110)의 검색 동작에 따른 연락처 정보(192)가 하나 이상 표시될 수 있다. 연락처 정보(192)는, 식별자, 일례로 이름, 성, 성과 이름의 순차적 조합, 이름과 성의 순차적 조합, 단음절 단어 또는 기타 식별을 위해 이용되는 각종 단어와, 식별자에 대응하는 필드 데이터, 일례로 전화 번호를 포함할 수 있다.
일 실시예에 의하면, 도 5에 도시된 바와 같이, 화면(192b) 상에는 검색 결과에 따른 복수의 연락처 정보(192d, 192e), 일례로 복수의 식별자 및 복수의 식별자 각각에 대응하는 복수의 필드 데이터가 동시에 표시될 수 있다. 이 경우, 복수의 연락처 정보(192d, 192e)는 연락처 정보의 표시 순서에 따라 화면(192b) 상에 표시될 수 있다. 연락처 정보의 표시 순서는, 예를 들어, 각각의 복수의 연락처 정보(192d, 192e)에 대응하는 요소의 신뢰도에 따라서 결정된 것일 수 있다. 예를 들어, 대응하는 요소의 신뢰도가 높은 연락처 정보(192d)는 상대적으로 상단 방향에 표시되고, 대응하는 요소의 신뢰도가 낮은 연락처 정보(192e)는 상대적으로 하단 방향에 표시될 수 있다.
다른 실시예에 의하면, 화면(192b) 상에는 복수의 연락처 정보 중 어느 하나의 연락처 정보 만이 표시될 수도 있다. 만약 프로세서(110)에 의해 복수의 복수의 연락처 정보가 획득된 경우라면, 각각의 연락처 정보는 사용자의 조작이나 또는 미리 정의된 설정에 따라서 순차적으로 표시될 수도 있다. 예를 들어, 각각의 연락처 정보는 시간의 경과에 따라 변경되어 표시될 수 있다. 이 경우, 각각의 연락처 정보는, 연락처 정보에 대응하는 요소의 신뢰도에 따라서 소정의 연락처 정보의 표시 순서에 따라 표시될 수 있다. 예를 들어, 대응하는 요소의 신뢰도가 높은 연락처 정보는 상대적으로 선행하여 표시되고, 대응하는 신뢰도가 낮은 연락처 정보는 상대적으로 후행하여 표시될 수 있다.
사용자는, 물리 버튼을 가압하여 조작하거나 터치스크린에 터치 조작을 인가하는 등의 방법으로 입력부(193)를 조작하여, 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보를 선택할 수 있다. 예를 들어, 사용자는 복수의 연락처 정보 중에서 사용자가 통화를 의도하는 어느 하나의 연락처 정보, 일례로 도 5의 강원(192d) 등을 선택할 수 있다. 선택 결과는 프로세서(110)로 전달되고, 프로세서(110)는 선택 결과를 수신한다(123).
프로세서(110)는, 복수의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n) 중에서 선택 결과에 대응하는 적어도 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)를 검출한다(124).
일 실시예에 의하면, 프로세서(110)는, 사용자에 의해 선택된 연락처 정보에 대응하는 요소가 검출되었던 적어도 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)를 검출함으로써, 선택 결과에 대응하는 적어도 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)를 검출할 수 있다. 예를 들어, 사용자가 도 5의 강원(192d)을 선택한 경우, 프로세서(110)는, 복수의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n) 중에서 강원(192)이 검출된 음성 인식용 데이터베이스, 일례로 제2 음성 인식용 데이터베이스(151-2)를 검출할 수 있다.
어느 하나의 데이터베이스(151-2)의 검출 결과는, 저장부(150)에 저장될 수 있다(125).
도 6은 프로세서에 의해 선택 결과에 대응하는 음성 인식용 데이터베이스에 대한 정보를 저장하는 일례를 도시한 도면이고, 도 7은 저장부에 저장된 복수의 데이터베이스에 대한 가중치의 일례를 도시한 도면이다.
프로세서(110)는, 도 6에 도시된 바와 같이, 어느 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)가 검출된 경우(125-1), 어느 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)에 대한 메타 데이터, 일례로 가중치를 수정하여 저장할 수 있다. 이 경우, 가중치는 어느 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)의 검출 빈도를 포함할 수 있다.
예를 들어, 프로세서(110)는 제k 음성 인식용 데이터베이스(151-k)에 대응하여 마련된 제k 카운트 변수(Cnt_k)를 수정 및 갱신하도록 마련될 수 있다(125-2). 각각의 카운트 변수(Cnt_1, Cnt_2, ..., Cnt_k)는 어느 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)의 검출 빈도에 대응하여 증가하도록 마련된다. 이에 따라 프로세서(110)는 어느 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)의 검출 빈도를 수정 및 갱신하여 저장할 수 있다.
예를 들어, 프로세서(110)는, 복수의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n) 중 어느 하나의 음성 인식용 데이터베이스, 일례로 제2 음성 인식용 데이터베이스(151-2)가 검출된 경우, 제2 음성 인식용 데이터베이스(151-2)에 대응하는 카운트 변수, 즉 제2 카운트 변수(Cnt_2)를 호출하고, 제2 카운트 변수(Cnt_2)에 1을 부가하여 제2 카운트 변수(Cnt_2)를 갱신하고, 갱신된 제2 카운트 변수(Cnt_2)를 저장부(150)에 저장시킬 수 있다.
이와 같이 카운트 변수(Cnt_k)의 갱신 및 저장은, 어느 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)가 검출될 때마다 수행될 수 있다.
이에 따라 도 7에 도시된 바와 같이, 복수의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n) 각각에 대응하는 검출 빈도, 즉 검출 횟수(152: 152-1, 152-2, ..., 152-n)가 저장부(150)에 저장될 수 있다. 도 7의 표에서 좌측은 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)를 나타내고, 우측은 각각의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)의 카운트 변수(Cnt_k)를 의미한다.
복수의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)에 대응하는 검출 빈도(152: 152-1, 152-2, ..., 152-n)는, 각각의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)로부터 적어도 하나의 요소를 검출하는 경우에 이용될 수 있다.
도 8은 프로세서에 의해 보정된 신뢰도를 기반으로 검색 결과가 표시되는 과정의 일례를 도시한 도면이다.
도 8에 도시된 바를 참조하면, 프로세서(110)는, 음성 인식 동작의 개시에 응하여, 음향 수신부(195)로부터 전달된 음향으로부터 음성 부분을 추출하여 음성 인식을 수행하고(130), 저장부(150)에 저장된 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 음성에 대응하는 요소를 검색하여 획득할 수 있다(131).
프로세서(110)는, 상술한 가중치, 일례로 카운트 변수(Cnt_k)를 이용하여, 각각의 요소에 대한 신뢰도를 수정하여 보정된 신뢰도를 획득하고, 보정된 신뢰도를 기초로 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 수신된 음성에 대응되는 요소를 검출할 수 있다.
일 실시예에 의하면, 프로세서(110)는 적어도 하나의 카운트 변수(Cnt_k)에 기록된 수치가 미리 정의된 제1 기준 값을 초과하거나, 또는 카운트 변수(Cnt_k)에 기록된 수치들의 총합(∑ Cnt_k)이 미리 정의된 제2 기준 값을 초과하는 경우에 한하여, 상술한 가중치, 일례로 카운트 변수(Cnt_k)를 이용하여, 각각의 요소에 대한 신뢰도를 수정하여 보정된 신뢰도를 획득할 수도 있다. 제1 기준 값 및 제2 기준 값 중 적어도 하나는 사용자 또는 설계자에 의해 임의적으로 정의 가능하다. 제1 기준 값 및 제2 기준 값 중 적어도 하나는 1을 포함할 수도 있다.
일 실시예에 의하면, 프로세서(110)는 소정의 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)에서 검출되는 적어도 하나의 요소에 대한 보정된 신뢰도를 획득하기 위해 하기의 수학식 1을 이용할 수도 있다.
Figure 112017051371997-pat00001
수학식 1에서 CV^adjusted_k는 제k 음성 인식 데이터베이스(151-k)에서 추출되는 요소에 대한 보정된 신뢰도를 의미하고, CV^measured_k는 제k 음성 인식 데이터베이스(151-k)에서 추출된 어느 하나의 요소에 대해 실제로 연산 또는 측정된 신뢰도를 의미한다. 즉, CV^measured_k는 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n) 각각의 레코드와 특징 또는 패턴의 비교 결과에 대응하는 신뢰도를 포함할 수 있다. 여기서, k는 1보다 크고, 음성 인식 데이터베이스(151)의 총 개수와 같거나 작은 자연수 중 어느 하나이다.
W_1k는 제k 음성 인식 데이터베이스(151-k)에서 추출되는 적어도 하나의 요소에 대한 보정된 신뢰도를 연산하기 위하여, 제k 음성 인식 데이터베이스(151-k)에서 추출 가능한 모든 요소에 부가적으로 적용되는 보정 값을 의미한다.
프로세서(110)는, 수학식 1에 기재된 바와 같이, 연산 또는 측정된 신뢰도(CV^measured_k)에 소정의 보정 값(W_1k)을 반영하여 보정된 신뢰도(CV^adjusted_k)를 획득할 수 있다.
이 경우, 동일한 음성 인식 데이터베이스(151: 151-1, 151-2, ..., 151-n)에서 추출되는 요소들에 대응하는 보정된 신뢰도(CV^adjusted_k)를 획득하기 위하여, 동일한 보정 값(W_11, ..., W_1n)이 이용될 수 있다. 다시 말해서, 동일한 제k 데이터베이스(151-k)에서 획득 가능한 모든 요소들의 보정된 신뢰도는, 각각의 요소들마다 동일하게 적용되는 보정 값(W_1k)과, 각각의 요소마다 개별적으로 측정된 신뢰도(CV^measured_k)를 이용하여 연산 및 획득된다.
일 실시예에 의하면, 보정 값(W1k)은 카운트 변수(Cnt_k) 또는 카운트 변수(Cnt_k)를 일부 변형하여 획득될 수 있다.
예를 들어, 제1 음성 인식 데이터베이스 내지 제n 음성 인식 데이터베이스(151-1 내지 151-n) 각각에 대한 검출 빈도(152: 152-1, 152-2, ..., 152-n)가 도 7에 도시된 바와 같이 저장부(150)에 저장된 경우, 프로세서(110)는 카운트 변수(Cnt_k)에 기록된 값을 설계자에 의해 미리 정의된 수치, 예를 들어 100으로 나누고, 이에 따라 획득된 값에 1을 더함으로써 각각의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)에 대한 보정 값(W_11, ..., W_1n)을 연산할 수 있다.
보정 값(W_11, ..., W_1n)은, 어느 하나의 음성 인식 데이터베이스, 즉 제k 음성 인식 데이터베이스(151-k)에서 추출된 어느 하나의 요소에 대해 실제로 연산 또는 측정된 신뢰도(CV^measured_k)에 가중되고, 이에 따라 프로세서(110)는 제k 음성 인식 데이터베이스(151-k)에서 추출되는 요소에 대한 보정된 신뢰도를 획득할 수 있게 된다.
이와 같은 방법으로 보정된 신뢰도(CV^adjusted_k)를 연산하는 경우, 제k 음성 인식 데이터베이스(151-k)에서 추출되는 요소에 대한 보정된 신뢰도(CV^adjusted_k)는, 제k 음성 인식 데이터베이스(151-k)의 카운트 변수(Cnt_k), 즉 검출 빈도(152-k)의 증가에 비례하여 증가하게 된다.
W_1k는 설계자의 임의적 선택에 따라 다양하게 정의 가능하다. 예를 들어, W_1k는 1을 더 부가하지 않거나, 또는 카운트 변수(Cnt_k)에 대한 제곱근을 연산하는 것 등으로도 정의될 수도 있다.
프로세서(110)는, 신뢰도(CV^measured_k)를 보정하여 획득된 보정된 신뢰도(CV^adjusted_k)를 기초로 요소를 검색한다. 이 경우, 프로세서(110)는, 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 보정된 신뢰도(CV^adjusted_k)가 미리 정의된 기준 값 이상인 적어도 하나의 레코드를 추출함으로써, 적어도 하나의 요소를 검출할 수 있다.
이어서, 프로세서(110)는 사용자 인터페이스(190)의 표시부(191)가 검색 결과를 표시하도록 제어할 수 있다(132). 이 경우, 프로세서(110)는, 표시부(191)가 보정된 신뢰도(CV^adjusted_k)를 기초로 검출된 요소, 일례로 검출된 레코드의 식별자를 화면(192b) 상에 표시하도록 제어할 수 있다. 또한, 프로세서(110)는, 표시부(191)가 보정된 신뢰도(CV^adjusted_k)를 기초로 검출된 요소에 대응하는 필드 데이터를 더 표시하도록 제어할 수도 있다.
표시부(191)는 프로세서(110)의 제어에 따라 동작한다. 예를 들어, 표시부(191)는 보정된 신뢰도(CV^adjusted_k)가 큰 순서에 따라서 복수의 요소에 대응하는 연락처 정보를 상 방향에서 하 방향으로 순차적으로 표시하거나, 또는 보정된 신뢰도(CV^adjusted_k)가 큰 순서에 따라서 복수의 요소 중 적어도 하나를 상대적으로 선행하여 표시할 수도 있다.
사용자는, 물리 버튼을 가압하여 조작하거나 터치스크린에 터치 조작을 인가하는 등의 방법으로 입력부(193)를 조작하여, 적어도 하나의 요소 중 어느 하나의 요소를 선택할 수 있으며, 프로세서(110)는 사용자의 선택 결과에 따라서, 도 6에 도시된 바와 같이 어느 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)에 대한 가중치, 일례로 카운트 변수(Cnt_k)를 수정 및 갱신할 수 있다. 카운트 변수(Cnt_k)의 수정에 대응하여 프로세서(110)에 의해 연산되는 보정된 신뢰도 역시 변경될 수 있다. 이에 따라, 프로세서(110)에 의해 검출되는 요소는 사용자의 선택에 대응하여 변경될 수도 있고, 및/또는 검출된 요소가 이전에 표시되던 순서와는 상이하게 표시부(191)에 표시될 수도 있다.
도 9는 프로세서에 의해 동일 데이터베이스 내의 어느 하나의 레코드의 선택에 따른 결과를 저장하는 과정의 일례를 도시한 도면이다.
일 실시예에 의하면, 프로세서(110)는, 어느 하나의 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)에서 복수의 요소가 검출된 경우, 검출된 복수의 요소 중 사용자에 의해 더 빈번하게 선택되는 요소에 대해 가중치를 더 부여하여 요소를 검색하고, 검색 결과의 표시를 제어할 수도 있다.
구체적으로 도 9에 도시된 바를 참조하면, 프로세서(110)는 음향 수신부(195)로부터 전달된 음향으로부터 음성 부분을 추출하여 음성 인식을 수행하고(140), 저장부(150)에 저장된 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 음성에 대응하는 요소를 검색하여 획득할 수 있다(141). 이 경우, 프로세서(110)는 적어도 하나의 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 복수의 요소를 검색하여 획득할 수 있다.
복수의 요소가 검색되어 획득되면, 프로세서(110)는 사용자 인터페이스(190)의 표시부(191)가 검색 결과를 표시하도록 제어하고(142), 표시부(191)는 검출된 요소를 화면 상에 표시한다.
이어서, 사용자는, 물리 버튼을 가압하여 조작하거나 터치스크린에 터치 조작을 인가하는 등의 방법으로 입력부(193)를 조작하여, 적어도 하나의 요소 중 어느 하나의 요소를 선택하고, 프로세서(110)는 선택 결과를 전기적 신호의 형태로 수신할 수 있다(143).
만약 사용자가 선택한 요소가 검출되었던 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 복수의 요소가 검출된 경우라면(144), 프로세서(110)는 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n) 내의 특정한 요소의 선택 결과를 저장부(150)에 더 저장할 수 있다(145). 다시 말해서, 사용자가 어느 하나의 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 검출된 복수의 요소 중 어느 하나를 선택한 경우라면, 프로세서(110)는 복수의 요소 중 어느 하나의 요소의 선택 결과를 저장부(150)에 더 저장할 수 있다.
특정한 요소의 선택 결과는 특정한 요소의 선택 빈도를 포함할 수 있다. 이 경우, 프로세서(110)는 특정한 요소 각각마다 할당된 소정의 카운트 변수(Cnt_k_i)를 수정함으로써, 특정한 요소의 선택 빈도를 저장부(150)에 저장할 수 있다. 예를 들어, 제k 음성 인식 데이터베이스(151-k)의 제j 요소가 검출된 경우, 프로세서(110)는, 제j 요소에 대응되는 제j 카운트 변수(Cnt_k_j)에 1을 부가하여 수정하고(Cnt_k_j= Cnt_k_j+1), 수정된 제j 카운트 변수(Cnt_k_j)를 저장부(150)에 저장할 수 있다.
제j 카운트 변수(Cnt_k_j)는 특정한 요소에 대한 신뢰도를 보정하기 위한 보정 값으로 이용될 수 있다.
일 실시예에 의하면, 프로세서(110)는 특정한 요소에 대한 보정된 신뢰도를 획득하기 위해 하기의 수학식 2를 이용할 수도 있다.
Figure 112017051371997-pat00002
수학식 2에서 CV^adjusted_k는 제k 음성 인식 데이터베이스(151-k)에서 추출되는 요소에 대한 보정된 신뢰도를 의미하고, CV^measured_k는 제k 음성 인식 데이터베이스(151-k)에서 추출된 어느 하나의 요소에 대해 실제로 연산 또는 측정된 신뢰도를 의미한다. W_1k는 제k 음성 인식 데이터베이스(151-k)에서 추출 가능한 모든 요소에 부가적으로 적용되는 제1 보정 값을 의미한다. 제1 보정 값은 수학식 1의 보정 값과 동일하게 획득 가능하다.
W_2k는 제k 음성 인식 데이터베이스(151-k) 내의 적어도 하나의 요소 각각에 대해 동일하거나 또는 서로 상이하게 부가되는 제2 보정 값을 의미한다. W_2k는 특정 요소, 일례로 제i 요소에 대응되는 카운트 변수(Cnt_k_i) 또는 카운트 변수(Cnt_k_i)를 일부 변형하여 획득될 수 있다. 예를 들어, 프로세서(110)는 카운트 변수(Cnt_k_i)를 설계자에 의해 미리 정의된 수치, 예를 들어 100으로 나눈 후 1을 더하여 특정 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n) 내의 특정한 제i 요소에 대한 보정 값(W_2i)을 연산하여 획득할 수 있다.
제1 보정 값 및 제2 보정 값이 획득되면, 프로세서(110)는 제1 보정 값 및 제2 보정 값을 이용하여 보정된 신뢰도를 연산하여 획득할 수 있다. 이에 따라 동일한 음성 인식 데이터베이스(151: 151-1, 151-2, ..., 151-n)에서 검출된 요소라고 하더라도, 검출된 요소의 신뢰도는 서로 상이하게 보정될 수 있게 된다.
보정된 신뢰도는, 음성 인식용 데이터베이스(151: 151-1, 151-2, ..., 151-n)로부터 적어도 하나의 요소를 검출하는 과정 또는 검출된 적어도 하나의 요소가 표시되는 과정에서 더 이용될 수 있다.
구체적으로, 프로세서(110)는 음성 인식용 데이터베이스(151:151-1, 151-2, ..., 151-n)로부터 수신된 음성에 대응되는 요소를 검색하는 경우, 요소의 검색에 선행하여, 제1 보정 값 및 제2 보정 값을 이용하여 보정된 신뢰도를 획득하고, 보정된 신뢰도가 미리 정의된 기준 값 이상인 적어도 하나의 레코드를 추출함으로써, 적어도 하나의 요소를 검출할 수 있다.
또한, 표시부(191)는 제1 보정 값 및 제2 보정 값을 이용하여 보정된 신뢰도에 따라서, 복수의 요소를 소정의 순서에 따라서 표시할 수도 있다.
이상 차량용 음성 인식 장치(100)에 대해 설명하였으나, 상술한 음성 인식 장치는 오직 차량(2) 이외의 다른 장치에서도 적용 가능될 수 있다. 예를 들어, 상술한 음성 인식 장치는 차량(2) 이외의 다른 기계 장치나 전자 장치에도 설치될 수 있으며, 전자 장치는, 스마트폰이나 태블릿 피씨와 같은 단말 장치나, 각종 오디오 또는 비디오 재생 장치나, 게임기나, 이외 기타 음성 인식이 필요한 여러 장치에 적용될 수도 있다.
이하 도 10 내지 도 12를 참조하여 차량용 음성 인식 장치의 실시예에 대해서 설명하도록 한다.
도 10은 차량용 음성 인식 장치의 제어 방법의 일 실시예에 대한 제1 흐름도이고, 도 11은 차량용 음성 인식 장치의 제어 방법의 일 실시예에 대한 제2 흐름도이다.
도 10에 도시된 바를 참조하면, 먼저 단말 장치와 차량에 설치된 차량용 음성 인식 장치가 서로 페어링되어 통신 가능하게 연결된다(300).
단말 장치와 차량용 음성 인식 장치 간의 페어링에 응하여 차량용 음성 인식 장치는 단말 장치로부터 주소록 데이터베이스를 수신할 수 있다(301).
차량용 음성 인식 장치는 주소록 데이터베이스로부터 복수의 음성 인식용 데이터베이스를 획득할 수 있다(302). 이 경우, 차량용 음성 인식 장치는 주소록 데이터베이스 각각의 레코드를 독출하고, 독출된 각각의 레코드에 저장된 데이터를 이용하여 복수의 음성 인식용 데이터베이스, 예를 들어 제1 음성 인식 데이터베이스 내지 제3 음성 인식 데이터베이스를 생성하여 획득할 수 있다.
예를 들어, 차량용 음성 인식 장치는, 각각의 레코드에 저장된 성과 이름을, 이름 및 성의 순서로 조합하고, 이름 및 성의 조합과 이에 대응하는 필드 데이터를 이용하여 어느 하나의 음성 인식용 데이터베이스를 생성할 수도 있고, 각각의 레코드에 저장된 성과 이름을 성 및 이름의 순서로 조합하고, 성 및 이름의 조합과 이에 대응하는 필드 데이터를 이용하여 다른 하나의 음성 인식용 데이터베이스를 생성하여 구축할 수도 있다. 또한, 차량용 음성 인식 장치는, 각각의 레코드에서 성 및 이름 중 적어도 하나를 개별적으로 획득하고, 획득한 성 및 이름 중 적어도 하나와 이에 대응하는 필드 데이터를 이용하여 또 다른 음성 인식용 데이터베이스를 생성하여 구축할 수도 있다. 뿐만 아니라, 차량용 음성 인식 장치는, 사용자의 사용 빈도가 높은 단음절의 단어와 관련된 음성 인식용 데이터베이스 및 특이한 발음을 가진 단어와 관련된 음성 인식용 데이터베이스를 더 생성하여 구축할 수도 있다. 이외에도 차량용 음성 인식 장치는, 주소록 데이터베이스를 기초로 설계자가 고려 가능한 다양한 음성 인식용 데이터베이스를 더 생성할 수도 있다.
사용자의 조작이나 미리 정의된 설정에 따라서 차량용 음성 인식 장치의 음성 인식 동작을 준비 및 개시한다(303). 사용자는 소정의 단어, 일례로 통화하고자 하는 대상의 성, 이름, 성과 이름의 조합 또는 칭호 등을 발화할 수 있으며, 차량용 음성 인식 장치는 사용자에 의해 발화된 음성을 인식한다.
차량용 음성 인식 장치는 음성의 인식 결과에 따라 상술한 단계 302에서 획득된 복수의 음성 인식용 데이터베이스 중 적어도 하나로부터 인식된 음성에 대응하는 적어도 하나의 요소를 검출한다(304). 인식된 음성에 대응하는 요소는, 성, 이름, 성과 이름의 조합, 단음절의 단어 및 특이한 발음의 단어 중 적어도 하나를 포함한다.
이 경우, 차량용 음성 인식 장치는, 각각의 요소의 신뢰도를 기반으로 적어도 하나의 요소를 검출할 수 있다. 예를 들어, 차량용 음성 인식 장치는 신뢰도가 일정한 기준 값을 초과하는 요소만을 검출할 수 있다.
검출된 적어도 하나의 요소에 대응하는 연락처 정보는 시각적 또는 청각적으로 사용자에게 제공되고, 사용자는, 도 11에 도시된 바와 같이, 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보를 선택할 수 있다(310). 시각적으로 연락처 정보를 표시하는 경우, 연락처 정보는 소정의 연락처 정보의 표시 순서에 따라 표시될 수 있다. 소정의 연락처 정보의 표시 순서는, 연락처 정보에 대응하는 요소의 신뢰도를 기반으로 결정된 것일 수 있다.
사용자가 어느 하나의 연락처 정보를 선택하면, 차량용 음성 인식 장치와 페러링된 단말 장치를 이용하여 선택된 연락처 정보에 대응하는 외부의 단말 장치와 차량용 음성 인식 장치 사이의 통화가 진행된다.
만약 사용자가 선택한 어느 하나의 연락처 정보에 대응하는 어느 하나의 요소가 제1 음성 인식 데이터베이스에서 검출된 것이라면(311의 예), 차량용 음성 인식 장치는 제1 음성 인식 데이터베이스에 대응하는 카운트 변수에 1을 부가하여 카운트 변수를 갱신할 수 있다(312).
만약 사용자가 선택한 어느 하나의 연락처 정보에 대응하는 요소가 제1 음성 인식 데이터베이스에서 검출된 것이 아니고(311의 아니오), 제2 음성 인식 데이터베이스에서 검출된 것이라면(311의 예), 차량용 음성 인식 장치는 제2 음성 인식 데이터베이스에 대응하는 카운트 변수에 1을 부가하여 카운트 변수를 갱신할 수 있다(314).
만약 사용자가 선택한 어느 하나의 연락처 정보에 대응하는 요소가 제1 음성 인식 데이터베이스 및 제2 음성 인식 데이터베이스에서 검출된 것이 아니고(313의 아니오), 제3 음성 인식 데이터베이스에서 검출된 것이라면(315의 예), 차량용 음성 인식 장치는 제3 음성 인식 데이터베이스에 대응하는 카운트 변수에 1을 부가하여 카운트 변수를 갱신할 수 있다(316).
만약 사용자가 선택한 어느 하나의 연락처 정보에 대응하는 요소가 제1 음성 인식 데이터베이스 내지 제3 음성 인식 데이터베이스에서 검출된 것이 아니라면(315의 아니오), 차량용 음성 인식 장치는 미리 정의된 설정에 따라서 소정의 동작을 수행할 수 있다.
예를 들어, 차량용 음성 인식 장치는 클락을 이용하여 경과 시간을 판단하고 경과 시간이 미리 정의된 시간을 초과한다면(318의 예), 사용자의 선택에 오류가 존재한다고 판단하고, 사용자의 선택을 취소하고, 음성 인식 과정 및 통화 설정 과정을 중단할 수도 있다(318).
만약 경과 시간이 미리 정의된 시간을 초과하지 않았다면(317의 아니오), 차량용 음성 인식 장치는 사용자의 선택이 입력될 때까지 대기하거나(310), 또는 복수의 음성 인식용 데이터베이스 중 적어도 하나로부터 인식된 음성에 대응하는 적어도 하나의 요소를 재검출하고, 사용자의 선택을 기다릴 수도 있다(304).
복수의 음성 인식용 데이터베이스 중 적어도 하나에 대한 카운트가 갱신되면(312, 314, 316), 차량용 음성 인식 장치는 카운트 변수에 기록된 값을 신뢰도에 반영할지 여부를 결정할 수 있다(319).
카운트 변수에 기록된 값을 신뢰도에 반영할지 여부는 미리 정의된 설정이나 사용자의 선택에 따라 결정될 수 있다. 예를 들어, 어느 하나의 카운트 변수에 기록된 값이 미리 정의된 제1 기준 값을 초과하거나 또는 카운트 변수에 기록된 수치들의 총합이 미리 정의된 제2 기준 값을 초과하는 경우, 차량용 음성 인식 장치는 카운트 변수를 신뢰도에 반영할 것으로 결정하고(319의 예), 반대로 어느 하나의 카운트 변수에 기록된 값이 미리 정의된 제1 기준 값보다 작거나 또는 카운트 변수에 기록된 수치들의 총합이 미리 정의된 제2 기준 값보다 작다면 카운트 변수를 신뢰도에 반영하지 않는 것으로 결정할 수 있다(319의 아니오).
만약 카운트 변수를 신뢰도에 반영하는 것으로 결정되는 경우, 차량용 음성 인식 장치는 카운트 변수를 이용하여 신뢰도를 보정하여 보정된 신뢰도를 연산할 수 있다(320).
이 경우, 차량용 음성 인식 장치는 수학식 1를 참조하여 설명한 바와 같이 카운트 변수에 기록된 값을 이용하여 소정의 보정 값을 연산하고, 연산된 보정 값을 신뢰도에 가중하여 보정된 신뢰도를 획득할 수 있다. 소정의 보정 값은, 예를 들어, 카운트 변수에 기록된 값을 설계자에 의해 미리 정의된 수치로 나누고, 이에 따라 획득된 값에 미리 정의된 다른 수치를 더함으로써 정의될 수 있다.
이후 다시 음성 인식이 개시되면(321), 차량용 음성 인식 장치는 음성의 인식 결과에 따라 상술한 단계 302에서 획득된 복수의 음성 인식용 데이터베이스 중 적어도 하나로부터 인식된 음성에 대응하는 적어도 하나의 요소를 검출하고, 검출된 요소에 대응하는 연락처 정보가 표시되고, 표시된 연락처 정보 중 어느 하나의 연락처 정보가 선택되며(310), 이에 따라 연락처 정보를 기초로 한 통화 및 각각의 카운트 값의 갱신(311 내지 318)이 수행되게 된다.
도 12는 차량용 음성 인식 장치의 제어 방법의 일 실시예에 대한 제3 흐름도이다.
도 10에 도시된 바를 참조하면, 음성 인식이 개시되면(330), 복수의 음성 인식용 데이터베이스에서 인식된 음성에 대응하는 요소가 검출된다(300). 이 경우, 하나의 음성 인식용 데이터베이스에서 복수의 요소가 검출될 수도 있다.
여기서 복수의 음성 인식용 데이터베이스는, 상술한 바와 같이, 차량용 음성 인식 장치와 페어링되는 적어도 하나의 단말 장치의 주소록 데이터베이스를 이용하여 획득된 것일 수 있다.
인식된 음성에 대응하는 요소는, 성, 이름, 성과 이름의 조합, 단음절의 단어 및 특이한 발음의 단어 중 적어도 하나를 포함한다.
요소의 검출은 각각의 요소의 신뢰도를 기반으로 수행될 수 있다. 예를 들어, 신뢰도가 일정한 기준 값을 초과하는 요소만이 검출될 수 있다.
검출된 적어도 하나의 요소에 대응하는 연락처 정보가 결정되고, 결정된 연락처 정보는 시각적 또는 청각적으로 사용자에게 제공될 수 있다(332). 만약 시각적으로 연락처 정보를 표시하는 경우, 복수의 연락처 정보는 연락처 정보의 표시 순서에 따라 표시될 수 있다. 연락처 정보의 표시 순서는, 연락처 정보에 대응하는 요소의 신뢰도를 기반으로 결정된 것일 수 있다.
예를 들어, 만약 동일한 데이터베이스에서 복수의 요소, 일례로 제1 요소 및 제2 요소가 검출되고, 사용자가 복수의 요소 중 제1 요소를 선택한 경우라면(344의 예), 제1 요소에 대응하는 카운트 변수가 갱신된다(335).
만약 사용자가 복수의 요소 중 제1 요소를 선택한 경우라면(344의 예), 제1 요소에 대응하는 카운트가 갱신된다(335). 만약 사용자가제 제1 요소를 선택하지 않고 제2 요소를 선택한 경우라면(334의 아니오, 336), 제2 요소에 대응하는 카운트 변수가 갱신된다(337).
도 12에는 동일한 데이터베이스에서 요소가 두 개가 검출된 일례에 대해 도시되어 있으나, 이는 동일하게 또는 일부 변형을 거쳐 요소가 셋 이상 검출된 일례에서도 적용 가능하다.
복수의 음성 인식용 데이터베이스 중 적어도 하나에 대한 카운트가 갱신되면(335, 337), 차량용 음성 인식 장치는 카운트 변수에 기록된 값을 신뢰도에 반영할지 여부를 결정할 수 있다(338).
카운트 변수에 기록된 값을 신뢰도에 반영할지 여부는 미리 정의된 설정이나 사용자의 선택에 따라 결정될 수 있다. 예를 들어, 어느 하나의 카운트 변수에 기록된 값이 미리 정의된 제1 기준 값을 초과하거나 또는 카운트 변수에 기록된 수치들의 총합이 미리 정의된 제2 기준 값을 초과하는 경우, 차량용 음성 인식 장치는 카운트 변수를 신뢰도에 반영할 것으로 결정하고(338의 예), 반대로 어느 하나의 카운트 변수에 기록된 값이 미리 정의된 제1 기준 값보다 작거나 또는 카운트 변수에 기록된 수치들의 총합이 미리 정의된 제2 기준 값보다 작다면 카운트 변수를 신뢰도에 반영하지 않는 것으로 결정할 수 있다(338의 아니오).
만약 카운트 변수를 신뢰도에 반영하는 것으로 결정되는 경우, 차량용 음성 인식 장치는 카운트 변수를 이용하여 신뢰도를 보정하여 보정된 신뢰도를 연산 및 갱신할 수 있다(339). 이 경우, 상술한 수학식 2가 이용 가능하다.
신뢰도가 갱신되면, 갱신된 신뢰도는 복수의 음성 인식용 데이터베이스에서 인식된 음성에 대응하는 요소 검출을 위해 이용되거나(331) 및/또는 검출된 요소에 대응한 연락처 정보를 표시하는 순서를 결정하기 위해 이용될 수 있다(332).
상술한 차량용 음성 인식 장치의 제어 방법은, 동일하거나 또는 일부 변형을 거쳐 차량의 제어 방법에도 적용 가능하다.
상술한 실시예에 따른 차량용 음성 인식 장치의 제어 방법 및 차량의 제어 방법은, 다양한 컴퓨터 장치에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다. 여기서 프로그램은, 프로그램 명령, 데이터 파일 및 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 프로그램은 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 차량의 제어 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다.
차량용 음성 인식 장치의 제어 방법 및 차량의 제어 방법을 구현하기 위한 프로그램은, 컴퓨터에 의해 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터에 의해 판독 가능한 기록 매체는, 예를 들어, 하드 디스크나 플로피 디스크와 같은 자기 디스크 저장 매체, 자기 테이프, 컴팩트 디스크(CD)나 디브이디(DVD)와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 기록 매체(magneto-optical media) 및 롬(ROM), 램(RAM) 또는 플래시 메모리 등과 같은 반도체 저장 장치 등 컴퓨터 등의 호출에 따라 실행되는 특정 프로그램을 저장 가능한 다양한 종류의 하드웨어 장치를 포함할 수 있다.
이상 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법의 적어도 하나의 실시예에 대해 설명하였으나, 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법은 오직 상술한 실시예에 한정되는 것은 아니다. 해당 기술 분야에서 통상의 지식을 가진 자가 상술한 실시예를 기초로 수정 및 변형하여 구현 가능한 다양한 실시예 역시 상술한 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법의 일례가 될 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성 요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나 다른 구성 요소 또는 균등물에 의하여 대치되거나 또는 치환되더라도 상술한 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법과 동일하거나 유사한 결과를 획득할 수 있다.
1: 차량용 음성 인식 시스템 2: 차량용 음성 인식 장치
100: 차량 110: 프로세서
150: 저장부
151-1,... ,151-N: 음성 인식용 데이터베이스
170: 제1 통신부 180: 음향 수신부
185: 제2 통신부 190: 사용자 인터페이스
200: 단말 장치 210: 프로세서
250: 저장부 251: 주소록 데이터베이스
270: 제3 통신부 280: 제4 통신부

Claims (22)

  1. 단말 장치로부터 전달된 주소록 데이터베이스를 기초로 획득된 복수의 음성 인식용 데이터베이스가 저장되는 저장부;
    적어도 하나의 요소를 상기 복수의 음성 인식용 데이터베이스로부터 검출하고, 상기 요소에 대응하는 연락처 정보의 표시 순서를 결정하는 프로세서; 및
    상기 요소에 대응하는 연락처 정보를 상기 표시 순서에 따라서 표시하고, 상기 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보에 대한 사용자의 선택 명령을 수신하는 사용자 인터페이스;를 포함하되,
    상기 프로세서는, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스를 검출하고, 상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 차량용 음성 인식 장치.
  2. 제1항에 있어서,
    사용자의 음성을 수신하고, 음향 신호를 출력하는 음향 수신부;를 더 포함하고,
    상기 프로세서는, 상기 음향 신호로부터 음성 인식을 수행하여 상기 복수의 음성 인식용 데이터베이스로부터 사용자의 음성에 대응하는 적어도 하나의 요소를 검출하는 차량용 음성 인식 장치.
  3. 제2항에 있어서,
    상기 프로세서는, 상기 적어도 하나의 요소 각각에 대한 신뢰도를 더 검출하는 차량용 음성 인식 장치.
  4. 제3항에 있어서,
    상기 프로세서는, 상기 복수의 음성 인식용 데이터베이스의 검출 빈도에 대응하여 상기 적어도 하나의 요소 각각에 대한 신뢰도를 수정하여 보정된 신뢰도를 획득하는 차량용 음성 인식 장치.
  5. 제3항에 있어서,
    상기 프로세서는, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스가 검출되면, 검출된 음성 인식용 데이터베이스에 대응하는 카운트를 증가시켜 갱신하는 차량용 음성 인식 장치.
  6. 제5항에 있어서,
    상기 프로세서는, 상기 각각의 요소에 대한 신뢰도 및 검출된 음성 인식용 데이터베이스에 대응하는 카운트를 이용하여 상기 적어도 하나의 요소 각각에 대한 보정된 신뢰도를 결정하는 차량용 음성 인식 장치.
  7. 제6항에 있어서,
    상기 프로세서는, 상기 적어도 하나의 요소 각각에 대한 보정된 신뢰도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 차량용 음성 인식 장치.
  8. 제1항에 있어서,
    상기 프로세서는, 동일한 음성 인식용 데이터베이스 내의 복수의 요소 각각에 대한 선택 빈도를 더 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 차량용 음성 인식 장치.
  9. 제1항에 있어서,
    상기 프로세서는, 상기 단말 장치를 이용하여, 상기 선택된 연락처 정보에 대응하는 외부의 단말 장치와 통화를 수행하는 차량용 음성 인식 장치.
  10. 제1항에 있어서,
    상기 요소는, 성, 이름, 성과 이름의 순차적 조합, 이름과 성의 순차적 조합, 단음절 단어 및 특이 발음의 단어 중 적어도 하나를 포함하는 차량용 음성 인식 장치.
  11. 단말 장치로부터 전달된 주소록 데이터베이스가 전달되는 단계;
    상기 주소록 데이터베이스를 기초로 복수의 음성 인식용 데이터베이스가 획득되는 단계;
    상기 복수의 음성 인식용 데이터베이스로부터 적어도 하나의 요소를 검출하는 단계;
    상기 적어도 하나의 요소에 대응하는 연락처 정보를 연락처 정보의 표시 순서를 기초로 표시하는 단계;
    상기 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보에 대한 사용자의 선택 명령을 수신하는 단계;
    상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스를 검출하는 단계;
    상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계;를 포함하는 차량용 음성 인식 장치의 제어 방법.
  12. 제11항에 있어서,
    상기 복수의 음성 인식용 데이터베이스로부터 적어도 하나의 요소를 검출하는 단계는,
    사용자의 음성을 수신하고, 음향 신호를 출력하는 단계;
    상기 음향 신호로부터 음성 인식을 수행하여, 상기 복수의 음성 인식용 데이터베이스로부터 적어도 하나의 요소를 검출하는 단계;를 포함하는 차량용 음성 인식 장치의 제어 방법.
  13. 제12항에 있어서,
    상기 음향 신호로부터 음성 인식을 수행하여, 상기 복수의 음성 인식용 데이터베이스로부터 적어도 하나의 요소를 검출하는 단계는,
    상기 적어도 하나의 요소 및 상기 적어도 하나의 요소 각각에 대한 신뢰도를 검출하는 단계;를 포함하는 차량용 음성 인식 장치의 제어 방법.
  14. 제13항에 있어서,
    상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계는,
    상기 복수의 음성 인식용 데이터베이스의 검출 빈도에 대응하여 상기 적어도 하나의 요소 각각에 대한 신뢰도를 수정하여 보정된 신뢰도를 획득하는 단계;를 포함하는 차량용 음성 인식 장치의 제어 방법.
  15. 제13항에 있어서,
    상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계는,
    상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스가 검출되면, 검출된 음성 인식용 데이터베이스에 대응하는 카운트를 증가시켜 갱신하는 단계;를 포함하는 차량용 음성 인식 장치의 제어 방법.
  16. 제15항에 있어서,
    상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계는,
    상기 각각의 요소에 대한 신뢰도 및 검출된 음성 인식용 데이터베이스에 대응하는 카운트를 이용하여 상기 적어도 하나의 요소 각각에 대한 보정된 신뢰도를 결정하는 단계;를 더 포함하는 차량용 음성 인식 장치의 제어 방법.
  17. 제16항에 있어서,
    상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계는,
    상기 적어도 하나의 요소 각각에 대한 보정된 신뢰도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계;를 더 포함하는 차량용 음성 인식 장치의 제어 방법.
  18. 제11항에 있어서,
    동일한 음성 인식용 데이터베이스 내의 복수의 요소 각각에 대한 선택 빈도를 더 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 단계;를 더 포함하는 차량용 음성 인식 장치의 제어 방법.
  19. 제11항에 있어서,
    상기 단말 장치를 이용하여, 상기 선택된 연락처 정보에 대응하는 외부의 단말 장치와 통화를 수행하는 단계;를 더 포함하는 차량용 음성 인식 장치의 제어 방법.
  20. 제11항에 있어서,
    상기 요소는, 성, 이름, 성과 이름의 순차적 조합, 이름과 성의 순차적 조합, 단음절 단어 및 특이 발음의 단어 중 적어도 하나를 포함하는 차량용 음성 인식 장치의 제어 방법.
  21. 주소록 데이터베이스를 포함하는 단말 장치; 및
    상기 주소록 데이터베이스를 상기 단말 장치로부터 수신하고, 상기 주소록 데이터베이스를 기초로 복수의 음성 인식용 데이터베이스를 획득하고, 적어도 하나의 요소를 상기 복수의 음성 인식용 데이터베이스로부터 검출하고, 상기 요소에 대응하는 연락처 정보의 표시 순서를 결정하고, 상기 요소에 대응하는 연락처 정보를 상기 표시 순서에 따라서 표시하고, 상기 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보에 대한 사용자의 선택 명령을 수신하는 차량용 음성 인식 장치;를 포함하되,
    상기 차량용 음성 인식 장치는, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스를 검출하고, 상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 차량용 음성 인식 시스템.
  22. 단말 장치로부터 전달된 주소록 데이터베이스를 기초로 획득된 복수의 음성 인식용 데이터베이스가 저장되는 저장부;
    적어도 하나의 요소를 상기 복수의 음성 인식용 데이터베이스로부터 검출하고, 상기 요소에 대응하는 연락처 정보의 표시 순서를 결정하는 프로세서; 및
    상기 요소에 대응하는 연락처 정보를 상기 표시 순서에 따라서 표시하고, 상기 적어도 하나의 연락처 정보 중 어느 하나의 연락처 정보에 대한 사용자의 선택 명령을 수신하는 사용자 인터페이스;를 포함하되,
    상기 프로세서는, 상기 복수의 음성 인식용 데이터베이스 중에서 선택된 연락처 정보에 대응하는 요소가 포함된 음성 인식용 데이터베이스를 검출하고, 상기 복수의 음성 인식용 데이터베이스의 검출 빈도를 이용하여 상기 연락처 정보의 표시 순서를 다시 결정하는 차량.
KR1020170066530A 2017-05-30 2017-05-30 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법 KR102332826B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170066530A KR102332826B1 (ko) 2017-05-30 2017-05-30 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법
US15/804,673 US10559304B2 (en) 2017-05-30 2017-11-06 Vehicle-mounted voice recognition device, vehicle including the same, vehicle-mounted voice recognition system, and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170066530A KR102332826B1 (ko) 2017-05-30 2017-05-30 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법

Publications (2)

Publication Number Publication Date
KR20180130670A KR20180130670A (ko) 2018-12-10
KR102332826B1 true KR102332826B1 (ko) 2021-11-30

Family

ID=64458342

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170066530A KR102332826B1 (ko) 2017-05-30 2017-05-30 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법

Country Status (2)

Country Link
US (1) US10559304B2 (ko)
KR (1) KR102332826B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10950229B2 (en) * 2016-08-26 2021-03-16 Harman International Industries, Incorporated Configurable speech interface for vehicle infotainment systems
KR102394912B1 (ko) * 2017-06-09 2022-05-06 현대자동차주식회사 음성 인식을 이용한 주소록 관리 장치, 차량, 주소록 관리 시스템 및 음성 인식을 이용한 주소록 관리 방법
US11704533B2 (en) * 2018-05-23 2023-07-18 Ford Global Technologies, Llc Always listening and active voice assistant and vehicle operation
WO2020196960A1 (ko) * 2019-03-28 2020-10-01 엘지전자 주식회사 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
KR102313062B1 (ko) * 2019-08-05 2021-10-14 주식회사 엘지유플러스 차량용 디스플레이 장치에서의 서비스 프로그램 제공 방법
JP7465700B2 (ja) * 2020-03-27 2024-04-11 株式会社デンソーテン 車載装置および車載装置における音声処理方法
CN113138737B (zh) * 2021-04-16 2023-11-03 阿波罗智联(北京)科技有限公司 投屏场景的显示控制方法、装置、设备、介质及程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070005206A1 (en) * 2005-07-01 2007-01-04 You Zhang Automobile interface
US20070288456A1 (en) * 2006-04-20 2007-12-13 Murali Aravamudan User interface methods and systems for selecting and presenting content based on user navigation and selection actions associated with the content
KR101330826B1 (ko) 2011-04-11 2013-11-15 주식회사 내비퀘스트 스마트폰과 상호 연동하는 스마트 에이브이엔 시스템
US8620296B2 (en) 2010-09-10 2013-12-31 Cox Communications, Inc. Integration of contact information across multiple communication devices

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6829607B1 (en) * 2000-04-24 2004-12-07 Microsoft Corporation System and method for facilitating user input by automatically providing dynamically generated completion information
US7421387B2 (en) * 2004-02-24 2008-09-02 General Motors Corporation Dynamic N-best algorithm to reduce recognition errors
US20060009974A1 (en) * 2004-07-09 2006-01-12 Matsushita Electric Industrial Co., Ltd. Hands-free voice dialing for portable and remote devices
US7580363B2 (en) * 2004-08-16 2009-08-25 Nokia Corporation Apparatus and method for facilitating contact selection in communication devices
US9245526B2 (en) * 2006-04-25 2016-01-26 General Motors Llc Dynamic clustering of nametags in an automated speech recognition system
US7822754B2 (en) * 2006-08-02 2010-10-26 International Business Machines Corporation Method and system to provide contextual, intelligent address book listings
US7793228B2 (en) * 2006-10-13 2010-09-07 Apple Inc. Method, system, and graphical user interface for text entry with partial word display
US20110087747A1 (en) * 2009-10-14 2011-04-14 Research In Motion Limited Management of contact information on a communication device
WO2013192535A1 (en) * 2012-06-22 2013-12-27 Johnson Controls Technology Company Multi-pass vehicle voice recognition systems and methods
CN103632665A (zh) * 2012-08-29 2014-03-12 联想(北京)有限公司 一种语音识别方法及电子设备
GB2505642B (en) * 2012-08-29 2015-02-25 Samsung Electronics Co Ltd Performing actions through a user interface
US20140241216A1 (en) * 2013-02-27 2014-08-28 Yi-Chuan Cheng Portable device with dynamic ranking module
US20150100240A1 (en) * 2013-10-08 2015-04-09 Toyota Jidosha Kabushiki Kaisha Generating Dynamic Vocabulary for Personalized Speech Recognition
US9666188B2 (en) * 2013-10-29 2017-05-30 Nuance Communications, Inc. System and method of performing automatic speech recognition using local private data
US10008205B2 (en) * 2013-11-20 2018-06-26 General Motors Llc In-vehicle nametag choice using speech recognition
US8862467B1 (en) * 2013-12-11 2014-10-14 Google Inc. Contextual speech recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070005206A1 (en) * 2005-07-01 2007-01-04 You Zhang Automobile interface
US20070288456A1 (en) * 2006-04-20 2007-12-13 Murali Aravamudan User interface methods and systems for selecting and presenting content based on user navigation and selection actions associated with the content
US8620296B2 (en) 2010-09-10 2013-12-31 Cox Communications, Inc. Integration of contact information across multiple communication devices
KR101330826B1 (ko) 2011-04-11 2013-11-15 주식회사 내비퀘스트 스마트폰과 상호 연동하는 스마트 에이브이엔 시스템

Also Published As

Publication number Publication date
US10559304B2 (en) 2020-02-11
US20180350365A1 (en) 2018-12-06
KR20180130670A (ko) 2018-12-10

Similar Documents

Publication Publication Date Title
KR102332826B1 (ko) 차량용 음성 인식 장치, 상기 차량용 음성 인식 장치를 포함하는 차량, 차량용 음성 인식 시스템 및 상기 차량용 음성 인식 장치의 제어 방법
JP6743300B2 (ja) ニューラルネットワークを用いてハイブリッド音声認識結果をランク付けするためのシステム及び方法
US8996386B2 (en) Method and system for creating a voice recognition database for a mobile device using image processing and optical character recognition
CN104584118B (zh) 多遍车辆语音识别系统和方法
US11200892B1 (en) Speech-enabled augmented reality user interface
CN106062868A (zh) 提供预先计算的热词模型
CN105378708A (zh) 环境感知对话策略和响应生成
CN106153065A (zh) 音频视频导航设备、车辆及控制音频视频导航设备的方法
CN101467142A (zh) 在车辆中从数字媒体存储设备提取元数据以用于媒体选择的系统和方法
US9685157B2 (en) Vehicle and control method thereof
CN108257603A (zh) 多媒体音量调节装置及多媒体音量调节方法
US20220230623A1 (en) Synthesized speech generation
KR20180075009A (ko) 음성 처리 장치, 이를 포함하는 차량 및 음성 처리 방법
CN111161720A (zh) 车辆及其控制方法
KR102339443B1 (ko) 상황 기반 동작 결정 장치, 상황 기반 동작 결정이 가능한 차량, 상황 기반 동작 결정 방법 및 상기 차량의 제어 방법
CN101596904A (zh) 结合导航装置的车用控制系统
US11532303B2 (en) Agent apparatus, agent system, and server device
KR102369309B1 (ko) 파셜 랜딩 후 사용자 입력에 따른 동작을 수행하는 전자 장치
JP7198122B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
US10770070B2 (en) Voice recognition apparatus, vehicle including the same, and control method thereof
US10522141B2 (en) Vehicle voice recognition including a wearable device
CN111667824A (zh) 智能体装置、智能体装置的控制方法及存储介质
CN111717142A (zh) 智能体装置、智能体装置的控制方法及存储介质
CN117616412A (zh) 语义增强的上下文表示生成
US11518398B2 (en) Agent system, agent server, method of controlling agent server, and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right