KR20200076075A - 차량 및 그 제어방법 - Google Patents

차량 및 그 제어방법 Download PDF

Info

Publication number
KR20200076075A
KR20200076075A KR1020180164763A KR20180164763A KR20200076075A KR 20200076075 A KR20200076075 A KR 20200076075A KR 1020180164763 A KR1020180164763 A KR 1020180164763A KR 20180164763 A KR20180164763 A KR 20180164763A KR 20200076075 A KR20200076075 A KR 20200076075A
Authority
KR
South Korea
Prior art keywords
call
user
content
vehicle
voice
Prior art date
Application number
KR1020180164763A
Other languages
English (en)
Other versions
KR102666658B1 (ko
Inventor
이정엄
박영민
김선아
Original Assignee
현대자동차주식회사
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020180164763A priority Critical patent/KR102666658B1/ko
Priority claimed from KR1020180164763A external-priority patent/KR102666658B1/ko
Priority to US16/584,197 priority patent/US11475893B2/en
Priority to CN201911044910.9A priority patent/CN111343226A/zh
Publication of KR20200076075A publication Critical patent/KR20200076075A/ko
Application granted granted Critical
Publication of KR102666658B1 publication Critical patent/KR102666658B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/436Arrangements for screening incoming calls, i.e. evaluating the characteristics of a call before deciding whether to answer it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6075Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle
    • H04M1/6083Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system
    • H04M1/6091Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system including a wireless interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/60Aspects of automatic or semi-automatic exchanges related to security aspects in telephonic communication systems
    • H04M2203/6027Fraud preventions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Abstract

개시된 발명의 일 실시예에 따른 차량은 사용자 단말과 통신하는 통신 장치; 사용자 단말이 수신한 통화의 음성을 인식하고, 통화의 음성에 대한 음성 인식 결과를 생성하는 입력 처리기; 및 음성 인식 결과에 기초하여 통화 내용을 판단하고, 통화 내용에 기초하여 사용자에게 통화 내용을 제공할지 여부를 결정하는 대화 관리기;를 포함한다.

Description

차량 및 그 제어방법{VEHICLE AND CONTROL METHOD THEREOF}
사용자 단말과 통신을 수행하는 차량 및 그 제어방법에 관한 것이다.
최근 사용자의 전화 번호가 노출됨에 따라 각종 광고 또는 안내 전화 등의 스팸성 전화를 수신하는 사례가 빈번하게 발생하고 있다. 이러한 스팸성 전화를 구별하기 위하여, 종래에는 발신자 정보를 사용자에게 제공하였으며, 이러한 발신자 정보를 이용하여 사용자는 수신된 전화가 스팸성 전화인지 여부를 판단하였다.
한편, 스팸성 전화가 제공하고자 하는 정보가 사용자에게 유용한 경우도 있을 수 있다. 이 경우, 사용자는 전화 상대방과의 통화를 통하여 해당 전화가 제공하는 정보가 유용한지 여부를 직접 판단해야 하는 불편이 있었다. 특히, 사용자가 운전 중인 경우 등으로 통화를 하지 못하는 경우에는 사용자는 수신된 전화의 정보를 제공받지 못하는 불편함이 발생할 수 있다.
일 측면은 사용자 단말과 통신을 수행하는 차량 및 그 제어방법을 제공한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 측면에 따른 차량은, 사용자 단말과 통신하는 통신 장치; 상기 사용자 단말이 수신한 통화의 음성을 인식하고, 상기 통화의 음성에 대한 음성 인식 결과를 생성하는 입력 처리기; 및 상기 음성 인식 결과에 기초하여 통화 내용을 판단하고, 상기 통화 내용에 기초하여 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 대화 관리기;를 포함한다.
또한, 상기 대화 관리기는, 상기 음성 인식 결과에 기초하여 의사 결정이 필요한지 여부를 판단하고, 상기 의사 결정이 필요하면, 상기 사용자에게 확인을 요청할 수 있다.
또한, 상기 대화 관리기는, 상기 통화의 상대방이 상기 사용자의 대답을 요청하는 경우, 상기 의사 결정이 필요한 것으로 판단할 수 있다.
또한, 상기 대화 관리기는, 상기 통화 내용에 기초하여 상기 통화 내용에 대한 추천 점수를 결정하고, 상기 추천 점수에 기초하여 상기 사용자에게 상기 통화 내용을 제공할지 여부를 결정할 수 있다.
또한, 상기 대화 관리기는, 상기 통화 내용 및 사용자 정보를 비교하고, 상기 비교 결과에 기초하여 추천 점수를 결정할 수 있다.
또한, 상기 대화 관리기는, 상기 추천 점수가 미리 정해진 기준 점수를 초과하면, 상기 사용자에게 상기 통화 내용을 제공할 수 있다.
또한, 상기 대화 관리기는, 상기 추천 점수가 미리 정해진 기준 점수를 초과하면, 상기 사용자에게 통화를 추천할 수 있다.
또한, 상기 대화 관리기는, 상기 음성 인식 결과에 기초하여 통화 종료 시점인지 여부를 판단하고, 통화 종료 시점이면, 통화를 종료할 수 있다.
또한, 상기 대화 관리기는, 통화 종료 시점이면, 상기 사용자에게 상기 통화 내용을 제공할 수 있다.
또한, 상기 입력 처리기는, 상기 사용자 단말이 수신한 전화에 대한 통화 위임 명령이 수신되면, 상기 통화의 음성을 인식할 수 있다.
다른 측면에 따른 차량의 제어방법은 사용자 단말이 수신한 통화의 음성을 인식하고, 상기 통화의 음성에 대한 음성 인식 결과를 생성하고; 상기 음성 인식 결과에 기초하여 통화 내용을 판단하고; 및 상기 통화 내용에 기초하여 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 것;을 포함한다.
또한, 상기 음성 인식 결과에 기초하여 의사 결정이 필요한지 여부를 판단하고; 및 상기 의사 결정이 필요하면, 상기 사용자에게 확인을 요청하는 것;을 더 포함할 수 있다.
또한, 상기 의사 결정이 필요한지 여부를 판단하는 것은, 상기 통화의 상대방이 상기 사용자의 대답을 요청하는 경우, 상기 의사 결정이 필요한 것으로 판단하는 것;을 포함할 수 있다.
또한, 상기 통화 내용에 기초하여 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 것은, 상기 통화 내용에 기초하여 상기 통화 내용에 대한 추천 점수를 결정하고; 및 상기 추천 점수에 기초하여 상기 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 것;을 포함할 수 있다.
또한, 상기 통화 내용에 대한 추천 점수를 결정하는 것은, 상기 통화 내용 및 사용자 정보를 비교하고, 상기 비교 결과에 기초하여 추천 점수를 결정하는 것;을 포함할 수 있다.
또한, 상기 추천 점수에 기초하여 상기 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 것은, 상기 추천 점수가 미리 정해진 기준 점수를 초과하면, 상기 사용자에게 상기 통화 내용을 제공하는 것;을 포함할 수 있다.
또한, 상기 추천 점수가 미리 정해진 기준 점수를 초과하면, 상기 사용자에게 통화를 추천하는 것;을 더 포함할 수 있다.
또한, 상기 음성 인식 결과에 기초하여 통화 종료 시점인지 여부를 판단하고; 및 통화 종료 시점이면, 통화를 종료하는 것;을 더 포함할 수 있다.
또한, 상기 통화를 종료하는 것은, 통화 종료 시점이면, 상기 사용자에게 상기 통화 내용을 제공하는 것;을 포함할 수 있다.
또한, 상기 통화의 음성에 대한 음성 인식 결과를 생성하는 것은, 상기 사용자 단말이 수신한 전화에 대한 통화 위임 명령이 수신되면, 상기 통화의 음성을 인식하는 것;을 포함할 수 있다.
일 측면에 따른 차량 및 그 제어방법에 따르면, 사용자는 직접 전화 통화를 하지 않고도 유용한 정보를 제공받을 수 있으므로, 사용자의 편의성이 증대될 수 있다.
도 1은 일 실시예에 따른 사용자 단말과 차량의 구성 요소들 사이의 관계를 나타낸 도면이다.
도 2는 일 실시예에 따른 차량의 제어 블록도이다.
도 3은 일 실시예에 따른 차량의 제어방법의 흐름도이다.
도 4는 일 실시예에 따른 차량의 제어방법의 흐름도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 일 실시예에 따른 사용자 단말과 차량의 구성 요소들 사이의 관계를 나타낸 도면이다.
도 1을 참조하면, 일 실시예에 따른 사용자 단말(300)은 차량(200)과 통신을 수행할 수 있다.
사용자 단말(300)이 수신하는 전화와 관련된 데이터는 차량(200)으로 전송될 수 있고, 사용자 단말(300)과 차량(200) 사이의 통신 연결을 통하여 사용자는 차량(200) 내에서 통화를 수행할 수 있다.
한편, 사용자 단말(300)은 네트워크를 통해 차량(200)에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.
이러한 사용자 단말(300)이 수신한 전화에 사용자가 응답을 하는 경우, 사용자는 통화를 수행할 수 있다. 이러한 통화 과정에서 사용자 단말(300)이 수신한 통화의 음성, 즉 수신된 전화의 상대방의 음성은 차량(200)에 의하여 인식될 수 있다.
차량(200)은 음성 입력장치(210), 음성 외 입력장치(220), 통신 장치(240), 대화자 출력장치(230) 및 대화 시스템(100)을 포함할 수 있다.
사용자 단말(300)이 수신한 전화 통화의 음성은 차량(200)에 마련된 음성 입력장치(210)를 통하여 입력될 수 있다. 또한, 음성 입력장치(210)는 사용자의 명령을 음성으로 입력받을 수 있다.
이를 위해, 음성 입력 장치(210)는 음향을 입력 받아 전기적인 신호로 변환하여 출력하는 마이크로폰을 포함할 수 있다.
사용자의 음성 명령 또는 전화 통화의 음성을 제외한 명령은 음성 외 입력장치(220)를 통하여 입력될 수 있다.
음성 외 입력장치(220)는 사용자의 입력을 위해 각종 버튼이나 스위치, 페달(pedal), 키보드, 마우스, 트랙볼(track-ball), 각종 레버(lever), 핸들(handle)이나 스틱(stick) 등과 같은 하드웨어적인 장치를 포함할 수 있다. 예를 들어, 음성 외 입력장치(220)는 사용자의 조작을 통하여 명령을 입력 받는 입력 버튼과 조그 셔틀을 포함할 수 있다.
또한, 음성 외 입력장치(220)는 사용자 입력을 위해 터치 패드(touch pad) 등과 같은 GUI(Graphical User interface), 즉 소프트웨어인 장치를 포함할 수도 있다. 이 때, 터치 패드는 터치 스크린 패널(Touch Screen Panel: TSP)로 구현될 수 있다.
대화 시스템(100)은 음성 입력 장치(210)를 통하여 입력된 사용자 음성 또는 사용자 단말(300)이 수신한 전화 통화의 음성, 음성 외 입력 장치(220)를 통하여 입력된 사용자의 음성 외 입력을 이용하여 사용자의 의도와 상황을 파악하고, 사용자의 의도에 대응되는 액션을 수행하기 위한 응답을 출력한다.
대화 시스템(100)은 응답을 출력하기 위한 일련의 동작들을 수행하는 제어 장치를 의미할 수 있다.
대화 시스템(100)은 차량(200) 내 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.
대화자 출력 장치(230)는 대화자에게 시각적, 청각적 또는 촉각적인 출력을 제공하는 장치로서, 사용자 뿐만 아니라 사용자 단말(300)이 수신한 전화의 발신자, 즉 전화 통화의 상대방에게 청각적인 출력을 제공할 수 있다.
이를 위해, 대화자 출력 장치(230)는 차량(200)에 마련된 디스플레이(미도시) 및 스피커(미도시)를 포함할 수 있다. 디스플레이(미도시) 및 스피커(미도시)는 사용자의 발화에 대한 응답, 사용자에 대한 질의, 또는 사용자에게 제공할 정보 뿐만 아니라 사용자에 대한 의사 확인, 통화 상대방의 발화에 대한 응답를 시각적 또는 청각적으로 출력할 수 있다.
한편, 차량(200)은 통신 장치(240)를 통하여 사용자 단말(300)과의 통신을 수행할 뿐만 아니라, 사용자 단말(300) 외의 외부 장치와도 통신을 수행할 수 있다.
통신 장치(240)는 사용자 단말(300)로부터 전화 통화와 관련된 정보 뿐만 아니라 외부 장치로부터 획득된 정보, 예를 들어 운전자 개인 정보 등의 사용자 정보 및 교통 상황, 날씨, 온도 등의 외부 정보를 수신할 수 있다. 통신 장치(240)는 이러한 정보를 대화 시스템(100)에 전달할 수 있다.
이를 위해, 통신 장치(240)는 사용자 단말(300) 또는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.
유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈, 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 신호를 송신하는 안테나 및 송신기(Transmitter)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 대화시스템(100)의 제어에 따라 무선 통신 인터페이스를 통해 대화시스템(100)으로부터 출력된 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조하는 신호 변환 모듈을 더 포함할 수 있다.
무선 통신 모듈은 신호를 수신하는 안테나 및 수신기(Receiver)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 무선 통신 인터페이스를 통하여 수신한 아날로그 형태의 무선 신호를 디지털 제어 신호로 복조하기 위한 신호 변환 모듈을 더 포함할 수 있다.
한편, 대화 시스템(100)의 구성 요소 중 일부는 차량(200)에 마련되고 일부는 원격 서버에 마련되어 대화 시스템(100)의 동작을 차량(200)과 원격 서버에서 부분적으로 수행하는 것도 가능하다.
도 2는 일 실시예에 따른 차량의 제어 블록도이다.
도 2를 참조하면, 일 실시예에 따른 차량(200)은 음성 입력장치(210), 음성 외 입력장치(220), 통신 장치(240), 대화자 출력장치(230) 및 대화 시스템(100)을 포함할 수 있고, 대화 시스템(100)은 입력 처리기(110), 대화 관리기(120), 결과 처리기(130) 및 저장부(140)를 포함할 수 있다.
입력 처리기(110)는 음성 입력장치(210)로부터 전달된 사용자의 음성 또는 전화 통화의 음성뿐만 아니라 음성 외 입력장치(220)로부터 전달된 음성 외 입력을 처리할 수 있다.
또한, 입력 처리기(110)는 음성 외 입력 장치(220)로부터 전달된 차량과 관련된 정보 또는 사용자와 관련된 정보를 포함하는 입력을 처리할 수 있다.
입력 처리기(110)는 입력된 사용자 음성 또는 사용자 단말(300)이 수신한 전화 통화의 음성, 즉 전화 통화 상대방의 음성을 인식할 수 있고, 텍스트 형태의 발화문으로 변환할 수 있다.
입력 처리기(110)는 이러한 발화문에 자연어 이해(Natural Language Understanding) 알고리즘을 적용하여 사용자 또는 전화 통화 상대방의 의도를 파악할 수 있다. 이 때, 입력 처리기(110)에 의해 파악된 사용자 또는 전화 통화 상대방의 의도는 발화문에 기초하여 파악된 대화 주제 또는 통화 주제를 포함할 수 있다.
이러한 텍스트 형태의 발화문 또는 사용자 또는 전화 통화 상대방의 의도 중 적어도 하나는 음성 인식 결과로서 입력 처리기(110)에 의하여 출력될 수 있고, 입력 처리기(110)는 음성 인식 결과를 대화 관리기(120)로 전달할 수 있다.
이를 위해, 입력 처리기(110)는 음성 인식 모듈을 포함할 수 있으며, 입력된 음성을 처리하기 위한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다.
이러한 입력 처리기(110)의 음성 처리 동작은 음성이 입력되는 것을 조건으로 수행될 수 있고, 음성이 입력되는 경우에도 특정한 조건을 만족하는 경우에만 수행될 수도 있다.
이 경우, 입력 처리기(110)는 사용자 단말(300)이 수신한 전화에 대한 통화 위임 명령이 수신되면, 통화의 음성을 인식할 수 있고, 전술한 음성 처리 동작을 수행할 수 있다.
이 때, 통화 위임 명령은 사용자가 통화 상대방과 직접 통화를 수행하는 것이 아닌, 대화 시스템(100)이 통화 상대방과 통화를 수행하기 위한 명령을 의미한다. 다시 말해, 통화 위임 명령은 통화 상대방과 대화를 수행하기 위한 명령을 의미하며, 사용자로부터 음성 입력장치(210) 또는 음성 외 입력장치(220)를 통하여 수신될 수 있다.
대화 관리기(120)는 입력 처리기(110)의 처리 결과, 음성 인식 결과를 이용하여 사용자의 의도 또는 전화 통화의 상대방의 의도를 파악하고, 이에 대응되는 액션을 결정할 수 있다. 대화 관리기(120)는 결정된 액션에 관한 정보를 결과 처리기(130)로 전달할 수 있다.
또한, 대화 관리기(120)는 음성 인식 결과를 이용하여 대화 내용 또는 통화 내용을 판단할 수 있고, 통화 내용에 기초하여 사용자에게 통화 내용을 제공할지 여부를 결정할 수 있다.
이 때, 대화 관리기(120)는 음성 인식 결과를 이용하여 대화 내용 또는 통화 내용을 요약할 수 있다. 대화 관리기(120)는 대화 내용 또는 통화 내용으로부터 키워드를 추출할 수 있고, 추출된 키워드에 기초하여 통화 내용을 요약할 수 있다.
대화 관리기(120)는 음성 인식 결과에 기초하여 판단된 통화 내용을 저장부(140)에 저장할 수 있으며, 사용자에게 통화 내용을 미리 정해진 시점에 제공할 수 있다.
또한, 대화 관리기(120)는 음성 인식 결과에 기초하여 의사 결정이 필요한지 여부를 판단할 수 있고, 의사 결정이 필요하면, 사용자에게 확인을 요청할 수 있다. 이 때, 대화 관리기(120)는 통화의 상대방이 사용자의 대답을 요청하는 경우, 의사 결정이 필요한 것으로 판단할 수 있다.
구체적으로, 대화 관리기(120)는 통화 상대방의 발화에 관한 음성 인식 결과의 어미에 해당하는 단어 또는 음성 인식 결과에 포함되는 단어에 기초하여 통화의 상대방이 사용자의 대답을 요청하는지 여부를 판단할 수 있다.
예를 들어, 대화 관리기(120)는 사용자에게 질의(통화 상대방이 '현재 직장에 다니고 계십니까?'라고 발화한 경우)를 하거나 사용자의 동의를 요청하는 경우(통화 상대방이 '동의한 것으로 알겠습니다'라고 발화한 경우), 의사 결정이 필요한 상황으로 판단할 수 있고, 사용자의 의사 확인을 요청할 수 있다.
사용자는 의사 확인 요청에 응답하여 사용자 명령을 입력할 수 있고, 대화 관리기(120)는 입력된 사용자 명령에 기초하여 통화를 수행할 수 있다.
이 때, 사용자 명령은 사용자의 의사 확인 명령, 직접 통화 명령 또는 통화 종료 명령 중 적어도 하나를 포함할 수 있고, 대화 관리기(120)는 입력된 사용자 명령의 종류에 기초하여 확인된 사용자의 의사에 기초하여 통화를 지속하거나, 통화를 중단하거나 통화를 종료할 수 있다.
구체적으로, 사용자는 의사 확인 명령을 입력함으로써 확인된 의사에 기초하여 대화 관리기(120)에 의한 통화가 수행되도록 할 수 있다. 또한 사용자는 직접 통화 명령을 입력함으로써 자신이 직접 통화를 수행할 수 있고, 이 경우 대화 관리기(120)의 통화 수행은 중단될 수 있다. 또는, 사용자는 통화 종료 명령을 입력함으로써 통화가 종료되도록 할 수 있다.
또한, 대화 관리기(120)는 통화 내용에 기초하여 통화 내용이 사용자에게 유용한지 여부를 판단할 수 있고, 사용자에게 유용한 것으로 판단되는 통화 내용만을 사용자에게 제공할 수 있다.
이를 위해, 대화 관리기(120)는 통화 내용에 기초하여 통화 내용에 대한 추천 점수를 결정할 수 있다. 이 때, 추천 점수는 사용자에 대한 통화 내용의 유용성을 나타내는 척도를 의미한다.
구체적으로, 대화 관리기(120)는 통화 내용 및 사용자 정보를 비교할 수 있고, 비교 결과에 기초하여 추천 점수를 결정할 수 있다. 이 때, 사용자 정보는 사용자의 관심사를 추정하기 위한 정보를 의미하며, 사용자의 성별, 연령, 거주지, 직장 등의 개인 정보 뿐만 아니라 사용자가 자주 사용하는 기능, 사용자의 최근 검색 키워드 등과 관련된 정보 등의 사용자의 관심사를 추정하기 위한 다양한 정보를 포함할 수 있다.
이러한 사용자 정보는 사용자 단말(300), 외부 장치 또는 차량(200) 중 적어도 하나로부터 통신 장치(240)를 통하여 수집될 수 있으며, 저장부(140)에 저장될 수 있다.
이 외로도, 사용자 정보는 사용자에 의하여 미리 설정될 수 있으며, 사용자는 관심사를 나타내는 키워드를 음성 입력장치(210) 또는 음성 외 입력장치(220)를 통하여 입력할 수 있고, 이러한 키워드 정보는 저장부(140)에 저장될 수 있다.
대화 관리기(120)는 통화 내용 및 사용자 정보를 비교함으로써 통화 내용 및 사용자 정보의 연관성을 판단할 수 있고, 연관성이 높은 순으로 추천 점수를 결정할 수 있다.
구체적으로, 대화 관리기(120)는 통화 내용에 포함된 키워드와 사용자 정보에 포함된 키워드의 연관성을 판단할 수 있고, 연관성이 높은 순으로 추천 점수를 결정할 수 있다.
대화 관리기(120)는 통화 내용에 대한 추천 점수와 미리 정해진 제1 기준 점수를 비교할 수 있고, 비교 결과에 기초하여 사용자에게 통화 내용을 제공할 수 있다.
추천 점수가 미리 정해진 제1 기준 점수를 초과하면, 대화 관리기(120)는 통화 내용을 사용자에게 제공하도록, 결과 처리기(130)를 통하여 대화자 출력장치(230)로 통화 내용 제공 명령을 전달할 수 있다.
또한, 대화 관리기(120)는 추천 점수가 미리 정해진 제2 기준 점수를 초과하면, 사용자에게 통화를 추천할 수 있다. 이 때, 제2 기준 점수는 제1 기준 점수 보다 큰 값을 갖는 점수일 수 있다. 다만, 이에 한정되지 않으며 제2 기준 점수는 제1 기준 점수와 동일하거나 낮은 값을 갖는 점수일 수 있다.
대화 관리기(120)는 사용자에게 통화를 추천하기 위한 액션을 결정할 수 있고, 이를 결과 처리기(130)로 전달할 수 있다.
사용자는 통화 추천에 응답하여 직접 통화 상대방과 통화를 수행할 수 있고, 유용한 것으로 판단되는 정보를 직접 청취함으로써 제공받을 수 있다.
또한, 대화 관리기(120)는 음성 인식 결과에 기초하여 통화 종료 시점인지 여부를 판단할 수 있고, 통화 종료 시점인 경우 통화를 종료할 수 있다. 이 때, 대화 관리기(120)는 통화를 종료함과 동시에 사용자에게 통화 내용을 제공할 수 있다.
구체적으로, 대화 관리기(120)는 통화 상대방의 발화에 관한 음성 인식 결과의 어미에 해당하는 단어 또는 음성 인식 결과에 포함되는 단어에 기초하여 통화의 상대방이 정보 전달을 완료하였는지 여부를 판단할 수 있다.
예를 들어, 대화 관리기(120)는 통화 상대방이 사용자에게 미리 정해진 인사말('감사합니다'라고 발화한 경우)을 발화하는 경우, 통화 상대방이 정보 전달을 완료한 시점, 즉 통화 종료 시점으로 판단할 수 있다.
통화 종료 시점이 아닌 경우, 대화 관리기(120)는 통화 상대방과의 통화를 계속하기 위한 액션을 결정할 수 있고, 결정된 액션을 결과 처리기(130)에 전달할 수 있다.
이 때, 통화를 계속하기 위한 액션은 통화 상대방에 대한 단순 추임새를 발화하기 위한 액션으로, 의사 결정이 필요하지 않은 상황에서 통화 상의 상대방의 발화를 청취하고 있음을 나타내는 추임새를 발화하기 위한 액션을 의미한다.
예를 들어, 통화 종료 시점이 아닌 경우, 대화 관리기(120)는 액션으로 '대화 지속'을 결정할 수 있고, 이러한 액션에 대한 추임새 발화 명령이 결과 처리기(130)를 통하여 대화자 출력장치(230)로 전달될 수 있다. 대화자 출력장치(230)는 '네' 또는 '음' 등의 추임새를 발화함으로써 통화 상대방과의 통화를 지속할 수 있다.
한편, 이를 위해, 대화 관리기(120)는 상술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다.
결과 처리기(130)는 대화 관리기(120)의 출력 결과에 따라 특정 서비스를 제공하거나 대화를 계속 이어 나가기 위한 시스템 발화를 출력할 수 있다.
결과 처리기(130)는 전달된 액션을 수행하기 위하여 필요한 대화 응답 및 명령어를 생성할 수 있고, 이러한 명령어를 출력할 수 있다. 대화 응답은 텍스트, 이미지 또는 오디오로 출력될 수 있고, 명령어가 출력되면 출력된 명령어에 대응되는 차량 제어, 외부 컨텐츠 제공 등의 서비스가 수행될 수 있다.
결과 처리기(130)는 생성된 명령어를 대화자 출력장치(230)에 전달함으로써 대화자 출력장치(230)에 의하여 명령어에 대응하는 동작이 출력되도록 할 수 있다.
결과 처리기(130)는 대화 관리기(120)로부터 전달 받은 액션을 포함하는 정보에 기초하여 통화 내용 제공 명령, 사용자의 확인 요청 명령, 통화 추천 명령 또는 통화 지속 명령 등의 다양한 명령어를 생성할 수 있고, 이러한 명령어를 대화자 출력장치(230)로 전달할 수 있다.
결과 처리기(130)의 출력은 대화자 출력 장치(230)에 입력되어 차량(200)으로 하여금 사용자에게 필요한 서비스를 제공할 수 있게 한다. 또는, 외부 컨텐츠 서버(300)에 전송되어 필요한 서비스를 요청할 수 있다.
이를 위해, 결과 처리기(130)는 상술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다.
저장부(140)는 차량(200)이 제공하는 기능과 관련된 다양한 정보들을 저장할 수 있다.
이를 위해, 저장부(140)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다. 저장부(140)는 대화 시스템(100)과 관련하여 전술한 프로세서와 별개의 칩으로 구현된 메모리일 수 있고, 프로세서와 단일 칩으로 구현될 수도 있다.
도 1 및 도 2에 도시된 차량(200)의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
한편, 도 1 및 도 2에서 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다.
도 3은 일 실시예에 따른 차량의 제어방법의 흐름도이다.
도 3을 참조하면, 일 실시예에 따른 차량(200)은 사용자 단말(300)이 전화를 수신하는지 여부를 확인할 수 있다(501).
사용자 단말(300)이 전화를 수신하면(501의 예), 차량(200)은 전화 정보를 제공할 수 있다(502). 이 때, 전화 정보는 수신된 전화의 발신 번호를 포함할 수 있다. 이 외에도 전화 정보는 발신자와 관련된 정보를 더 포함할 수 있다.
전화 정보를 제공함과 동시에, 차량(200)은 전화 위임 명령의 입력 여부를 요청할 수 있고, 차량(200)은 전화 위임 명령이 수신되는지 여부를 확인할 수 있다(503).
이 때, 전화 위임 명령은 사용자가 통화 상대방과 직접 통화를 수행하는 것이 아닌, 차량(200)이 통화 상대방과 통화를 수행하기 위한 명령을 의미한다. 다시 말해, 통화 위임 명령은 통화 상대방과 대화를 수행하기 위한 명령을 의미하며, 사용자로부터 음성 입력장치(210) 또는 음성 외 입력장치(220)를 통하여 수신될 수 있다.
전화 위임 명령이 수신되면(503의 예), 차량(200)은 수신된 전화의 상대방과 통화를 시작할 수 있다(504).
차량(200)은 통화 상대방의 음성을 인식할 수 있으며, 음성 인식 결과에 기초하여 통화 내용을 요약할 수 있다(505).
구체적으로, 차량(200)은 통화 상대방의 음성을 인식하여 텍스트 형태의 발화문으로 변환할 수 있고, 발화문에 자연어 이해(Natural Language Understanding) 알고리즘을 적용하여 사용자 또는 전화 통화 상대방의 의도를 파악할 수 있다. 이 때, 차량(200)에 의해 파악된 사용자 또는 전화 통화 상대방의 의도는 발화문에 기초하여 파악된 대화 주제 또는 통화 주제를 포함할 수 있다.
차량(200)은 이러한 텍스트 형태의 발화문 또는 사용자 또는 전화 통화 상대방의 의도 중 적어도 하나를 포함하는 음성 인식 결과에 기초하여 통화 내용을 판단할 수 있고, 판단된 통화 내용을 요약할 수 있다.
구체적으로, 차량(200)은 통화 내용으로부터 키워드를 추출할 수 있고, 추출된 키워드에 기초하여 통화 내용을 요약할 수 있다.
차량(200)은 의사 결정이 필요한지 여부를 확인할 수 있다(506). 구체적으로, 차량(200)은 음성 인식 결과에 기초하여 의사 결정이 필요한지 여부를 판단할 수 있다.
차량(200)은 통화 상대방의 발화에 관한 음성 인식 결과의 어미에 해당하는 단어 또는 음성 인식 결과에 포함되는 단어에 기초하여 통화의 상대방이 사용자의 대답을 요청하는지 여부를 판단할 수 있다. 차량(200)은 통화의 상대방이 사용자의 대답을 요청하는 경우, 의사 결정이 필요한 것으로 판단할 수 있다.
예를 들어, 차량(200)은 사용자에게 질의(통화 상대방이 '현재 직장에 다니고 계십니까?'라고 발화한 경우)를 하거나 사용자의 동의를 요청하는 경우(통화 상대방이 '동의한 것으로 알겠습니다'라고 발화한 경우), 의사 결정이 필요한 상황으로 판단할 수 있다.
의사 결정이 필요하면(506의 예), 차량(200)은 사용자에게 통화 내용을 제공할 수 있고, 사용자 명령의 입력을 요청할 수 있다. 이 때, 사용자는 사용자 명령을 입력함으로써 자신의 의사에 따라 통화가 수행되도록 할 수 있다.
이 때, 사용자 명령은 사용자의 의사 확인 명령, 직접 통화 명령 또는 통화 종료 명령 중 적어도 하나를 포함할 수 있고, 차량(200)은 입력된 사용자 명령의 종류에 기초하여 확인된 사용자의 의사에 기초하여 통화를 지속하거나, 통화를 중단하거나 통화를 종료할 수 있다.
구체적으로, 사용자는 의사 확인 명령을 입력함으로써 확인된 의사에 기초하여 차량(200)에 의한 통화가 수행되도록 할 수 있다. 또한 사용자는 직접 통화 명령을 입력함으로써 자신이 직접 통화를 수행할 수 있고, 이 경우 차량(200)의 통화 수행은 중단될 수 있다. 또는, 사용자는 통화 종료 명령을 입력함으로써 통화가 종료되도록 할 수 있다.
다른 예로, 의사 결정이 필요하지 않으면(506의 아니오), 차량(200)은 통화 종료 시점인지 여부를 확인할 수 있다(508).
구체적으로, 차량(200)은 통화 상대방의 발화에 관한 음성 인식 결과의 어미에 해당하는 단어 또는 음성 인식 결과에 포함되는 단어에 기초하여 통화의 상대방이 정보 전달을 완료하였는지 여부를 판단할 수 있다.
예를 들어, 차량(200)은 통화 상대방이 사용자에게 미리 정해진 인사말('감사합니다'라고 발화한 경우)을 발화하는 경우, 통화 상대방이 정보 전달을 완료한 시점, 즉 통화 종료 시점으로 확인할 수 있다.
통화 종료 시점으로 확인되면(508의 예), 차량(200)은 통화를 종료할 수 있고, 사용자에게 통화 내용을 제공할 수 있다(509).
다른 예로, 통화 종료 시점이 아니면(508의 아니오), 차량(200)은 통화를 지속할 수 있다(510).
이 때, 차량(200)은 통화 상대방과의 통화를 계속하기 위한 단순 추임새를 발화할 수 있다. 차량(200)은 의사 결정이 필요하지 않은 상황에서 통화 상의 상대방의 발화를 청취하고 있음을 나타내는 추임새를 발화함으로써 통화 상대방과의 통화를 지속할 수 있다.
한편, 의사 결정이 필요한지 여부를 확인하는 단계 506은 단계 505와 동시에 수행될 수도 있다.
이를 통해, 사용자가 직접 전화 통화를 수행함이 없이도 수신되는 전화의 통화 내용이 제공될 수 있으므로, 사용자의 편의성이 증대될 수 있다.
도 4는 일 실시예에 따른 차량의 제어방법의 흐름도이다.
도 4를 참조하면, 일 실시예에 따른 차량(200)은 통화 내용 및 사용자 정보를 비교할 수 있다(601).
이 때, 사용자 정보는 사용자의 관심사를 추정하기 위한 정보를 의미하며, 사용자의 성별, 연령, 거주지, 직장 등의 개인 정보 뿐만 아니라 사용자가 자주 사용하는 기능, 사용자의 최근 검색 키워드 등과 관련된 정보 등의 사용자의 관심사를 추정하기 위한 다양한 정보를 포함할 수 있다.
이러한 사용자 정보는 사용자 단말(300) 또는 외부 장치로부터 수집될 수 있으며, 사용자에 의하여 미리 설정될 수 있다. 사용자는 관심사를 나타내는 키워드를 음성 입력장치(210) 또는 음성 외 입력장치(220)를 통하여 입력할 수 있고, 이러한 키워드 정보는 저장부(140)에 저장될 수 있다.
이후, 차량(200)은 통화 내용 및 사용자 정보의 비교 결과에 기초하여 추천 점수를 결정할 수 있다(602).
차량(200)은 통화 내용 및 사용자 정보의 비교 결과에 기초하여 통화 내용 및 사용자 정보의 연관성을 판단할 수 있고, 연관성이 높은 순으로 추천 점수를 결정할 수 있다.
구체적으로, 차량(200)은 통화 내용에 포함된 키워드와 사용자 정보에 포함된 키워드의 연관성을 판단할 수 있고, 연관성이 높은 순으로 추천 점수를 결정할 수 있다.
차량(200)은 통화 내용에 대한 추천 점수가 미리 정해진 제1 기준 점수를 초과하는지 여부를 확인할 수 있다(603).
추천 점수가 미리 정해진 제1 기준 점수를 초과하는 경우(603의 예), 사용자에게 통화 내용을 제공할 수 있다(604).
또한, 차량(200)은 추천 점수가 미리 정해진 제2 기준 점수를 초과하면, 사용자에게 통화를 추천할 수 있다. 이 때, 제2 기준 점수는 제1 기준 점수 보다 큰 값을 갖는 점수일 수 있다. 다만, 이에 한정되지 않으며 제2 기준 점수는 제1 기준 점수와 동일하거나 낮은 값을 갖는 점수일 수 있다.
한편, 도 6의 동작은 전술한 도 3의 단계 507과 동시에 수행될 수 있다. 이 경우, 차량(200)은 의사 결정이 필요한 것으로 확인되는 경우(도 3의 506의 예), 통화 내용 및 사용자 정보를 비교할 수 있고(601), 추천 점수를 결정할 수 있으며(602), 추천 점수가 제1 기준 점수를 초과하는 경우(603의 예), 사용자에게 통화 내용을 제공할 수 있다(604).
이를 통해, 사용자가 직접 전화 통화를 수행함이 없이도 수신되는 전화가 제공하는 정보의 유용성을 판단할 수 있고, 유용한 정보만을 사용자에게 제공할 수 있으므로 사용자의 편의성이 증대될 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
100: 대화 시스템
110: 입력 처리기
120: 대화 관리기
130: 결과 처리기
140: 저장부
200: 차량
210: 음성 입력장치
220: 음성 외 입력장치
230: 대화자 출력 장치
240: 통신 장치

Claims (20)

  1. 사용자 단말과 통신하는 통신 장치;
    상기 사용자 단말이 수신한 통화의 음성을 인식하고, 상기 통화의 음성에 대한 음성 인식 결과를 생성하는 입력 처리기; 및
    상기 음성 인식 결과에 기초하여 통화 내용을 판단하고, 상기 통화 내용에 기초하여 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 대화 관리기;를 포함하는 차량.
  2. 제1항에 있어서,
    상기 대화 관리기는,
    상기 음성 인식 결과에 기초하여 의사 결정이 필요한지 여부를 판단하고, 상기 의사 결정이 필요하면, 상기 사용자에게 확인을 요청하는 차량.
  3. 제2항에 있어서,
    상기 대화 관리기는,
    상기 통화의 상대방이 상기 사용자의 대답을 요청하는 경우, 상기 의사 결정이 필요한 것으로 판단하는 차량.
  4. 제1항에 있어서,
    상기 대화 관리기는,
    상기 통화 내용에 기초하여 상기 통화 내용에 대한 추천 점수를 결정하고, 상기 추천 점수에 기초하여 상기 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 차량.
  5. 제4항에 있어서,
    상기 대화 관리기는,
    상기 통화 내용 및 사용자 정보를 비교하고, 상기 비교 결과에 기초하여 추천 점수를 결정하는 차량.
  6. 제4항에 있어서,
    상기 대화 관리기는,
    상기 추천 점수가 미리 정해진 기준 점수를 초과하면, 상기 사용자에게 상기 통화 내용을 제공하는 차량.
  7. 제4항에 있어서,
    상기 대화 관리기는,
    상기 추천 점수가 미리 정해진 기준 점수를 초과하면, 상기 사용자에게 통화를 추천하는 차량.
  8. 제1항에 있어서,
    상기 대화 관리기는,
    상기 음성 인식 결과에 기초하여 통화 종료 시점인지 여부를 판단하고, 통화 종료 시점이면, 통화를 종료하는 차량.
  9. 제8항에 있어서,
    상기 대화 관리기는,
    통화 종료 시점이면, 상기 사용자에게 상기 통화 내용을 제공하는 차량.
  10. 제1항에 있어서,
    상기 입력 처리기는,
    상기 사용자 단말이 수신한 전화에 대한 통화 위임 명령이 수신되면, 상기 통화의 음성을 인식하는 차량.
  11. 사용자 단말이 수신한 통화의 음성을 인식하고, 상기 통화의 음성에 대한 음성 인식 결과를 생성하고;
    상기 음성 인식 결과에 기초하여 통화 내용을 판단하고; 및
    상기 통화 내용에 기초하여 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 것;을 포함하는 차량의 제어방법.
  12. 제11항에 있어서,
    상기 음성 인식 결과에 기초하여 의사 결정이 필요한지 여부를 판단하고; 및
    상기 의사 결정이 필요하면, 상기 사용자에게 확인을 요청하는 것;을 더 포함하는 차량의 제어방법.
  13. 제12항에 있어서,
    상기 의사 결정이 필요한지 여부를 판단하는 것은,
    상기 통화의 상대방이 상기 사용자의 대답을 요청하는 경우, 상기 의사 결정이 필요한 것으로 판단하는 것;을 포함하는 차량의 제어방법.
  14. 제11항에 있어서,
    상기 통화 내용에 기초하여 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 것은,
    상기 통화 내용에 기초하여 상기 통화 내용에 대한 추천 점수를 결정하고; 및
    상기 추천 점수에 기초하여 상기 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 것;을 포함하는 차량의 제어방법.
  15. 제14항에 있어서,
    상기 통화 내용에 대한 추천 점수를 결정하는 것은,
    상기 통화 내용 및 사용자 정보를 비교하고, 상기 비교 결과에 기초하여 추천 점수를 결정하는 것;을 포함하는 차량의 제어방법.
  16. 제14항에 있어서,
    상기 추천 점수에 기초하여 상기 사용자에게 상기 통화 내용을 제공할지 여부를 결정하는 것은,
    상기 추천 점수가 미리 정해진 기준 점수를 초과하면, 상기 사용자에게 상기 통화 내용을 제공하는 것;을 포함하는 차량의 제어방법.
  17. 제14항에 있어서,
    상기 추천 점수가 미리 정해진 기준 점수를 초과하면, 상기 사용자에게 통화를 추천하는 것;을 더 포함하는 차량의 제어방법.
  18. 제11항에 있어서,
    상기 음성 인식 결과에 기초하여 통화 종료 시점인지 여부를 판단하고; 및
    통화 종료 시점이면, 통화를 종료하는 것;을 더 포함하는 차량의 제어방법.
  19. 제18항에 있어서,
    상기 통화를 종료하는 것은,
    통화 종료 시점이면, 상기 사용자에게 상기 통화 내용을 제공하는 것;을 포함하는 차량의 제어방법.
  20. 제11항에 있어서,
    상기 통화의 음성에 대한 음성 인식 결과를 생성하는 것은,
    상기 사용자 단말이 수신한 전화에 대한 통화 위임 명령이 수신되면, 상기 통화의 음성을 인식하는 것;을 포함하는 차량의 제어방법.
KR1020180164763A 2018-12-19 2018-12-19 차량 및 그 제어방법 KR102666658B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180164763A KR102666658B1 (ko) 2018-12-19 차량 및 그 제어방법
US16/584,197 US11475893B2 (en) 2018-12-19 2019-09-26 Vehicle and a control method thereof
CN201911044910.9A CN111343226A (zh) 2018-12-19 2019-10-30 车辆及车辆的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180164763A KR102666658B1 (ko) 2018-12-19 차량 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20200076075A true KR20200076075A (ko) 2020-06-29
KR102666658B1 KR102666658B1 (ko) 2024-05-20

Family

ID=

Also Published As

Publication number Publication date
US11475893B2 (en) 2022-10-18
US20200202862A1 (en) 2020-06-25
CN111343226A (zh) 2020-06-26

Similar Documents

Publication Publication Date Title
US11990135B2 (en) Methods and apparatus for hybrid speech recognition processing
CN107895578B (zh) 语音交互方法和装置
CN102117614B (zh) 个性化文本语音合成和个性化语音特征提取
US9111538B2 (en) Genius button secondary commands
CN101971250B (zh) 具有活动语音识别的移动电子设备
US20140309996A1 (en) Voice control method and mobile terminal apparatus
KR102613210B1 (ko) 차량 및 그 제어방법
CN107919138B (zh) 一种语音中的情绪处理方法及移动终端
KR20180020368A (ko) 통역 장치 및 방법
CN104104789A (zh) 语音接听方法与移动终端装置
US7526286B1 (en) System and method for controlling a computer via a mobile device
CN111325039B (zh) 基于实时通话的语言翻译方法、系统、程序和手持终端
US9020460B2 (en) Smart alarm providing terminal and alarm providing method thereof
US20200320993A1 (en) Dialogue processing apparatus, a vehicle having the same, and a dialogue processing method
US11475893B2 (en) Vehicle and a control method thereof
KR20140067687A (ko) 대화형 음성인식이 가능한 차량 시스템
KR20050083716A (ko) 컴퓨터를 이용한 무선 오디오 통신 시스템 및 방법
EP1517522A2 (en) Mobile terminal and method for providing a user-interface using a voice signal
KR102666658B1 (ko) 차량 및 그 제어방법
KR100367579B1 (ko) 음성을 이용한 인터넷사용시스템
KR20150088532A (ko) 통화 중 서비스 제공 장치 및 이를 이용하는 방법
KR20160100195A (ko) 온라인 사이트 링크방법
CN112863499B (zh) 语音识别方法及装置、存储介质
CN111274828B (zh) 基于留言的语言翻译方法、系统、计算机程序和手持终端
CN116415595A (zh) 对话意图识别方法、系统和存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant