KR101657655B1 - 차량 및 그 제어 방법 - Google Patents

차량 및 그 제어 방법 Download PDF

Info

Publication number
KR101657655B1
KR101657655B1 KR1020150023347A KR20150023347A KR101657655B1 KR 101657655 B1 KR101657655 B1 KR 101657655B1 KR 1020150023347 A KR1020150023347 A KR 1020150023347A KR 20150023347 A KR20150023347 A KR 20150023347A KR 101657655 B1 KR101657655 B1 KR 101657655B1
Authority
KR
South Korea
Prior art keywords
user
vehicle
information
speech recognition
recognition engine
Prior art date
Application number
KR1020150023347A
Other languages
English (en)
Other versions
KR20160100640A (ko
Inventor
이기창
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020150023347A priority Critical patent/KR101657655B1/ko
Publication of KR20160100640A publication Critical patent/KR20160100640A/ko
Application granted granted Critical
Publication of KR101657655B1 publication Critical patent/KR101657655B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/03Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for
    • B60R16/0315Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for using multiplexing techniques
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/10Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device
    • B60R25/102Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device a signal being sent to a remote location, e.g. a radio signal being transmitted to a police station, a security company or the owner
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

차량 내부의 사용자 단말로부터 단말 정보를 수신하는 정보 수신 단계와 단말 정보에 기초하여 사용자의 사용 언어 정보를 획득하는 정보 획득 단계와 사용 언어 정보에 따라 차량 내부의 음성인식엔진을 사용할지 외부 장치의 음성인식엔진을 사용할지 결정하는 결정 단계;를 포함하는 차량의 제어방법을 제공한다.

Description

차량 및 그 제어 방법{VEHICLE AND METHOD OF CONTROLLING THE SAME}
음성 인식 서비스가 가능한 차량 및 그 제어 방법에 관한 것이다.
음성인식엔진(voice recognition engine)은 사용자의 음성에 포함된 음향학적 정보로부터 음운, 즉 언어적 정보를 추출하여 이를 기계가 인지하고 반응할 수 있도록 사용자의 음성은 인식하는 일련의 과정을 처리한다.
최근 차량에도 음성인식엔진이 탑재되어 탑승자의 편의를 제공한다. 즉, 탑승자는 음성을 이용하여 차량의 제어할 수 있다. 예를 들어, 차량의 탑승자는 음성을 이용하여 네비게이션의 목적지를 설정하거나, 차량의 설정을 변경할 수 있다.
다만, 차량 탑승자의 사용 언어, 억양, 발음 등이 탑승자마다 상이할 수 있으므로, 차량 내부에 탑재된 음성인식엔진만으로는 충분한 음성 인식 성능을 제공하기 어려운 문제점이 있다.
(특허문헌 1) JP1996-000116572 A
사용자에 구애 받지 않고 높은 정확도로 음성 인식 서비스를 제공하는 차량 및 그 제어방법을 제공한다.
상술한 과제를 해결하기 위한 일 양상에 따른 차량은 차량 내부의 사용자 단말로부터 단말 정보를 수신하는 통신부;와 단말 정보에 기초하여 사용자의 사용 언어 정보를 획득하고, 사용 언어 정보에 따라 차량 내부의 음성인식엔진을 사용할지 외부 장치의 음성인식엔진을 사용할지 결정하는 제어부;를 포함한다.
또한, 제어부는 단말 정보에 기초하여 사용자의 국적 정보를 획득하고, 사용 언어 정보 및 국적 정보에 따라 차량 내부의 음성인식엔진을 사용할지 외부 장치의 음성인식엔진을 사용할지 결정할 수 있다.
여기서, 단말 정보는 사용자 단말의 고유번호, 사용자 단말이 등록된 통신사, 사용자 단말의 언어 설정, 사용자 단말의 주소록 정보 중 적어도 하나를 포함한다.
또한, 제어부는 사용자 단말의 언어 설정, 사용자 단말의 주소록에 등록된 이름 중 적어도 하나를 이용하여 사용자의 사용 언어 정보를 획득할 수 있다.
또한, 제어부는 사용자 단말의 고유 번호, 사용자 단말이 등록된 통신사, 사용자 단말의 주소록 정보 중 적어도 하나를 이용하여 국적 정보를 획득할 수 있다.
또한, 제어부는 차량 내부에 음성인식엔진이 사용자의 사용 언어를 지원하지 않는 경우, 외부 장치의 음성인식엔진을 사용하여 사용자의 음성인식을 수행할 수 있다.
또한, 제어부는 차량 내부에 음성인식엔진을 이용한 음성 인식이 실패하면, 외부 장치의 음성인식엔진을 사용하여 사용자의 음성인식을 수행할 수 있다.
또한, 제어부는 사용자의 사용 언어 정보 및 국정 정보에 따른 차량 내부의 음성인식엔진과 외부 장치의 음성인식엔진의 음성 인식 성공률을 비교하여 사용될 음성인식엔진을 결정할 수 있다.
또한, 제어부는 사용자의 사용 언어를 지원하는 외부 장치의 음성인식엔진이 복수 개이면, 복수 개의 외부 장치의 음성인식엔진 중 음성 인식 성공률이 가장 높은 음성인식엔진을 사용할 수 있다.
또한, 외부 장치는 사용자 단말 및 원격지에 위치한 텔레매틱스 서버 중 적어도 하나일 수 있다.
상술한 과제를 해결하기 위한 일 양상에 따른 차량의 제어 방법은 차량 내부의 사용자 단말로부터 단말 정보를 수신하는 정보 수신 단계;와 단말 정보에 기초하여 사용자의 사용 언어 정보를 획득하는 정보 획득 단계;와 사용 언어 정보에 따라 차량 내부의 음성인식엔진을 사용할지 외부 장치의 음성인식엔진을 사용할지 결정하는 결정 단계;를 포함한다.
또한, 단말 정보는 사용자 단말의 고유번호, 사용자 단말이 등록된 통신사, 사용자 단말의 언어 설정, 사용자 단말의 주소록 정보 중 적어도 하나를 포함할 수 있다.
또한, 정보 획득 단계는 사용자 단말의 언어 설정, 사용자 단말의 주소록에 등록된 이름 중 적어도 하나를 이용하여 사용자의 사용 언어 정보를 획득하는 단계;를 포함할 수 있다.
또한, 정보 획득 단계는 사용자 단말의 고유 번호, 사용자 단말이 등록된 통신사, 사용자 단말의 주소록 정보 중 적어도 하나를 이용하여 사용자의 국적 정보를 획득하는 단계;를 포함할 수 있다.
또한, 결정 단계는 사용 언어 정보 및 국적 정보에 따라 차량 내부의 음성인식엔진을 사용할지 외부 장치의 음성인식엔진을 사용할지 결정하는 단계;를 더 포함할 수 있다.
또한, 결정 단계는 차량 내부의 음성인식엔진이 사용 언어를 지원하는 판단하는 단계;를 더 포함할 수 있다.
또한, 결정 단계는 차량 내부의 음성인식엔진이 사용 언어를 지원하지 않으면, 외부 장치에 접속하여 사용 언어를 지원하는 음성인식엔진을 검색하는 단계;를 더 포함할 수 있다.
또한, 결정 단계는 차량 내부의 음성인식엔진이 사용 언어를 지원하면 차량 내부의 음성인식엔진을 이용하여 음성 인식 서비스를 제공하는 단계;와 차량 내부의 음성인식엔진을 이용하여 음성 인식이 실패하면, 외부 장치에 음성인식엔진을 사용하는 단계;를 포함할 수 있다.
또한, 결정 단계는 차량 내부의 음성인식엔진의 음성 인식 성공률과 외부 장치의 음성인식엔진을 비교하는 단계;를 더 포함할 수 있다.
또한, 외부 장치는 사용자 단말 및 원격지에 위치한 텔레매틱스 서버 중 적어도 하나일 수 있다.
사용 언어 정보에 따라 음성 인식에 사용할 음성인식엔진을 결정하는 차량 및 그 제어방법을 제공함으로써, 차량의 음성 인식 서비스의 정확도를 향상시킬 수 있다.
도 1은 일 실시예에 따른 차량을 개략적으로 도시한 도면이다.
도 2는 일 실시예에 따른 차량 시스템의 차량 내부를 개략적으로 도시한 도면이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 차량과 텔레매틱스 서버의 연결 방법의 일 실시예를 설명하기 위한 도면이다.
도 5는 사용자 정보가 표시된 디스플레이 화면의 일 예를 도시한 것이다.
도 6는 사용할 음성인식엔진을 선택하기 위한 디스플레이 화면의 일 예를 도시한 것이다.
도 7는 사용할 음성인식엔진을 선택하기 위한 디스플레이 화면의 다른 예를 도시한 것이다.
도 8 음성인식엔진의 음성 인식 성공률을 도시한 도면이다.
도 9은 텔레매틱스 서버의 음성인식엔진이 사용될 때 디스플레이 화면의 일 예를 도시한 것이다.
도 10는 일 실시예에 따른 차량의 제어 방법에 설명하기 위한 순서도이다.
도 11은 음성인식엔진 결정 방법의 일 실시예를 설명하기 위한 순서도이다.
도 12은 음성인식엔진 결정 방법의 일 실시예를 설명하기 위한 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1은 일 실시예에 따른 차량을 개략적으로 도시한 도면이고, 도 2는 일 실시예에 따른 차량 시스템의 차량 내부를 개략적으로 도시한 도면이다.
도 1에 도시된 바와 같이, 차량(10)은 차량(10)의 외관을 형성하는 차체(11), 차량(10)을 이동시키는 차륜(12, 13)을 포함한다.
차체(11)는 엔진 등과 같이 차량(10)에 구동에 필요한 각종 장치를 보호하는 후드(11a), 실내 공간을 형성하는 루프 패널(11b), 수납 공간이 마련된 트렁크 리드(11c), 차량(10)의 측면에 마련된 프런트 휀더(11d)와 쿼터 패널(11e)을 포함할 수 있다. 또한, 차체(11)의 측면에는 차체와 흰지 결합된 복수 개의 도어(14)가 마련될 수 있다.
후드(11a)와 루프 패널(11b) 사이에는 차량(10) 전방의 시야를 제공하는 프런트 윈도우(19a)가 마련되고, 루프 패널(11b)과 트렁크 리드(11c) 사이에는 후방의 시야를 제공하는 리어 원도우(19b)가 마련될 수 있다. 또한, 도어(14)의 상측에는 측면의 시야를 제공하는 측면 윈도우(19c)가 마련될 수 있다.
차량(10)의 전방에는 차량(10)의 진행 방향으로 조명을 조사하는 헤드램프(15)(Headlamp)가 마련될 수 있다. 이때, 헤드램프(15)는 차량(10)과 가까운 거리(예를 들어, 30m이내)에 조명을 조사하는 로우빔(Low Beam) 모드 또는 차량(10)과 비교적 멀 거리(예를 들어, 100M 이내)에 조명을 조사하는 하이빔(Low Beam) 모드로 동작할 수 있다. 또한, 차량(10)의 전방, 후방에는 차량(10)의 진행 방향을 지시하기 위한 방향지시램프(16)(Turn Signal Lamp)가 마련될 수 있다. 차량(10)은 방향지시램프(16)의 점멸하여 그 진행방향으로 표시할 수 있다. 또한, 차량(10)의 후방에는 테일램프(17)가 마련될 수 있다. 테일램프(17)는 차량(10)의 후방에 마련되어 차량(10)의 기어 변속 상태, 브레이크 동작 상태 등을 표시할 수 있다.
도 2에 도시된 바와 같이, 차량(10) 내부에는 탑승자가 앉는 시트(DS, PS), 차량(10) 방향을 조작하는 스티어링 휠(30), 차량(10)의 동작을 제어하고 차량(10)의 운행 정보를 표시하는 각종 계기가 마련되는 대시 보드(40), 대시 보드(40) 하단에 마련되는 기어 박스(50)를 포함한다.
시트(DS, PS)는 운전자가 앉는 운전석(DS), 동승자가 앉는 조수석(PS), 차량(10) 내 후방에 위치하는 뒷좌석(미도시)을 포함할 수 있다.
스티어링 휠(30)은 운전자에 의해 파지되는 림(31) 및 림(31)과 조향을 위한 회전축 상에 위치한 차량(10)의 조향 장치의 허브를 연결하는 스포크(32)를 포함할 수 있다. 운전자는 림(31)을 조작하여 스포크(32)를 회전시켜 차륜의 진행 방향을 변경시킴으로써 차량(10)의 주행 방향을 조절할 수 있다.
사용자의 음성을 수신하기 위해서, 운전석(DS)의 천장에는 음성 수신부(60)가 마련된다. 음성 수신부(60)는 사용자의 음성 신호를 전기적 신호로 변경하는 마이크를 포함할 수 있다. 또한, 음성 수신부(60)는 음성 신호의 잡음을 제거하기 위한 노이즈 제거 필터를 포함할 수도 있다.
또한, 스티어링 휠(30)에는 음성 인식 버튼(33)이 더 마련될 수 있다. 사용자가 음성 인식 버튼(33)을 입력하면, 음성인식엔진에 의하여 사용자의 음성이 인식되고 차량은 인식된 음성에 따라 동작한다. 음성 인식에 대해서는 아래에서 상세히 설명한다.
대시 보드(40)는 차량(10)의 주행 속도, 엔진 회전수 또는 연료 잔량 등을 표시하는 클러스터(41), 오디오/비디오 장치, 공기 조화기 또는 히터를 조정하기 위한 조작 장치가 설치된 센터페시아(42), 차량(10) 내부로 공기를 유입시키기 위한 송풍구(43)를 포함할 수 있다.
센터페시아(42) 하단에는 기어 장치가 내장되는 기어 박스(50)가 마련될 수 있다. 기어 박스(50)에는 기어 변경을 위한 기어봉(51)이 돌출될 수 있다.
또한, 기어 박스(50)에는 운전자가 차량(10)의 각종 기능을 조작하기 위한 다양한 명령을 입력할 수 있는 입력 장치(52)가 마련될 수 있다. 입력 장치(52)는 노브, 물리 버튼, 조이스틱, 레버, 트랙볼, 조작휠, 동작 센서, 물체 감지 센서 및 터치 센서 중 적어도 하나를 포함할 수 있다. 이외에도 입력 장치(52)는 통상의 지식을 가진 자가 고려할 수 있는 다양한 입력 수단을 포함할 수 있다.
센터페시아(42) 중앙에는 디스플레이(150)가 마련될 수 있다. 디스플레이(150)는 차량(10)과 관련된 정보 또는 차량(10)의 제어를 위한 화면을 사용자에게 제공할 수 있다. 예를 들어, 디스플레이(150)는 차량(10)의 음성 인식과 관련된 화면을 표시할 수 있다. 디스플레이(150)는 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널, 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널 등으로 구현될 수 있다. 아울러, 디스플레이(150)는 터치 패널이 마련되어 사용자의 터치 입력을 수신할 수도 있다.
한편, 차량(10) 내부에는 음성인식엔진이 마련되어 차량(10) 탑승자인 사용자의 음성을 인식하고, 인식된 음성에 따라 차량(10)을 제어할 수 있다. 음성인식엔진(voice recognition engine)은 사용자의 음성에 포함된 음향학적 정보로부터 음운, 즉 언어적 정보를 추출하여 이를 차량(10)이 인지하고 반응할 수 있는 형태로 출력한다. 구체적으로, 음성인식엔진은 음성 인식을 위한 문법 정보가 저장된 문법 데이터 베이스, 음성 인식의 대상인 단어가 저장된 어휘 데이터 베이스 등을 구비하고, 미리 설정된 알고리즘에 따라 입력된 음성으로부터 언어학적 정보를 추출할 수 있다.
또한, 차량(10)은 차량(10) 내부에 마련된 음성인식엔진이 사용자의 음성 인식을 처리하기 적합하지 않은 때에는 사용자의 음성 인식을 처리하기 적합한 외부 장치에 마련된 음성인식엔진을 검색하고, 검색된 음성인식엔진을 이용하여 음성 인식 서비스를 제공할 수 있다. 이때, 외부 장치는 차량(10)과 통신망으로 연결 가능한 장치를 의미하는 것으로, 예를 들어, 텔레매틱스 서버(300) 및 사용자 단말(200) 중 하나의 장치일 수 있다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 3을 참조하면 차량(10)은 외부 장치와 통신할 수 있다. 이하, 일 실시예에 따른 차량(10)을 설명하기 앞서, 차량(10)과 통신하는 외부 장치의 일 실시예인 사용자 단말(200) 및 텔레매틱스 서버(300)에 대하여 먼저 설명한다.
사용자 단말(200)은 차량 통신부(110)와 연결되어, 차량(10)과 데이터를 송수신할 수 있다. 사용자 단말(200)은 차량(10) 탑승자가 소지한 휴대용 전자 장치를 의미하는 것으로, 차량 통신부(110)와 통신이 가능한 휴대용 전자 장치는 모두 사용자 단말(200)이 될 수 있다. 예를 들어, 사용자 단말(200)은 PMP(Portable Media Player), PDA(Personal Digital Assistant), 타블렛 PC(Tablet PC), 스마트폰(Smart Phone)등과 같은 휴대용 전자 장치뿐만 아니라, 시계 또는 안경 등의 형태로 사용자가 착용하여 사용하는 다양한 웨어러블(Wearable) 장치를 포함한다.
구체적으로, 사용자 단말(200)은 다른 장치와 통신하기 위한 단말 통신부(210), 제2 음성인식엔진(231)이 마련된 단말 저장부(230), 사용자 단말(200)을 전반적으로 제어하는 단말 제어부(220)를 포함할 수 있다.
단말 통신부(210)는 유선 통신, 근거리 통신, 무선 통신 방법 중 적어도 하나의 방법으로 다른 장치와 통신할 수 있다. 구체적으로, 단말 통신부(210)는 차량 통신부(110)와 유선 통신 또는 근거리 통신 방법으로 연결되어 차량(10)에 단말 정보를 수신하거나, 차량(10)의 제2 음성인식엔진(231) 사용 요청에 따라 필요한 데이터를 차량(10)과 송수신할 수 있다.
단말 정보는 사용자 단말(200)의 고유번호, 사용자 단말(200)이 등록된 통신사, 사용자 단말(200)의 언어 설정, 사용자 단말(200)의 주소록 등과 같이 사용자와 관련된 정보를 획득할 수 있는 정보를 의미한다.
단말 저장부(230)는 사용자 단말(200)에 구동에 필요한 데이터를 저장한다. 예를 들어, 단말 저장부(230)는 사용자 단말(200)의 설정 정보, 운영체제, 사용자 단말(200)의 구동에 필요한 어플리케이션을 저장할 수 있다. 또한, 단말 저장부(230)에는 제2 음성인식엔진(231)이 마련될 수 있다. 이때, 제2 음성인식엔진(231)은 차량(10)의 제1 음성인식엔진(121) 및 텔레매틱스 서버(300)의 제3 음성인식엔진(331)과 다른 것일 수 있다.
단말 저장부(230)는 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM) 등을 포함할 수 있으나, 이에 한정 되는 것은 아니다. 또한, 단말 저장부(230)는 사용자 단말(200)과 탈착이 가능할 수 있다. 예를 들어, 저장부(140)는 CF 카드(Compact Flash Card), SD 카드(Secure Digital Card), SM카드(Smart Media Card), MMC(Multimedia Card) 또는 메모리 스틱(Memory Stick)을 포함할 수 있으나, 이에 한정되는 것은 아니다.
단말 제어부(220)는 단말을 전반적으로 제어한다. 단말 제어부(220)는 차량(10)의 단말 정보 제공 요청에 따라 단말 정보를 수집한다. 구체적으로, 단말 제어부(220)는 단말 내부의 언어 설정을 검색하거나, 주소록을 수집할 수 있다. 또한, 단말 제어부(220)는 국제모바일기기 식별코드(International Mobile Equipment Identity; IMEI), 디바이스 고유 번호(Device Unique IDentifier; DUID, 또는 MAC address 등과 같은 사용자 단말(200)의 고유번호를 수집하고, 내장된 유심(Universal Subscriber Identity Module; USIM) 칩에 저장된 정보에 기초하여 사용자 단말(200)이 등록된 통신사 정보를 수집할 수 있다.
또한, 단말 제어부(220)는 차량(10)의 요청에 따라 내부에 마련된 제2 음성인식엔진(231)을 검색하고, 제2 음성인식엔진(231)에 대한 정보를 차량(10)으로 전송할 수 있다. 아울러, 단말 제어부(220)는 차량(10)의 음성 인식 요청에 따라 제2 음성인식엔진(231)을 사용하여 차량(10)으로부터 수신된 음성의 인식을 수행하고, 음성 인식 결과를 차량(10)으로 전송할 수 있다.
또한, 단말 제어부(220)는 하나 또는 복수 개의 프로세서에 해당할 수 있다. 이때, 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다.
텔레매틱스 서버(300)는 차량(10)과 무선으로 통신할 수 있는 장치로, 차량(10)에 소정의 정보 또는 서비스를 제공할 수 있다. 구체적으로, 텔레매틱스 서버(300)는 서버 통신부(310), 서버 제어부(320), 서버 저장부(330)를 포함할 수 있다.
서버 통신부(310)는 유선 통신, 무선 통신 방법 중 적어도 하나의 방법으로 다른 장치와 통신할 수 있다. 구체적으로, 단말 통신부(210)는 차량 통신부(110)와 유선 통신 또는 무선 통신 방법으로 연결되어 차량(10)의 제3 음성인식엔진(331) 사용 요청에 따라 필요한 데이터를 차량(10)과 송수신할 수 있다.
서버 저장부(330)는 텔레매틱스 서버(300)의 구동에 필요한 데이터를 저장한다. 구체적으로, 서버 저장부(330)에는 적어도 하나의 제3 음성인식엔진(331)이 마련될 수 있다. 서버 저장부(330)는 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM) 등을 포함할 수 있으나, 이에 한정 되는 것은 아니다.
서버 제어부(320)는 텔레매틱스 서버(300)를 전반적으로 제어한다. 서버 제어부(320)는 차량(10)의 요청에 따라 내부에 마련된 제3 음성인식엔진(331)을 검색하고, 검색된 제3 음성인식엔진(331)에 대한 정보를 차량(10)으로 전송할 수 있다. 아울러, 서버 제어부(320)는 차량(10)의 음성 인식 요청에 따라 제3 음성인식엔진(331)을 사용하여 차량(10)으로부터 수신된 음성의 인식을 수행하고, 음성 인식 결과를 차량(10)으로 전송할 수 있다.
차량(10)은 외부 장치와 데이터를 송수신하는 차량(10) 차량 통신부(110), 차량(10)의 제어와 관련된 정보를 저장하는 차량 저장부(120), 차량(10)을 전반적으로 제어하는 차량 제어부(130)를 포함할 수 있다.
차량 통신부(110)는 외부 장치와 데이터를 송수신한다. 구체적으로, 차량 통신부(110)는 차량(10) 내부에 위치하는 사용자 단말(200), 또는 차량(10) 외부에 위치하는 텔레매틱스 서버(300)와 통신할 수 있다. 차량 통신부(110)는 외부 장치와 통신하기 위하여 유선 통신 모듈(111), 근거리 통신 모듈(112), 무선통신 모듈(113) 중 적어도 하나를 포함할 수 있다. 유선 통신 모듈(111)은 예를 들어, PCI(Peripheral Component Interconnect), PCI-express, USB(Universe Serial Bus) 등의 유선 통신 방법을 통해 외부 장치와 차량 통신부(110)를 연결한다.
근거리 통신 모듈(112)은 근거리 통신 방법을 이용하여 외부 장치와 차량 통신부(110)를 연결한다. 예를 들어, 근거리 통신 모듈(112)은 블루투스(bluetooth), 블루투스 저 에너지(bluetooth low energy), 적외선 통신(IrDA, infrared data association), 지그비(Zigbee), 와이파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi direct), UWB(Ultra Wideband), 또는 근접장 통신(NFC, near field communication) 등과 같은 근거리 통신 방법으로 외부 장치와 차량 통신부(110)를 연결할 수 있다.
무선통신 모듈(113)은 무선 통신 방법을 이용하여 외부 장치와 차량 통신부(110)를 연결한다. 예를 들어, 무선통신 모듈(113)은 GSM/3GPP 계열의 통신 방식(GSM, HSDPA, LTE 어드밴스드), 3GPP2 계열의 통신 방식(CDMA 등), 와이맥스, 또는 위성항법시스템(Global Positioning System; GPS)을 이용한 통신 방식 등의 무선 통신 방식을 통해 통신 네트워크에 연결할 수 있다.
구체적으로, 차량 통신부(110)는 차량(10) 내부의 사용자 단말(200)에 연결될 수 있다. 사용자 단말(200)과 차량 통신부(110)의 연결 방법에는 그 제한이 없으나, 사용자 단말(200)은 유선 통신 방법 또는 근거리 통신 방법에 따라 차량 통신부(110)와 연결될 수 있다. 예를 들어, 차량 통신부(110)는 와이파이 또는 블루투스 통신 방법으로 사용자 단말(200)과 연결될 수 있다.
사용자 단말(200)과 연결된 차량 통신부(110)는 차량 제어부(130)의 제어에 따라 사용자 단말(200)에 단말 정보를 요청하고, 사용자 단말(200)로부터 단말 정보를 전송 받을 수 있다. 또한, 차량 통신부(110)는 단말 통신부(210)와 연결되어 사용자 단말(200)에 저장된 제2 음성인식엔진(231)의 검색을 요청하거나, 제2 음성인식엔진(231)을 이용하기 위한 데이터를 송수신할 수 있다.
또한, 차량 통신부(110)는 원격지에 위치한 텔레매틱스 서버(300)와 연결될 수 있다. 차량 통신부(110)는 원격지에 위치한 텔레매틱스 서버(300)와 무선 통신 방법에 의하여 연결될 수 있으나, 이에 한정되는 것이 아니다. 예를 들어, 도 4에 도시된 바와 같이, 사용자 단말(200)을 중계기로 사용하여 텔레매틱스 서버(300)와 연결될 수 있다.
도 4는 차량과 텔레매틱스 서버의 연결 방법의 일 실시예를 설명하기 위한 도면이다. 도 4에 도시된 바와 같이, 차량(10)은 무선 통신 방법으로 텔레매틱스 서버(300)와 연결 가능한 사용자 단말(200)을 통해 텔레매틱스 서버(300)와 연결될 수 있다. 즉, 차량 통신부(110)는 무선 통신 방법으로 텔레매틱스 서버(300)와 연결된 사용자 단말(200)과 근거리 통신 방법으로 연결되어, 사용자 단말(200)을 통해 텔레매틱스 서버(300)와 연결될 수 있다.
텔레매틱스 서버(300)와 연결된 차량 통신부(110)는 텔레매틱스 서버(300)에 음성인식엔진의 검색을 요청하거나, 제3 음성인식엔진(331)을 사용하기 위해 필요한 데이터를 송수신할 수 있다. 예를 들어, 차량 통신부(110)는 음성 수신부(60)를 통해 입력된 사용자의 음성을 텔레매틱스 서버(300)에 전송하고, 제3 음성인식엔진(331)을 사용하여 인식된 음성 인식 결과를 수신할 수 있다.
차량 저장부(120)는 차량(10)의 구동에 필요한 데이터를 저장한다. 차량 저장부(120)는 자기 디스크(magnetic disc), 반도체 디스크(solid state disk) 등의 비휘발성 메모리로 포함하거나, 에스램(SRAM), 디램(DRAM), 롬(ROM) 등을 포함할 수 있으나, 이에 한정 되는 것은 아니다.
차량 저장부(120)는 제1 음성인식엔진(121)을 포함할 수 있다. 제1 음성인식엔진(121)은 차량 제어부(130)에 로딩되어, 음성 수신부를 통해 입력되는 사용자의 음성을 인식할 수 있다.
차량 제어부(130)는 차량(10)을 전반적으로 제어할 수 있다. 구체적으로, 차량 제어부(130)는 음성 인식 버튼(33)이 선택되면, 음성 수신부(60)를 통해 입력되는 사용자의 음성을 인식하고, 인식된 음성에 따라 차량(10)의 제어할 수 있다. 예를 들어, 차량 제어부(130)는 사용자의 음성을 인식하여 네비게이션의 목적지를 설정하거나, 차량(10)의 설정을 변경할 수 있다. 이하, 차량 제어부(130)의 음성 인식에 대하여 상세히 설명한다.
도 5는 사용자 정보가 표시된 디스플레이(150) 화면의 일 예를 도시한 것이다.
음성 인식의 정확도를 향상시키기 위해서는 차량(10) 탑승자에 적합한 음성인식엔진을 사용하는 것이 바람직하다. 그러므로, 차량 제어부(130)는 차량 통신부(110)를 제어하여 사용자 단말(200)로부터 단말 정보를 획득한다. 그리고, 획득된 단말 정보에 기초하여 차량(10) 탑승자, 다른 말로 음성 인식 서비스의 사용자에 대한 사용자 정보를 분석할 수 있다.
사용자 정보는 사용자인 차량(10) 탑승자에 대한 정보를 의미하는 것으로, 사용자 정보는 사용자의 사용 언어 정보, 및 사용자의 국적 정보 중 적어도 하나를 포함할 수 있다. 사용자 정보는 상술한 사용자 단말(200)로부터 수신한 단말 정보에 분석하여기초하여 획득된다. 될 수 있다.
구체적으로, 사용자의 사용 언어는 단말 정보 중 사용자 단말(200)의 언어 설정에 기초하여 획득될 수 있다. 사용자 단말(200)은 사용자가 사용하는 언어에 따라 설정되는 것이 일반적이므로, 사용 언어는 사용자 단말(200)의 설정 언어와 동일한 언어로 분석될 수 있다. 예를 들어, 사용자 단말(200)의 언어 설정이 "한국어"로 된 경우, 차량 제어부(130)는 사용자 단말(200)의 언어 설정과 동일하게 "한국어"를 사용 언어로 분석할 수 있다.
또한, 사용자의 사용 언어는 단말 정보 중 주소록 정보에 기초하여 획득될 수 있다. 차량 제어부(130)는 주소록에서 사용 빈도가 가장 높은 언어를 사용자의 사용 언어로 분석할 수 있다. 예를 들어, 주소록에 저장된 이름이 대부분 "영어"인 경우, 차량 제어부(130)는 "영어"를 사용 언어로 분석할 수 있다.
또한, 사용 언어는 사용자 단말(200)의 고유번호, 또는 사용자 단말(200)이 등록된 통신사 등에 기초하여 분석될 수 있다. 기초하여 획득될 수도 있다, 예를 들어, 사용자 단말(200)의 고유 번호 또는 등록된 통신사 정보에 기초하여 사용자 단말(200)이 등록된 지역에서 사용되는 언어를 분석하여 사용 언어를 획득할 수 있다.
한편, 국적 정보는 사용자 단말(200)의 고유번호, 또는 사용자 단말(200)이 등록된 통신사에 기초하여 분석될 수 있다. 구체적으로, 각 국가 별로 사용자 단말(200)의 고유번호, 및 사용자 단말(200)이 등록되는 통신사가 상이한 바, 차량 제어부(130)는 사용자 단말(200)의 고유번호, 및 사용자 단말(200)이 등록된 통신사 중 적어도 하나의 정보에 기초하여 사용자의 국적 정보를 획득할 수 있다.
또한, 사용 언어 정보 및 국적 정보는 사용자의 발화에 기초하여 획득될 수 있다. 사용자 음성은 사용자의 사용 언어 또는 국적에 따라 서로 상이한 특징을 가지는 바, 차량 제어부(130)는 음성 수신부(60)를 통해 입력되는 사용자의 음성에서 특징을 추출하고, 추출된 특징에 기초하여 사용 언어 정보 또는 국적 정보를 획득할 수 있다.
디스플레이(150)는 도 5에 도시된 것과 같이, 단말 정보로부터 획득된 사용자 정보를 디스플레이(150)에 표시할 수 있다. 디스플레이(150)에는 단말 정보로부터 획득한 사용자 언어 정보 및 국적 정보가 표시된다. 이때, 화면에는 사용자 정보를 수정하기 위한 수정 아이콘(152)과 사용자 정보를 확인하기 위한 확인 아이콘(151)이 함께 표시될 수 있다. 사용자는 자신의 사용자 정보가 틀린 경우 수정 아이콘(152)을 선택하여 사용자 정보를 수정할 수 있다.
도 6는 사용할 음성인식엔진을 선택하기 위한 디스플레이 화면의 일 예를 도시한 것이고, 도 7는 사용할 음성인식엔진을 선택하기 위한 디스플레이 화면의 다른 예를 도시한 것이다.
차량 제어부(130)는 사용 언어 정보와 국적 정보에 기초하여 차량 저장부(120)에 마련된 제1 음성인식엔진(121)을 사용할지, 외부 장치에 마련된 음성인식엔진(231)을 사용할지 결정할 수 있다.
구체적으로, 차량 제어부(130)는 차량 저장부(120)에 마련된 제1 음성인식엔진(121)이 사용자의 사용 언어를 지원하는지 판단한다. 차량 저장부(120)에 마련된 제1 음성인식엔진(121)이 사용자의 사용 언어를 지원하지 않은 경우, 차량 제어부(130)는 차량 통신부(110)를 제어하여 외부 장치에 사용자의 사용 언어를 지원하는 음성인식엔진이 있는지 검색한다. 예를 들어, 차량 제어부(130)는 차량 통신부(110)를 제어하여 사용자 단말(200)의 제2 음성인식엔진(231) 또는 텔레매틱스 서버(300)의 제3 음성인식엔진(331)이 사용자의 사용 언어를 지원하는지 검색한다.
차량 제어부(130)는 사용자의 사용 언어를 지원하는 음성인식엔진이 검색되면, 검색된 음성인식엔진을 사용하여 음성 인식 서비스를 제공한다. 예를 들어, 텔레매틱스 서버(300)에 마련된 제3 음성인식엔진(331)이 사용자의 사용 언어를 지원하는 경우, 차량 제어부(130)는 음성 수신부(60)를 통해 입력된 사용자의 음성을 텔레매틱스 서버(300)에 전송하고, 텔레매틱스 서버(300)로부터 제3 음성인식엔진(331)에 사용하여 음성 인식을 수행할 결과를 수신하여 음성 인식 서비스를 제공한다.
한편, 차량 저장부(120)에 마련된 제1 음성인식엔진(121)이 사용자의 사용 언어를 지원하는 경우, 차량 제어부(130)는 제1 음성인식엔진(121)을 사용하여 음성 인식 서비스를 제공할 수 있다. 다만, 제1 음성인식엔진(121)이 음성 인식에 실패하거나, 음성 인식 성공률이 임계치 이하로 떨어지면, 차량 제어부(130)는 외부 장치에서 사용자의 사용 언어를 지원하는 음성인식엔진을 검색하고, 검색된 음성인식엔진을 사용하여 음성 인식 서비스를 제공할 수도 있다.
한편, 사용자의 사용 언어를 지원하는 음성인식엔진이 복수 개 검색된 경우, 차량 제어부(130)는 사용자에 복수 개의 음성인식엔진 중 사용자가 선택된 음성인식엔진을 사용할 수 있다.
예를 들어, 차량 저장부(120)에 마련된 제1 음성인식엔진(121)과 텔레매틱스 서버(300)에 마련된 제3 음성인식엔진(331)이 모두 사용자의 사용 언어를 지원하는 경우, 디스플레이(150)는 도 6에 도시된 것과 같이 사용 가능한 음성인식엔진을 표시할 수 있다. 구체적으로, 디스플레이(150)는 차량(10) 내부 음성인식엔진 선택 아이콘(154)과 텔레매틱스 음성인식엔진 선택 아이콘(155)을 표시할 수 있다.
또한, 사용자 단말(200)의 제2 음성인식엔진(231)과 텔레매틱스 서버(300)의 제3 음성인식엔진(331) 모두 사용자의 사용 언어를 지원하는 경우, 디스플레이(150)는 음성인식엔진 선택 화면을 표시할 수 있다. 구체적으로, 디스플레이(150)는 도 7에 도시된 바와 같이, 사용자 단말 음성인식엔진 선택 아이콘(156)과 텔레매틱스 음성인식엔진 선택 아이콘(157)을 표시할 수 있다. 이때, 각 아이콘에는 음성 인식 성공률이 함께 표시될 수도 있다,
한편, 도 3에서는 텔레매틱스 서버(300) 및 사용자 단말(200)에는 하나의 음성인식엔진이 마련된 것으로 도시되어 있으나, 텔레매틱스 서버(300)와 사용자 단말(200)에는 복수 개의 음성인식엔진이 마련될 수 있다.
사용자의 사용 언어를 지원하는 복수 개의 음성인식엔진이 검색된 경우, 차량 제어부(130)는 음성 인식 성공률에 따라 사용할 음성인식엔진이 선택할 수 있다. 이때, 음성 인식 성공률은 미리 산출되어 저장된 것일 수 있으나, 이에 한정되지 않는다.
구체적으로, 사용자의 사용 언어를 지원하는 음성인식엔진이라 하더라도, 그 음성 인식 성공률이 기대치에 못 미치는 경우 사용자는 불편을 경험하게 된다. 그러므로, 차량 제어부(130)는 음성 인식 성공률에 기초하여 음성 인식에 사용할 음성인식엔진을 결정할 수 있다.
도 8 음성인식엔진의 음성 인식 성공률을 도시한 도면이다. 도 8에 도시된 것과 같이, 음성인식엔진의 인식 성공률은 언어, 및 언어를 구사하는 사용자의 국적에 따라 상이할 있다. 동일한 언어를 사용하더라도 언어 사용자의 국적에 따라 발음, 톤, 강세 등과 같은 언어적 특징이 다른 바, 국적 별로 음성 인식 엔진의 인식 성공률이 상이할 수 있다. 그러므로, 차량 제어부(130)는 사용자의 사용 언어 정보 및 국적 정보에 기초하여 음성 인식에 사용할 음성인식엔진을 결정할 수 있다.
구체적으로, 차량 제어부(130)는 사용자의 사용 언어가 한국어이면 음성 인식 성공률이 가장 높은 차량(10) 내부의 제1 음성인식엔진(121)을 사용한다. 그러나, 사용자의 사용 언어가 영어이면, 사용자의 국적 정보에 따라 사용자의 국적이 미국(US)이면 사용자 단말(200)에 마련된 제2 음성인식엔진(231)을 사용하고, 사용자의 국적이 영국(EN)이면 텔레매틱스에 마련된 제3 음성인식엔진(331)을 사용한다.
도 9은 텔레매틱스 서버의 음성인식엔진이 사용될 때 디스플레이 화면의 일 예를 도시한 것이다. 사용자가 음성 인식 버튼(33)을 입력하면, 디스플레이(150)는 도 9에 도시된 바와 같이, 음성 인식 화면을 표시할 수 있다. 음성 인식 화면에는 현재 사용 중인 음성인식엔진을 표시할 수 있다. 예를 들어, 텔레매틱스에 마련된 제3 음성인식엔진을 사용 중인 경우, 도 9에 도시된 것과 같이 텔레매틱스의 음성인식엔진을 이용중임을 표시할 수 있다.
차량 제어부(130)는 하나 또는 복수 개의 프로세서에 해당할 수 있다. 이때, 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다.
도 10는 일 실시예에 따른 차량의 제어 방법에 설명하기 위한 순서도이다.
도 1 및 도 10를 참조하면, 차량(10)은 차량(10) 내부의 사용자 단말(200)을 검색한다(501). 차량(10)은 유선 통신 방법 및 근거리 통신 방법을 이용하여 차량(10) 내부에 위치한 사용자 단말(200)을 검색할 수 있다.
차량(10)은 사용자 단말(200)에 접속하여, 단말 정보를 요청한다(503). 차량(10)과 사용자 단말(200)의 접속 방법은 사용자 단말(200)의 검색된 방법에 따라 결정될 있다. 예를 들어, 사용자 단말(200)이 WI-FI로 검색된 경우, 차량(10)과 사용자 단말(200)은 근거리 통신 모듈(112)에 의하여 연결된다. 차량(10)은 연결된 사용자 단말(200)에 단말 정보를 요청한다. 사용자 단말(200)은 차량(10)의 단말 정보 요청에 따라 사용자 단말(200) 내부에 정보를 수집하고, 수집된 정보를 차량(10)으로 전송할 수 있다.
차량(10)은 사용자 단말(200)로부터 단말 정보를 수신하고(505), 수신한 단말 정보에 기초하여 사용자 정보를 획득한다(507). 사용자 정보는 사용자의 사용 언어 정보, 및 국적 정보 중 적어도 하나를 포함할 수 있다. 구체적으로, 사용자의 사용 언어 정보는 사용자 단말(200)의 언어 설정, 사용자 단말(200)의 주소록 정보, 사용자 단말(200)의 고유번호, 및 사용자 단말(200)이 등록된 통신사 중 적어도 하나의 정보에 기초하여 분석될 수 있다. 또한, 국적 정보는 사용자 단말(200)의 고유번호, 또는 사용자 단말(200)이 등록된 통신사에 기초하여 분석될 수 있다.
차량(10)은 획득된 사용자 정보에 기초하여 사용자 음성 인식에 사용할 음성인식엔진을 결정한다(509). 음성 인식의 정확도를 향상시키기 위해서는 차량(10) 탑승자에 적합한 음성인식엔진을 사용하는 것이 바람직하다. 그러므로, 차량(10)은 사용자 정보에 기초하여 차량(10) 내부에 마련된 음성인식엔진을 이용하여 음성 인식을 수행하는 것이 적합한지 판단하다.
그리고, 차량(10) 내부에 마련된 음성인식엔진을 이용하여 사용자의 음성 인식을 수행하기 어려운 것으로 판단되면, 외부에 마련된 장치, 예를 들어, 사용자 단말(200) 또는 텔레매틱스 서버(300)를 검색하여 사용자의 음성 인식을 수행하기 적합한 음성인식엔진을 검색하고, 검색된 음성인식엔진을 이용하여 음성 인식을 수행할 수 있다. 이하, 음성 인식에 사용할 음성인식엔진을 결정하는 방법에 대하여 더 구체적으로 설명한다.
도 11은 음성인식엔진 결정 방법의 일 실시예를 설명하기 위한 순서도이다.
도 3, 및 도 11를 참조하면, 차량(10)은 내부의 음성인식엔진이 사용자의 사용 언어를 지원하는 판단한다(601).
내부에 저장된 제1 음성인식엔진(121)이 사용자의 사용 언어를 지원하는 경우(601의 예), 차량(10)은 내부의 제1 음성인식엔진(121)을 사용하여 음성인식 서비스를 제공한다(602).
그리고, 차량(10)은 음성 인식이 성공하는지 판단한다(603). 차량(10)은 제1 음성인식엔진(121)을 사용하여 사용자의 음성 인식에 실패하면(603의 아니오), 차량(10)은 외부 장치의 음성인식엔진을 사용하는 것으로 결정하여, 605 단계로 분기한다.
한편, 차량(10) 내부에 저장된 제1 음성인식엔진(121)이 사용자의 사용 언어를 지원하지 않은 경우(601의 아니오), 차량(10)은 외부 장치의 음성인식엔진을 사용하는 것으로 결정한다.
구체적으로, 차량(10)은 외부 장치 예를 들어, 사용자 단말(200) 또는 텔레매틱스 서버(300)에 접속한다(605). 차량(10)은 접속된 외부 장치에 사용자 언어를 지원하는 음성인식엔진의 검색을 요청하고(606), 검색된 음성인식엔진을 사용하여 음성인식서비스를 제공한다(607). 검색된 음성인식엔진이 복수 개인 경우, 차량(10)은 사용자에 의하여 선택된 하나의 음성인식엔진을 사용할 수 있으나 이에 한정되는 것이 아니다. 예를 들어, 차량(10)은 국적 정보에 기초하여 복수 개의 음성인식엔진의 인식 성공률을 비교하고, 가장 음성 인식 성공률이 높은 음성인식엔진을 이용하여 음성 인식 서비스를 제공할 수 있다.
도 12은 음성인식엔진 결정 방법의 일 실시예를 설명하기 위한 순서도이다.
도 3 및 도 12를 참조하면, 차량(10)은 외부 장치에 접속한다(701).
차량(10)은 외부 장치에 사용자의 사용 언어를 지원하는 음성인식엔진의 검색을 요청한다(702).
차량(10)은 내부에 저장된 음성인식엔진의 음성 인식 성공률이 외부 장치의 음성인식엔진의 음성 인식 성공률보다 높은지 판단한다(703).
차량(10) 내부에 저장된 음성인식엔진의 음성 인식 성공률이 높으면(703의 예), 차량(10)은 차량(10)은 내부에 저장된 음성인식엔진을 이용하여 음성 인식 서비스를 제공한다(704).
외부 장치에 저장된 음성인식엔진의 음성 인식 성공률이 높으면(703의 아니오), 차량(10)은 차량(10)은 외부 장치에 저장된 음성인식엔진을 이용하여 음성 인식 서비스를 제공한다(705).
본원 발명의 실시 예 들과 관련된 기술 분야에서 통상의 지식을 가진 자는 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 방법들은 한정적인 관점이 아닌 설명적 관점에서 고려되어야 한다. 본 발명의 범위는 발명의 상세한 설명이 아닌 특허청구 범위에 나타나며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10: 차량 110: 차량 통신부
120: 차량 저장부 130: 차량 제어부
150: 디스플레이 200: 사용자 단말
210: 단말 통신부 220: 단말 제어부
230: 단말 저장부 300: 텔레매틱스 서버
310: 서버 통신부 320: 서버 제어부
330: 서버 저장부

Claims (20)

  1. 차량 내부의 사용자 단말로부터 단말 정보를 수신하는 통신부; 및
    상기 단말 정보에 기초하여 사용자 정보를 분석하고, 분석된 상기 사용자 정보에 기초하여 사용자의 사용 언어 정보 및 국적 정보 중 적어도 하나를 획득하고, 획득된 상기 사용자의 사용 언어 정보 및 국적 정보 중 적어도 하나에 기초하여, 상기 사용자의 사용 언어를 판단하고, 판단된 상기 사용 언어를 지원하는지 여부로 차량 내부의 음성인식엔진을 사용할지 외부 장치의 음성인식엔진을 사용할지 결정하는 제어부;를 포함하는 차량
  2. 삭제
  3. 제1항에 있어서,
    상기 단말 정보는 상기 사용자 단말의 고유번호, 상기 사용자 단말이 등록된 통신사, 상기 사용자 단말의 언어 설정, 상기 사용자 단말의 주소록 정보 중 적어도 하나를 포함하는 차량.
  4. 제3항에 있어서,
    상기 제어부는 상기 사용자 단말의 언어 설정, 상기 사용자 단말의 주소록에 등록된 이름 중 적어도 하나를 이용하여 상기 사용자의 사용 언어 정보를 획득하는 차량.
  5. 제3항에 있어서,
    상기 제어부는 상기 사용자 단말의 고유 번호, 상기 사용자 단말이 등록된 통신사, 상기 사용자 단말의 주소록 정보 중 적어도 하나를 이용하여 상기 국적 정보를 획득하는 차량.
  6. 제1항에 있어서,
    상기 제어부는 상기 차량 내부에 음성인식엔진이 상기 사용자의 사용 언어를 지원하지 않는 경우, 상기 외부 장치의 음성인식엔진을 사용하여 사용자의 음성인식을 수행하는 차량.
  7. 제1항에 있어서,
    상기 제어부는 상기 차량 내부에 음성인식엔진을 이용한 음성 인식이 실패하면, 상기 외부 장치의 음성인식엔진을 사용하여 사용자의 음성인식을 수행하는 차량.
  8. 제3항에 있어서,
    상기 제어부는 상기 사용자의 사용 언어 정보 및 상기 국적 정보에 따른 상기 차량 내부의 음성인식엔진과 상기 외부 장치의 음성인식엔진의 음성 인식 성공률을 비교하여 사용될 음성인식엔진을 결정하는 차량.
  9. 제8항에 있어서,
    상기 제어부는 상기 사용자의 사용 언어를 지원하는 상기 외부 장치의 음성인식엔진이 복수 개이면, 상기 복수 개의 외부 장치의 음성인식엔진 중 상기 음성 인식 성공률이 가장 높은 음성인식엔진을 사용하는 차량.
  10. 제1항에 있어서,
    상기 외부 장치는 상기 사용자 단말 및 원격지에 위치한 텔레매틱스 서버 중 적어도 하나인 차량.
  11. 차량 내부의 사용자 단말로부터 단말 정보를 수신하는 정보 수신 단계;
    상기 단말 정보에 기초하여 사용자 정보를 분석하고, 분석된 상기 사용자 정보를 기초하여 사용자의 사용 언어 정보 및 국적 정보 중 적어도 하나를 획득하는 정보 획득 단계;
    획득된 상기 사용자의 사용 언어 정보 및 국적 정보 중 적어도 하나에 기초하여, 상기 사용자의 사용 언어를 판단하는 단계; 및
    판단된 상기 사용 언어를 지원하는지 여부로 차량 내부의 음성인식엔진을 사용할지 외부 장치의 음성인식엔진을 사용할지 결정하는 결정 단계;를 포함하는 차량의 제어방법.
  12. 제11항에 있어서,
    상기 단말 정보는 상기 사용자 단말의 고유번호, 상기 사용자 단말이 등록된 통신사, 상기 사용자 단말의 언어 설정, 상기 사용자 단말의 주소록 정보 중 적어도 하나를 포함하는 차량의 제어방법.
  13. 제12항에 있어서,
    상기 정보 획득 단계는 상기 사용자 단말의 언어 설정, 상기 사용자 단말의 주소록에 등록된 이름 중 적어도 하나를 이용하여 상기 사용자의 사용 언어 정보를 획득하는 단계;를 포함하는 차량의 제어방법.
  14. 제12항에 있어서,
    상기 정보 획득 단계는 상기 사용자 단말의 고유 번호, 상기 사용자 단말이 등록된 통신사, 상기 사용자 단말의 주소록 정보 중 적어도 하나를 이용하여 상기 사용자의 국적 정보를 획득하는 단계;를 포함하는 차량의 제어방법.
  15. 삭제
  16. 제11항에 있어서,
    상기 결정 단계는 상기 차량 내부의 음성인식엔진이 상기 사용 언어를 지원하는 판단하는 단계;를 더 포함하는 차량의 제어방법.
  17. 제16항에 있어서,
    상기 결정 단계는 차량 내부의 음성인식엔진이 상기 사용 언어를 지원하지 않으면, 상기 외부 장치에 접속하여 상기 사용 언어를 지원하는 음성인식엔진을 검색하는 단계;를 더 포함하는 차량의 제어방법.
  18. 제16항에 있어서,
    상기 결정 단계는 상기 차량 내부의 음성인식엔진이 상기 사용 언어를 지원하면 상기 차량 내부의 음성인식엔진을 이용하여 음성 인식 서비스를 제공하는 단계; 및
    상기 상기 차량 내부의 음성인식엔진을 이용하여 음성 인식이 실패하면, 상기 외부 장치에 음성인식엔진을 사용하는 단계;를 포함하는 차량의 제어방법.
  19. 제11항에 있어서,
    상기 결정 단계는 상기 차량 내부의 음성인식엔진의 음성 인식 성공률과 상기 외부 장치의 음성인식엔진을 비교하는 단계;를 더 포함하는 차량의 제어방법.
  20. 제11항에 있어서,
    상기 외부 장치는 상기 사용자 단말 및 원격지에 위치한 텔레매틱스 서버 중 적어도 하나인 차량 제어방법.
KR1020150023347A 2015-02-16 2015-02-16 차량 및 그 제어 방법 KR101657655B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150023347A KR101657655B1 (ko) 2015-02-16 2015-02-16 차량 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150023347A KR101657655B1 (ko) 2015-02-16 2015-02-16 차량 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20160100640A KR20160100640A (ko) 2016-08-24
KR101657655B1 true KR101657655B1 (ko) 2016-09-19

Family

ID=56884153

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150023347A KR101657655B1 (ko) 2015-02-16 2015-02-16 차량 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR101657655B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11676062B2 (en) 2018-03-06 2023-06-13 Samsung Electronics Co., Ltd. Dynamically evolving hybrid personalized artificial intelligence system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102302870B1 (ko) * 2017-03-15 2021-09-17 현대자동차주식회사 차량의 텔레매틱스 시스템 및 그 서비스 제공 방법
KR101910385B1 (ko) 2017-06-22 2018-10-22 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100337482B1 (ko) 1999-10-15 2002-05-23 김영민 네비게이션 시스템 및 이의 방법
JP2004054501A (ja) 2002-07-18 2004-02-19 Olympus Corp 情報端末装置、サーバから言語識別情報に対応する情報を得る方法、及びそのプログラム、並びにネットワークシステム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100636317B1 (ko) * 2004-09-06 2006-10-18 삼성전자주식회사 분산 음성 인식 시스템 및 그 방법
JP5119055B2 (ja) * 2008-06-11 2013-01-16 日本システムウエア株式会社 多言語対応音声認識装置、システム、音声の切り替え方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100337482B1 (ko) 1999-10-15 2002-05-23 김영민 네비게이션 시스템 및 이의 방법
JP2004054501A (ja) 2002-07-18 2004-02-19 Olympus Corp 情報端末装置、サーバから言語識別情報に対応する情報を得る方法、及びそのプログラム、並びにネットワークシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11676062B2 (en) 2018-03-06 2023-06-13 Samsung Electronics Co., Ltd. Dynamically evolving hybrid personalized artificial intelligence system

Also Published As

Publication number Publication date
KR20160100640A (ko) 2016-08-24

Similar Documents

Publication Publication Date Title
US9666189B2 (en) Vehicle and method of controlling the same
US20180350366A1 (en) Situation-based conversation initiating apparatus, system, vehicle and method
CN106816149B (zh) 车辆自动语音识别系统的优先化内容加载
CN106663422B (zh) 言语识别系统及其言语识别方法
KR102426171B1 (ko) 대화 시스템, 이를 포함하는 차량 및 대화 서비스 처리 방법
US10679620B2 (en) Speech recognition arbitration logic
KR20180086718A (ko) 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
KR101736109B1 (ko) 음성인식 장치, 이를 포함하는 차량, 및 그 제어방법
US11211033B2 (en) Agent device, method of controlling agent device, and storage medium for providing service based on vehicle occupant speech
US20160039356A1 (en) Establishing microphone zones in a vehicle
US9530414B2 (en) Speech recognition using a database and dynamic gate commands
US20200118560A1 (en) Dialogue system, vehicle having the same and dialogue processing method
US20190115014A1 (en) Responsive activation of a vehicle feature
KR101657655B1 (ko) 차량 및 그 제어 방법
US10008201B2 (en) Streamlined navigational speech recognition
JP2015074315A (ja) 車載中継装置及び車載通信システム
US11532303B2 (en) Agent apparatus, agent system, and server device
KR101741647B1 (ko) 차량 및 그 제어방법
KR20190011458A (ko) 차량, 그와 통신하는 모바일 기기 및 차량의 제어 방법
KR102487669B1 (ko) 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
CN111717142A (zh) 智能体装置、智能体装置的控制方法及存储介质
US20220208187A1 (en) Information processing device, information processing method, and storage medium
CN110562260A (zh) 对话系统和对话处理方法
KR102448719B1 (ko) 대화 시스템과 이를 포함하는 차량 및 모바일 기기와 대화 처리 방법
JP2020091647A (ja) 情報処理装置及び情報処理プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190827

Year of fee payment: 4