KR20230092180A - 차량 및 그의 제어방법 - Google Patents

차량 및 그의 제어방법 Download PDF

Info

Publication number
KR20230092180A
KR20230092180A KR1020210181322A KR20210181322A KR20230092180A KR 20230092180 A KR20230092180 A KR 20230092180A KR 1020210181322 A KR1020210181322 A KR 1020210181322A KR 20210181322 A KR20210181322 A KR 20210181322A KR 20230092180 A KR20230092180 A KR 20230092180A
Authority
KR
South Korea
Prior art keywords
microphone
talker
seat
weight
voice recognition
Prior art date
Application number
KR1020210181322A
Other languages
English (en)
Inventor
예성수
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020210181322A priority Critical patent/KR20230092180A/ko
Priority to US18/070,688 priority patent/US20230197076A1/en
Priority to DE102022131565.7A priority patent/DE102022131565A1/de
Publication of KR20230092180A publication Critical patent/KR20230092180A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0217Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for loud-speakers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0012Seats or parts thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

음성 인식 기능을 사용하고자 하는 발화자를 식별하여 발화자의 음성 명령을 정확하게 인식할 수 있는 차량은, 제1 마이크 및 제2 마이크를 포함하는 마이크 어레이; 음성 인식 시스템을 활성화시키기 위한 버튼; 상기 버튼을 가압하는 손가락의 접촉 영역을 감지하는 센서; 및 상기 접촉 영역에 기초하여 상기 음성 인식 기능을 사용하고자 하는 발화자의 위치를 결정하고, 상기 발화자가 제1 좌석에 위치한다고 결정된 것에 기초하여 상기 제1 마이크와 상기 제2 마이크를 각각 메인 마이크와 보조 마이크로 선택하고, 상기 발화자가 제2 좌석에 위치한다고 결정된 것에 기초하여 상기 제2 마이크와 상기 제1 마이크를 각각 메인 마이크와 보조 마이크로 선택하는 음성 인식 시스템;을 포함한다.

Description

차량 및 그의 제어방법{VEHICLE AND METHOD FOR CONTROLLING THEREOF}
본 개시는 차량의 탑승자가 음성 명령을 통해 차량의 다양한 기능을 편리하게 제어할 수 있는 차량 및 그의 제어방법에 관한 것이다.
음성 인식 시스템은 사용자의 발화를 인식하고 인식된 발화에 대응되는 서비스를 제공할 수 있는 시스템이다.
최근에는 음성 인식 시스템을 이용한 다양한 종류의 서비스가 제공되고 있으며, 특히 차량 내부의 탑승자가 차량의 각종 기능을 제어하기 위한 명령을 발화하면 탑승자의 의도에 따라 차량의 각종 기능이 제어될 수 있다.
차량은 다양한 기능을 탑재하고 있기 때문에, 탑승자는 제어 대상과 제어 대상에 대한 제어 명령을 포함하는 발화 명령을 통해 차량의 각종 기능을 제어할 수 있다.
차량의 탑승자들의 음성을 정확하게 인식하기 위해서는 각 좌석에 대응되는 마이크를 설치할 필요가 있지만, 마이크의 개수를 늘리는 경우 차량의 원가가 상승하게 된다.
본 개시는 음성 인식 기능을 사용하고자 하는 발화자를 식별하여 발화자의 음성 명령을 정확하게 인식할 수 있는 차량 및 그의 제어방법을 제공하고자 한다.
상술한 목적을 달성하기 위한 일 실시예에 따른 차량은, 제1 마이크 및 제2 마이크를 포함하는 마이크 어레이; 음성 인식 시스템을 활성화시키기 위한 버튼; 상기 버튼을 가압하는 손가락의 접촉 영역을 감지하는 센서; 및 상기 접촉 영역에 기초하여 상기 버튼을 가압한 발화자의 위치를 결정하고, 상기 발화자가 제1 좌석에 위치한다고 결정된 것에 기초하여 상기 제1 마이크와 상기 제2 마이크를 각각 메인 마이크와 보조 마이크로 선택하고, 상기 발화자가 제2 좌석에 위치한다고 결정된 것에 기초하여 상기 제2 마이크와 상기 제1 마이크를 각각 메인 마이크와 보조 마이크로 선택하는 음성 인식 시스템;을 포함할 수 있다.
또한, 상기 음성 인식 시스템은, 상기 메인 마이크로부터 메인 오디오 데이터를 수신하고, 상기 보조 마이크로부터 보조 오디오 데이터를 수신하고, 상기 보조 오디오 데이터에 기초하여 상기 메인 오디오 데이터에 포함된 잡음 신호를 제거하고, 상기 잡음 신호가 제거된 메인 오디오 데이터에 기초하여 상기 발화자의 음성 명령을 식별할 수 있다.
또한, 상기 제1 마이크와 상기 제1 좌석 사이의 거리는 상기 제2 마이크와 상기 제1 좌석 사이의 거리보다 짧고, 상기 제2 마이크와 상기 제2 좌석 사이의 거리는 상기 제1 마이크와 상기 제2 좌석 사이의 거리보다 짧을 수 있다.
또한, 상기 음성 인식 시스템은, 상기 접촉 영역에 기초하여 상기 손가락의 접촉 방향을 결정하고, 상기 접촉 방향이 제1 방향으로 결정된 것에 기초하여 상기 발화자가 상기 제1 좌석에 위치하는 것으로 결정하고, 상기 접촉 방향이 제2 방향으로 결정된 것에 기초하여 상기 발화자가 상기 제2 좌석에 위치하는 것으로 결정할 수 있다.
또한, 상기 제1 방향은 상기 제2 좌석을 향하는 방향이고, 상기 제2 방향은 상기 제1 좌석을 향하는 방향일 수 있다.
또한, 상기 음성 인식 시스템은, 상기 발화자의 위치가 결정되지 않은 것에 기초하여 상기 제1 마이크 및 상기 제2 마이크를 상기 메인 마이크로 선택할 수 있다.
또한, 상기 차량은, 상기 제1 좌석에 앉아 있는 제1 탑승자의 무게를 감지하는 제1 무게 센서; 및 상기 제2 좌석에 앉아 있는 제2 탑승자의 무게를 감지하는 제2 무게 센서;를 더 포함하고, 상기 음성 인식 시스템은, 상기 접촉 영역에 기초하여 상기 발화자의 위치를 추정하고, 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 상기 발화자의 위치를 추정하고, 상기 접촉 영역에 기초하여 추정된 발화자의 위치가 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치와 동일한 것에 기초하여 상기 발화자의 위치를 결정할 수 있다.
또한, 상기 음성 인식 시스템은, 상기 버튼이 가압되기 이전의 미리 설정된 시간 동안 상기 제1 탑승자의 무게가 미리 설정된 값만큼 변화한 이력이 있고, 상기 버튼이 가압되기 이전의 상기 미리 설정된 시간 동안 상기 제2 탑승자의 무게가 상기 미리 설정된 값만큼 변화한 이력이 없는 것에 기초하여 상기 발화자의 위치를 상기 제1 좌석으로 추정할 수 있다.
또한, 상기 음성 인식 시스템은, 상기 버튼이 가압되기 이전의 미리 설정된 시간 동안 상기 제1 탑승자 및 상기 제2 탑승자의 무게가 미리 설정된 값만큼 변화한 이력이 없으면 상기 접촉 영역에 기초하여 추정된 발화자의 위치를 상기 발화자의 위치로 결정할 수 있다.
또한, 상기 음성 인식 시스템은, 상기 접촉 영역에 기초하여 추정된 발화자의 위치가 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치와 상이한 것에 기초하여 상기 제1 마이크와 상기 제2 마이크를 상기 메인 마이크로 결정할 수 있다.
상술한 목적을 달성하기 위한 일 실시예에 따른 차량의 제어방법은, 제1 마이크 및 제2 마이크를 포함하는 마이크 어레이와, 음성 인식 시스템을 활성화시키기 위한 버튼과, 상기 버튼을 가압하는 손가락의 접촉 영역을 감지하는 센서를 포함하는 차량의 제어방법에 있어서, 상기 접촉 영역에 기초하여 상기 버튼을 가압한 발화자의 위치를 결정하고; 상기 발화자가 제1 좌석에 위치한다고 결정된 것에 기초하여 상기 제1 마이크와 상기 제2 마이크를 각각 메인 마이크와 보조 마이크로 선택하고; 상기 발화자가 제2 좌석에 위치한다고 결정된 것에 기초하여 상기 제2 마이크와 상기 제1 마이크를 각각 메인 마이크와 보조 마이크로 선택하는 것;을 포함할 수 있다.
또한, 상기 차량의 제어방법은, 상기 메인 마이크로부터 메인 오디오 데이터를 수신하고; 상기 보조 마이크로부터 보조 오디오 데이터를 수신하고; 상기 보조 오디오 데이터에 기초하여 상기 메인 오디오 데이터에 포함된 잡음 신호를 제거하고; 상기 잡음 신호가 제거된 메인 오디오 데이터에 기초하여 상기 발화자의 음성 명령을 식별하는 것;을 더 포함할 수 있다.
또한, 상기 제1 마이크와 상기 제1 좌석 사이의 거리는 상기 제2 마이크와 상기 제1 좌석 사이의 거리보다 짧고, 상기 제2 마이크와 상기 제2 좌석 사이의 거리는 상기 제1 마이크와 상기 제2 좌석 사이의 거리보다 짧을 수 있다.
또한, 상기 발화자의 위치를 결정하는 것은, 상기 접촉 영역에 기초하여 상기 손가락의 접촉 방향을 결정하고; 상기 접촉 방향이 제1 방향으로 결정된 것에 기초하여 상기 발화자가 상기 제1 좌석에 위치하는 것으로 결정하고; 상기 접촉 방향이 제2 방향으로 결정된 것에 기초하여 상기 발화자가 상기 제2 좌석에 위치하는 것으로 결정하는 것;을 포함할 수 있다.
또한, 상기 제1 방향은 상기 제2 좌석을 향하는 방향이고, 상기 제2 방향은 상기 제1 좌석을 향하는 방향일 수 있다.
또한, 상기 차량의 제어방법은, 상기 발화자의 위치가 결정되지 않은 것에 기초하여 상기 제1 마이크 및 상기 제2 마이크를 상기 메인 마이크로 선택하는 것;을 더 포함할 수 있다.
또한, 상기 발화자의 위치를 결정하는 것은, 상기 접촉 영역에 기초하여 상기 발화자의 위치를 추정하고; 상기 제1 좌석에 앉아 있는 제1 탑승자의 무게 및 상기 제2 좌석에 앉아 있는 제2 탑승자의 무게에 기초하여 상기 발화자의 위치를 추정하고; 상기 접촉 영역에 기초하여 추정된 발화자의 위치가 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치와 동일한 것에 기초하여 상기 발화자의 위치를 결정하는 것;을 포함할 수 있다.
또한, 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 상기 발화자의 위치를 추정하는 것은, 상기 버튼이 가압되기 이전의 미리 설정된 시간 동안 상기 제1 탑승자의 무게가 미리 설정된 값만큼 변화한 이력이 있고, 상기 버튼이 가압되기 이전의 상기 미리 설정된 시간 동안 상기 제2 탑승자의 무게가 상기 미리 설정된 값만큼 변화한 이력이 없는 것에 기초하여 상기 발화자의 위치를 상기 제1 좌석으로 추정하는 것;을 포함할 수 있다.
또한, 상기 발화자의 위치를 결정하는 것은, 상기 버튼이 가압되기 이전의 미리 설정된 시간 동안 상기 제1 탑승자 및 상기 제2 탑승자의 무게가 미리 설정된 값만큼 변화한 이력이 없으면 상기 접촉 영역에 기초하여 추정된 발화자의 위치를 상기 발화자의 위치로 결정하는 것;을 포함할 수 있다.
또한, 상기 차량의 제어방법은, 상기 접촉 영역에 기초하여 추정된 발화자의 위치가 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치와 상이한 것에 기초하여 상기 제1 마이크와 상기 제2 마이크를 상기 메인 마이크로 결정하는 것;을 더 포함할 수 있다.
개시된 발명에 따르면, 음성 인식 기능을 사용하고자 하는 발화자를 식별하고 발화자의 음성 명령을 정확하게 인식함으로써 음성 인식 시스템의 활용성을 향상시킬 수 있다.
개시된 발명에 따르면, 제한된 개수의 마이크를 이용하여 음성 인식 성능을 향상시킬 수 있다.
개시된 발명에 따르면, 마이크 개수의 증가에 따라 차량 원가가 높아지는 문제점을 해결할 수 있다.
도 1은 일 실시예에 따른 차량의 구성을 도시한 블록도이다.
도 2는 일 실시예에 따른 차량의 내부 구성 일부를 도시한 도면이다.
도 3은 일 실시예에 따른 차량의 제어방법에 관한 순서도이다.
도 4는 좌측 좌석의 탑승자가 시작 버튼을 가압한 경우의 접촉 영역을 도시한다.
도 5는 우측 좌석의 탑승자가 시작 버튼을 가압한 경우의 접촉 영역을 도시한다.
도 6은 다른 실시예에 따른 차량의 제어방법에 관한 순서도이다.
도 7은 시간에 따른 무게센서의 출력 값의 일 예를 도시한다.
도 8은 접촉 영역 감지 결과 및 무게 변화 감지 결과에 따라 발화자의 위치를 식별하는 판단 기준을 설명하기 위한 테이블을 도시한다.
개시된 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법 및 장치는 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 개시된 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 개시된 실시예들은 개시된 발명의 개시가 완전하도록 하고, 개시된 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 개시된 발명은 청구항의 범주에 의해 정의될 뿐이다.
개시된 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 발명에 대해 구체적으로 설명하기로 한다.
개시된 발명에서 사용되는 용어는 개시된 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 개시된 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 개시된 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
각 단계들에 붙여지는 부호는 각 단계들을 식별하기 위해 사용되는 것으로 이들 부호는 각 단계들 상호 간의 순서를 나타내는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
아래에서는 첨부한 도면을 참고하여 차량 및 차량의 제어방법의 실시예에 대하여 개시된 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 개시된 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다. 또한, 도면에서 동일한 도면 부호는 동일한 구성요소를 나타내며, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 차량의 구성을 도시한 블록도이고, 도 2는 일 실시예에 따른 차량의 내부 구성 일부를 도시한 도면이다.
도 1을 참조하면, 일 실시예에 따른 차량(1)은 마이크 어레이(100)와, 센서부(200)와, 시작 버튼(300)과, 음성 인식 시스템(400)과, 복수의 전자 제어 유닛(ECU; 500)을 포함할 수 있다.
마이크 어레이(100)는 복수의 마이크(예: 제1 마이크(110) 및 제2 마이크(120))를 포함할 수 있다.
마이크 어레이(100)는 청각적 입력(audio input)을 수신하고, 청각적 입력에 대응되는 전기적 신호를 생성할 수 있다.
마이크 어레이(100)는 차량(1) 내의 사용자의 음성을 수신하기 위해 차량(1)의 내부에 배치될 수 있으며, 복수의 마이크(110, 120)는 어레이 형태로 배치될 수 있다.
복수의 마이크(110, 120)는 사용자의 청각적 입력(예: 음성)을 전기적 신호로 변환하여 음성 인식 시스템(400)에 전달할 수 있다.
다양한 실시예에 따라, 복수의 마이크 중 적어도 하나의 마이크(예: 제1 마이크(110) 및/또는 제2 마이크(120))는 메인 오디오 데이터(예: 사용자의 음성에 대응되는 음성 신호)를 수집하기 위한 메인 마이크로 사용될 수 있으며, 복수의 마이크 중 적어도 하나의 마이크(예: 제1 마이크(110) 또는 제2 마이크(120))는 보조 오디오 데이터(예: 잡음 신호)를 수집하기 위한 보조 마이크로 사용될 수 있다.
일 실시예에서, 제1 마이크(110) 및 제2 마이크(120)는 후석의 탑승자로부터 음성을 수집하기 위해 후석에 가까이 배치될 수 있다.
또한, 제1 마이크(110)는 제1 좌석(예: 좌측 후석)과 가깝게 마련될 수 있으며, 제2 마이크(120)는 제2 좌석(예: 우측 후석)과 가깝게 마련될 수 있다.
다시 말해서, 제1 마이크(110)와 제1 좌석 사이의 거리는 제2 마이크(120)와 제1 좌석 사이의 거리보다 짧을 수 있으며, 제2 마이크(120)와 제2 좌석 사이의 거리는 제1 마이크(110)와 제2 좌석 사이의 거리보다 짧을 수 있다.
이하에서는 설명의 편의를 위해 제1 좌석(LS)이 좌측 후석에 대응되고, 제2 좌석(RS)이 우측 후석에 대응되는 것을 전제하나, 제1 좌석(LS) 및 제2 좌석(RS)이 이에 한정되는 것은 아니다. 예를 들어, 제1 좌석(LS)은 운전석을 의미할 수 있고, 제2 좌석(RS)은 운전석의 옆에 위치하는 승객석을 의미할 수도 있다.
즉, 제1 좌석(LS) 및 제2 좌석(RS)은 차량(1)의 진행 방향과 수직한 방향으로 배치된 좌석들을 의미할 수 있다.
도 2를 참조하면, 제1 마이크(110)는 제1 좌석(LS)과 가깝게 설치되어 있으며, 제2 마이크(120)는 제2 좌석(RS)과 가깝게 설치되어 있는 것을 확인할 수 있다.
다만, 마이크 어레이(100)의 위치가 도 2에 도시된 위치에 한정되는 것은 아니며, 후석의 탑승자의 음성을 수신할 수 있는 위치라면 제한 없이 채용될 수 있다.
마이크 어레이(100)는 미리 설정된 조건이 만족한 것에 기초하여 활성화될 수 있다. 예를 들어, 마이크 어레이(100)는 음성 인식 시스템(400)으로부터 웨이크업 신호를 수신한 것에 기초하여 활성화될 수 있다.
마이크 어레이(100)로부터 수집된 오디오 데이터는 전처리되어 음성 인식 시스템(400)을 전달될 수도 있고, 전처리 없이 음성 인식 시스템(400)으로 전달될 수도 있다.
다양한 실시예에 따라, 제1 마이크(110)로부터 수집된 제1 오디오 데이터와 제2 마이크(120)로부터 수집된 제2 오디오 데이터는 서로 상이한 프런트-엔드 모듈로 전달될 수 있다. 예를 들어, 제1 오디오 데이터는 음성 인식 시스템(400)의 제1 프런트 엔드 모듈로 전달될 수 있으며, 제2 오디오 데이터는 음성 인식 시스템(400)의 제2 프런트 엔드 모듈로 전달될 수 있다.
이에 따라, 음성 인식 시스템(400)은 제1 오디오 데이터와 제2 오디오 데이터를 각각 처리할 수 있다.
센서부(200)는 발화자의 위치를 식별하기 위한 정보를 획득하는 적어도 하나의 센서를 포함할 수 있다.
일 예로, 센서부(200)는 시작 버튼(300)을 가압하는 손가락의 접촉 영역을 감지하는 접촉영역 감지센서(210)를 포함할 수 있다. 접촉영역 감지센서(210)는 시작 버튼(300)을 가압하는 손가락의 접촉 영역을 감지하기 위해 시작 버튼(300)에 마련될 수 있다.
접촉영역 감지센서(210)는 손가락의 접촉 영역을 감지할 수 있는 모든 종류의 센서로 구현될 수 있다. 예를 들어, 접촉영역 감지센서(210)는 손가락의 접촉에 따라 변화되는 정전용량 값을 감지하기 위한 정전용량 센서 및/또는 초음파를 조사하여 손가락의 접촉 영역을 감지하는 초음파 센서 및/또는 손가락의 접촉에 따라 변화되는 압력을 감지하기 위한 압력 센서를 포함할 수 있다.
접촉영역 감지센서(210)는 손가락의 접촉 영역에 대한 정보를 음성 인식 시스템(400)으로 전달할 수 있다.
또 다른 예로, 센서부(200)는 제1 좌석(LS) 및/또는 제2 좌석(RS)에 탑승한 탑승자의 무게를 감지하는 무게센서(220)를 포함할 수 있다.
무게센서(220)는 제1 좌석(LS)에 앉아 있는 탑승자(이하 '제1 탑승자')의 무게를 감지하는 제1 무게센서(220L) 및/또는 제2 좌석(RS)에 앉아 있는 탑승자(이하 '제2 탑승자')의 무게를 감지하는 제2 무게센서(220R)를 포함할 수 있다.
무게센서(220)는 제1 좌석(LS) 및/또는 제2 좌석(RS)에 앉아 있는 탑승자(또는 수화물)의 무게를 감지할 수 있는 모든 종류의 센서로 구현될 수 있다. 예를 들어, 무게센서(220)는 제1 좌석(LS) 및/또는 제2 좌석(RS)에 가해지는 압력을 감지하는 압력 센서를 포함할 수 있다.
무게센서(220)는 제1 탑승자의 무게에 대한 정보 및/또는 제2 탑승자의 무게에 대한 정보를 획득할 수 있으며, 제1 탑승자의 무게에 대한 정보 및/또는 제2 탑승자의 무게에 대한 정보를 음성 인식 시스템(400)에게 전달할 수 있다.
시작 버튼(300)은 음성 인식 기능을 활성화하기 위한 구성으로, 사용자는 시작 버튼(300)을 가압하여 음성 인식 시스템(400)을 활성화시킬 수 있다.
시작 버튼(300)은 푸쉬 입력에 의해 단락되거나 개방되어 전기적 신호를 발생시킬 수 있는 푸쉬 스위치 및/또는 터치 입력에 의해 전기적 신호를 발생시킬 수 있는 터치 패드로 구현될 수 있다. 다만, 시작 버튼(300)의 예가 푸쉬 스위치 및/또는 터치 패드에 한정되는 것은 아니며, 사용자의 물리적 접촉에 의해 전기적 신호를 발생할 수 있는 구성이라면 제한 없이 시작 버튼(300)으로서 채용될 수 있다.
음성 인식 시스템(400)은 시작 버튼(300)으로부터 전기적 신호를 수신한 것에 기초하여 활성화될 수 있다.
다양한 실시예에 따라, 음성 인식 시스템(400)은 시작 버튼(300)이 가압되고 있는 상태에서 활성화될 수도 있고, 시작 버튼(300)이 가압된 후 미리 설정된 시간 동안 활성화될 수도 있다.
시작 버튼(300)은 제1 탑승자와 제2 탑승자의 손이 용이하게 닿을 수 있는 곳에 배치될 수 있으며, 예를 들어, 시작 버튼(300)은 제1 좌석(LS)과 제2 좌석(RS)의 사이에 마련될 수 있다.
음성 인식 시스템(400)은 시작 버튼(300)으로부터 사용자의 가압에 따른 전기적 신호를 수신한 것에 기초하여 마이크 어레이(100)에게 마이크 어레이(100)를 활성화시키기 위한 웨이크업 신호를 송출할 수 있다.
일 실시예에서, 음성 인식 시스템(400) 및/또는 마이크 어레이(100)는 미리 설정된 조건이 만족된 경우에만 활성화됨으로써, 전력 소모를 줄일 수 있다.
음성 인식 시스템(400)은 마이크 어레이(100)로부터 수집한 오디오 데이터를 처리하여 발화자의 의도를 판단하고, 발화자의 의도에 대응되는 차량(1)의 기능을 제어할 수 있다.
일 실시예에서, 음성 인식 시스템(400)은 오디오 데이터를 처리하기 위한 음성 처리기를 포함할 수 있다.
음성 처리기는 마이크 어레이(100)를 통해 입력되는 오디오 데이터를 텍스트 정보로 변환하는STT(Speech to Text) 엔진과 텍스트를 분석하여 발화 명령에 포함된 사용자 의도를 판단하는 대화 관리기를 포함할 수 있다.
대화 관리기는 텍스트에 자연어 이해 기술(Natural Language Understanding)을 적용하여 오디오 데이터에 대응되는 사용자 의도를 파악할 수 있다.
구체적으로, 대화 관리기는 텍스트 형태의 발화 명령에 대해 형태소 분석을 수행하여 입력 문자열을 형태소열로 바꿔준다. 또한, 대화 관리기는 발화 명령으로부터 개체명을 식별할 수 있다. 개체명은 인명, 장소명, 조직명, 시간, 날짜, 화폐, 가족을 나타내는 명칭, 차량(1)의 각종 전자 장치의 명칭 등의 고유 명사로서, 개체명 인식은 문장에서 개체명을 식별하고 식별된 개체명의 종류를 결정하는 작업이다. 대화 관리기는 개체명 인식을 통해 문장에서 중요한 키워드를 추출하여 문장의 의미를 파악할 수 있다.
또한, 대화 관리기는 사용자의 발화 명령으로부터 도메인을 인식할 수 있다. 도메인은 사용자가 발화한 언어의 주제를 식별할 수 있는 것으로서, 예를 들어, 제어 대상인 복수의 ECU의 종류가 도메인이 될 수 있다. 따라서, 내비게이션 장치 제어 유닛, 윈도우 제어 유닛, 통풍 시트 제어 유닛, 라디오 제어 유닛, 썬루프 제어 유닛, 크루즈 기능 제어 유닛, 공조 장치 제어 유닛 등의 차량(1)의 전장품이 도메인이 될 수 있다.
또한, 대화 관리기는 오디오 데이터로부터 제어 명령을 인식할 수 있다. 제어 명령은 사용자가 발화한 언어의 목적을 식별할 수 있는 것으로서, 제어 대상에 대한 제어 명령을 포함할 수 있다.
예를 들어, 제어 명령은 온오프(ON/OFF) 명령 및 기능 설정 명령 등을 포함할 수 있다. 온오프(ON/OFF) 명령은 특정 기능을 활성화시키거나 비활성화시키기 위한 명령이고, 기능 설정 명령은 특정 기능에 대한 세부 사항을 설정하기 위한 명령을 포함할 수 있다.
예를 들어, 기능 설정 명령은 '제어 대상(예: 윈도우 제어 유닛)을 개방하기 위한 명령', '제어 대상(예: 공조 장치 제어 유닛)의 설정 온도를 특정 온도로 변경하기 위한 명령', '제어 대상(예: 크루즈 기능 제어 유닛)의 설정 속도를 특정 속도로 변경하기 위한 명령', '제어 대상(예: 라디오 제어 유닛)의 주파수를 특정 주파수로 변경하기 위한 명령', '제어 대상(예: 통풍 시트 제어 유닛)의 단계를 특정 강도로 변경하기 위한 명령', '제어 대상(예: 공조 장치 제어 유닛)의 모드를 변경하기 위한 명령' 등을 포함할 수 있다.
이와 같이, 대화 관리기는 사용자의 발화 명령에 대응되는 도메인, 개체명, 제어 명령 등의 정보에 기초하여 사용자 의도를 파악하고, 사용자 의도에 대응되는 액션을 추출할 수 있다.
예를 들어, 제어 대상이 "공조 장치"이고, 제어 명령이 "실행"으로 결정된 경우, 그에 대응되는 액션은 '공조 장치 (오브젝트)_ON(오퍼레이터)'으로 정의될 수 있으며, 제어 대상이 "윈도우"이고, 제어 명령이 "개방"으로 결정된 경우, 그에 대응되는 액션은 '창문(오브젝트)_OPEN(오퍼레이터)'으로 정의될 수 있다.
다양한 실시예에 따라, 음성 인식 시스템(400)은 제1 마이크(110) 또는 제2 마이크(120) 중 어느 하나로부터 수집된 오디오 데이터를 소음 저감 기능(Noise Reduction function)을 위한 오디오 데이터로 사용할 수 있으며, 제1 마이크(110) 및/또는 제2 마이크(120) 중 어느 하나로부터 수집된 오디오 데이터를 사용자의 발화 명령을 식별하기 위한 오디오 데이터로 사용할 수 있다.
제1 마이크(110)가 메인 마이크로 선택되고 제2 마이크(120)가 보조 마이크로 선택되는 경우, 음성 인식 시스템(400)은 제2 마이크(120)로부터 수집된 제2 오디오 데이터에 기초하여 제1 오디오 데이터에 포함된 잡음 신호를 제거하고, 잡음 신호가 제거된 제1 오디오 데이터에 기초하여 발화자의 음성 명령을 식별할 수 있다.
일 실시예에서, 음성 인식 시스템(400)은 메인 마이크를 통해 사용자의 음성 신호를 입력 받고, 보조 마이크를 통해 차량(1) 실내의 소음 신호를 입력 받고, 보조 마이크를 통해 입력된 소음 신호에 기초하여 노이즈 패턴을 생성하고, 메인 마이크를 통해 수신한 음서 신호화 노이즈 패턴을 비교하여 음성 신호의 노이즈를 저감시킬 수 있다.
또한, 음성 인식 시스템(400)은 메인 마이크로부터 수신된 메인 오디오 데이터와 보조 마이크로부터 수신된 보조 오디오 데이터의 시간 지연을 이용하여 메인 마이크에 지향성을 형성할 수 있다.
또한, 음성 인식 시스템(400)은 제1 마이크(110) 및 제2 마이크(120)의 게인을 선택적으로 조절할 수 있다. 예를 들어, 제1 마이크(110)가 메인 마이크로 선택되고 제2 마이크(120)가 보조 마이크로 선택되는 경우, 음성 인식 시스템(400)은 제1 마이크(110)의 게인을 제2 마이크(120)의 게인보다 높게 설정할 수 있다.
음성 인식 시스템(400)은 제1 마이크(110) 또는 제2 마이크(120) 중 어느 하나를 보조 마이크로 사용하고, 게인을 조절함으로써 빔 포밍 영역을 조절할 수 있다.
예를 들어, 음성 인식 시스템(400)은 제1 마이크(110)를 메인 마이크로 사용하고, 제2 마이크(120)를 보조 마이크로 사용함으로써 제1 탑승자의 발화 명령을 명료하게 인식할 수 있으며, 제2 마이크(120)를 메인 마이크로 사용하고, 제1 마이크(110)를 보조 마이크로 사용함으로써 제2 탑승자의 발화 명령을 명료하게 인식할 수 있다.
제1 마이크(110)와 제2 마이크(120)를 이용한 빔 포밍 형성 방법 및/또는 노이즈 저감 방법을 구현하기 위한 알고리즘은 통상의 기술범위 내에서 제한 없이 채용될 수 있다.
음성 인식 시스템(400)은 제1 오디오 데이터와 제2 오디오 데이터를 처리한 것에 기초하여 복수의 ECU(500)에게 제어 신호를 송출할 수 있다.
예를 들어, 음성 인식 시스템(400)은 발화자의 음성 명령이 공조 장치를 온시키고자 하는 의도를 포함하고 있으면 복수의 ECU 중에서 공조 장치 제어 유닛에게 공조 장치를 온시키도록 하는 제어 신호를 송출할 수 있다.
즉, 음성 인식 시스템(400)은 발화자의 음성 명령에 기초하여 복수의 ECU(500)를 제어할 수 있다.
음성 인식 시스템(400)은 전술한 동작 및 후술하는 동작을 수행하는 프로그램과 이를 실행하기 위해 필요한 각종 데이터가 저장된 적어도 하나의 메모리와 저장된 프로그램을 실행하는 적어도 하나의 프로세서를 포함할 수 있다.
음성 인식 시스템(400)에 포함되는 메모리와 프로세서가 복수 개 마련되는 경우에는, 이들이 하나의 칩 상에 집적될 수도 있고 물리적으로 분리될 수도 있다.
복수의 ECU는 차량(1)의 전장품과 관련된 적어도 하나의 기능을 수행할 수 있다.
예를 들어, 복수의 ECU(500)는 내비게이션 장치 제어 유닛, 윈도우 제어 유닛, 통풍 시트 제어 유닛, 라디오 제어 유닛, 썬루프 제어 유닛, 크루즈 기능 제어 유닛, 공조 장치 제어 유닛 등을 포함할 수 있다.
복수의 ECU(500)는 음성 인식 시스템(400)으로부터 제어 신호를 수신한 것에 기초하여 제어 신호에 대응되는 액션을 수행하도록 차량(1)의 전장품을 제어할 수 있다.
예를 들어, 공조 장치 제어 유닛은 음성 인식 시스템(400)으로부터 공조 장치를 온시키기 위한 제어 신호를 수신한 것에 기초하여 공조 장치를 온시킬 수 있다.
실시예에 따라, 마이크 어레이(100), 센서부(200), 시작 버튼(300), 음성 인식 시스템(400) 및/또는 복수의 ECU(500)는 차량 통신 네트워크를 통해 통신할 수 있다. 예를 들어, 음성 인식 시스템(400)은 차량 통신 네트워크를 통해 복수의 ECU에게 제어 신호를 송신할 수 있다.
차량 통신 네트워크는 이더넷(Ethernet), 모스트(MOST, Media Oriented Systems Transport), 플렉스레이(Flexray), 캔(CAN, Controller Area Network), 린(LIN, Local Interconnect Network) 등의 통신 방식을 채용할 수 있다.
도 3은 일 실시예에 따른 차량의 제어방법에 관한 순서도이다.
도 3을 참조하면, 시작 버튼(300)을 가압하여 음성 인식 기능을 사용하고자 하는 탑승자(이하' 발화자')는 손가락으로 시작 버튼(300)을 가압할 수 있으며, 시작 버튼(300)은 시작 입력을 수신할 수 있다(1000). 일 예로, 시작 버튼(300)이 푸쉬 스위치로 구현되는 경우, 시작 입력은 가압에 의해 발생하는 전기적 신호를 의미할 수 있다. 시작 버튼(300)이 터치 패드로 구현되는 경우, 시작 입력은 가압에 의해 발생하는 전기적 신호를 의미할 수 있다. 본 명세서에서 시작 버튼(300)을 가압하는 행위는 시작 버튼(300)과의 물리적 접촉을 이루는 모든 행위를 포함할 수 있다. 예를 들어, 시작 버튼(300)을 가압하는 행위는 소정의 힘을 인가하여 시작 버튼(300)을 누르는 행위뿐만 아니라, 시작 버튼(300)에 대한 터치 행위도 포함할 수 있다.
접촉영역 감지센서(210)는 시작 버튼(300)을 가압하는 발화자의 손가락의 접촉 영역을 검출할 수 있다(1100).
음성 인식 시스템(400)은 시작 버튼(300)이 시작 입력을 수신한 것에 기초하여 활성화될 수 있으며, 접촉영역 감지센서(210)로부터 검출된 손가락의 접촉 영역에 대한 정보를 수신할 수 있다.
음성 인식 시스템(400)은 손가락의 접촉 영역에 기초하여 발화자의 위치를 결정할 수 있다.
일 예로, 음성 인식 시스템(400)은 발화자가 제1 좌석(LS)에 앉아 있는지 또는 제2 좌석(RS)에 앉아 있는지 결정할 수 있다.
도 4는 좌측 좌석의 탑승자가 시작 버튼을 가압한 경우의 접촉 영역을 도시한다. 도 5는 우측 좌석의 탑승자가 시작 버튼을 가압한 경우의 접촉 영역을 도시한다.
도 4를 참조하면, 제1 좌석(LS)에 앉아 있는 제1 탑승자가 손가락을 이용하여 제1 좌석(LS)과 제2 좌석(RS)의 사이에 있는 시작 버튼(300)을 가압하는 경우의 손가락의 접촉 영역(CA)을 확인할 수 있다.
도 5를 참조하면, 제2 좌석(RS)에 앉아 있는 제2 탑승자가 손가락을 이용하여 제1 좌석(LS)과 제2 좌석(RS)의 사이에 있는 시작 버튼(300)을 가압하는 경우의 손가락의 접촉 영역(CA)을 확인할 수 있다.
접촉 영역(CA)은 타원 형태로 검출될 수 있으나, 사용자의 가압 방식에 따라 접촉 영역(CA)의 형태는 변경될 수 있다.
접촉 영역(CA)은 장축(CD)과 단축(CW)을 포함할 수 있다. 장축(CD)은 접촉 영역(CA) 상의 두 점을 잇는 경우 가장 긴 선분을 의미할 수 있으며, 단축(CW)은 접촉 영역(CA) 상의 두 점을 잇는 경우 가장 짧은 선분을 의미할 수 있다.
접촉 방향은 장축(CD)의 하측 지점(CDL)에서 장축(CD)의 상측 지점(CDH)을 향하는 방향으로 정의될 수 있다. 이 때, 상측은 차량(1)의 전방을 의미하고, 좌측은 차량(1)의 좌측을, 우측은 차량(1)의 우측을, 하측은 차량(1)의 후방을 의미한다.
즉, 장축(CD)의 하측 지점(CDL)은 장축(CD)과 접촉 영역(CA)의 테두리의 두 교점 중 하측에 위치하는 지점을, 장축(CD)의 상측 지점(CDH)은 장축(CD)과 접촉 영역(CA)의 테두리의 두 교점 중 상측에 위치하는 지점을 의미한다.
또 다른 예로, 접촉 방향은 단축(CW)의 상측 지점(CWH)에서 단축(CW)의 하측 지점(CWL)을 향하는 방향으로 정의될 수 있다.
마찬가지로, 단축(CW)의 하측 지점(CWL)은 단축(CW)과 접촉 영역(CA)의 테두리의 두 교점 중 하측에 위치하는 지점을, 단축(CW)의 상측 지점(CWH)은 단축(CW)과 접촉 영역(CA)의 테두리의 두 교점 중 상측에 위치하는 지점을 의미한다.
음성 인식 시스템(400)은 손가락의 접촉 영역(CA)에 기초하여 접촉 방향을 결정할 수 있다(1200).
예를 들어, 음성 인식 시스템(400)은 접촉 영역(CA) 상의 두 점을 잇는 경우 가장 긴 선분인 장축(CD)을 결정할 수 있으며, 장축(CD)의 하측 지점(CDL)에서 장축(CD)의 상측 지점(CDH)을 향하는 방향을 손가락의 접촉 방향으로 결정할 수 있다.
음성 인식 시스템(400)은 손가락의 접촉 방향이 제1 방향으로 결정된 것 에 기초하여 발화자가 제1 좌석(LS)에 위치하는 것으로 결정할 수 있다. 이 때, 제1 방향은 수직축을 기준으로 우측으로 치우친 방향을 의미할 수 있다.
즉, 제1 방향은 차량(1)의 전방을 기준으로 우측으로 치우친 방향을 의미할 수 있다.
또 다른 예로, 음성 인식 시스템(400)은 접촉 영역(CA) 상의 두 점을 잇는 경우 가장 짧은 선분인 단축(CW)을 결정할 수 있으며, 단축(CW)의 상측 지점(CWH)에서 단축(CW)의 하측 지점(CWL)을 향하는 방향을 손가락의 접촉 방향으로 결정할 수 있다.
도 4와 같이, 음성 인식 시스템(400)은 손가락의 접촉 방향이 제1 방향으로 결정된 것에 기초하여 발화자가 제1 좌석(LS)에 위치하는 것으로 결정할 수 있다(1400). 이 때, 제1 방향은 수직축을 기준으로 우측으로 치우친 방향을 의미할 수 있다.
다시 말해서, 제 1방향은 차량(1)의 전방을 기준으로 제2 좌석(RS)을 향하는 방향을 의미할 수 있다.
만약, 제1 좌석(LS)에 앉아 있는 발화자가 심하게 손을 꺾어 우측 방향에서 시작 버튼(300)을 가압하는 경우에도, 도 4에 도시된 것과 같은 접촉 영역(CA)이 형성된다.
구체적으로, 제1 좌석(LS)에 앉아 있는 발화자가 손을 꺾어 우측 방향에서 시작 버튼(300)을 가압하는 경우에는 손가락의 끝부분과 시작 버튼(300)이 접촉하기 때문에, 도 4와 같이 접촉 영역(CA)의 접촉 방향이 제2 좌석(RS)을 향하게 된다.
도 5와 같이, 음성 인식 시스템(400)은 손가락의 접촉 방향이 제2 방향으로 결정된 것에 기초하여 발화자가 제2 좌석(RS)에 위치하는 것으로 결정할 수 있다(1300). 이 때, 제2 방향은 수직축을 기준으로 좌측으로 치우친 방향을 의미할 수 있다.
다시 말해서, 제 2방향은 차량(1)의 전방을 기준으로 제1 좌석(LS)을 향하는 방향을 의미할 수 있다.
만약, 제2 좌석(RS)에 앉아 있는 발화자가 심하게 손을 꺾어 좌측 방향에서 시작 버튼(300)을 가압하는 경우에도, 도 5에 도시된 것과 같은 접촉 영역(CA)이 형성된다.
구체적으로, 제2 좌석(RS)에 앉아 있는 발화자가 손을 꺾어 좌측 방향에서 시작 버튼(300)을 가압하는 경우에는 손가락의 끝부분과 시작 버튼(300)이 접촉하기 때문에, 도 5와 같이 접촉 영역(CA)의 접촉 방향이 제1 좌석(LS)을 향하게 된다.
음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 장축 및 단축을 식별할 수 없거나, 접촉 방향을 식별할 수 없는 경우에는 접촉 영역(CA)에 기초하여 발화자의 위치를 결정할 수 없다(1500).
본 개시에 따르면 시작 버튼에 대한 손가락의 접촉 영역에 기초하여 발화자가 어디에 위치하는지 식별할 수 있다.
음성 인식 시스템(400)은 발화자가 제1 좌석(LS)에 위치한다고 결정된 것(1400)에 기초하여 제1 마이크(110)와 제2 마이크(120)를 각각 메인 마이크와 보조 마이크로 선택할 수 있다(1450). 즉, 음성 인식 시스템(400)은 제1 좌석(LS)에 발화자가 위치할 때, 제1 좌석(LS)과 가까이 위치한 제1 마이크(110)를 발화자의 음성 신호를 수집하기 위한 메인 마이크로 사용하고, 발화자와 멀리 위치한 제2 마이크(120)를 주변 소음 신호를 수집하기 위한 보조 마이크로 사용할 수 있다.
이와 같이, 음성 인식 시스템(400)은 발화자가 제1 좌석(LS)에 위치한다고 결정되면 마이크 어레이(100)의 빔 포밍 영역을 제1 좌석(LS)으로 조절할 수 있다.
반대로, 음성 인식 시스템(400)은 발화자가 제2 좌석(RS)에 위치한다고 결정된 것(1300)에 기초하여 제1 마이크(110)와 제2 마이크(120)를 각각 보조 마이크와 메인 마이크로 선택할 수 있다(1350). 즉, 음성 인식 시스템(400)은 제2 좌석(RS)에 발화자가 위치할 때, 제2 좌석(RS)과 가까이 위치한 제2 마이크(120)를 발화자의 음성 신호를 수집하기 위한 메인 마이크로 사용하고, 발화자와 멀리 위치한 제1 마이크(110)를 주변 소음 신호를 수집하기 위한 보조 마이크로 사용할 수 있다.
이와 같이, 음성 인식 시스템(400)은 발화자가 제2 좌석(RS)에 위치한다고 결정되면 마이크 어레이(100)의 빔 포밍 영역을 제2 좌석(RS)으로 조절할 수 있다.
발화자의 위치가 식별되지 않는 경우에 제1 마이크(110) 또는 제2 마이크(120) 중 어느 하나를 보조 마이크로 사용한다면, 발화자의 음성 신호를 명확하게 수집할 수 없는 상황이 생긴다. 즉, 발화자의 위치를 잘못 판단함으로써 발화자의 음성 신호를 노이즈 신호로 인식하여 발화자의 음성을 인식하지 못하는 것 보다는, 인식률이 낮더라도 노이즈 신호가 포함된 음성 신호를 처리함으로써 발화자의 음성을 인식하는 것이 유리하다.
이에 따라, 음성 인식 시스템(400)은 발화자의 위치가 결정되지 않은 것(1500)에 기초하여 제1 마이크(110)와 제2 마이크(120)를 메인 마이크로 선택할 수 있다(1550).
앞서 설명한 바와 같이, 음성 인식 시스템(400)은 제1 마이크(110) 및 제2 마이크(120)를 각각 메인 마이크 또는 보조 마이크로 선택하고, 보조 마이크로부터 수신된 보조 오디오 데이터에 기초하여 메인 마이크로부터 수신된 메인 오디오 데이터에 포함된 잡음 신호를 제거하고, 잡읍 신호가 제거된 메인 오디오 데이터에 기초하여 발화자의 음성 명령을 식별할 수 있다.
음성 인식 시스템(400)은 발화자의 음성 명령에 기초하여 차량(1)의 각종 기능을 실행하도록 복수의 ECU(500)를 제어할 수 있다(1600).
본 개시에 따르면 음성 인식 기능을 사용하고자 하는 발화자의 위치를 파악하여 마이크 어레이에 포함된 복수의 마이크를 각각 메인 마이크 또는 보조 마이크로 사용함으로써, 발화자의 음성 신호를 보다 명확하게 수집할 수 있다.
다만, 시작 버튼(300)에 대한 손가락의 접촉 영역(CA)만을 기반으로 발화자의 위치를 식별하는 경우 발화자의 위치 판단에 대한 정확성이 떨어질 수도 있다.
이에 따라, 도 6을 참조하여 무게센서(220)의 출력 값과 시작 버튼(300)에 대한 접촉 영역(CA)에 기초하여 발화자의 위치를 판단하는 방법을 설명한다.
도 6은 다른 실시예에 따른 차량의 제어방법에 관한 순서도이다.
도 6을 참조하면, 음성 인식 시스템(400)은 무게센서(220)로부터 센싱 정보를 수신할 수 있다(2000).
앞서 설명한 바와 같이, 무게센서(220)는 제1 탑승자의 무게를 감지하는 제1 무게센서(220L)와, 제2 탑승자의 무게를 감지하는 제2 무게센서(220R)를 포함할 수 있다.
도면에는 도시되어 있지 않지만, 제1 무게센서(220L)에서 무게가 감지되고 제2 무게센서(220R)에서 무게가 감지되지 않는 경우 음성 인식 시스템(400)은 접촉 영역(CA)과 무관하게 발화자가 제1 좌석(LS)에 위치하는 것으로 결정할 수 있다.
제1 무게센서(220L) 및 제2 무게센서(220R) 모두에서 무게가 감지되는 경우, 즉, 제1 탑승자와 제2 탑승자가 모두 차량(1)에 탑승한 경우, 음성 인식 시스템(400)은 제1 무게센서(220L)에서 감지되는 무게의 변화와 제2 무게센서(220R)에서 감지되는 무게의 변화에 기초하여 발화자의 위치를 추정할 수 있다.
제1 무게센서(220L)는 제1 탑승자의 무게 정보를 실시간으로 획득할 수 있으며, 제2 무게센서(220R)는 제2 탑승자의 무게 정보를 실시간으로 획득할 수 있다.
제1 탑승자의 무게 정보 및 제2 탑승자의 무게 정보는 음성 인식 시스템(400)의 메모리에 임시적으로 저장될 수 있다.
도 7은 시간에 따른 무게센서의 출력 값의 일 예를 도시한다.
도 7을 참조하면, 발화자는 t0 시점에 손가락으로 시작 버튼(300)을 가압할 수 있으며, 시작 버튼(300)은 시작 입력을 수신할 수 있다(2100).
음성 인식 시스템(400)은 발화자가 시작 버튼(300)을 가압한 시점(t0) 이전의 미리 설정된 시간(d) 동안의 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 발화자의 위치를 추정할 수 있다(2200).
발화자는 시작 버튼(300)을 가압하기 위해 몸을 뒤척인다거나, 몸의 무게 중심을 이동시키게 되고 이에 따라 무게센서(220)로부터 감지되는 무게 값이 변하게 된다.
음성 인식 시스템(400)은 발화자가 시작 버튼(300)을 가압한 시점(t0) 이전의 미리 설정된 시간(d) 동안 무게 변화가 감지된 무게센서(220)(예: 제1 무게센서(220L) 또는 제2 무게센서(220R))에 대응되는 좌석을 발화자가 앉아 있는 좌석으로 결정할 수 있다.
예를 들어, 음성 인식 시스템(400)은 시작 버튼(300)이 가압된 시점(t0) 이전의 미리 설정된 시간(d) 동안 제1 탑승자의 무게가 미리 설정된 값(Δw)만큼 변화한 이력이 있고, 시작 버튼(300)이 가압된 시점(t0) 이전의 미리 설정된 시간(d) 동안 제2 탑승자의 무게가 미리 설정된 값(Δw)만큼 변화한 이력이 없으면 발화자의 위치를 제1 좌석(LS)으로 추정할 수 있다(2300).
또 다른 예로, 음성 인식 시스템(400)은 시작 버튼(300)이 가압된 시점(t0) 이전의 미리 설정된 시간(d) 동안 제1 탑승자의 무게가 미리 설정된 값(Δw)만큼 변화한 이력이 없고, 시작 버튼(300)이 가압된 시점(t0) 이전의 미리 설정된 시간(d) 동안 제2 탑승자의 무게가 미리 설정된 값(Δw)만큼 변화한 이력이 있으면 발화자의 위치를 제2 좌석(RS)으로 추정할 수 있다(2400).
또한, 음성 인식 시스템(400)은 시작 버튼(300)이 가압된 시점(t0) 이전의 미리 설정된 시간(d) 동안 제1 탑승자의 무게가 미리 설정된 값(Δw)만큼 변화한 이력이 없고, 시작 버튼(300)이 가압된 시점(t0) 이전의 미리 설정된 시간(d) 동안 제2 탑승자의 무게가 미리 설정된 값(Δw)만큼 변화한 이력이 없으면 발화자의 위치를 식별할 수 없다(2500).
음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 추정된 발화자의 위치와, 무게센서(220)의 출력값에 기초하여 추정된 발화자의 위치에 기초하여 발화자의 위치를 최종적으로 결정할 수 있다.
접촉 영역(CA)에 기초하여 발화자의 위치를 추정하는 방법은 도 3에서 설명한 바와 같다.
도 8은 접촉 영역 감지 결과 및 무게 변화 감지 결과에 따라 발화자의 위치를 식별하는 판단 기준을 설명하기 위한 테이블을 도시한다.
이하에서는 설명의 편의를 위해, 음성 인식 시스템(400)이 제1 마이크(110)를 메인 마이크로 사용하고 제2 마이크(120)를 보조 마이크로 사용하는 모드를 모드 A로, 제1 마이크(110)를 보조 마이크로 사용하고 제2 마이크(120)를 메인 마이크로 사용하는 모드를 모드 B로, 제1 마이크(110) 및 제2 마이크(120)를 메인 마이크로 사용하는 모드를 모드 C로 정의한다.
도 8을 참조하면, 음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 추정된 발화자의 위치와 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 동일한 것에 기초하여 발화자의 위치를 결정할 수 있다.
예를 들어, 음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)이고, 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)이면 발화자의 위치를 제1 좌석(LS)으로 결정할 수 있다.
또 다른 예로, 음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제2 좌석(RS)이고, 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제2 좌석(RS)이면 발화자의 위치를 제2 좌석(RS)으로 결정할 수 있다.
또한, 음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 추정된 발화자의 위치와 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 상이하면 발화자의 위치를 식별할 수 없다.
예를 들어, 음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)이고, 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제2 좌석(RS)이면 발화자의 위치를 결정할 수 없다.
또 다른 예로, 음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제2 좌석(RS)이고, 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)이면 발화자의 위치를 결정할 수 없다.
또한, 음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 발화자의 위치가 추정되었으나, 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 발화자의 위치를 추정할 수 없는 경우 접촉 영역(CA)에 기초하여 추정된 발화자의 위치를 발화자의 위치로 결정할 수 있다.
또한, 음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 발화자의 위치를 추정할 수 없으나, 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 발화자의 위치를 추정할 수 있는 경우 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치를 발화자의 위치로 결정할 수 있다.
예를 들어, 음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제1 좌석(LS) 또는 제2 좌석(RS)이고, 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 발화자의 위치를 추정할 수 없는 경우, 발화자의 위치를 제1 좌석(LS) 또는 제2 좌석(RS)으로 결정할 수 있다.
또 다른 예로, 예를 들어, 음성 인식 시스템(400)은 접촉 영역(CA)에 기초하여 발화자의 위치를 추정할 수 없고, 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제1 좌석(LS) 또는 제2 좌석(RS)인 경우, 발화자의 위치를 제1 좌석(LS) 또는 제2 좌석(RS)으로 결정할 수 있다.
음성 인식 시스템(400)은 발화자의 위치가 제1 좌석(LS)으로 결정된 것에 기초하여 모드 A로 동작할 수 있으며, 발화자의 위치가 제2 좌석(RS)으로 결정된 것에 기초하여 모드 B로 동작할 수 있으며, 발화자의 위치가 식별되지 않은 것에 기초하여 모드 C로 동작할 수 있다.
일 실시예에서, 음성 인식 시스템(400)은 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)이고, 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)인 경우(2350의 제1 좌석) 모드 A로 동작할 수 있다(2600).
또한, 음성 인식 시스템(400)은 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)이고, 접촉 영역(CA)에 기초하여 발화자의 위치를 추정할 수 없는 경우(2350의 판정 불가) 모드 A로 동작할 수 있다(2600).
또한, 음성 인식 시스템(400)은 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 발화자의 위치를 추정할 수 없고, 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)인 경우(2550의 제1 좌석) 모드 A로 동작할 수 있다(2600).
일 실시예에서, 음성 인식 시스템(400)은 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제2 좌석(RS)이고, 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제2 좌석(RS)인 경우(2450의 제2 좌석) 모드 B로 동작할 수 있다(2700).
또한, 음성 인식 시스템(400)은 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제2 좌석(RS)이고, 접촉 영역(CA)에 기초하여 발화자의 위치를 추정할 수 없는 경우(2450의 판정 불가) 모드 B로 동작할 수 있다(2700).
또한, 음성 인식 시스템(400)은 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 발화자의 위치를 추정할 수 없고, 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)인 경우(2550의 제2 좌석) 모드 B로 동작할 수 있다(2700).
일 실시예에서, 음성 인식 시스템(400)은 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)이고, 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제2 좌석(RS)인 경우(2350의 제2 좌석) 모드 C로 동작할 수 있다(2800).
또한, 음성 인식 시스템(400)은 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치가 제2 좌석(RS)이고, 접촉 영역(CA)에 기초하여 추정된 발화자의 위치가 제1 좌석(LS)인 경우(2450의 제1 좌석) 모드 C로 동작할 수 있다(2800).
또한, 음성 인식 시스템(400)은 제1 탑승자의 무게 및 제2 탑승자의 무게에 기초하여 발화자의 위치를 추정할 수 없고, 접촉 영역(CA)에 기초하여 발화자의 위치를 추정할 수 없는 경우(2550의 판정 불가) 모드 C로 동작할 수 있다(2800).
본 개시에 따르면 발화자의 위치를 판단하는 데 있어서 접촉영역 감지센서와 무게센서를 함께 활용하여 발화자 위치 판단의 정확성을 향상시킬 수 있다.
또한, 본 개시에 따르면 발화자의 위치를 정확하게 판단함으로써 음성 인식률을 향상시킬 수 있다.
또한, 본 개시에 따르면 비용이 상당한 하드웨어(예: 마이크)를 설치하는 대신 시작 버튼에 저가의 감지센서를 부착함으로써 사용자에게 높은 성능의 음성 인식 기능을 제공할 수 있다.
또한, 본 개시에 따르면 후석에 무게감지센서가 설치되어 있지 않은 차량(1)이더라도 저가형 감지센서에 기초하여 발화자의 위치 판단을 도모할 수 있다.
또한, 본 개시에 따르면 발화자의 위치가 정확하게 식별되지 않는 경우에는 마이크 어레이에 포함된 마이크를 모두 메인 마이크로 사용함으로써, 음성 인식이 불가능한 상황을 방지할 수 있다.
차량 및 그의 제어방법의 예는 이에 한정되는 것이 아니며 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이다. 그러므로 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 본 발명의 범위는 전술한 설명이 아니라 청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
1: 차량 100: 마이크 어레이
110: 제1 마이크 120: 제2 마이크
200: 센서부 210: 접촉영역 감지센서
220: 무게센서 300: 시작 버튼
400: 음성 인식 시스템 500: 복수의 ECU

Claims (20)

  1. 제1 마이크 및 제2 마이크를 포함하는 마이크 어레이;
    음성 인식 시스템을 활성화시키기 위한 버튼;
    상기 버튼을 가압하는 손가락의 접촉 영역을 감지하는 센서; 및
    상기 접촉 영역에 기초하여 상기 버튼을 가압한 발화자의 위치를 결정하고, 상기 발화자가 제1 좌석에 위치한다고 결정된 것에 기초하여 상기 제1 마이크와 상기 제2 마이크를 각각 메인 마이크와 보조 마이크로 선택하고, 상기 발화자가 제2 좌석에 위치한다고 결정된 것에 기초하여 상기 제2 마이크와 상기 제1 마이크를 각각 메인 마이크와 보조 마이크로 선택하는 음성 인식 시스템;을 포함하는 차량.
  2. 제1항에 있어서,
    상기 음성 인식 시스템은,
    상기 메인 마이크로부터 메인 오디오 데이터를 수신하고, 상기 보조 마이크로부터 보조 오디오 데이터를 수신하고, 상기 보조 오디오 데이터에 기초하여 상기 메인 오디오 데이터에 포함된 잡음 신호를 제거하고, 상기 잡음 신호가 제거된 메인 오디오 데이터에 기초하여 상기 발화자의 음성 명령을 식별하는 차량.
  3. 제1항에 있어서,
    상기 제1 마이크와 상기 제1 좌석 사이의 거리는 상기 제2 마이크와 상기 제1 좌석 사이의 거리보다 짧고, 상기 제2 마이크와 상기 제2 좌석 사이의 거리는 상기 제1 마이크와 상기 제2 좌석 사이의 거리보다 짧은 차량.
  4. 제1항에 있어서,
    상기 음성 인식 시스템은,
    상기 접촉 영역에 기초하여 상기 손가락의 접촉 방향을 결정하고, 상기 접촉 방향이 제1 방향으로 결정된 것에 기초하여 상기 발화자가 상기 제1 좌석에 위치하는 것으로 결정하고, 상기 접촉 방향이 제2 방향으로 결정된 것에 기초하여 상기 발화자가 상기 제2 좌석에 위치하는 것으로 결정하는 차량.
  5. 제4항에 있어서,
    상기 제1 방향은 상기 제2 좌석을 향하는 방향이고, 상기 제2 방향은 상기 제1 좌석을 향하는 방향인 차량.
  6. 제1항에 있어서,
    상기 음성 인식 시스템은,
    상기 발화자의 위치가 결정되지 않은 것에 기초하여 상기 제1 마이크 및 상기 제2 마이크를 상기 메인 마이크로 선택하는 차량.
  7. 제1항에 있어서,
    상기 제1 좌석에 앉아 있는 제1 탑승자의 무게를 감지하는 제1 무게 센서; 및
    상기 제2 좌석에 앉아 있는 제2 탑승자의 무게를 감지하는 제2 무게 센서;를 더 포함하고,
    상기 음성 인식 시스템은,
    상기 접촉 영역에 기초하여 상기 발화자의 위치를 추정하고, 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 상기 발화자의 위치를 추정하고, 상기 접촉 영역에 기초하여 추정된 발화자의 위치가 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치와 동일한 것에 기초하여 상기 발화자의 위치를 결정하는 차량.
  8. 제7항에 있어서,
    상기 음성 인식 시스템은,
    상기 버튼이 가압되기 이전의 미리 설정된 시간 동안 상기 제1 탑승자의 무게가 미리 설정된 값만큼 변화한 이력이 있고, 상기 버튼이 가압되기 이전의 상기 미리 설정된 시간 동안 상기 제2 탑승자의 무게가 상기 미리 설정된 값만큼 변화한 이력이 없는 것에 기초하여 상기 발화자의 위치를 상기 제1 좌석으로 추정하는 차량.
  9. 제7항에 있어서,
    상기 음성 인식 시스템은,
    상기 버튼이 가압되기 이전의 미리 설정된 시간 동안 상기 제1 탑승자 및 상기 제2 탑승자의 무게가 미리 설정된 값만큼 변화한 이력이 없으면 상기 접촉 영역에 기초하여 추정된 발화자의 위치를 상기 발화자의 위치로 결정하는 차량.
  10. 제7항에 있어서,
    상기 음성 인식 시스템은,
    상기 접촉 영역에 기초하여 추정된 발화자의 위치가 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치와 상이한 것에 기초하여 상기 제1 마이크와 상기 제2 마이크를 상기 메인 마이크로 결정하는 차량.
  11. 제1 마이크 및 제2 마이크를 포함하는 마이크 어레이와, 음성 인식 시스템을 활성화시키기 위한 버튼과, 상기 버튼을 가압하는 손가락의 접촉 영역을 감지하는 센서를 포함하는 차량의 제어방법에 있어서,
    상기 접촉 영역에 기초하여 상기 버튼을 가압한 발화자의 위치를 결정하고;
    상기 발화자가 제1 좌석에 위치한다고 결정된 것에 기초하여 상기 제1 마이크와 상기 제2 마이크를 각각 메인 마이크와 보조 마이크로 선택하고;
    상기 발화자가 제2 좌석에 위치한다고 결정된 것에 기초하여 상기 제2 마이크와 상기 제1 마이크를 각각 메인 마이크와 보조 마이크로 선택하는 것;을 포함하는 차량의 제어방법.
  12. 제11항에 있어서,
    상기 메인 마이크로부터 메인 오디오 데이터를 수신하고;
    상기 보조 마이크로부터 보조 오디오 데이터를 수신하고;
    상기 보조 오디오 데이터에 기초하여 상기 메인 오디오 데이터에 포함된 잡음 신호를 제거하고;
    상기 잡음 신호가 제거된 메인 오디오 데이터에 기초하여 상기 발화자의 음성 명령을 식별하는 것;을 더 포함하는 차량의 제어방법.
  13. 제11항에 있어서,
    상기 제1 마이크와 상기 제1 좌석 사이의 거리는 상기 제2 마이크와 상기 제1 좌석 사이의 거리보다 짧고, 상기 제2 마이크와 상기 제2 좌석 사이의 거리는 상기 제1 마이크와 상기 제2 좌석 사이의 거리보다 짧은 차량의 제어방법.
  14. 제11항에 있어서,
    상기 발화자의 위치를 결정하는 것은,
    상기 접촉 영역에 기초하여 상기 손가락의 접촉 방향을 결정하고;
    상기 접촉 방향이 제1 방향으로 결정된 것에 기초하여 상기 발화자가 상기 제1 좌석에 위치하는 것으로 결정하고;
    상기 접촉 방향이 제2 방향으로 결정된 것에 기초하여 상기 발화자가 상기 제2 좌석에 위치하는 것으로 결정하는 것;을 포함하는 차량의 제어방법.
  15. 제14항에 있어서,
    상기 제1 방향은 상기 제2 좌석을 향하는 방향이고, 상기 제2 방향은 상기 제1 좌석을 향하는 방향인 차량의 제어방법.
  16. 제11항에 있어서,
    상기 발화자의 위치가 결정되지 않은 것에 기초하여 상기 제1 마이크 및 상기 제2 마이크를 상기 메인 마이크로 선택하는 것;을 더 포함하는 차량의 제어방법.
  17. 제11항에 있어서,
    상기 발화자의 위치를 결정하는 것은,
    상기 접촉 영역에 기초하여 상기 발화자의 위치를 추정하고;
    상기 제1 좌석에 앉아 있는 제1 탑승자의 무게 및 상기 제2 좌석에 앉아 있는 제2 탑승자의 무게에 기초하여 상기 발화자의 위치를 추정하고;
    상기 접촉 영역에 기초하여 추정된 발화자의 위치가 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치와 동일한 것에 기초하여 상기 발화자의 위치를 결정하는 것;을 포함하는 차량의 제어방법.
  18. 제17항에 있어서,
    상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 상기 발화자의 위치를 추정하는 것은,
    상기 버튼이 가압되기 이전의 미리 설정된 시간 동안 상기 제1 탑승자의 무게가 미리 설정된 값만큼 변화한 이력이 있고, 상기 버튼이 가압되기 이전의 상기 미리 설정된 시간 동안 상기 제2 탑승자의 무게가 상기 미리 설정된 값만큼 변화한 이력이 없는 것에 기초하여 상기 발화자의 위치를 상기 제1 좌석으로 추정하는 것;을 포함하는 차량의 제어방법.
  19. 제17항에 있어서,
    상기 발화자의 위치를 결정하는 것은,
    상기 버튼이 가압되기 이전의 미리 설정된 시간 동안 상기 제1 탑승자 및 상기 제2 탑승자의 무게가 미리 설정된 값만큼 변화한 이력이 없으면 상기 접촉 영역에 기초하여 추정된 발화자의 위치를 상기 발화자의 위치로 결정하는 것;을 포함하는 차량의 제어방법.
  20. 제17항에 있어서,
    상기 접촉 영역에 기초하여 추정된 발화자의 위치가 상기 제1 탑승자의 무게 및 상기 제2 탑승자의 무게에 기초하여 추정된 발화자의 위치와 상이한 것에 기초하여 상기 제1 마이크와 상기 제2 마이크를 상기 메인 마이크로 결정하는 것;을 더 포함하는 차량의 제어방법.
KR1020210181322A 2021-12-17 2021-12-17 차량 및 그의 제어방법 KR20230092180A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210181322A KR20230092180A (ko) 2021-12-17 2021-12-17 차량 및 그의 제어방법
US18/070,688 US20230197076A1 (en) 2021-12-17 2022-11-29 Vehicle and control method thereof
DE102022131565.7A DE102022131565A1 (de) 2021-12-17 2022-11-29 Fahrzeug und steuerungsverfahren dafür

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210181322A KR20230092180A (ko) 2021-12-17 2021-12-17 차량 및 그의 제어방법

Publications (1)

Publication Number Publication Date
KR20230092180A true KR20230092180A (ko) 2023-06-26

Family

ID=86606725

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210181322A KR20230092180A (ko) 2021-12-17 2021-12-17 차량 및 그의 제어방법

Country Status (3)

Country Link
US (1) US20230197076A1 (ko)
KR (1) KR20230092180A (ko)
DE (1) DE102022131565A1 (ko)

Also Published As

Publication number Publication date
US20230197076A1 (en) 2023-06-22
DE102022131565A1 (de) 2023-06-22

Similar Documents

Publication Publication Date Title
EP3414759B1 (en) Techniques for spatially selective wake-up word recognition and related systems and methods
WO2017081960A1 (ja) 音声認識制御システム
US8285545B2 (en) Voice command acquisition system and method
US20090055178A1 (en) System and method of controlling personalized settings in a vehicle
US20130332165A1 (en) Method and systems having improved speech recognition
EP1933303A1 (en) Speech dialog control based on signal pre-processing
US20090055180A1 (en) System and method for optimizing speech recognition in a vehicle
JP7186375B2 (ja) 音声処理装置、音声処理方法および音声処理システム
CN110082726B (zh) 声源定位方法及装置、定位设备及存储介质
US20180358013A1 (en) Apparatus for selecting at least one task based on voice command, vehicle including the same, and method thereof
JP6459330B2 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
US20160019891A1 (en) Audio command adaptive processing system and method
JP6847324B2 (ja) 音声認識装置、音声認識システム、及び音声認識方法
JP2001013994A (ja) 複数搭乗者機器用音声制御装置、複数搭乗者機器用音声制御方法及び車両
KR20230092180A (ko) 차량 및 그의 제어방법
WO2019016938A1 (ja) 音声認識装置及び音声認識方法
JP3384165B2 (ja) 音声認識装置
JP5173895B2 (ja) 音声認識装置
WO2020240789A1 (ja) 音声対話制御装置及び音声対話制御方法
JP2006285103A (ja) 音声認識装置および方法
US11646031B2 (en) Method, device and computer-readable storage medium having instructions for processing a speech input, transportation vehicle, and user terminal with speech processing
JP2018169441A (ja) 車両制御装置
JP2004354722A (ja) 音声認識装置
JP4635683B2 (ja) 音声認識装置および方法
JP2004184803A (ja) 車両用音声認識装置