KR20170129249A - 발음 위치 및 단말 장치 위치를 결정하는 방법 - Google Patents
발음 위치 및 단말 장치 위치를 결정하는 방법 Download PDFInfo
- Publication number
- KR20170129249A KR20170129249A KR1020177030167A KR20177030167A KR20170129249A KR 20170129249 A KR20170129249 A KR 20170129249A KR 1020177030167 A KR1020177030167 A KR 1020177030167A KR 20177030167 A KR20177030167 A KR 20177030167A KR 20170129249 A KR20170129249 A KR 20170129249A
- Authority
- KR
- South Korea
- Prior art keywords
- acoustic
- signals
- sound
- acoustic signals
- voice commands
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 54
- 230000005236 sound signal Effects 0.000 claims description 97
- 239000000284 extract Substances 0.000 claims description 11
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0364—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/02—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
- B60R11/0217—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for loud-speakers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02082—Noise filtering the noise being echo, reverberation of the speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/02—Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
- H04R2201/025—Transducer mountings or cabinet supports enabling variable orientation of transducer of cabinet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
- H04R2430/21—Direction finding using differential microphone array [DMA]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
- H04R2430/23—Direction finding using a sum-delay beam-former
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/13—Acoustic transducers and sound field adaptation in vehicles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Otolaryngology (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Circuit For Audible Band Transducer (AREA)
- Telephone Function (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
본 발명의 실시예는 발음 위치 및 단말 장치 위치를 결정하는 방법을 제공한다. 상기 방법은, K개의 제1 음향 신호를 수집하는 단계 - 상기 K는 2 이상의 정수임 -; N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하는 단계 - 상기 M은 N보다 작거나 같고, N은 2 이상의 정수임 -; 및 각각의 제2 음향 신호에 대응하는 위치를 결정하는 단계를 포함한다. 본 발명의 실시예에서, M개의 제2 음향 신호는 빔포밍 알고리즘을 이용하여 위치 파라미터에 따라 K개의 제1 음향 신호로부터 추출되고, 이로써 각각의 제2 음향 신호에 대응하는 방출 위치가 결정된다. 이 방법에 의해, 상이한 위치로부터 방출된 음향 신호는 효율적으로 추출될 수 있고, 음성 인식의 능력이 발휘되어, 사용자에게 더 나은 사용자 경험을 제공할 수 있다.
Description
본 발명의 실시예는 모바일 통신 분야에 관한 것으로, 특히 발음 위치 및 단말 장치 위치를 결정하는 방법에 관한 것이다.
음성 인식은 현재 지능형 정보 시스템의 인간-컴퓨터 상호작용 인터페이스의 핵심 기술이다. 음성 인식의 성공률을 향상시키기 위해, 일반적으로 음향 수집 센서를 이용하여 음향 신호를 수집하는 해결책이 사용되며, 발음 위치에 따라 음향 신호의 수집 및 음성 인식이 수행된다.
현재, 음성 인식의 성공률을 향상시키는 해결책에 있어서, 단 하나의 위치로부터 방출된 음향 신호가 추출될 수 있다. 다른 위치에서 방출된 음향 신호만이 노이즈로 간주되어 필터링될 수 있다. 그 결과, 음향 신호가 정확하게 추출될 수 없고, 발음 위치가 결정될 수 없으며, 음성 인식이 수행될 수 없다. 자동차에 탑재된 차내 시스템이 예로서 사용된다. 현재, 차내 시스템에 설치된 음향 수집 센서를 이용하여 주변 환경의 음향 신호가 수집될 수 있고, 운전실에서 방출된 음향 신호가 추출되며, 음성 인식은 운전실에서 방출된 추출 음향 신호에 대해 수행된다. 차내 시스템은 운전실에서 방출된 음향 신호에 응답할 수 있다. 그러나 차량 내의 앞자리로부터 방출된 음향 신호 또는 차 내의 뒷자리로부터 방출된 음향 신호는 노이즈로 판정되며 차내 시스템에 의해 필터링된다. 그 결과, 음향 신호는 정확하게 추출될 수 없고, 발음 위치를 결정할 수 없으며, 음성 인식을 수행할 수 없다. 예를 들어, 차내 시스템은 운전실에서 방출된 "선루프를 여시오" 라는 음성 명령을 추출하여 수행할 수 있다. 그러나 차량 내의 앞자리 또는 뒷자리와 같은 다른 위치로부터 방출된 "선루프를 여시오" 라는 음성 명령이 추출될 수 없으며, 차내 시스템에서 다른 음향 신호의 방출 위치를 파악할 수 없다. 따라서, 자동차의 차내 시스템의 응용 시나리오에서, 차내 시스템은 차량 내의 다른 음향 신호의 방출 위치를 효율적이고 정확하게 결정할 수 없다. 결과적으로, 음향 신호의 방출 위치를 결정하는 효율이 감소되고, 사용자 경험이 열악해진다.
본 발명의 실시예는 단일 위치에서만 방출되는 음향 신호를 위치시키고 추출시킬 수 있고, 다른 위치로부터 방출된 음향 신호를 위치시키거나 추출시킬 수 없는 문제점을 해결하기 위해, 발음 위치 및 단말 장치의 위치를 결정하는 방법을 제공한다.
본 발명의 제1 측면에 따르면, 발음 위치를 결정하는 방법이 제공되고, 상기 방법은, K개의 제1 음향 신호를 수집하는 단계 - K는 2 이상의 정수임 -; N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하는 단계 - 상기 M은 N보다 작거나 같고, N은 2 이상의 정수임 -; 및 각각의 제2 음향 신호에 대응하는 위치를 결정하는 단계를 포함한다.
제1 가능한 구현 방식에서, N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하는 단계는 구체적으로, 빔포밍 알고리즘을 이용하여 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 개별적으로 추출하는 단계를 포함한다.
제1 측면을 참조하여, 제2 가능한 구현 방식에서, 각각의 제2 음향 신호에 대응하는 위치를 결정하는 단계는 구체적으로, L번째 제2 음향 신호에 대응하는 위치 파라미터에 따라, L번째 제2 음향 신호에 대응하는 위치 L을 결정하는 단계 - 상기 L번째 제2 음향 신호는 M개의 제2 음향 신호 중 임의의 하나임 -; 를 포함한다.
제1 측면 및 상기 가능한 구현 방식 중 임의의 방식을 참조하여, 제3 가능한 구현 방식에서, K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출한 이후에, 상기 방법은, M개의 추출된 제2 음향 신호에 대해 음성 인식을 수행하는 단계 및 M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득하는 단계를 더 포함한다.
제1 측면 및 제3 가능한 구현 방식을 참조하여, 제4 가능한 구현 방식에서, M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득한 이후에, 상기 방법은 M개의 음성 명령에 응답하는 단계를 더 포함한다.
제1 측면 및 제4 가능한 구현 방식을 참조하여, 제5 가능한 구현 방식에서, M개의 음성 명령에 응답하는 단계는, M개의 음성 명령에 대응하는 M개의 상이한 위치의 우선순위에 따라 최우선 순위 음성 명령에 우선적으로 응답하는 단계를 포함한다.
본 발명의 제2 측면에 따르면, 단말 장치가 제공되고, 상기 단말 장치는, K개의 제1 음향 신호를 수집하도록 구성된 K개의 음향 수집 센서 - 상기 K는 2 이상의 정수임 -; 및 N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하고, 각각의 제2 음향 신호에 대응하는 위치를 결정하도록 구성된 프로세서 - 상기 M은 N보다 작거나 같고, N은 2 이상의 정수임 -; 를 포함한다.
제1 가능한 구현 방식에서, N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하도록 구성된 상기 프로세서는 구체적으로, 빔포밍 알고리즘을 이용하여 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 개별적으로 추출하도록 구성되는 프로세서를 포함한다.
제2 측면 및 제1 가능한 구현 방식을 참조하여, 제2 가능한 구현 방식에서, 각각의 제2 음향 신호에 대응하는 위치를 결정하도록 구성된 상기 프로세서는, L번째 제2 음향 신호에 대응하는 위치 파라미터에 따라, L번째 제2 음향 신호에 대응하는 위치 L을 결정하고 - 상기 L번째 제2 음향 신호는 M개의 제2 음향 신호 중 임의의 하나임 -; 을 포함한다.
제2 측면 및 상기 가능한 구현 방식 중 임의의 방식을 참조하여, 제3 가능한 구현 방식에서, 상기 프로세서는 또한, K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출한 이후에, M개의 추출된 제2 음향 신호에 대해 음성 인식을 수행하고, M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득하는 것을 포함한다.
제2 측면 및 상기 가능한 구현 방식 중 임의의 방식을 참조하여, 제4 가능한 구현 방식에서, 상기 단말 장치는 또한 출력 장치를 포함하고, 상기 출력 장치는 프로세서가 M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득한 이후에 M개의 음성 명령에 응답하도록 구성된다.
제2 측면 및 제4 가능한 구현 방식을 참조하여, 제5 가능한 구현 방식에서, M개의 음성 명령에 응답하도록 구성된 출력 장치는 구체적으로, M개의 음성 명령에 대응하는 M개의 상이한 위치의 우선순위에 따라 최우선 순위에 우선적으로 응답하도록 구성된 출력 장치를 포함한다.
제2 측면 및 상기 가능한 구현 방식 중 임의의 방식을 참조하여, 3차원 공간에서의 K개의 음향 수집 센서의 좌표는 서로 상이하다.
본 발명의 제3 측면에 따르면, 발음 위치를 결정하는 장치가 제공되고, 상기 장치는 수집 모듈, 추출 모듈 및 결정 모듈을 포함한다. 수집 모듈은 K개의 제1 음향 신호를 수집하도록 구성되고, 여기서 K는 2 이상의 정수이다. 추출 모듈은 N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하도록 구성되고, 여기서 M은 N보다 작거나 같으며, N은 2 이상의 정수이다. 결정 모듈은 각각의 제2 음향 신호에 대응하는 위치를 결정하도록 구성된다.
제1 가능한 구현 방식에서, N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하도록 구성된 추출 모듈은 구체적으로, 빔포밍 알고리즘을 이용하여 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 개별적으로 추출하는 것을 포함한다.
제3 측면 및 제1 가능한 구현 방식을 참조하여, 제2 가능한 구현 방식에서, 각각의 제2 음향 신호에 대응하는 위치를 결정하도록 구성된 결정 모듈은 구체적으로, L번째 제2 음향 신호에 대응하는 위치 파라미터에 따라, L번째 제2 음향 신호에 대응하는 위치 L을 결정하도록 구성되고, 여기서 L번째 제2 음향 신호는 M개의 제2 음향 신호 중 임의의 신호이다.
제3 측면 및 상기 가능한 구현 방식 중 임의의 방식을 참조하여, 제3 가능한 구현 방식에서, 상기 장치는 또한, 음성 인식 모듈 및 획득 모듈을 포함한다. 여기서 음성 인식 모듈은 M개의 제2 음성 명령이 K개의 제1 음향 신호로부터 추출된 이후에, M개의 추출된 제2 음향 신호에 대해 음성 인식을 수행하도록 구성되고, 획득 모듈은 M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득하도록 구성된다.
제3 측면 및 제3 가능한 구현 방식을 참조하여, 제4 가능한 구현 방식에서, 상기 장치는 또한 응답 모듈을 포함하고, 여기서 응답 모듈은, 획득 모듈이 M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득한 이후에, M개의 음성 명령에 응답하도록 구성된다.
제3 측면 및 제4 가능한 구현 방식을 참조하여, 제5 가능한 구현 방식에서, M개의 음성 명령에 응답하도록 구성된 응답 모듈은, M개의 음성 명령에 대응하는 M개의 상이한 위치의 우선순위에 따라 최우선 순위 음성 명령에 우선적으로 응답하는 것을 포함한다.
상기 기술적 해결책으로부터, 본 발명의 실시예는 이하의 이점을 갖는 것을 알 수 있다: M개의 제2 음향 신호는 빔포밍 알고리즘을 이용하여 위치 파라미터에 따라 K개의 제1 음향 신호로부터 추출되어, 각각의 제2 음향 신호에 대응하는 방출 위치가 결정될 수 있다. 상기 방법에 의하여, 상이한 위치로부터 방출된 음향 신호가 효율적으로 추출될 수 있고, 음성 인식의 능력이 발휘되어, 사용자에게 더 나은 사용자 경험을 제공할 수 있다. 충돌 명령은 우선순위 방식으로 처리됨으로써, 차내 중앙 제어 장치가 다수의 명령에 동시에 응답할 때 야기되는 오류가 감소된다.
본 발명의 실시예에서 기술적 해결책을 보다 명확하게 설명하기 위해, 이하에서는 실시예를 설명하기 위해 필요한 첨부 도면을 간략하게 설명한다. 명확한 것은, 이하 설명에서의 첨부 도면은 단지 본 발명의 일부 실시예를 나타내며, 통상의 기술자는 창의적인 노력 없이도 이들 도면으로부터 다른 도면을 도출할 수 있다는 것이다.
도 1은 본 발명의 실시예에 따른 발음 위치를 결정하는 방법의 흐름도이다.
도 2a는 본 발명의 실시예에 따른, 발음 위치가 위치된 차 내부의 개략도이다.
도 2b는 본 발명의 다른 실시예에 따른, 발음 위치가 위치된 차 내부의 개략도이다.
도 3은 본 발명의 다른 실시예에 따른 발음 위치를 결정하는 방법의 흐름도이다.
도 3a는 본 발명의 다른 실시예에 따른 발음 위치를 결정하는 방법의 흐름도이다.
도 3b는 본 발명의 다른 실시예에 따른 발음 위치를 결정하는 방법의 흐름도이다.
도 4는 본 발명의 실시예에 따른 단말 장치(400)의 개략적인 구조도이다.
도 1은 본 발명의 실시예에 따른 발음 위치를 결정하는 방법의 흐름도이다.
도 2a는 본 발명의 실시예에 따른, 발음 위치가 위치된 차 내부의 개략도이다.
도 2b는 본 발명의 다른 실시예에 따른, 발음 위치가 위치된 차 내부의 개략도이다.
도 3은 본 발명의 다른 실시예에 따른 발음 위치를 결정하는 방법의 흐름도이다.
도 3a는 본 발명의 다른 실시예에 따른 발음 위치를 결정하는 방법의 흐름도이다.
도 3b는 본 발명의 다른 실시예에 따른 발음 위치를 결정하는 방법의 흐름도이다.
도 4는 본 발명의 실시예에 따른 단말 장치(400)의 개략적인 구조도이다.
이하에서는 본 발명의 실시예에서의 첨부 도면을 참조하여 본 발명의 실시예의 기술적 해결책을 명확하고 완전하게 설명한다. 명확한 것은, 설명된 실시예는 본 발명의 일부 실시예에 불과하며 전부는 아니라는 것이다. 창의적인 노력 없이 본 발명의 실시예에 기초하여 통상의 기술자에 의해 획득된 다른 모든 실시예는 본 발명의 보호 범위 내에 있다.
본 발명의 실시예는 발음 위치를 결정하는 방법을 제공한다. 본 발명의 실시예에 포함된 단말 장치는 차내의 중앙 제어 장치, 스마트폰, 태블릿 컴퓨터 등일 수 있다.
종래 기술에서, 빔포밍 알고리즘 및 음향 수집 센서를 이용하여 음향 신호를 수집하는 해결책이 결합되어 음향 신호의 수집 및 음성 인식에 적용되어, 이 방식을 이용하여 음성 인식 성공률이 크게 향상되었다. 그러나 이 방식을 이용함으로써 단일 발음 위치에서만 방출된 음향 신호가 인식될 수 있다. 음향 신호가 다수의 발음 위치로부터 방출될 때, 음성 인식 시스템은 다수의 음향 신호를 동시에 인식할 수 없다.
본 발명의 실시예에서, 제1 음향 신호 또는 제2 음향 신호는 단지 구별을 위한 것이며, 순서 또는 시퀀스를 나타내지 않는다.
도 1은 본 발명의 실시예에 따른 발음 위치를 결정하는 방법의 흐름도이다. 본 발명의 본 실시예의 응용 시나리오는 음향 수집 및 음성 인식의 임의의 시나리오일 수 있다. 본 발명의 본 실시예에서, 차내 시스템에서의 음향 수집 및 음성 인식은 예로서 사용되며, 이 방법은 이하의 단계를 포함한다:
S101. K가 2 이상의 정수인 K개의 제1 음향 신호를 수집한다.
차내 시스템에서, 차내 시스템 내에 K개의 음향 수집 센서가 있고, 프로세서는 K개의 제1 음향 신호를 수집할 수 있으며, 여기서 K는 2 이상의 정수이다.
예를 들어, 차내 시스템에서, K는 2로 설정될 수 있고, 즉, 제1 음향 수집 센서 및 제2 음향 수집 센서는 운전실과 전방 탑승실에 각각 설치될 수 있다.
제1 음향 수집 센서 및 제2 음향 수집 센서는 제1 음향 신호를 동시에 수집한다. 선택적으로는, 차내 시스템에서, 다른 음향 수집 센서는 자동차의 뒷좌석 또는 자동차의 다른 위치에 추가로 설치될 수 있다.
본 발명의 본 실시예에서, 제1 음향 신호는 차내 시스템 내의 환경 음이며, 차내 상이한 위치로부터 방출된 음향 신호 및 차 외부의 음향 신호를 포함한다. 제1 음향 신호는 운전실의 위치(예를 들어, 도 2a에 나타난 바와 같이, 위치 ①)로부터 방출된 음향 신호, 전방 탑승실의 위치(예를 들어, 도 2a에 나타난 바와 같이, 위치 ②)로부터 방출된 음향 신호, 차내 시스템에서 뒷좌석의 위치로부터 방출된 음향 신호(예를 들어, 도 2a에 나타난 바와 같이, 위치 ③ 및 위치 ④), 또는 차내 시스템 외부의 노이즈 중 적어도 하나를 포함할 수 있다.
S102. N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하고, 여기서 M은 N보다 작거나 같으며, N은 2 이상의 정수이다.
유사하게는, 차내 시스템의 경우가 설명의 예로서 사용된다. 제1 음향 수집 센서 및 제2 음향 수집 센서의 좌표는 공간적으로 중첩되지 않으며, 제1 음향 수집 센서 및 제2 음향 수집 센서 사이에는 일정한 거리가 있다. 도 2a에서 나타난 바와 같이, 제1 음향 수집 신호 및 제2 음향 수집 센서는 차내 시스템의 중간 백미러(A)의 좌측 및 우측에 각각 배치된다. 제1 음향 수집 센서는 차내 시스템의 위치 C에 배치되고, 제2 음향 수집 센서는 차내 시스템의 위치 B에 배치된다. 따라서, 제1 음향 수집 센서에 의해 수집된 음향 신호의 시간은 제2 음향 수집 센서에 의해 수집된 음향 신호의 시간과 상이하다. 이 경우, 위상 차가 제1 음향 수집 센서에 의해 수집된 음향 신호 및 제2 음향 수집 센서에 의해 수집된 음향 신호 사이에 형성된다.
본 발명의 다른 실시예에서, 도 2b에서 나타난 바와 같이, 차내 시스템은 4개의 음향 수집 센서를 포함한다. 이 경우, K는 4이다. 4개의 음향 수집 센서는 도 2b에서 나타난 바와 같이, 차내 시스템의 중앙 위치에 배치된다.
K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하는 단계는 구체적으로 빔포밍 알고리즘을 이용하여 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출할 수 있거나 또는 빔포밍 알고리즘을 이용하여 다른 음향 신호를 필터링함으로써 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출할 수 있다.
예를 들어, 음향 신호의 방출 위치는 운전실의 위치이고, 대응하는 위치 파라미터는 운전실의 위치 파라미터이다. 차내 중앙 제어 장치는 운전실에 대응하는 운전실의 위치 파라미터에 따라 K개의 제1 음향 신호로부터, 운전실로부터 방출된 제2 음향 신호를 추출한다.
S103. 각각의 제2 음향 신호에 대응하는 위치를 결정한다. 차내 중앙 제어 장치는 빔포밍 알고리즘을 이용하여 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 각각 추출한다.
예를 들어, 위치 파라미터가 운전실의 위치 파라미터일 때, 제2 음향 신호는 빔포밍 알고리즘을 이용하여 운전실의 위치 파라미터에 따라 추출되며, 추출된 제2 음향 신호에 대응하는 방출 위치가 운전실인, 제2 음향 신호에 대응하는 위치 파라미터에 따라 결정된다.
본 발명은 발음 위치를 결정하는 방법을 제공하고, 여기서 M개의 제2 음향 신호는 빔포밍 알고리즘을 이용하여 위치 파라미터에 따라 K개의 제1 음향 신호로부터 추출되고, 이로써 각각의 제2 음향 신호에 대응하는 방출 위치가 결정될 수 있다. 이 방법에 의하여, 상이한 위치로부터 방출된 음향 신호가 효율적으로 추출될 수 있으며, 음성 인식 능력이 향상되어, 사용자에게 더 나은 사용자 경험을 제공할 수 있다.
도 3은 본 발명의 다른 실시예에 따른 발음 위치를 결정하는 방법의 흐름도이다. 유사하게, 본 발명의 본 실시예에서, 차내 시스템의 응용이 설명을 위한 예로서 사용된다. 도 3에서 나타난 바와 같이, 이 방법은 이하의 단계를 포함한다:
S301a. N개의 상이한 위치로부터 음성 명령에 응답하는 우선순위를 설정한다.
유사하게, 도 2a의 위치 개략도는 예로서 사용된다. 도 2a에서, 위치 ①는 운전실의 위치이고, 위치 ②는 전방 탑승실의 위치이고, 위치 ③는 차내 시스템에서의 좌측 뒷좌석의 위치이며, 위치 ④는 차내 시스템에서의 우측 뒷좌석의 위치이다.
본 발명의 본 실시예에서, 차내 시스템은 예로서 사용된다. K는 2, N은 4, M은 2라고 가정한다.
차내 시스템의 차내 중앙 제어 장치는 4개의 상이한 위치에 따라, 4개의 상이한 위치로부터 음성 명령에 응답하는 우선순위를 설정한다.
예를 들어, 일반적인 가정용 세단에 설정된 음성 명령의 우선순위가 일례로서 사용된다.
표(1) 일반적인 가정용 세단에 설정된 음성 명령의 우선순위
명령 | 선루프를 여시오 | 선루프를 닫으시오 | 라디오를 켜시오 | 음악을 재생하시오 |
위치 | 1 | 1 | 1 | 1 |
위치 | 1 | 1 | 2 | 2 |
위치 | 2 | 2 | 3 | 3 |
위치 | 2 | 2 | 4 | 4 |
표(1)로부터, "선 루프를 여시오" , "선 루프를 닫으시오", "라디오를 켜시오" 또는 "음악을 재생하시오" 와 같은 명령이 위치 ①로부터 방출될 때, 위치 ①로부터 방출된 명령의 우선순위는 동일한 의미를 가지며 다른 위치로부터 방출된 명령의 우선순위보다 더 높다.
본 발명의 다른 실시예에서, N개의 상이한 위치로부터 음성 명령에 응답하는 우선순위가 설정될 때, 어린이의 음성 및 성인의 음성에 관한 결정 요소가 추가된다. 어린이 음성인 음성 명령의 우선순위가 낮은 우선순위로 설정되거나, 음성 명령이 어린이 음성일 때, 어린이 음성인 음성 명령은 차단되도록 설정된다. 성인 음성인 음성 명령의 우선순위는 최우선 순위로 설정된다.
본 발명의 본 실시예에서, 위치 ①로부터 방출된 "에어컨을 켜시오" 라는 명령 및 동시에 위치 ④로부터 방출된 "에어컨을 끄시오" 라는 명령은 예로서 사용된다.
S301. K개의 제1 음향 신호를 수집한다.
본 발명의 본 실시예에서, K가 2라는 것은 설명을 위한 예로서 사용된다.
차내 시스템에서, 제1 음향 수집 센서 및 제2 음향 수집 센서는 각각 중간 백미러(A)의 좌측 및 우측에 설치된다.
제1 음향 수집 센서 및 제2 음향 수집 센서는 제1 음향 신호를 동시에 수집한다. 선택적으로, 차내 시스템에서, 다른 음향 수집 센서는 차의 뒷좌석 또는 차의 다른 위치에 추가로 설치될 수 있다.
예를 들어, "에어컨을 켜시오" 라는 명령의 음향 신호가 위치 ①로부터 방출되고, 동시에 "에어컨을 끄시오" 라는 명령의 음향 신호가 위치 ④로부터 방출될 때, 제1 음향 수집 센서 및 제2 음향 수집 센서는 위치 ①로부터 방출된 "에어컨을 켜시오" 라는 명령의 음향 신호를 동시에 수집한다. 유사하게, 제1 음향 수집 센서 및 제2 음향 수집 센서는 위치 ④로부터 방출된 "에어컨을 끄시오" 라는 명령의 음향 신호를 동시에 수집한다.
S302. N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하고, 여기서 M은 N보다 작거나 같으며, N은 2 이상의 정수이다.
본 발명의 본 실시예에서, N은 4이고 M은 2라는 것은 설명의 예로서 사용된다.
제1 음향 수집 센서 및 제2 음향 수집 센서의 좌표는 공간적으로 중첩되지 않으며, 제1 음향 수집 센서 및 제2 음향 수집 센서 사이에 일정한 거리가 존재한다. 따라서, 제1 음향 수집 센서에 의해 수집된 음향 신호의 시간은 제2 음향 수집 센서에 의해 수집된 음향 신호의 시간과 상이하다. 이 경우, 위상 차는 제1 음향 수집 센서에 의해 수집된 음향 신호 및 제2 음향 수집 센서에 의해 수집된 음향 신호 사이에 형성된다.
본 발명에서, 제1 음향 수집 센서 및 제2 음향 수집 센서가 각각 중간 백미러의 좌측 및 우측에 배치된 예가 사용된다. 본 발명에서, 음향 수집 센서의 수량은 한정되지 않으며, 음향 수집 센서의 위치 또한 한정되지 않는다. 예를 들어, 또 하나의 음향 수집 센서가 음향이 방출될 수 있는 위치 주위에 추가로 배치될 수 있는데, 예를 들어, 도 2a에서 나타난 위치 ① 또는 위치 ②에 있는 좌석의 뒷면에 설치될 수 있다.
예를 들어, 차내 중앙 제어 장치는 위치 ①의 미리 설정된 위치 파라미터에 따라, 위치 ①로부터 방출된 제2 음향 신호를 추출한다. 차내 중앙 제어 장치는 빔포밍 알고리즘을 이용하여 위치 ①의 미리 설정된 위치 파라미터에 따라 수집된 제1 음향 신호로부터 위치 ①로부터 방출된 제2 음향 신호를 추출한다.
동시에, 차내 중앙 제어 장치는 위치 ④의 미리 설정된 위치 파라미터에 따라, 위치 ④로부터 방출된 제2 음향 신호를 추출한다. 차내 중앙 제어 장치는 빔포밍 알고리즘을 이용하여 위치 ④의 미리 설정된 위치 파라미터에 따라 수집된 제1 음향 신호로부터 위치 ④로부터 방출된 제2 음향 신호를 추출한다.
예를 들어, 차내 중앙 제어 장치는 빔포밍 알고리즘을 이용하여 위치 ①의 위치 파라미터에 따라, 위치 ①의 미리 설정된 위치 파라미터를 충족하는 음향 신호를 추출한다. 예를 들어, 위치 ①로부터 방출된 "에어컨을 켜시오" 라는 음향 신호가 수집된다. 차내 중앙 제어 장치는 빔포밍 알고리즘을 이용하여 위치 ④의 위치 파라미터에 따라, 위치 ②의 미리 설정된 위치 파라미터를 충족하는 음향 신호를 추출한다. 예를 들어, 위치 ④로부터 방출된 "에어컨을 켜시오" 라는 음향 신호가 수집된다.
S303. 각각의 제2 음향 신호에 대응하는 위치를 결정한다.
차내 중앙 제어 장치는 빔포밍 알고리즘을 이용하여 4개의 위치 파라미터에 따라 2개의 제1 음향 신호로부터 2개의 제2 음향 신호를 각각 추출한다.
예를 들어, 위치 파라미터가 위치 ①의 위치 파라미터일 때, 위치 ①로부터 방출된 제2 음향 신호는 빔포밍 알고리즘을 이용하여 위치 ①의 위치 파라미터에 따라 추출되고, 추출된 제2 음향 신호에 대응하는 방출 위치가 위치 ①인, 제2 음향 신호에 대응하는 위치 파라미터에 따라 결정된다.
S304. M개의 추출된 제2 음향 신호에 대해 음성 인식을 수행한다.
차내 중앙 제어 장치는 추출된 음향 신호를 인식하기 위해, 추출된 음향 신호에 대해 음성 인식을 수행한다.
예를 들어, 차내 중앙 제어 장치는 위치 ①로부터 추출된 음향 신호에 대해 음성 인식을 수행하고, 추출된 음향 신호를 "에어컨을 켜시오" 라고 인식한다. 차내 중앙 제어 장치는 위치 ④로부터 추출된 음향 신호에 대해 음성 인식을 수행하고, 추출된 음향 신호를 "에어컨을 끄시오" 라고 인식한다.
S305. M개의 제2 음향 신호에 대응하는 음성 명령을 획득한다.
차내 중앙 제어 장치는 M개의 추출된 제2 음향 신호에 대응하는 음성 명령을 획득한다.
예를 들어, 차내 중앙 제어 장치는 위치 ①로부터 방출된 추출 음향 신호에 대응하는 음성 명령을 획득하고, "에어컨을 켜시오" 라는 음성 명령을 획득한다. 차내 중앙 제어 장치는 위치 ④로부터 방출된 추출 음향 신호에 대응하는 음성 명령을 획득하고, "에어컨을 끄시오" 라는 음성 명령을 획득한다.
S306. M개의 음성 명령에 응답한다.
차내 중앙 제어 장치는 M개의 추출된 제2 음향 신호에 대응하는 획득된 음성 명령에 따라 M개의 음성 명령에 응답한다.
예를 들어, 위치 ①로부터 방출된 "에어컨을 켜시오" 라는 음성 명령을 획득한 이후에, 차내 중앙 제어 장치는 음성 명령에 응답하고, 에어컨을 켠다.
본 발명의 다른 실시예에서, 차내 중앙 제어 장치는 위치 ①로부터 추출된 음향 신호 및 위치 ④로부터 추출된 음향 신호에 대해 음성 명령을 수행하여, 추출된 음향 신호를 인식한다. 차내 중앙 제어 장치는 위치 ①로부터 방출된 추출 음향 신호 및 위치 ④로부터 방출된 추출 음향 신호에 대해 음성 인식을 수행하여, 추출된 음향 신호를 인식한다. 위치 ①로부터 방출된 추출 음향 신호에 대응하는 음성 명령이 획득되고, 위치 ④로부터 방출된 추출 음향 신호에 대응하는 음성 명령이 획득된다. 예를 들어, 위치 ①로부터 방출된 "에어컨을 켜시오" 라는 음성 명령 및 위치 ④로부터 방출된 "에어컨을 끄시오" 라는 음성 명령이 획득된다. 위치 ①로부터 방출된 "에어컨을 켜시오" 라는 획득된 음성 명령 및 위치 ④로부터 방출된 "에어컨을 끄시오" 라는 획득된 음성 명령에 따라, 차내 중앙 제어 장치는 2개의 음성 명령에 응답한다. 선택적으로, 음성 인식에 의해 2개의 위치로부터 음성 명령을 획득할 때, 차내 중앙 제어 장치는 2개의 음성 명령에 대응하는 2개의 상이한 위치의 우선순위에 따라 최우선 순위 음성 명령에 우선적으로 응답할 수 있다. 예를 들어, 위치 ①의 우선순위는 위치 ④의 우선순위보다 더 높다. 차내 중앙 제어 장치는 에어컨을 켜기 위해, 위치 ①로부터 "에어컨을 켜시오" 라는 음성 명령에 우선적으로 응답한다. 그 다음, 차내 중앙 제어 장치는 위치 ④로부터 "에어컨을 끄시오" 라는 음성 명령에 응답한다. 이 경우, 위치 ①로부터 차내 중앙 제어 장치가 응답하는 음성 명령은 "에어컨을 켜시오" 이고, 위치 ④로부터의 음성 명령은 "에어컨을 끄시오" 이다. 따라서, 위치 ①로부터의 음성 명령 및 위치 ④로부터의 음성 명령은 충돌하는 명령이고, 차내 중앙 제어 장치는 위치 ①로부터의 음성 명령 및 위치 ④로부터의 음성 명령 모두에 응답할 수 없다. 따라서, 위치 ④로부터의 음향 신호에 대해 음성 인식을 수행한 이후에, 차내 중앙 제어 장치는 추출된 음향 신호에 대응하는 음성 명령을 획득하고, 위치 ④로부터 음성 명령에 응답하지 않는다. 충돌된 명령은 우선적인 방식으로 처리되고, 차내 중앙 제어 장치가 다수의 충돌된 명령에 응답할 때, 차내 중앙 제어 장치가 명령 충돌로 인해 정확한 응답을 할 가능성이 낮아지게 되고, 이로써 응답 실수로 인한 오류가 감소된다.
충돌된 명령은 구체적으로 이하와 같이 정의된다: 적어도 2개의 명령에 대해 동일한 자원이 사용되고, 상이한 동작이 적어도 2개의 명령의 실행 도중에 동일한 사용된 자원에 대해 수행될 때, 적어도 2개의 명령은 충돌한다.
본 발명의 다른 실시예에서, 2개의 획득된 음성 명령이 서로 충돌할 때, 시간에 관한 결정 요소가 추가된다. 차내 중앙 제어 장치가 우선순위가 높은 명령이 인식되었지만, 인식된 충돌 명령의 우선순위가 상대적으로 낮아진 이후에 미리 설정된 시간(T1) 내에 충돌하는 명령을 인식할 때, 상대적으로 낮은 우선순위를 갖는 명령은 무시된다. 차내 중앙 제어 장치는 최우선 순위 명령이 인식된 이후에 미리 설정된 시간(T1) 이후에 충돌하는 명령을 인식할 때, 차내 중앙 제어 장치는 음성 명령이 인식된 시간 순서에 따라 획득된 음성 명령에 응답한다.
도 3a는 본 발명의 다른 실시예에 따른 발음 위치를 찾는 방법의 흐름도이다. 본 발명의 다른 실시예에서, 단계 S301가 수행되기 이전에, 이하의 단계가 수행될 수 있다:
S401. 차내 시스템에 적어도 하나의 좌석이 점유되어 있는지를 결정한다.
구체적으로, 차내 시스템은 중력 감지에 의해, 차내 시스템의 좌석이 점유되어 있는지를 결정할 수 있다.
예를 들어, 중력 감지에 의해, 도 2a의 차내 시스템의 좌석이 점유되어 있는지가 결정된다. 예를 들어, 도 2a의 위치 ①, 위치 ②, 위치 ③, 또는 위치 ④가 점유되어 있는지가 결정된다.
차내 시스템이 차내 시스템의 좌석이 점유되어 있지 않다고 결정할 때, 단계 S301는 수행되지 않는다.
차내 시스템이 차내 시스템의 적어도 하나의 좌석이 점유되어 있다고 결정할 때, 단계 S301가 수행된다.
음향 신호가 수집되기 이전에, 먼저 차내 시스템의 적어도 하나의 좌석이 점유되어 있는지가 결정된다. 발음 위치는 차내 시스템의 좌석이 점유될 때에만 위치되어, 음향 수집의 효율을 향상시키고 발음 위치를 결정하는 효율을 향상시킨다.
본 발명의 다른 실시예에서, 도 3b에서 나타난 바와 같이, 단계 S305가 수행된 이후에, 단계 S305a가 수행될 수 있다: M개의 추출된 제2 음향 신호의 성문(voice print)을 인식한다.
S305b. 차내 시스템에서 점유된 좌석의 사용자 몸무게를 측정한다.
S305c. 사용자의 측정된 몸무게 및 제2 음향 신호의 인식된 성문에 관하여 사용자의 신원을 결정한다.
S305d. 사용자의 결정된 신원에 따라, 사용자에 의해 방출된 제2 음향 신호에 대응하는 음성 명령의 우선 순위를 결정한다.
S305e. 사용자에 의해 방출된 제2 음향 신호에 대응하는 음성 명령의 우선순위에 따라, 제2 음향 신호에 대응하는 음성 명령에 응답한다.
중력 감지 및 성문 인식을 결합하는 방식으로, 사용자의 신원 및 사용자에 의해 방출된 음향 신호에 대응하는 음성 명령의 우선순위가 결정된다. 사용자에 의해 방출된 음향 신호에 대응하는 음성 명령의 우선순위에 관하여, 다수의 음성 명령에 대한 응답의 우선순위가 결정되어, 차내 중앙 제어 장치가 다수의 음성 명령에 응답할 필요가 있기 때문에 차내 중앙 제어 장치에서 발생하는 에러 및 실수를 감소시킨다.
본 발명은 발음 위치를 찾는 방법을 제공하고, 여기서 M개의 제2 음향 신호는 빔포밍 알고리즘을 이용하여 위치 파라미터에 따라 K개의 제1 음향 신호로부터 추출되고, 이로써 각각의 제2 음향 신호에 대응하는 방출 위치가 결정될 수 있다. 또한, 음성 명령의 우선순위가 설정되고, 최우선 순위 명령을 우선적으로 처리하는 방법이 충돌 명령을 처리하는 데 사용되어, 차내 중앙 제어 장치가 다수의 충돌 명령에 응답할 때 발생된 충돌을 감소시킨다. 이로써, 응답 실수에 의해 발생된 오류가 감소되어, 사용자 경험이 향상된다.
도 4는 본 발명의 실시예에 따른 단말 장치(400)이다. 단말 장치(400)는 본 발명의 실시에서의 상기 방법들을 수행하도록 구성될 수 있다. 도 4에서 나타난 바와 같이, 단말 장치(400)는 모바일 폰, 태블릿 컴퓨터, PDA(Personal Digital Assistant), POS(Point of Sale), 또는 차내 중앙 제어 단말 장치와 같은 단말 장치일 수 있다. 단말 장치(400)는 RF(Radio Frequency), 회로(410), 메모리(420), 입력 장치(430), 디스플레이 장치(440), 센서(450), 오디오 회로(460), WiFi(wireless fidelity) 모듈(470), 프로세서(480), 전원 장치(490)와 같은 구성 요소를 포함한다. 통상의 기술자는 도 4에서 도시된 단말 장치의 구조가 단지 구현 방식의 일례일 뿐이며, 단말 장치를 제한하지 않으며, 도면에 도시된 구성 요소보다 많거나 적은 구성 요소 또는 일부 구성요소의 조합 또는 상이한 구성 요소 배열을 포함할 수 있다.
RF 회로(410)는 정보 수신 및 전송 처리 또는 호출 처리 도중에 신호를 수신하고 전송하도록 구성될 수 있다. 구체적으로, RF 회로(410)는 기지국으로부터 다운 링크 정보를 수신하고, 처리를 위해 프로세서(480)에 다운 링크 정보를 전달하며, 관련된 업 링크 데이터를 기지국에 전송한다. 일반적으로, RF 회로(410)는 안테나, 적어도 하나의 증폭기, 트랜시버, 커플러, LNA(low noise amplifier), 및 송수 전환기(duplexer)를 포함하지만, 이에 한정되는 것은 아니다. 또한, RF 회로(410)는 무선 통신에 의해 네트워크 및 다른 단말 장치와 더 통신할 수 있다. 무선 통신은 임의의 통신 표준 또는 프로토콜을 사용할 수 있고, GSM(Global System of Mobile communication, Global System for Mobile Communications), GPRS(General Packet Radio Service), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), LTE(Long Term Evolution), e-mail 및 SMS(ShortMessaging Service)를 포함하지만, 이에 한정되는 것은 아니다.
메모리(420)는 소프트웨어 프로그램 및 모듈을 저장하도록 구성될 수 있으며, 프로세서(480)는 메모리(420)에 저장된 소프트웨어 프로그램 및 모듈을 실행하여, 단말 장치(400) 및 데이터 처리의 다양한 기능적 응용을 수행한다. 메모리(420)는 주로 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있으며, 여기서 프로그램 저장 영역은 운영 시스템, 적어도 하나의 기능(예를 들어, 음향 재생 기능 및 이미지 디스플레이 기능)에 의해 요구되는 응용 프로그램 등을 저장할 수 있고, 데이터 저장 영역은 단말 장치(400) 등의 사용에 따라 생성되는 데이터(예를 들어, 오디오 데이터 및 전화 번호부)를 저장할 수 있다. 또한, 메모리(420)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 적어도 하나의 자기 디스크 저장 장치, 플래시 저장 장치, 또는 다른 휘발성 고체 상태 저장 장치와 같은 비휘발성 메모리를 더 포함할 수 있다.
디스플레이 장치(440)는 사용자에 의해 입력된 정보 또는 사용자에게 제공되는 정보 및 단말 장치(400)의 다양한 메뉴를 디스플레이하도록 구성될 수 있다. 디스플레이 장치(440)는 디스플레이 패널(441)을 포함할 수 있다. 선택적으로, 디스플레이 패널(441)은 LCD(Liquid Crystal Display), OLED(Organic Light-Emitting Diode) 등과 같은 형태를 사용하여 구성될 수 있다. 또한, 터치 패널(431)은 디스플레이 패널(441)을 커버할 수 있다. 터치 패널(431) 상에서 또는 근처에서 터치 조작을 검출한 이후에, 터치 패널(431)은 터치 조작을 프로세서(480)에 전송하여, 터치 이벤트의 유형을 결정한다. 그 다음, 프로세서(480)는 터치 이벤트의 유형에 따라 디스플레이 패널(441) 상에 대응하는 시각적 출력을 제공한다. 도 4에서, 터치 패널(431) 및 디스플레이 패널(441)은 단말 장치(400)의 입력 기능 및 출력 기능을 구현하기 위해 2개의 독립된 구성요소로 사용된다. 그러나 일부 실시예에서, 터치 패널(431) 및 디스플레이 패널(441)은 단말 장치(400)의 입력 기능 및 출력 기능을 구현하기 위해 통합될 수 있다. 예를 들어, 터치 패널(431) 및 디스플레이 패널(441)은 터치 스크린으로 통합되어, 단말 장치(400)의 입력 기능 및 출력 기능을 구현할 수 있다.
단말 장치(400)는 광 센서, 동작 센서 및 다른 센서와 같은 적어도 하나의 센서(450)를 더 포함할 수 있다. 구체적으로, 광 센서는 주변 광 센서 및 근접 센서를 포함할 수 있으며, 여기서 주변 광 센서는 주변 광의 휘도에 따라 디스플레이 패널(441)의 밝기를 조절할 수 있으며, 근접 센서는 단말 장치(400)가 귀에 접근할 때 디스플레이 패널(441) 또는 백라이트를 스위치 오프할 수 있다. 동작 센서의 한 종류로서, 가속도계 센서는 다양한 방향(일반적으로, 3축 방향)의 가속도 값을 검출할 수 있고, 단말 장치(400)가 정적일 때 중력의 값 및 방향을 검출할 수 있으며, 모바일 폰의 자세(예를 들어, 가로 방향 및 세로 방향의 전환, 관련 게임 및 자력계 자세 교정), 진동 인식에 관련된 기능(예를 들어, 보수계 및 태핑) 등을 인식하는 애플리케이션에 적용될 수 있다. 단말 장치(400) 상에 추가로 구성될 수 있는 자이로스코프(gyroscope), 기압계, 습도계, 온도계 및 적외선 센서와 같은 다른 센서에 관한 상세한 설명은 여기서 설명하지 않는다.
오디오 회로(460), 스피커(461) 및 마이크로폰(462)은 사용자와 단말 장치(400) 사이의 오디오 인터페이스를 제공할 수 있다. 오디오 회로(460)는 수신된 오디오 데이터를 전기 신호로 변환하고 전기 신호를 스피커(461)로 전송할 수 있다. 스피커(461)는 출력을 위해 전기 신호를 음향 신호로 변환한다. 한편, 마이크로폰(462)은 수집된 음향 신호를 전기 신호로 변환한다. 오디오 회로(460)는 전기 신호를 수신하고, 전기 신호를 오디오 데이터로 변환하며, 처리를 위해 오디오 데이터를 프로세서(480)로 출력한다. 그 다음, 프로세서(480)는 RF 회로(410)를 이용하여 예를 들어, 다른 모바일 폰으로 오디오 데이터를 전송하거나, 추가 처리를 위해 메모리(420)에 오디오 데이터를 출력한다.
단말 장치(400)는 WiFi 모듈(470)을 이용하여 사용자가 이메일을 송수신하고, 웹 페이지를 브라우징하고, 스트리밍 미디어에 액세스하는 등을 도울 수 있다. WiFi 모듈(470)은 사용자에게 무선 광대역 인터넷 액세스를 제공한다. 도 4가 WiFi 모듈(470)을 도시하지만, WiFi 모듈(470)이 단말 장치(400)의 필수 구성 요소가 아니며, 필요에 따라 WiFi 모듈(470)은 본 발명의 요지의 범위 내에서 변경되지 않는 한 생략될 수 있다는 것을 이해해야 한다.
프로세서(480)는 단말 장치(400)의 제어 센터이고, 다양한 인터페이스 및 회선을 이용하여 모바일 폰 전체의 모든 부분을 연결하고, 단말 장치(400)의 다양한 기능을 수행하며, 메모리(402)에 저장된 소프트웨어 프로그램 또는 모듈, 또는 이들 모두를 실행하거나 수행함으로써 데이터를 처리하여, 메모리(402)에 저장된 데이터를 호출하고, 이로써 단말 장치에 대한 전반적인 모니터링을 수행한다. 선택적으로, 프로세서(480)는 하나 이상의 처리 유닛을 포함할 수 있다. 우선적으로, 프로세서(480)는 애플리케이션 프로세서 및 모뎀 프로세서를 통합할 수 있다. 애플리케이션 프로세서는 주로 운영 체제, 사용자 인터페이스, 애플리케이션 프로그램 등을 처리한다. 모뎀 프로세서는 주로 무선 통신을 처리한다. 상기 모뎀 프로세서는 프로세서(480)에 통합되지 않을 수 있음을 이해해야 한다. 프로세서(480)는 구체적으로 중앙 처리 유닛(CPU: Central Processing Unit)일 수 있다.
단말 장치(400)는 또한 다양한 구성 요소에 전력을 공급하는 전원 장치(490)(예를 들어, 배터리)를 포함한다. 우선적으로, 전원 장치는 전원 관리 시스템을 이용하여 프로세서(480)에 논리적으로 연결되고, 이로써 전원 관리 시스템을 이용하여 충전, 방전 및 소비 전력 관리 등의 기능을 구현할 수 있다.
본 발명의 본 실시예에서, 단말 장치(400)는 K개의 음향 수집 센서(450) 및 프로세서(480)를 포함하고, 이하 기능들을 갖는다.
음향 수집 센서(450)는 K개의 제1 음향 신호를 수집하도록 구성되고, K는 2 이상의 정수이다.
구체적으로, 3차원 공간의 K개의 음향 수집 센서의 좌표는 상이하다.
프로세서(480)는 N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하고, 각각의 제2 음향 신호에 대응하는 위치를 결정하도록 구성되며, M은 N보다 작거나 같고, N은 2 이상의 정수이다.
본 발명의 다른 실시예에서, 각각의 제2 음향 신호에 대응하는 위치를 결정하도록 구성되는 프로세서(480)는 구체적으로, L번째 제2 음향 신호에 대응하는 위치 파라미터에 따라, L번째 제2 음향 신호에 대응하는 위치 L을 결정하는 것을 포함하며, 상기 L번째 제2 음향 신호는 M개의 제2 음향 신호 중 임의의 하나이다.
본 발명의 다른 실시예에서, 프로세서(480)는 또한, K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출한 이후에, M개의 추출된 제2 음향 신호에 대해 음성 인식을 수행하고, M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득하도록 구성된다.
본 발명의 다른 실시예에서, 단말 장치(400)는 또한, 출력 장치(510)를 포함하고, 상기 출력 장치(510)는 프로세서가 M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득한 이후에 M개의 음성 명령에 응답하도록 구성된다.
M개의 음성 명령에 응답하도록 구성되는 출력 장치(510)는 구체적으로, M개의 음성 명령에 대응하는 M개의 상이한 위치의 우선순위에 따라 최우선 순위 명령에 우선적으로 응답하도록 구성된 출력 장치를 포함한다.
본 발명의 본 실시예에서, 출력 장치(510)는 구체적으로 오디오 회로(460) 또는 디스플레이 장치(440)일 수 있다.
본 발명의 본 실시예에서, 발음 위치 및 단말 장치의 위치를 찾는 방법이 제공된다. M개의 제2 음향 신호는 빔포밍 알고리즘을 이용하여 위치 파라미터에 따라 K개의 제1 음향 신호로부터 추출되어, 각각의 제2 음향 신호에 대응하는 방출 위치가 결정될 수 있다. 상기 방법에 의하여, 상이한 위치로부터 방출된 음향 신호가 효율적으로 추출될 수 있으며, 음성 인식의 능력이 발휘되어, 사용자에게 보다 더 나은 사용자 경험을 제공할 수 있게 된다.
통상의 기술자는, 본 명세서에 개시된 실시예에 도시된 예들과 결합하여, 유닛, 알고리즘 및 방법 단계들이 컴퓨터 소프트웨어 및 전자 하드웨어의 조합에 의해 구현될 수 있다는 것을 인식할 수 있다. 기능이 하드웨어 또는 소프트웨어에 의해 수행되는지의 여부는 기술적 해결책의 특정 애플리케이션 및 설계 제약 조건에 따라 달라진다. 통상의 기술자는 각각의 특정 애플리케이션에 대해 기술된 기능을 구현하기 위해 상이한 방법을 사용할 수 있지만, 구현이 본 발명의 범위를 벗어나는 것으로 간주되어서는 안된다.
편리하고 간편한 설명을 위해, 상기 모바일 단말 및 액세스 단말은 본 발명의 설명된 방법 실시예에서 별도로 작업 프로세스를 수행하고, 특정 작업을 위해, 상기 방법 실시예에서 대응하는 프로세스가 참조될 수 있으며, 상세한 설명은 여기서 다시 설명하지 않는다는 것을 통상의 기술자에 의해 명확하게 이해될 수 있다.
본 발명에서 제공된 일부 실시예에서, 개시된 서버 및 방법은 다른 방식으로 구현될 수 있다. 예를 들어, 설명된 서버 실시예는 단지 예일 뿐이다. 예를 들어, 유닛 구분은 단지 논리적 기능 구분일 뿐이며 실제 구현에서는 다른 구분일 수 있다. 예를 들어, 복수의 유닛 또는 구성 요소가 결합되거나 다른 시스템에 통합되거나, 또는 일부 특징이 무시되거나 수행되지 않을 수 있다. 또한, 디스플레이되거나 논의된 상호 결합 또는 직접 결합 또는 통신 연결은 일부 인터페이스를 사용하여 구현될 수 있다. 장치 또는 유닛 간의 간접 결합 또는 통신 연결은 전자적, 기계적 또는 다른 형태로 구현될 수 있다.
분리된 부분으로서 설명된 유닛은 물리적으로 분리될 수도 있고 분리되지 않을 수도 있고, 유닛으로서 디스플레이된 부분은 물리적 유닛이 될 수도 있고 아닐 수도 있으며, 한 위치에 위치될 수 있거나, 또는 복수의 네트워크 유닛 상에 분배될 수 있다. 유닛의 일부 또는 전부는 본 발명의 실시예의 해결책의 목적을 달성하기 위해 실제 필요에 따라 선택될 수 있다.
또한, 본 발명의 실시예에서의 기능적 유닛은 하나의 처리 유닛에 통합될 수 있거나, 또는 각각의 유닛은 물리적으로 단독으로 존재할 수 있거나, 또는 2개 이상의 유닛은 하나의 유닛에 통합된다.
통상의 기술자는, 방법의 실시예의 단계들의 전부 또는 일부가 관련 하드웨어를 지시하는 프로그램에 의해 구현될 수 있다는 것을 이해할 수 있다. 프로그램은 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 프로그램이 실행될 때, 방법 실시예의 단계들이 수행된다. 상기 저장 매체는, ROM, RAM, 자기 디스크 또는 광 디스크와 같은 프로그램 코드를 저장할 수 있는 임의의 매체를 포함한다.
상기 설명은 단지 본 발명의 특정 구현 방식일 뿐이며, 본 발명의 보호 범위를 제한하는 것은 아니다. 본 발명에 개시된 기술적 범위 내에서 통상의 기술자에 의해 용이하게 이해되는 임의의 변형 또는 치환은 본 발명의 보호 범위 내에 속한다. 따라서, 본 발명의 보호 범위는 청구항의 보호 범위를 따라야 한다.
Claims (13)
- 발음 위치를 찾는 방법으로서,
K개의 제1 음향 신호를 수집하는 단계 - 상기 K는 2 이상의 정수임 -;
N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하는 단계 - 상기 M은 N보다 작거나 같고, N은 2 이상의 정수임 -; 및
각각의 제2 음향 신호에 대응하는 위치를 결정하는 단계
를 포함하는
발음 위치를 찾는 방법. - 제1항에 있어서,
상기 N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하는 단계는 구체적으로,
빔포밍 알고리즘을 이용하여 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 개별적으로 추출하는 단계를 포함하는,
발음 위치를 찾는 방법. - 제1항 또는 제2항에 있어서,
각각의 상기 제2 음향 신호에 대응하는 위치를 결정하는 단계는,
L번째 제2 음향 신호에 대응하는 위치 파라미터에 따라, L번째 제2 음향 신호에 대응하는 위치 L을 결정하는 단계를 포함하고,
상기 L번째 제2 음향 신호는 M개의 제2 음향 신호 중 임의의 하나임 -를 포함하는,
발음 위치를 찾는 방법. - 제1항 내지 제3항 중 어느 한 항에 있어서,
상기 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출한 이후에, 상기 방법은,
상기 M개의 추출된 제2 음향 신호에 대해 음성 인식을 수행하는 단계; 및
상기 M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득하는 단계
를 더 포함하는, 발음 위치를 찾는 방법. - 제4항에 있어서,
상기 M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득한 이후에, 상기 방법은,
상기 M개의 음성 명령에 응답하는 단계를 더 포함하는,
발음 위치를 찾는 방법. - 제5항에 있어서,
상기 M개의 음성 명령에 응답하는 단계는,
상기 M개의 음성 명령에 대응하는 M개의 상이한 위치의 우선순위에 따라 최우선 순위 음성 명령에 우선적으로 응답하는 단계를 포함하는,
발음 위치를 찾는 방법. - 단말 장치로서,
K개의 제1 음향 신호를 수집하도록 구성된 K개의 음향 수집 센서 - 상기 K는 2 이상의 정수임 -; 및
N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하고, 각각의 제2 음향 신호에 대응하는 위치를 결정하도록 구성된 프로세서 - 상기 M은 N보다 작거나 같고, N은 2 이상의 정수임 -;
를 포함하는
단말 장치. - 제7항에 있어서,
상기 프로세서가, N개의 상이한 위치에 대응하는 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출하도록 구성된 것은, 구체적으로,
상기 프로세서가 빔포밍 알고리즘을 이용하여 N개의 위치 파라미터에 따라 K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 개별적으로 추출하도록 구성된 것을 포함하는, 단말 장치. - 제7항 또는 제8항에 있어서,
상기 프로세서가 각각의 제2 음향 신호에 대응하는 위치를 결정하도록 구성된 것은,
L번째 제2 음향 신호에 대응하는 위치 파라미터에 따라, L번째 제2 음향 신호에 대응하는 위치 L을 결정하는 것을 포함하고,
상기 L번째 제2 음향 신호는 M개의 제2 음향 신호 중 임의의 하나인,
단말 장치. - 제7항 내지 제9항 중 어느 한 항에 있어서,
상기 프로세서는 또한,
K개의 제1 음향 신호로부터 M개의 제2 음향 신호를 추출한 이후에, M개의 추출된 제2 음향 신호에 대해 음성 인식을 수행하고, M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득하도록 구성된,
단말 장치. - 제7항 내지 제10항 중 어느 한 항에 있어서,
상기 단말 장치는 출력 장치를 더 포함하고, 상기 출력 장치는 상기 프로세서가 M개의 제2 음향 신호에 대응하는 M개의 음성 명령을 획득한 이후에 상기 M개의 음성 명령에 응답하도록 구성되는, 단말 장치. - 제11항에 있어서,
상기 출력 장치가 상기 M개의 음성 명령에 응답하도록 구성된 것은, 구체적으로,
상기 출력 장치가, 상기 M개의 음성 명령에 대응하는 M개의 상이한 위치의 우선순위에 따라 최우선 순위에 우선적으로 응답하도록 구성된 것을 포함하는,
단말 장치. - 제7항 내지 제12항에 있어서,
3차원 공간에서의 K개의 음향 수집 센서의 좌표는 서로 상이한, 단말 장치.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2015/079391 WO2016183825A1 (zh) | 2015-05-20 | 2015-05-20 | 一种定位声音发出位置的方法和终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170129249A true KR20170129249A (ko) | 2017-11-24 |
KR102098668B1 KR102098668B1 (ko) | 2020-04-08 |
Family
ID=57319145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177030167A KR102098668B1 (ko) | 2015-05-20 | 2015-05-20 | 발음 위치 및 단말 장치 위치를 결정하는 방법 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10410650B2 (ko) |
EP (1) | EP3264266B1 (ko) |
JP (1) | JP6615227B2 (ko) |
KR (1) | KR102098668B1 (ko) |
CN (1) | CN107430524B (ko) |
WO (1) | WO2016183825A1 (ko) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019069731A1 (ja) * | 2017-10-06 | 2019-04-11 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、および移動体 |
CN110556113A (zh) * | 2018-05-15 | 2019-12-10 | 上海博泰悦臻网络技术服务有限公司 | 基于声纹识别的车辆控制方法与云端服务器 |
DE102018212902A1 (de) * | 2018-08-02 | 2020-02-06 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Bestimmen eines digitalen Assistenten zum Ausführen einer Fahrzeugfunktion aus einer Vielzahl von digitalen Assistenten in einem Fahrzeug, computerlesbares Medium, System, und Fahrzeug |
US10944588B2 (en) * | 2018-11-29 | 2021-03-09 | International Business Machines Corporation | Resolving conflicting commands received by an electronic device |
KR102592833B1 (ko) * | 2018-12-14 | 2023-10-23 | 현대자동차주식회사 | 차량의 음성 인식 기능 연동 제어 시스템 및 방법 |
WO2020184753A1 (ko) * | 2019-03-12 | 2020-09-17 | 엘지전자 주식회사 | 음성 추출 필터를 이용하여 음성 제어를 수행하는 인공 지능 장치 및 그 방법 |
CN110297702B (zh) * | 2019-05-27 | 2021-06-18 | 北京蓦然认知科技有限公司 | 一种多任务并行处理方法和装置 |
JP7198741B2 (ja) * | 2019-12-27 | 2023-01-04 | 本田技研工業株式会社 | 車両操作権管理装置、車両操作権管理方法及びプログラム |
KR20210133600A (ko) * | 2020-04-29 | 2021-11-08 | 현대자동차주식회사 | 차량 음성 인식 방법 및 장치 |
CN111786860B (zh) * | 2020-06-29 | 2022-04-01 | 广东美的制冷设备有限公司 | 家电及其控制方法和计算机可读存储介质 |
CN115503639A (zh) * | 2022-10-13 | 2022-12-23 | 广州小鹏汽车科技有限公司 | 语音处理方法、语音交互方法、服务器及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080071547A1 (en) * | 2006-09-15 | 2008-03-20 | Volkswagen Of America, Inc. | Speech communications system for a vehicle and method of operating a speech communications system for a vehicle |
US20090055180A1 (en) * | 2007-08-23 | 2009-02-26 | Coon Bradley S | System and method for optimizing speech recognition in a vehicle |
US20100153577A1 (en) * | 2008-12-17 | 2010-06-17 | At&T Intellectual Property I, L.P. | Multiple media coordination |
US20150110287A1 (en) * | 2013-10-18 | 2015-04-23 | GM Global Technology Operations LLC | Methods and apparatus for processing multiple audio streams at a vehicle onboard computer system |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0418831A (ja) | 1990-05-14 | 1992-01-23 | Sony Corp | 遠隔制御装置 |
JP3863306B2 (ja) * | 1998-10-28 | 2006-12-27 | 富士通株式会社 | マイクロホンアレイ装置 |
JP3715584B2 (ja) | 2002-03-28 | 2005-11-09 | 富士通株式会社 | 機器制御装置および機器制御方法 |
JP4327510B2 (ja) | 2003-06-05 | 2009-09-09 | コニカミノルタビジネステクノロジーズ株式会社 | リモート操作システム |
CN1815556A (zh) * | 2005-02-01 | 2006-08-09 | 松下电器产业株式会社 | 可利用语音命令操控车辆的方法及系统 |
JP4547721B2 (ja) | 2008-05-21 | 2010-09-22 | 株式会社デンソー | 自動車用情報提供システム |
US8660782B2 (en) | 2010-03-31 | 2014-02-25 | Denso International America, Inc. | Method of displaying traffic information and displaying traffic camera view for vehicle systems |
KR101987966B1 (ko) | 2012-09-03 | 2019-06-11 | 현대모비스 주식회사 | 차량용 어레이 마이크의 음성 인식 향상 시스템 및 그 방법 |
US9462385B2 (en) * | 2013-03-28 | 2016-10-04 | Jvis-Usa, Llc | Speaker system such as a sound bar assembly having improved sound quality |
CN104464739B (zh) | 2013-09-18 | 2017-08-11 | 华为技术有限公司 | 音频信号处理方法及装置、差分波束形成方法及装置 |
KR101500150B1 (ko) | 2013-09-25 | 2015-03-06 | 현대자동차주식회사 | 차량의 음향 제어 장치 및 방법 |
TWI598774B (zh) * | 2013-10-25 | 2017-09-11 | 和冠股份有限公司 | 電磁書寫單元及兼具墨水與電磁書寫功能的電磁式手寫筆 |
US20160012827A1 (en) * | 2014-07-10 | 2016-01-14 | Cambridge Silicon Radio Limited | Smart speakerphone |
US20160080861A1 (en) * | 2014-09-16 | 2016-03-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Dynamic microphone switching |
DE102015220400A1 (de) * | 2014-12-11 | 2016-06-16 | Hyundai Motor Company | Sprachempfangssystem im fahrzeug mittels audio-beamforming und verfahren zum steuern desselben |
US10304463B2 (en) * | 2016-10-03 | 2019-05-28 | Google Llc | Multi-user personalization at a voice interface device |
-
2015
- 2015-05-20 JP JP2017557075A patent/JP6615227B2/ja active Active
- 2015-05-20 WO PCT/CN2015/079391 patent/WO2016183825A1/zh active Application Filing
- 2015-05-20 KR KR1020177030167A patent/KR102098668B1/ko active IP Right Grant
- 2015-05-20 CN CN201580076714.3A patent/CN107430524B/zh active Active
- 2015-05-20 US US15/566,979 patent/US10410650B2/en active Active
- 2015-05-20 EP EP15892204.7A patent/EP3264266B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080071547A1 (en) * | 2006-09-15 | 2008-03-20 | Volkswagen Of America, Inc. | Speech communications system for a vehicle and method of operating a speech communications system for a vehicle |
US20090055180A1 (en) * | 2007-08-23 | 2009-02-26 | Coon Bradley S | System and method for optimizing speech recognition in a vehicle |
US20100153577A1 (en) * | 2008-12-17 | 2010-06-17 | At&T Intellectual Property I, L.P. | Multiple media coordination |
US20150110287A1 (en) * | 2013-10-18 | 2015-04-23 | GM Global Technology Operations LLC | Methods and apparatus for processing multiple audio streams at a vehicle onboard computer system |
Also Published As
Publication number | Publication date |
---|---|
EP3264266A4 (en) | 2018-03-28 |
EP3264266B1 (en) | 2020-08-05 |
WO2016183825A1 (zh) | 2016-11-24 |
EP3264266A1 (en) | 2018-01-03 |
JP6615227B2 (ja) | 2019-12-04 |
US10410650B2 (en) | 2019-09-10 |
JP2018524620A (ja) | 2018-08-30 |
CN107430524B (zh) | 2020-10-27 |
KR102098668B1 (ko) | 2020-04-08 |
CN107430524A (zh) | 2017-12-01 |
US20180108368A1 (en) | 2018-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102098668B1 (ko) | 발음 위치 및 단말 장치 위치를 결정하는 방법 | |
US10834237B2 (en) | Method, apparatus, and storage medium for controlling cooperation of multiple intelligent devices with social application platform | |
US10679619B2 (en) | Method of providing voice command and electronic device supporting the same | |
US10183680B2 (en) | Mobile terminal and method for controlling application for vehicle | |
EP3502862B1 (en) | Method for presenting content based on checking of passenger equipment and distraction | |
CN109067418B (zh) | 一种天线控制方法及移动终端 | |
CN107734614B (zh) | Wi-Fi天线控制方法、移动终端及计算机可读存储介质 | |
CN109583271B (zh) | 一种对车道线进行拟合的方法、装置及终端 | |
CN108572767B (zh) | 一种确定外界物体方位的方法、移动终端 | |
CN107826109B (zh) | 车道保持方法和装置 | |
CN111899545B (zh) | 一种行车提醒方法、装置、存储介质及移动终端 | |
US9660301B2 (en) | Methods and devices for battery protection | |
CN107219514B (zh) | 车辆座椅区域分配冲突的解决 | |
CN112230877A (zh) | 一种语音操作方法、装置、存储介质及电子设备 | |
CN112319306B (zh) | 电动汽车控制电路及其控制方法 | |
CN107465469B (zh) | 一种接收灵敏度测试方法、测试装置及计算机可读存储介质 | |
CN106713648B (zh) | 一种通信方法及移动终端 | |
CN108767922B (zh) | 一种充电方法及终端设备 | |
CN108108054B (zh) | 预测用户滑动操作的方法、设备及计算机可存储介质 | |
CN107256108B (zh) | 一种分屏方法、设备和计算机可读存储介质 | |
CN108702410B (zh) | 一种情景模式控制方法及移动终端 | |
CN111031172B (zh) | 控制飞行模式的方法及电子设备 | |
CN107147686A (zh) | 一种车辆监控方法及设备 | |
KR102243220B1 (ko) | 우선순위를 이용한 차량용 미러링 제어 장치 및 방법 | |
CN109413271B (zh) | 一种提醒方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |