WO2006025106A1 - 音声認識システム、音声認識方法およびそのプログラム - Google Patents

音声認識システム、音声認識方法およびそのプログラム Download PDF

Info

Publication number
WO2006025106A1
WO2006025106A1 PCT/JP2004/012626 JP2004012626W WO2006025106A1 WO 2006025106 A1 WO2006025106 A1 WO 2006025106A1 JP 2004012626 W JP2004012626 W JP 2004012626W WO 2006025106 A1 WO2006025106 A1 WO 2006025106A1
Authority
WO
WIPO (PCT)
Prior art keywords
speaker
voice
preset information
speech
input
Prior art date
Application number
PCT/JP2004/012626
Other languages
English (en)
French (fr)
Inventor
Kenichi Mizuishi
Masahito Tagami
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Priority to JP2006515454A priority Critical patent/JP4478146B2/ja
Priority to PCT/JP2004/012626 priority patent/WO2006025106A1/ja
Publication of WO2006025106A1 publication Critical patent/WO2006025106A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Definitions

  • Speech recognition system speech recognition method and program thereof
  • the present invention relates to a voice recognition system, a voice recognition method, and a program thereof.
  • Patent Document 1 A technique for separating speech based on the directivity of a microphone (see Patent Document 1 and Patent Document 3).
  • Non-patent Document 1 Non-Patent Document 3
  • the algorithm used for signal processing in (2) is BSS (Blind Source S mark aration), which uses independent component analysis (ICA) to separate sound sources using only the received audio signal.
  • ICA independent component analysis
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2003-040992 (Claim 1)
  • Patent Document 2 JP-A-11-298988 (Claim 1)
  • Patent Document 3 Japanese Patent Laid-Open No. 2001-337694 (Claim 1)
  • Patent Document 2 S.Kurita, H.Saruwatari, S.Kajita, K.Takeda, F.Itakura, "Evaluation of blind signal separation method using directivity pattern under reverberant conditions," Proc, IEEE, International Conference on Acoustic, Speech, and Signal Processing, SAM-P2-5, pp.3140-3143 June, 2000.
  • Non-Patent Document 3 Hiroshi Saruwatari, Katsuyuki Sawai, et al., Vehicle Speech Recognition Using Samurai Blind Sound Source Separation and Subband Removal Processing, Seigaku Technical Review, Vol. 102, No. 35, pp. 7-12.
  • a CPU Central Processing Unit
  • a CPU Central Processing Unit
  • the problem is that the time required for recognizing the voice command increases or the time required for recognizing the voice command is reduced. Since it is necessary to use a CPU with high capacity, there is a problem that it leads to cost increase.
  • the speech recognition rate is lowered by adjusting the physique of the speaker, the position of the seat, and the inclination angle.
  • the present invention solves the above-described problems, suppresses the consumption of CPU resources when recognizing the voice command of the speaker, and reduces the voice recognition rate even when the position of the speaker speaking changes. It is an object of the present invention to provide a voice recognition system that does not decrease.
  • a voice authentication system includes a storage device that stores preset information indicating a sound source position of a speaker's voice, and a speaker's voice stored in the storage device.
  • the speech recognition unit is configured to separate the speech of the speaker from the speech input by the microphone and perform speech recognition.
  • the speech recognition system of the present invention further includes a sensor that detects the position of the seat of the speaker, the storage device stores preset information for each position of the seat of the speaker, and the preset information search unit includes: Acquired the position of the seat seat of the speaker from the sensor Based on the position of the seat, the preset information is retrieved from the storage device and output to the voice recognition unit.
  • the preset information search unit includes: Acquired the position of the seat seat of the speaker from the sensor Based on the position of the seat, the preset information is retrieved from the storage device and output to the voice recognition unit.
  • the voice recognition system Since the voice recognition system stores the sound source position for each speaker in advance, even when different speakers (drivers) use it, the sound source separation between the speaker's voice and noise (noise) is possible. Easy. In addition, it is possible to prevent the voice recognition rate of the voice command from being lowered when the position where the speaker speaks changes depending on the manner of adjusting the physique of the speaker and the position of the seat.
  • the voice recognition system performs voice separation processing based on information of the sound source position stored in advance, CPU resources required for voice separation are saved. Therefore, the time required for the voice separation process (voice recognition process) can be shortened, and the operation response when the speaker operates the in-vehicle terminal device with the voice command can be improved. In other words, it becomes easier for the speaker to perform operations using voice commands.
  • FIG. 1 is a block diagram showing the speech recognition system of the present embodiment.
  • the speech recognition system of the present embodiment includes a microphone (speech input means) 14 that accepts a speech input of a speaker 31 (31A, B) of a vehicle 1, a navigation device (vehicle information terminal) 10 and a navigation device. 10 (sound output means) for outputting audio data from 10 (15A, B) and a monitor (display means) for outputting image data from the navigation device 10 ) 13, a remote controller (input means) 18 for the speaker 31 (31A, B) to input various information to the navigation device 10, and a receiver 19 for receiving various information input from the remote controller 18. It is comprised including.
  • Microphone 14 is connected to navigation device 10 and receives the voice input of speaker 31 (31A, B), and outputs this voice information to navigation device 10.
  • the microphone 14 includes at least two microphones (macrophones) as shown in FIG.
  • the microphone 14 consists of three or more.
  • the remote controller 18 is an input means for inputting various information such as the ID of the speaker 31 (31A, B) and an instruction for calling preset information to the navigation device 10.
  • the receiver 19 receives information input via the remote controller 18 and outputs this information to the navigation device 10.
  • the remote controller 18 and the receiver 19 may perform wireless communication using infrared rays, Bluetooth, or the like, or may be connected by a cable or the like to perform wired communication.
  • the monitor 13 may allow the speaker 31 (31A, B) to input various information by touching the screen. That is, the monitor 13 may be provided with a touch panel function.
  • the remote controller 18 may be a 3D “X” using a mobile phone or a PDA (Personal Digital Assistant) having a predetermined communication function.
  • FIG. 2 (a) is a block diagram of the speech recognition system
  • FIG. 2 (b) is a block diagram showing functions realized by the CPU of FIG. 2 (a).
  • the navigation device 10 includes an AZD (Analog / Digital) conversion device 16, a CPU (Central Processing Unit) 17, a storage device 21, and a D / A (DigitalZAnalog )
  • the converter 24 is comprised.
  • the AZD (AnalogZDigital) converter 16 converts the voice command of the speaker 31 input from the microphone 14 from an analog waveform to a digital signal. And digital The voice command converted to the number is output to the CPU17.
  • the CPU 17 is divided into a sound source position specifying unit 23, a speech recognition unit 20, a preset information search unit 25, and a navigation processing unit 22 as shown in FIG. .
  • Each configuration shown here is realized by the CPU 17 executing a sound source position specifying program, a speech recognition program, and the like stored in the storage device 21.
  • the sound source position specifying unit 23 Upon receiving the voice command converted into a digital signal by the A / D converter 16, the sound source position specifying unit 23 calculates and processes the phase information (advance and delay) and intensity distribution of the voice command, Analyzes the directivity of the voice command utterance, and identifies the sound source position of the voice of the speaker 31. Then, this sound source position is registered (stored) in the storage device 21 as preset information of the speaker 31 (details will be described later).
  • the sound source position is specified using a known technique (Patent Documents 1 and 3, Non-patent Documents 1 and 3), and the sound source position specifying accuracy at this time is about ⁇ 5 cm.
  • the preset information search unit 25 searches the preset information of the speaker 31 from the storage device 21 in response to the input of the ID of the speaker 31 from the remote controller 18 or the like. Then, the retrieved preset information is transferred to the voice recognition unit 20.
  • the preset information search unit 25 may display the preset information stored in the storage device 21 on the monitor 13 and output a screen prompting the speaker 31 to select and input preset information. Good.
  • the voice recognition unit 20 Upon receiving voice input via the microphone 14, the voice recognition unit 20 refers to the preset information of the speaker 31 and creates a voice signal in which the directivity of this voice command is set. The input voice power also separates the voice of the speaker 31. Then, the command indicates what command the voice signal of the separated voice (voice command) indicates. That is, the voice command is recognized as a predetermined command with reference to the voice dictionary (information indicating the command that the voice signal means for each voice signal) stored in the storage device 21.
  • the navigation processing unit 22 When the navigation processing unit 22 receives a command output from the voice recognition unit 20, the navigation processing unit 22 performs various types of navigation processing based on the command.
  • the storage device 21 stores the preset information, the sound source position specifying program, the voice recognition program, the preset information registration program, the voice dictionary, and the like, and is configured by a hard disk, a nonvolatile memory, or the like.
  • the voice dictionary is information indicating a command that the voice signal means for each voice signal.
  • FIG. 3 is a diagram illustrating preset information stored in the storage device of FIG.
  • the preset information stores, for each speaker 31 (passenger of the vehicle 1), information on the sound source position when the speaker 31 utters a voice command.
  • the sound source position when the speaker 31A utters is (X, Y),
  • This preset information is stored in the storage device 21 as coordinate position data.
  • image data (see FIG. 3) indicating the sound source position when the speaker 31 speaks is displayed. It may be created and output.
  • the speaker 31 may register the preset information every time the vehicle 1 starts to be operated. Also, if it is determined in advance that a predetermined person is a driver (speaker), preset information of the driver (speaker) is registered, and when the speaker 31 starts driving the vehicle 1 The speaker 31 may input the ID or the like to the navigation device 10 to call the preset information.
  • this preset information includes the sound source position of the front passenger's speaker 31B (see Fig. 3) and the sound source position of the passenger in the rear seat (not shown). May be included. In this way, the speaker 31 other than the driver's seat can also use voice commands.
  • the navigation device 10 can be operated with.
  • the information on the sound source position in the preset information is assumed to be stored as the two-dimensional information of (X, Y).
  • the information on the height is added to this information, and the three-dimensional information ( ⁇ , ⁇ , ⁇ ) It can be remembered as).
  • the navigation apparatus 10 acquires sound from the three microphones 14 so that the CPU 17 calculates the directivity of the sound in the height direction.
  • the navigation device 10 obtains information on the height of the sound source position of the speaker 31 so that the CPU 17 can identify the accurate sound source position and sound directivity of the speaker 31. It becomes easy to perform the arithmetic processing.
  • the accuracy of the sound source position of the speaker 31 stored in the preset information is about 5 cm as described above.
  • the preset information stored in the storage device 21 is called out by inputting an ID or the like from the remote controller 18 (or the monitor 13 if the monitor 13 has a touch panel function).
  • the preset information search unit 25 searches the storage device 21 for preset information of the speaker 31 using this ID as a key. And call this information.
  • the ID of the speaker 31 may be manually input by the speaker 31 using the key of the remote controller 18 or stored in advance in a storage unit (not shown) of the remote controller 18. This may be transmitted to the navigation device 10.
  • FIG. 4 is a flowchart showing a preset information registration procedure according to the present embodiment.
  • the preset information registration procedure (execution processing of the preset information registration program by the CPU 17) in the present embodiment will be described with reference to FIG. 4 (see FIG. 1 and FIG. 3 as appropriate).
  • the monitor 13 (see FIGS. 1 and 2) is configured with a touch panel and the speaker 31 performs various inputs by touch input to the monitor 13 will be described as an example.
  • the CPU 17 inputs an instruction to start registration of preset information from the monitor 13 of the vehicle 1 ),
  • the information registration screen of the speaker 31 is read from the storage device 21 and output to the monitor 13.
  • the CPU 17 receives input of the information of the speaker 31 (for example, the name and ID of the speaker 31) via the monitor 13 (step S401)
  • the CPU 17 stores the information of the speaker 31 in the storage device 21. .
  • the CPU 17 stores voice data that prompts the speaker 31 to speak a voice command.
  • the voice data (voice guidance) is output from the speaker 15 (step S402).
  • the CPU 17 outputs a voice guidance saying “Perform initial setting of the utterance position (sound source position). Press the start button of utterance position setting on the monitor” from the speaker 15.
  • the CPU 17 reads “From the speaker 15, hold the handle and take a normal driving posture. Repeat the voice command for 10 seconds after the sound, and it will end with a beep. " Then, voices previously stored in the storage device 21 such as “Destination setting”, “Restoration guidance”, “Reroute”, etc. are output from the speaker 15, and the voices of these voices (voice commands) are sent to the speaker 31. Prompt.
  • the CPU 17 receives an input of a voice command uttered by the speaker 31 via the microphone 14 (step S403).
  • the input voice command is a voice command converted into a digital signal by the A / D converter 16.
  • the sound source position specifying unit 23 of the CPU 17 calculates the phase information (advance and delay) and intensity distribution in the voice command converted into a digital signal, and analyzes the directivity of the utterance in the voice command. Based on the analyzed directivity information, the sound source position of the utterance of the speaker 31 is specified (step S404). Then, this sound source position is registered in the storage device 21 as the preset information of the speaker 31 (step S405), and the recording process is terminated. When preset information is registered, the information (ID, etc.) of the speaker 31 input in step S401 is also included. In this way, the preset information search unit 25 can call the preset information of the speaker 31 from the storage device 21 using the ID of the speaker 31 as a key.
  • FIG. 5 is a flowchart showing a speech recognition processing procedure in the present embodiment.
  • the speech recognition processing execution processing of the speech recognition program by the CPU 17
  • Fig. 5 see Fig. 1 and Fig. 4 as appropriate.
  • the preset information search unit 25 uses the ID as a key to store the speaker 3 from the storage device 21.
  • the preset information of 1 is retrieved and this preset information is called (step S502). Then, the preset information is transferred to the voice recognition unit 20.
  • step S503 the speech information of the voice command is recognized by referring to the preset information of the speaker 31 searched by the preset information search unit 25 (step S504).
  • the voice recognition unit 20 refers to the preset information of the speaker 31 and identifies the directivity of the voice (voice command). Next, based on this directivity, the voice input via the microphone 14 is separated into vehicle interior noise (for example, noise generated when traveling in a tunnel) and voice command voice. Then, the voice dictionary of the storage device 21 is referred to specify a command that is meant by the voice of the separated voice command.
  • the speech recognition unit 20 outputs the command specified in step S504 to the navigation processing unit 22 (step S505), and the navigation processing unit 22 performs navigation processing according to this command. (Step S506).
  • the navigation processing here is, for example, outputting image data for navigation to the monitor 13 in accordance with a command output from the voice recognition unit 20, or to the speaker 15 via the DZA converter 21 for navigation. Or to output the sound.
  • the voice recognition unit 20 refers to the preset information to separate voice commands. To do. By doing so, it is possible to reduce the load of the speech recognition processing of the CPU 17 as compared with the conventional case.
  • the ID of the speaker 31 is input from the monitor (touch panel) 13.
  • a wireless entry key that wirelessly locks and unlocks the door of the vehicle 1 may be used. That is, when the door of the vehicle 1 is opened, a unique ID (speaker 31 ID) transmitted from the wireless entry key is obtained via the receiver 19, and the preset information search unit 25 presets the speaker 31 based on this ID. Information may be called up and passed to the speech recognition unit 20.
  • the driver can easily use the navigation device 10 of the present embodiment.
  • the storage device 21 stores information on standard sound source positions (standard preset information) for each seat position (driver seat, passenger seat, right rear seat, left rear seat, etc.).
  • the sound source position identifying unit 23 identifies the sound source position with reference to the standard preset information. The present embodiment will be described with reference to FIGS.
  • the storage device stores information on the standard sound source position at the input seat position. Call from 21. Then, the sound source position specifying unit 23 specifies the sound source position of the speaker 31 based on the standard sound source position information and the voice command acquired from the speaker 31. In this way, the sound source position specifying unit 23 can create more accurate sound source position preset information. Further, the load of the sound source position specifying process in the sound source position specifying unit 23 can be reduced.
  • the voice recognition unit 20 may perform voice recognition processing of the speaker 31 based on the information on the standard sound source position described above. That is, when the preset information search unit 25 receives the selection input of the seat position of the speaker 31, the preset information search unit 25 reads information on the standard sound source position of the seat position (standard preset information) from the storage device 21, and the voice recognition unit 20 To hand over. Then, the voice recognition unit 20 sets the directivity of the speaker 31 based on the standard sound source position, and performs voice command voice separation and voice recognition processing. In this way, people who have not registered preset information (for example, passengers in the passenger seat) can speak temporarily. It becomes easy to become person 31.
  • the vehicle 1 includes a sensor that detects the shift amount (seat position) of the seat back and forth, the inclination angle of the backrest, and the like, and the preset information search unit 25 performs presets based on the detection results of the sensors. Information may be searched.
  • preset information indicating the shift amount of the seat seat of the vehicle 1 in the front-rear direction, the sound source position for each inclination angle of the backrest, and the like is registered in the storage device 21 in advance. Then, when the preset information retrieval unit 25 obtains the shift amount before and after the seat seat, the inclination angle of the backrest, etc. from the sensor, the preset corresponding to the shift amount before and after the seat seat, the inclination angle of the backrest, etc. Information is retrieved from the storage device 21. Then, the speech recognition unit 20 performs speech recognition based on the searched preset information. By doing so, it is possible to reduce the processing load of speech recognition of the speech recognition unit 20.
  • the speaker 31 inputs an instruction to confirm whether or not the voice command is correctly recognized by the navigation device 10 via the remote controller 18.
  • the CPU 17 calls up the noise data stored in the storage device 21 (for example, the noise data when the vehicle is traveling in the tunnel at a speed of 100 km / h). Output.
  • the speaker 31 utters a voice command under such noise, and the CPU 17 performs a process of specifying the voice command uttered by the speaker 31 as in Steps S503 and S504 of FIG.
  • the CPU 17 refers to the text / speech conversion table recorded in the storage device 21 based on the contents of the specified command, and converts the speech command into a speech synthesis signal. Then, it is converted into an analog waveform by the DZA converter 21 and output from the speaker 15 as a voice synthesized sound. That is, the navigation device 10 is caused to repeat the voice command input from the speaker 31.
  • the navigation device 10 recognizes the voice command correctly. Will be.
  • the voice synthesis sound (repeated voice command) output from the speaker 15 is different from the voice command issued by the speaker 31, the navigation device 10 does not recognize the voice command correctly. Therefore, the speaker 31 can take measures such as registering preset information again.
  • the present invention is not limited to the above-described embodiments, and can be applied without departing from the spirit of the invention.
  • the case where the voice recognition system of the present invention is applied to a navigation device has been described as an example, but may be applied to other in-vehicle information terminals.
  • the noise output from the speaker 15 uses the sound data stored in the storage medium such as the force S, CD, etc., in which the sound data stored in the storage device 21 is used.
  • the speech recognition system can be realized by a computer and a program, and the program can be provided by being stored in a computer-readable storage medium (CD-ROM or the like). Is possible.
  • the program can be provided through a network.
  • the computer system includes software such as an OS (Operating System) and hardware such as peripheral devices.
  • OS Operating System
  • peripheral devices such as peripheral devices.
  • FIG. 1 is a block diagram showing a configuration of a voice recognition system according to the present exemplary embodiment.
  • FIG. 2 (a) is a block diagram of the speech recognition system
  • FIG. 2 (b) is a block diagram showing functions realized by the CPU of FIG. 2 (a).
  • FIG. 3 is a diagram illustrating preset information stored in the storage device of FIG. 2 (a).
  • FIG. 4 is a flowchart showing a preset information registration procedure in the present embodiment.
  • FIG. 5 is a flowchart showing a speech recognition processing procedure in the present embodiment. Explanation of symbols

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

 車両内に設置された複数のマイクロホンにより入力された音声から、発話者の音声を分離して音声認識を行う音声認識システムを、発話者の音声の音源位置を示すプリセット情報を記憶する記憶装置と、記憶装置に記憶された発話者のプリセット情報を参照して、マイクロホンから入力された音声から前記発話者の音声を分離し、音声認識を行う音声認識部とを有する構成とした。

Description

明 細 書
音声認識システム、音声認識方法およびそのプログラム
技術分野
[0001] 本発明は、音声認識システム、音声認識方法およびそのプログラムに関する。
背景技術
[0002] 車両の運転者が、ナビゲーシヨン装置等の車載情報端末を操作するとき、運転者 が脇見運転をして事故を起こさないよう、車室内において音声コマンドによりナビゲ ーシヨン装置に命令伝達する技術がある。
この技術では、周囲から大きな騒音が混入したとき(例えば、車両がトンネル内を走 行したとき等)、音声コマンドの S/N (Signal/Noise)比が低下して、音声コマンドの 音声認識率が低下しやすいとレ、う問題がある。
この問題を解決するため、運転者からの音声(音声コマンド)と、周囲からの騒音と を 2つの音源としてとらえ、これらの音声を分離する工夫がなされてきた。
[0003] 従来からある音声分離技術は、以下の 2つに大別される。
(1)マイクロホンの指向性に基づき音声を分離する技術 (特許文献 1一特許文献 3 参照)。
(2)複数のマイクロホンから取り込まれた運転者 (発話者)の音声と車室内の雑音と を、情報処理装置の計算機内部で信号処理を行うことによって見分けて分離する技 術 (非特許文献 1一非特許文献 3参照)。
なお、(2)の信号処理に用いられるアルゴリズムとしては、独立成分分析 (ICA、 Independent Component Analysis)を用いて、音声の受信信号だけで音源を分離す る BSS (Blind Source S印 aration)とレ、う技術が知られている。
特許文献 1 :特開 2003—044092号公報 (請求項 1)
特許文献 2:特開平 11-298988号公報 (請求項 1)
特許文献 3:特開 2001 - 337694号公報 (請求項 1)
特 3午文献 1: A.J.Bell and T.J.Sejinowski, An information-maximization approach to blind separation and blind deconvolution, Neural Computation, Vol.7, Νο.6,ρρ.1129-1159, 1995.
特許文献 2: S.Kurita,H.Saruwatari,S.Kajita,K.Takeda,F.Itakura, "Evaluation of blind signal separation method using directivity pattern under reverberant conditions, "Proc, IEEE, International Conference on Acoustic, Speech, and Signal Processing, SAM-P2-5, pp.3140—3143 June,2000.
非特許文献 3 :猿渡洋、澤井克之、他、〃ブラインド音源分離とサブバンド除去処理を 用いた車室内音声認識"、清学技報、 Vol. 102, No.35, pp. 7-12.
発明の開示
発明が解決しょうとする課題
[0004] しかし、前記した技術のいずれもが、車室内の発話者の音声と、周囲の雑音 (騒音 )とを分離するときに CPU (Central Processing Unit)が複雑なアルゴリズムを高速で 処理する必要がある。すなわち、発話者の音声コマンドの認識をする際に CPU資源 を多く消費するので、音声コマンドの認識に要する時間が長くなるという問題、あるい は音声コマンドの認識に要する時間を短縮しょうとすると処理能力の高い CPUを使う 必要があるので、コストアップに繋がるという問題がある。また、発話者の体格や座席 シートの位置や傾斜角度の調整によって、音声認識率が低下してしまうという問題も ある。
[0005] そこで、本発明は、前記した問題を解決し、発話者の音声コマンドの認識をする際 の CPU資源の消費を抑え、発話者が発話する位置が変化した場合にも音声認識率 を低下させない音声認識システムを提供することを課題とする。
課題を解決するための手段
[0006] 前記した課題を解決するため、本発明の音声認証システムは、発話者の音声の音 源位置を示したプリセット情報を記憶する記憶装置と、この記憶装置に記憶された発 話者のプリセット情報を参照して、マイクロホンにより入力された音声から発話者の音 声を分離し、音声認識を行う音声認識部とを有する構成とした。
また、本発明の音声認識システムは、発話者の座席シートの位置を検出するセンサ をさらに備え、記憶装置は、発話者の座席シートの位置ごとのプリセット情報を記憶し 、プリセット情報検索部は、センサから発話者の座席シートの位置を取得し、取得した 座席シートの位置に基づいて、記憶装置からプリセット情報を検索し、音声認識部に 出力する構成とした。その他の構成については、後記する。
発明の効果
[0007] 本発明によれば、以下のような効果が得られる。
(1)音声認識システムは発話者ごとの音源位置を予め記憶しておくので、異なる発 話者 (運転者)が利用する場合にも、発話者の音声と雑音 (騒音)との音源分離が容 易となる。また、発話者の体格や座席シートの位置の調整の仕方によって、発話者が 発話する位置が変化したときに、音声コマンドの音声認識率が低下してしまうことを防 止できる。
(2)音声認識システムは予め記憶された音源位置の情報に基づレ、て音声分離処理 を行うので、音声分離に要する CPU資源が節約される。したがって、音声分離処理( 音声認識処理)に要する時間も短縮化でき、発話者が音声コマンドで車載端末装置 を操作するときの操作レスポンスを向上させることができる。つまり、発話者は音声コ マンドによる操作を行いやすくなる。
(3)運転者である発話者が音声コマンドで車載情報端末の操作をしやすくなることで 、運転中の視覚や手動での操作により、交通事故が発生する可能性を低くすること ができる。すなわち、車両の運転時の安全性を向上させることができる。
発明を実施するための最良の形態
[0008] 次に、本発明を実施するための最良の形態(以下、実施の形態とする)について、 適宜図面を参照して詳細に説明する。
《第 1の実施の形態》
本発明の第 1の実施の形態は、本発明の音声認識システムをナビゲーシヨン装置 に適用したものである。図 1は、本実施の形態の音声認識システムを示すブロック図 である。
本実施の形態の音声認識システムは、車両 1の発話者 31 (31A,B)の音声入力を 受け付けるマイクロホン (音声入力手段) 14と、ナビゲーシヨン装置 (車載情報端末) 1 0と、ナビゲーシヨン装置 10からの音声データを出力するスピーカ(音声出力手段) 1 5 (15A,B)と、ナビゲーシヨン装置 10からの画像データを出力するモニタ(表示手段 ) 13と、発話者 31 (31A,B)がナビゲーシヨン装置 10に各種情報の入力を行うリモー トコントローラ (入力手段) 18と、リモートコントローラ 18から入力された各種情報を受 け付けるレシーバ 19とを含んで構成される。
[0009] マイクロホン 14は、ナビゲーシヨン装置 10と接続され、発話者 31 (31A,B)の音声 入力を受け付けると、この音声情報をナビゲーシヨン装置 10へ出力する。
ここで、マイクロホン 14は、図 1に示すように少なくとも 2個のマイクロホン(マクロホン
14A,B)で構成されることが好ましい。このようにすることで、ナビゲーシヨン装置 10は
、発話者 31 (31A,B)の音源の位置を正確に特定することが可能になる。もちろん、 マイクロホン 14は 3個以上で構成されてレ、てもよレ、。
[0010] リモートコントローラ 18は、発話者 31 (31A,B)の IDや、プリセット情報の呼び出し 指示等、各種情報をナビゲーシヨン装置 10に入力する入力手段である。
レシーバ 19は、リモートコントローラ 18経由で入力された情報を受信し、この情報を ナビゲーシヨン装置 10へ出力する。
[0011] なお、リモートコントローラ 18とレシーバ 19との間は、赤外線やブルートゥース等で 無線通信を行うようにしてもよいし、ケーブル等で接続して有線通信を行うようにして あよい。
また、モニタ 13は、発話者 31 (31A,B)が画面に触れることで各種情報の入力を行 えるようにしてもよレ、。つまり、モニタ 13は、タツチパネル機能を備えるようにしてもよい なお、リモートコントローラ 18は、所定の通信機能を備えた携帯電話機や PDA ( Personal Digital Assistant)で 3Dつ" Xもよレヽ。
[0012] 図 2 (a)は、音声認識システムのブロック図であり、図 2 (b)は、図 2 (a)の CPUにより 実現される機能を示したブロック図である。
図 2 (a)に示すように、ナビゲーシヨン装置 10は、 AZD (Analog/Digital)変換装置 16と、 CPU (中央演算装置、 Central Processing Unit) 17と、記憶装置 21と、 D/A ( DigitalZAnalog)変換装置 24とを含んで構成される。
[0013] AZD (AnalogZDigital)変換装置 16は、マイクロホン 14から入力された発話者 31 の音声コマンドを、アナログ波形からデジタル信号へ変換する。そして、デジタル信 号に変換した音声コマンドを、 CPU17へ出力する。
[0014] CPU17は、その機能上、図 2 (b)に示すように、音源位置特定部 23と、音声認識 部 20と、プリセット情報検索部 25と、ナビゲーシヨン処理部 22とに区分される。ここに 示される各構成は、 CPU17が、記憶装置 21に記憶された音源位置の特定用プログ ラム、音声認識用プログラム等を実行することにより実現される。
なお、図 2 (b)では、マイクロホン 14、レシーバ 19からの入力、モニタ 13、スピーカ 1
5への出力は省略している。
[0015] 音源位置特定部 23は、 A/D変換装置 16でデジタル信号に変換された音声コマ ンドを受信すると、音声コマンドの位相情報 (進みや遅延)および強度分布を演算処 理して、音声コマンドの発声の指向性を分析し、発話者 31の音声の音源位置を特定 する。そして、この音源位置を発話者 31のプリセット情報 (詳細は後記)として、記憶 装置 21に登録 (記憶)する。
なお、音源位置の特定には、公知の技術 (特許文献 1一 3、非特許文献 1一 3)を用 レ、るものとし、このときの音源位置の特定精度は、 ± 5cm程度とする。
[0016] プリセット情報検索部 25は、リモートコントローラ 18等からの発話者 31の ID等の入 力を受けて、記憶装置 21から発話者 31のプリセット情報を検索する。そして、検索さ れたプリセット情報を音声認識部 20に受け渡す。
なお、プリセット情報検索部 25は、モニタ 13上に、記憶装置 21に記憶されたプリセ ット情報を表示して、発話者 31にプリセット情報の選択入力を促す画面を出力するよ うにしてもよい。
[0017] 音声認識部 20は、マイクロホン 14経由で音声の入力を受けると、発話者 31のプリ セット情報を参照して、この音声コマンドの指向性を設定した音声信号を作成する。 そして、入力された音声力も発話者 31の音声を分離する。そして、分離された音声( 音声コマンド)の音声信号がどのようなコマンドを示す力 ^分析する。つまり、記憶装 置 21に記憶された音声辞書 (音声信号ごとに、その音声信号の意味するコマンドを 示した情報)を参照して、音声コマンドを所定のコマンドとして認識する。
このとき、音声認識部 20が音源位置を特定したあとの、音声コマンドの指向性を設 定した音声信号の作成、発話者 31の音声の分離および音声コマンドの分析は公知 の技術を用レ、るものとする。
[0018] ナビゲーシヨン処理部 22は、音声認識部 20からコマンドの出力を受けると、このコ マンドに基づき、各種ナビゲーシヨン処理を行う。
これら各構成要素の動作の詳細は、後記する。
[0019] 記憶装置 21は、前記したプリセット情報、音源位置の特定用プログラム、音声認識 用プログラム、プリセット情報登録用プログラム、音声辞書等を記憶し、ハードディスク や不揮発性メモリ等により構成される。
なお、音声辞書とは、音声信号ごとに、その音声信号の意味するコマンドを示した 情報である。
ここで、記憶装置 21に記憶されるプリセット情報を、図 3を用いて説明する。図 3は、 図 2 (a)の記憶装置に記憶されるプリセット情報を例示した図である。
[0020] 図 3に示されるように、プリセット情報は、発話者 31 (車両 1の乗員)ごとに、その発 話者 31が音声コマンドを発声するときの音源位置の情報を記憶する。
例えば、図 3において、発話者 31Aが発声するときの音源位置は (X、 Y )であり、
1 1 発話者 31Cが発声するときの音源位置は (X、 Y )であることを示している。
3 3
なお、このプリセット情報は、記憶装置 21では座標位置データで格納しておき、モ ニタ 13に表示するときには、発話者 31が発声するときの音源位置を示した画像デー タ(図 3参照)を作成し、出力するようにしてもよい。
[0021] なお、発話者 31が座席シートの位置を前方または後方に移動させたとき(図 3の発 話者 31A,C参照)や、異なる者が発話者 31となったときのことを考慮して、車両 1の 運転を開始するたびに、発話者 31がプリセット情報を登録するようにしてもよい。また 、予め所定の者が運転者 (発話者)となることが決まっていれば、その運転者 (発話者 )のプリセット情報を登録しておき、発話者 31が車両 1の運転を開始するとき、発話者 31がナビゲーシヨン装置 10に ID等を入力して、プリセット情報を呼び出すようにして あよい。
また、このプリセット情報は、運転席の発話者 31 A,Cのものだけでなぐ助手席の発 話者 31B (図 3参照)の音源位置や、後部座席の乗員の音源位置(図示せず)の情 報を含んでいてもよい。このようにすることで、運転席以外の発話者 31も音声コマンド でナビゲーシヨン装置 10を操作できるようになる。
[0022] ちなみに、プリセット情報における音源位置の情報は、(X、 Y)の二次元情報として 記憶されるものとした力 これに高さに関する情報をカ卩えて、三次元の情報 (Χ、 Υ、 Ζ )として記憶されるものとしてもよレ、。この場合には、例えば、ナビゲーシヨン装置 10は 3個のマイクロホン 14から音声を取得するようにして、 CPU17が、高さ方向の音声の 指向性を演算するようにする。
このように、ナビゲーシヨン装置 10は発話者 31の音源位置の高さに関する情報を 取得することで、 CPU17は、発話者 31の正確な音源位置や音声の指向性を特定で きるので、音声分離の演算処理を行いやすくなる。
なお、プリセット情報に記憶される発話者 31の音源位置の精度は、前記したとおり 土 5cm程度である。
[0023] 記憶装置 21に記憶されたプリセット情報は、リモートコントローラ 18 (またはモニタ 1 3がタツチパネル機能を備えていればモニタ 13)からの ID等の入力により呼び出され る。
例えば、発話者 31が、リモートコントローラ 18等から自己の ID (識別情報)を入力す ると、プリセット情報検索部 25が、この IDをキーとして記憶装置 21から発話者 31のプ リセット情報を検索し、この情報を呼び出す。
なお、この発話者 31の IDは、発話者 31が、リモートコントローラ 18のキー等を用い て手動で入力してもよいし、リモートコントローラ 18の記憶部(図示せず)に予め記憶 させておき、これをナビゲーシヨン装置 10へ送信するようにしてもよい。
[0024] (プリセット情報の登録手順)
図 4は、本実施の形態におけるプリセット情報の登録手順を示したフローチャートで ある。図 4を用いて、本実施の形態におけるプリセット情報の登録手順(CPU17によ るプリセット情報登録用プログラムの実行処理)について説明する(適宜図 1一図 3参 照)。
ここでは、モニタ 13 (図 1、図 2参照)がタツチパネルで構成されており、発話者 31は 、モニタ 13へのタツチ入力により各種入力を行う場合を例として説明する。
[0025] まず、 CPU17は車両 1のモニタ 13からプリセット情報の登録開始の指示入力(タツ チ入力)がされたことを検出すると、記憶装置 21から発話者 31の情報の登録画面を 読み出し、モニタ 13に出力する。そして、 CPU17は、モニタ 13経由で発話者 31の 情報 (例えば、発話者 31の氏名や ID等)の入力を受け付けると(ステップ S401)、こ の発話者 31の情報を記憶装置 21に記憶する。
[0026] 次に、 CPU17は、発話者 31に音声コマンドの発声を促す音声データを記憶装置
21から読み出す。そして、この音声データ(音声案内)をスピーカ 15から出力させる( ステップ S402)。
例えば、 CPU17は、スピーカ 15から「発声位置(音源位置)の初期設定を行いま す。モニタの発声位置設定の開始ボタンを押して下さい。」という音声案内を出力さ せる。そして、モニタ 13経由で発話者 31から発声位置の開始ボタンの選択入力を受 け付けると、 CPU17は、スピーカ 15から「ノヽンドルを握って、通常の運転姿勢をとつ てくださレ、。ピーという音の後で、 10秒間の間に音声コマンドを繰り返してください。ピ ピという音で終了します。」という音声案内を出力させる。そして、「目的地設定」、「レ ストラン案内」、「リルート」等、予め記憶装置 21に記憶された音声をスピーカ 15から 出力して、発話者 31にこれらの音声 (音声コマンド)の発声を促す。
[0027] 続いて、 CPU17は、マイクロホン 14経由で、発話者 31が発声した音声コマンドの 入力を受け付ける(ステップ S403)。なお、入力される音声コマンドは、 A/D変換装 置 16で、デジタル信号へ変換された音声コマンドである。
CPU17の音源位置特定部 23は、デジタル信号に変換した音声コマンドにおける 位相情報 (進みや遅延)および強度分布を演算処理して、音声コマンドにおける発声 の指向性を分析する。そして、分析された指向性の情報に基づき、発話者 31の発声 の音源位置を特定する(ステップ S404)。そして、この音源位置を発話者 31のプリセ ット情報として、記憶装置 21に登録し (ステップ S405)、レ、つたん処理を終了する。な お、プリセット情報を登録するときは、ステップ S401で入力された発話者 31の情報 (I D等)も含めるようにする。このようにすることで、プリセット情報検索部 25が発話者 31 の IDをキーとして、記憶装置 21から発話者 31のプリセット情報を呼び出すことができ る。
[0028] 図 5は、本実施の形態における音声認識の処理手順を示したフローチャートである 。図 5を用いて、本システムが行う音声認識処理(CPU17による音声認識用プロダラ ムの実行処理)を説明する(適宜図 1一図 4参照)。
ここでも、情報の入力はタツチパネル機能を持つモニタ 13で行われるものとする。
[0029] まず、 CPU17は、モニタ 13経由で発話者 31の情報(ID)の入力を受けると(ステツ プ S501)、プリセット情報検索部 25がこの IDをキーとして、記憶装置 21から発話者 3 1のプリセット情報を検索し、このプリセット情報を呼び出す (ステップ S502)。そして、 このプリセット情報を音声認識部 20へ受け渡す。
[0030] 次に、音声認識部 20がマイクロホン 14経由で、発話者 31の音声入力を検知すると
(ステップ S503の YES)、プリセット情報検索部 25が検索した発話者 31のプリセット 情報を参照して、音声コマンドの音声認識を行う(ステップ S504)。
[0031] すなわち、まず、音声認識部 20は、発話者 31のプリセット情報を参照して、音声( 音声コマンド)の指向性を特定する。次に、この指向性に基づき、マイクロホン 14経 由で入力された音声を、車室内の雑音 (例えば、トンネル内を走行する際に発生する 騒音)と、音声コマンドの音声とに分離する。そして、記憶装置 21の音声辞書を参照 して、分離された音声コマンドの音声が意味するコマンドを特定する。
なお、前記した音声の指向性の特定、分離および音声コマンドにおけるコマンドの 内容特定は公知の技術を用いるものとする。
[0032] 次に、音声認識部 20は、ステップ S504で特定したコマンドをナビゲーシヨン処理 部 22に出力し(ステップ S505)、ナビゲーシヨン処理部 22は、このコマンドにしたが つてナビゲーシヨン処理を行う(ステップ S506)。ここでのナビゲーシヨン処理とは、例 えば音声認識部 20から出力されたコマンドにしたがって、モニタ 13にナビゲーシヨン 用の画像データを出力したり、 DZA変換装置 21経由で、スピーカ 15にナビゲーシ ヨン用の音声を出力したりすることをいう。
[0033] このように、音声認識システムの記憶装置 21で発話者 31のプリセット情報を格納し ておき、音声認識をするときには、音声認識部 20がこのプリセット情報を参照して音 声コマンドの分離を行うようにする。このようにすることで、従来よりも CPU17の音声 認識処理の負荷を軽減することができる。
[0034] なお、ここでは、発話者 31の ID入力は、モニタ(タツチパネル) 13から行うようにした 、例えば、車両 1のドアの施錠および解錠を無線で行う無線エントリーキーを用い るようにしてもよレ、。すなわち、車両 1のドアオープン時に、レシーバ 19経由で、無線 エントリーキーから送信される固有の ID (発話者 31の ID)を取得し、この IDに基づき プリセット情報検索部 25が発話者 31のプリセット情報を呼び出し、音声認識部 20に 受け渡すようにしてもよい。
このようにすることで、運転者 (発話者 31)は、手軽に本実施の形態のナビグーショ ン装置 10を利用することができる。
[0035] 《第 2の実施の形態》
本発明の第 2の実施の形態は、記憶装置 21が座席位置 (運転席、助手席、右後部 座席、左後部座席等)ごとの標準の音源位置の情報 (標準のプリセット情報)を記憶 し、音源位置特定部 23が、この標準のプリセット情報を参照して音源位置の特定を 行うことを特徴とする。本実施の形態を図 1一図 5を参照しつつ説明する。
なお、前記した第 1の実施の形態と同様の構成要素は同じ符号を付して、説明を省 略する。
[0036] 第 2の実施の形態において音源位置特定部 23は、リモートコントローラ 18等から、 発話者 31の座席位置の入力を受けると、入力された座席位置における標準の音源 位置の情報を記憶装置 21から呼び出す。そして、音源位置特定部 23は、この標準 の音源位置の情報と、発話者 31から取得した音声コマンドとに基づいて発話者 31の 音源位置の特定を行う。このようにすることで、音源位置特定部 23は、より正確な音 源位置のプリセット情報を作成することができる。また、音源位置特定部 23における 音源位置特定処理の負荷を軽減できる。
[0037] ちなみに、音声認識部 20は、前記した標準の音源位置の情報に基づき、発話者 3 1の音声認識処理を行うようにしてもよい。すなわち、プリセット情報検索部 25は、発 話者 31の座席位置の選択入力を受けると、記憶装置 21からその座席位置の標準の 音源位置に関する情報 (標準のプリセット情報)を読み出し、音声認識部 20に受け渡 す。そして、音声認識部 20は、その標準の音源位置に基づき発話者 31の指向性の 設定を行い、音声コマンドの音声分離および音声認識処理を行う。このようにすること で、プリセット情報を登録していない者 (例えば、助手席の同乗者)が、一時的に発話 者 31になることも容易となる。
[0038] なお、車両 1が座席シートの前後のシフト量 (座席の位置)、背もたれの傾斜角度等 を検出するセンサを備え、プリセット情報検索部 25は、このセンサの検出結果に基づ きプリセット情報を検索するようにしてもよい。
すなわち、予め記憶装置 21に、車両 1の座席シートの前後へのシフト量、背もたれ の傾斜角度ごとの音源位置等を示したプリセット情報を登録しておく。そして、プリセ ット情報検索部 25は、前記したセンサから座席シートの前後のシフト量、背もたれの 傾斜角度等を取得すると、この座席シートの前後のシフト量、背もたれの傾斜角度等 に対応するプリセット情報を記憶装置 21から検索する。そして、音声認識部 20は、検 索されたプリセット情報に基づき、音声認識を行うようにする。このようにすることで、 音声認識部 20の音声認識の処理負荷を軽減することができる。
[0039] また、発話者 31が騒音下で発した音声コマンドを音声認識システムが正しく認識し てレ、るか否かの確認ができるようにしてもょレ、。
[0040] まず、発話者 31が、リモートコントローラ 18経由で、ナビゲーシヨン装置 10に音声コ マンドが正しく認識されているか否かの確認をする旨の指示入力をする。これを受け て、 CPU17が、記憶装置 21に記憶された騒音データ(例えば、車両がトンネル内を 時速 100キロメートノレで走行しているときの騒音データ)を呼び出し、この騒音をスピ 一力 15から出力させる。そして、このような騒音下で発話者 31が音声コマンドを発声 し、 CPU17は前記した図 5のステップ S503およびステップ S504と同様に、発話者 3 1が発声した音声コマンドを特定する処理を行う。
[0041] そして、 CPU17は、この特定されたコマンドの内容に基づいて、記憶装置 21に記 録されているテキスト/音声変換テーブルを参照し、音声コマンドを音声合成信号に 変換する。そして、 DZA変換装置 21でアナログ波形に変換し、スピーカ 15から音声 合成音として出力させる。すなわち、ナビゲーシヨン装置 10に、発話者 31から入力さ れた音声コマンドを復唱させるようにする。
[0042] ここで、スピーカ 15から出力された音声合成音(復唱された音声コマンド)力 発話 者 31の発した音声コマンドと同じものであれば、ナビゲーシヨン装置 10で音声コマン ドが正しく認識されていることになる。 一方、スピーカ 15から出力された音声合成音 (復唱された音声コマンド)が、発話 者 31の発した音声コマンドとは異なるものであれば、ナビゲーシヨン装置 10で音声コ マンドが正しく認識されていないことになるので、発話者 31は再度プリセット情報を登 録する等の処置を取ることができる。
[0043] 以上、本発明の実施の形態について説明した。このような音声認識システムによれ ば、音声分離処理に要する CPU資源が節約され、音声分離処理に要する時間を短 縮化できる。つまり、発話者 31が音声コマンドでナビゲーシヨン装置 10を操作すると きの、操作レスポンスを向上させることになり、発話者 31は音声コマンドによる操作を 行いやすくなる。また、高度な演算処理能力を持つ CPUを用いる必要がなくなるの で音声認識システムを導入する際のコストを低減できる。
さらに、運転者が発話者 31になるとき、音声コマンドによるナビゲーシヨン装置 10の 操作をしやすくなるので、運転中の視覚や手動での操作により、交通事故が発生す る可能性を低くすることができる。すなわち、運転時の安全性を向上させることができ る。
[0044] 本発明は、前記した実施の形態に限定されず、発明の趣旨を逸脱しない範囲で応 用可能である。例えば、前記した実施の形態では、本発明の音声認識システムをナ ビゲーション装置に適用した場合を例に説明したが、他の車載情報端末に適用して あよい。
また、前記した実施の形態において、スピーカ 15から出力される騒音は、記憶装置 21に記憶されている音声データを用いることとした力 S、 CD等の記憶媒体に記憶され た音声データを用いるようにしてもょレ、。
また、本実施の形態に係る音声認識システムは、コンピュータ及びプログラムによつ て実現することができ、そのプログラムをコンピュータによる読み取り可能な記憶媒体 (CD— ROM等)に記憶して提供することが可能である。さらに、そのプログラムを、ネ ットワークを通して提供することも可能である。
ここでいうコンピュータシステムとは、 OS (Operating System)等のソフトウェアや周 辺機器等のハードウェアを含むものである。
図面の簡単な説明 [0045] [図 1]本実施の形態の音声認識システムの構成を示すブロック図である。
[図 2]図 2 (a)は、音声認識システムのブロック図であり、図 2 (b)は、図 2 (a)の CPUに より実現される機能を示したブロック図である。
[図 3]図 2 (a)の記憶装置に記憶されるプリセット情報を例示した図である。
[図 4]本実施の形態におけるプリセット情報の登録手順を示したフローチャートである
[図 5]本実施の形態における音声認識の処理手順を示したフローチャートである。 符号の説明
[0046] 1 車両
10 ナビゲーシヨン装置
13 モニタ
14 (14A, B) マイクロホン
15 (15A, B) スピーカ
16 A/D変換装置
17 CPU
18 リモートコントローラ
19 レシーノ
20 音声認識部
21 記憶装置
22 ナビゲーシヨン処理部
23 音源位置特定部
25 プリセット情報検索部
31 (31A 31C) 発話者

Claims

請求の範囲
[1] 車両内に設置された複数のマイクロホンにより入力された音声から、発話者の音声 を分離して音声認識を行う音声認識システムであって、
前記複数のマイクロホンから入力された音声に基づいて、前記発話者の音声の音 源位置を特定し、前記特定された音源位置に関する情報を含むプリセット情報を作 成する音源位置特定部と、
前記発話者のプリセット情報を記憶する記憶装置と、
前記記憶装置に記憶された前記発話者のプリセット情報を参照して、前記マイクロ ホンから入力された音声から前記発話者の音声を分離し、音声認識処理を行う音声 認識部と、
を有することを特徴とする音声認識システム。
[2] 車両内に設置された複数のマイクロホンにより入力された音声から、発話者の音声 を分離して音声認識を行う音声認識システムであって、
画像データを表示する表示手段と、
各種情報の入力を受け付ける入力手段と、
前記複数のマイクロホンから入力された音声に基づいて、前記発話者の音声の音 源位置を特定し、前記特定された音源位置に関する情報を含むプリセット情報を作 成する音源位置特定部と、
前記発話者のプリセット情報を記憶する記憶装置と、
前記プリセット情報の選択入力を促す画面を前記表示手段へ出力し、前記入力手 段からの選択入力に基づいて、前記記憶装置から前記発話者のプリセット情報を検 索するプリセット情報検索部と、
前記検索された発話者のプリセット情報を参照して、前記マイクロホン力 入力され た音声から前記発話者の音声を分離し、音声認識処理を行う音声認識部と、 を有することを特徴とする音声認識システム。
[3] 前記音声認識システムは、前記発話者の座席シートの位置を検出するセンサをさら に備え、
前記記憶装置は、前記発話者の座席シートの位置ごとのプリセット情報を記憶し、 前記プリセット情報検索部は、前記センサから前記発話者の座席シートの位置を取 得し、前記取得した座席シートの位置に基づいて、前記記憶装置からプリセット情報 を検索するよう構成されていることを特徴とする請求項 1または請求項 2に記載の音 声言忍識システム。
[4] 前記入力手段は、車両の無線エントリーキーであることを特徴とする請求項 2または 請求項 3に記載の音声認識システム。
[5] 車両内に設置された複数のマイクロホンにより入力された音声から、発話者の音声 を分離して音声認識を行う音声認識方法であって、
発話者の音源位置の特定を行う音源位置特定部が、前記複数のマイクロホンから 入力された音声に基づいて、前記発話者の音声の音源位置を特定し、前記特定さ れた音源位置に関する情報を含むプリセット情報を作成し、このプリセット情報を記憶 装置に記憶するステップと、
音声認識処理を行う音声認識部が、前記記憶装置に記憶された前記発話者のプリ セット情報を参照して、前記マイクロホンにより入力された音声から前記発話者の音 声を分離して、前記分離された発話者の音声の音声認識処理を行うステップと、 を実行することを特徴とする音声認識方法。
[6] コンピュータに、請求項 5に記載の音声認識方法を実行させることを特徴とする音 声認識用プログラム。
PCT/JP2004/012626 2004-09-01 2004-09-01 音声認識システム、音声認識方法およびそのプログラム WO2006025106A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006515454A JP4478146B2 (ja) 2004-09-01 2004-09-01 音声認識システム、音声認識方法およびそのプログラム
PCT/JP2004/012626 WO2006025106A1 (ja) 2004-09-01 2004-09-01 音声認識システム、音声認識方法およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/012626 WO2006025106A1 (ja) 2004-09-01 2004-09-01 音声認識システム、音声認識方法およびそのプログラム

Publications (1)

Publication Number Publication Date
WO2006025106A1 true WO2006025106A1 (ja) 2006-03-09

Family

ID=35999770

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/012626 WO2006025106A1 (ja) 2004-09-01 2004-09-01 音声認識システム、音声認識方法およびそのプログラム

Country Status (2)

Country Link
JP (1) JP4478146B2 (ja)
WO (1) WO2006025106A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025714A (ja) * 2007-07-23 2009-02-05 Xanavi Informatics Corp 車載装置および音声認識方法
JP2009036810A (ja) * 2007-07-31 2009-02-19 National Institute Of Information & Communication Technology 近傍場音源分離プログラム、及びこのプログラムを記録したコンピュータ読取可能な記録媒体、並びに近傍場音源分離方法
WO2012160602A1 (ja) * 2011-05-24 2012-11-29 三菱電機株式会社 目的音強調装置およびカーナビゲーションシステム
US9583119B2 (en) 2015-06-18 2017-02-28 Honda Motor Co., Ltd. Sound source separating device and sound source separating method
US9697832B2 (en) 2015-06-18 2017-07-04 Honda Motor Co., Ltd. Speech recognition apparatus and speech recognition method
CN112185353A (zh) * 2020-09-09 2021-01-05 北京小米松果电子有限公司 音频信号的处理方法、装置、终端及存储介质
CN113241073A (zh) * 2021-06-29 2021-08-10 深圳市欧瑞博科技股份有限公司 智能语音控制方法、装置、电子设备及存储介质
WO2022176085A1 (ja) * 2021-02-18 2022-08-25 三菱電機株式会社 車載向け音声分離装置及び音声分離方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9619645B2 (en) * 2013-04-04 2017-04-11 Cypress Semiconductor Corporation Authentication for recognition systems

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05122689A (ja) * 1991-10-25 1993-05-18 Seiko Epson Corp テレビ会議システム
JPH11219193A (ja) * 1998-02-03 1999-08-10 Fujitsu Ten Ltd 車載用音声認識装置
JP2001296891A (ja) * 2000-04-14 2001-10-26 Mitsubishi Electric Corp 音声認識方法および装置
JP2002034092A (ja) * 2000-07-17 2002-01-31 Sharp Corp 収音装置
JP2003114699A (ja) * 2001-10-03 2003-04-18 Auto Network Gijutsu Kenkyusho:Kk 車載音声認識システム
JP2004029299A (ja) * 2002-06-25 2004-01-29 Auto Network Gijutsu Kenkyusho:Kk 音声認識システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05122689A (ja) * 1991-10-25 1993-05-18 Seiko Epson Corp テレビ会議システム
JPH11219193A (ja) * 1998-02-03 1999-08-10 Fujitsu Ten Ltd 車載用音声認識装置
JP2001296891A (ja) * 2000-04-14 2001-10-26 Mitsubishi Electric Corp 音声認識方法および装置
JP2002034092A (ja) * 2000-07-17 2002-01-31 Sharp Corp 収音装置
JP2003114699A (ja) * 2001-10-03 2003-04-18 Auto Network Gijutsu Kenkyusho:Kk 車載音声認識システム
JP2004029299A (ja) * 2002-06-25 2004-01-29 Auto Network Gijutsu Kenkyusho:Kk 音声認識システム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025714A (ja) * 2007-07-23 2009-02-05 Xanavi Informatics Corp 車載装置および音声認識方法
JP2009036810A (ja) * 2007-07-31 2009-02-19 National Institute Of Information & Communication Technology 近傍場音源分離プログラム、及びこのプログラムを記録したコンピュータ読取可能な記録媒体、並びに近傍場音源分離方法
WO2012160602A1 (ja) * 2011-05-24 2012-11-29 三菱電機株式会社 目的音強調装置およびカーナビゲーションシステム
JP5543023B2 (ja) * 2011-05-24 2014-07-09 三菱電機株式会社 目的音強調装置およびカーナビゲーションシステム
US9583119B2 (en) 2015-06-18 2017-02-28 Honda Motor Co., Ltd. Sound source separating device and sound source separating method
US9697832B2 (en) 2015-06-18 2017-07-04 Honda Motor Co., Ltd. Speech recognition apparatus and speech recognition method
CN112185353A (zh) * 2020-09-09 2021-01-05 北京小米松果电子有限公司 音频信号的处理方法、装置、终端及存储介质
WO2022176085A1 (ja) * 2021-02-18 2022-08-25 三菱電機株式会社 車載向け音声分離装置及び音声分離方法
CN113241073A (zh) * 2021-06-29 2021-08-10 深圳市欧瑞博科技股份有限公司 智能语音控制方法、装置、电子设备及存储介质
CN113241073B (zh) * 2021-06-29 2023-10-31 深圳市欧瑞博科技股份有限公司 智能语音控制方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JPWO2006025106A1 (ja) 2008-05-08
JP4478146B2 (ja) 2010-06-09

Similar Documents

Publication Publication Date Title
CN106796786B (zh) 语音识别系统
JP4779748B2 (ja) 車両用音声入出力装置および音声入出力装置用プログラム
US8010359B2 (en) Speech recognition system, speech recognition method and storage medium
JP6584731B2 (ja) ジェスチャ操作装置及びジェスチャ操作方法
JPWO2008084575A1 (ja) 車載用音声認識装置
JP2010130223A (ja) 音声操作システムおよび音声操作方法
JP4478146B2 (ja) 音声認識システム、音声認識方法およびそのプログラム
CN111007968A (zh) 智能体装置、智能体提示方法及存储介质
JP6459330B2 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
JP2015074315A (ja) 車載中継装置及び車載通信システム
JP3654045B2 (ja) 音声認識装置
JP2018116130A (ja) 車内音声処理装置および車内音声処理方法
JP4410378B2 (ja) 音声認識方法および装置
JP6522009B2 (ja) 音声認識システム
JP5052241B2 (ja) 車載用の音声処理装置、音声処理システム、及び音声処理方法
JP7280074B2 (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2004301875A (ja) 音声認識装置
WO2022137534A1 (ja) 車載用音声認識装置及び車載用音声認識方法
JP2007057805A (ja) 車両用情報処理装置
JP2009098217A (ja) 音声認識装置、音声認識装置を備えたナビゲーション装置、音声認識方法、音声認識プログラム、および記録媒体
JP6509098B2 (ja) 音声出力装置および音声出力制御方法
JP5446540B2 (ja) 情報検索装置、制御方法及びプログラム
JP7192561B2 (ja) 音声出力装置および音声出力方法
JP2019212168A (ja) 音声認識システムおよび情報処理装置
JP2003345389A (ja) 音声認識装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2006515454

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase