JP3357629B2 - Equipment control system - Google Patents

Equipment control system

Info

Publication number
JP3357629B2
JP3357629B2 JP11874199A JP11874199A JP3357629B2 JP 3357629 B2 JP3357629 B2 JP 3357629B2 JP 11874199 A JP11874199 A JP 11874199A JP 11874199 A JP11874199 A JP 11874199A JP 3357629 B2 JP3357629 B2 JP 3357629B2
Authority
JP
Japan
Prior art keywords
voice
input
voice recognition
signal
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP11874199A
Other languages
Japanese (ja)
Other versions
JP2000310999A (en
Inventor
秀之 山岸
誠 庄境
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asahi Kasei Corp
Original Assignee
Asahi Kasei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kasei Corp filed Critical Asahi Kasei Corp
Priority to JP11874199A priority Critical patent/JP3357629B2/en
Publication of JP2000310999A publication Critical patent/JP2000310999A/en
Application granted granted Critical
Publication of JP3357629B2 publication Critical patent/JP3357629B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、設備、特に住宅の
設備に好適な設備制御システムに関し、より詳しくは、
音声により制御内容の指示を行う設備制御システムに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an equipment control system suitable for equipment, especially for residential equipment,
The present invention relates to a facility control system that gives instructions of control contents by voice.

【0002】[0002]

【従来の技術】従来、音声認識装置を住宅の制御システ
ムに組み込み、居住者が音声で制御内容、たとえば、照
明の点灯、消灯、ガレージの開閉を指示することができ
る設備制御システム(特開平10−276483)が知
られている。
2. Description of the Related Art Conventionally, a voice recognition device is incorporated in a control system of a house, and a facility control system (Japanese Unexamined Patent Application Publication No. Hei 10 (1994)) which enables a resident to instruct the contents of control by voice, for example, turning on / off a light and opening / closing a garage. -276483) is known.

【0003】[0003]

【0004】[0004]

【発明が解決しようとする課題】従来この種の制御シス
テムではマイクロホンが複数の部屋に設置され、各マイ
クロホンから入力された音声を1台の音声認識装置で認
識する。このため、異なる部屋にいる2人の話者の音声
が重複して発生された場合、あるいは同一人物の音声が
距離の異なる複数のマイクロホンに入力された場合、音
声認識装置には複数組の音声信号があたかも同一人物の
音声として入力される。音声認識装置では、入力される
複数組の音声信号を区別することができず、また、誤認
識を起こす。このため、話者が指示した制御内容を実行
できないという解決すべき課題が従来技術にはあった。
Conventionally, in a control system of this type, microphones are installed in a plurality of rooms, and a voice input from each microphone is recognized by one voice recognition device. For this reason, when the voices of two speakers in different rooms are generated repeatedly, or when the voice of the same person is input to a plurality of microphones at different distances, a plurality of sets of voices are The signal is input as if it were a voice of the same person. The speech recognition device cannot distinguish a plurality of sets of input speech signals, and causes erroneous recognition. For this reason, the prior art has a problem to be solved in that the control content specified by the speaker cannot be executed.

【0005】[0005]

【0006】本発明の目的は、異なる音声入力手段から
同一内容の音声が入力された場合には誤認識を起こさな
いようにした設備制御システムを提供することにある。
An object of the present invention is to provide a facility control system which prevents erroneous recognition when the same voice is input from different voice input means.

【0007】[0007]

【課題を解決するための手段】本発明は、入力された音
声信号を音声認識手段により音声認識し、音声認識結果
に対応する内容の動作を制御対象機器に実行させる設備
制御システムにおいて、異なった場所からの音声を入力
し、音声信号を出力する複数の音声入力手段と、当該複
数の音声入力手段から出力される音声信号を音声認識す
る複数の音声認識手段と、所定の時間内に複数の音声が
重複的に発生した時に、前記複数の音声に対する前記複
数の音声認識手段の音声認識結果をソーティング処理
し、該ソーティング処理により同一の複数の音声認識結
果については単一の音声認識結果として処理して出力す
る情報処理手段と、該情報処理手段から出力される音声
認識結果に対応する内容の動作を前記制御対象機器に実
行させる制御手段とを備えたことを特徴とする。
According to the present invention, there is provided a facility control system for recognizing an input voice signal by voice recognition means and causing a control target device to execute an operation of the content corresponding to the voice recognition result. A plurality of voice input means for inputting a voice from a place and outputting a voice signal; a plurality of voice recognition means for recognizing a voice signal output from the plurality of voice input means; and a plurality of voice recognition means within a predetermined time. When a plurality of voices are generated, the voice recognition results of the plurality of voice recognition units for the plurality of voices are sorted, and the same plurality of voice recognition results are processed as a single voice recognition result by the sorting process. Information processing means for outputting as a result, and control means for causing the controlled device to execute an operation having contents corresponding to the speech recognition result output from the information processing means. Characterized by comprising.

【0008】[0008]

【0009】[0009]

【0010】[0010]

【0011】[0011]

【0012】[0012]

【0013】[0013]

【0014】[0014]

【0015】[0015]

【0016】[0016]

【0017】[0017]

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【0022】[0022]

【0023】[0023]

【0024】[0024]

【0025】[0025]

【0026】[0026]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0027】(第1の実施形態)図1は本発明第1の実
施形態のシステム構成を示す。図1において、1は音声
を入力するためのマイクロホンである。10は制御部で
あり、音声で指示された制御内容を認識するとともに、
認識した制御内容でエアコン31のオン/オフや照明設
備32の電源スイッチのオン/オフを行う。
(First Embodiment) FIG. 1 shows a system configuration of a first embodiment of the present invention. In FIG. 1, reference numeral 1 denotes a microphone for inputting voice. Reference numeral 10 denotes a control unit, which recognizes control contents instructed by voice,
The on / off of the air conditioner 31 and the on / off of the power switch of the lighting equipment 32 are performed based on the recognized control contents.

【0028】マイクロホン1は住宅の各部屋に設置さ
れ、住宅内のいずれかに設置された1台の制御部10に
信号線で接続される。制御部1では、たとえば、話者か
らエアコンのオン/オフを指示された場合には、音声の
認識結果に基づきリモコン21に対して、オン/オフを
指示する制御信号を送信し、リモコン21にエアコン3
1をオン/オフさせる。話者から照明設備のオン/オフ
が指示された場合、制御部10は信号変換回路22にオ
ン/オフを指示するための制御信号(デジタル形態)を
送信する。信号変換回路22では受信した制御信号をア
ナログ信号に変換して照明設備32に転送し、照明設備
32の電源スイッチをオン/オフさせる。
The microphone 1 is installed in each room of the house, and is connected by a signal line to one control unit 10 installed in any of the houses. For example, when the speaker instructs on / off of the air conditioner, the control unit 1 transmits a control signal for instructing on / off to the remote controller 21 based on the voice recognition result, and sends the control signal to the remote controller 21. Air conditioner 3
Turn 1 on / off. When the speaker instructs on / off of the lighting equipment, the control unit 10 transmits a control signal (digital form) for instructing on / off to the signal conversion circuit 22. The signal conversion circuit 22 converts the received control signal into an analog signal, transfers the analog signal to the lighting equipment 32, and turns on / off the power switch of the lighting equipment 32.

【0029】制御部10の内部構成を説明する。制御部
10はアナログデジタル変換回路(A/D)11、調停
回路13、音声認識用プロセッサ14およびインタフェ
ース15を有する。A/D11はマイクロホン1から入
力されるアナログの音声信号をデジタルの音声信号に変
換する。A/D11は設置されたマイクロホン1の個数
と同じだけ用意される。調停回路13は複数のA/D1
1から入力される音声信号の内、一番早く受信した音声
信号のみを受付け(一番早く音声を入力したマイクロホ
ン1の検知)、その信号ライン12を音声認識用プロセ
ッサ14に接続する。一例としては音声信号のパルスの
立ち上がりを比較することにより一番早く入力された音
声信号を検知する調停回路を使用することができる。
The internal configuration of the control unit 10 will be described. The control unit 10 includes an analog-to-digital conversion circuit (A / D) 11, an arbitration circuit 13, a voice recognition processor 14, and an interface 15. The A / D 11 converts an analog audio signal input from the microphone 1 into a digital audio signal. A / Ds 11 are prepared as many as the number of microphones 1 installed. The arbitration circuit 13 includes a plurality of A / D1s.
Only the earliest received audio signal from among the audio signals input from 1 is received (detection of the microphone 1 which has input the earliest audio), and its signal line 12 is connected to the audio recognition processor 14. As one example, an arbitration circuit that detects the earliest input audio signal by comparing the rising edges of the audio signal pulses can be used.

【0030】これにより、一番早く発声された話者の音
声のみが音声認識用プロセッサ14により音声認識され
る。他の話者により後で発声された音声の音声信号は調
停回路13までしか届かず、もって、音声認識用プロセ
ッサ14では音声認識されない。
As a result, only the voice of the speaker uttered first is recognized by the voice recognition processor 14. The voice signal of the voice uttered later by another speaker reaches only the arbitration circuit 13, and is not recognized by the voice recognition processor 14.

【0031】したがって、発声開始が完全同一でない限
り、一番早く発声された音声のみが音声認識用プロセッ
サ14により音声認識される。
Therefore, unless the start of the utterance is completely the same, only the earliest uttered voice is recognized by the speech recognition processor 14.

【0032】調停回路13は周知の回路であるので、そ
の内部構成の説明を省略する。音声認識用プロセッサ1
4としては本願出願人が提案した特願平9−51577
号および特願平9−56018号の装置を使用すること
ができる。さらにこれら音声認識装置に対して、PC
T、日本出願00915/1998に開示された不特定
雑音除去機能を持たせることができる。
Since the arbitration circuit 13 is a well-known circuit, the description of its internal configuration is omitted. Speech recognition processor 1
No. 4 is Japanese Patent Application No. 9-51577 proposed by the present applicant.
And Japanese Patent Application No. 9-56018. Furthermore, for these speech recognition devices, a PC
T, can have an unspecified noise removal function disclosed in Japanese Application 00915/1998.

【0033】特願平9−56018号に記載の音声認識
装置は、話者の音声の歪みまたは音響の歪みの特徴をメ
モリに記憶しておき、音声認識時にはメモリに記憶して
ある該当の歪みの特徴を使用して、信号処理回路により
入力の音声信号の歪みを補正する音声認識装置である。
In the speech recognition apparatus described in Japanese Patent Application No. 9-56018, the characteristics of the speaker's voice distortion or acoustic distortion are stored in a memory, and the corresponding distortion stored in the memory is stored during voice recognition. Is a speech recognition device that corrects distortion of an input speech signal by a signal processing circuit using the features of (1).

【0034】特願平9−51577号に記載の音声処理
装置は雑音を消去する適応フィルタに与えるインパルス
応答をFIFOメモリに保持し、音声の入力が検知され
ている間はFIFOメモリに保持されている一定時間前
のインパルス応答を雑音除去に使用する音声処理装置で
ある。この間のFIFOメモリに対するインパルス応答
の入力が禁止され、音声が入力されていない間は、現時
点のインパルス応答を雑音除去に使用する。
The speech processing apparatus described in Japanese Patent Application No. 9-51577 holds an impulse response given to an adaptive filter for canceling noise in a FIFO memory, and holds the impulse response in the FIFO memory while speech input is detected. This is a speech processing apparatus that uses an impulse response before a certain period of time to remove noise. During this time, the input of the impulse response to the FIFO memory is prohibited, and the current impulse response is used for noise removal while no voice is input.

【0035】PCT、日本出願00915/1998に
記載された雑音除去機能は、音源の信号が特定不可能な
(音源未知)雑音のスペクトルを一定周期で推定し、音
声信号のスペクトルから減算することにより音源未知の
雑音を除去する不特定雑音除去手段により実現される。
The noise removal function described in PCT, Japanese Patent Application No. 00915/1998 estimates the spectrum of noise from which the signal of the sound source cannot be specified (sound source unknown) at a fixed period and subtracts it from the spectrum of the voice signal. This is realized by an unspecified noise removing unit that removes noise of a sound source unknown.

【0036】上述の雑音除去機能や歪み補正機能につい
ては自動車室内の音声認識を目的として開発されたが、
実験の結果、住宅室内では上記機能を有する音声認識装
置では最低で1mの距離だけマイクロホンと発話者が離
れていても実用に供する音声認識性能を発揮することを
本願発明者は発見した。このような音声信号の歪み補正
機能、雑音除去機能を音声認識用プロセッサ14に選択
的に持たせることにより、住宅に住む住人のような特定
話者の音声を精度よく音声認識することができる。さら
に音声信号の歪み補正機能および/または雑音除去機能
を音声認識用プロセッサ14に持たせることにより1m
以上マイクロホンから離れた場所からしゃべった音声に
対する音声認識精度をより高めることができる。なお、
上述の3つの機能については製品のコスト、設備使用環
境に応じて、任意に組合わせればよい。
The above-described noise elimination function and distortion correction function have been developed for the purpose of recognizing speech in a car cabin.
As a result of the experiment, the inventor of the present application has found that a voice recognition device having the above function exhibits practical voice recognition performance even if the speaker is at least 1 m away from the microphone in a residential room. By selectively providing the voice signal distortion correction function and the noise removal function to the voice recognition processor 14, it is possible to accurately recognize the voice of a specific speaker such as a resident living in a house. Further, by providing the voice recognition processor 14 with a voice signal distortion correction function and / or noise removal function,
As described above, it is possible to further improve the speech recognition accuracy for a speech spoken from a place away from the microphone. In addition,
The above three functions may be arbitrarily combined according to the cost of the product and the environment in which the equipment is used.

【0037】このような音声認識用プロセッサ14を使
用すると、本実施形態では、図2に示すようにマイクロ
ホン1を天井にも設置することができる。
When such a speech recognition processor 14 is used, in this embodiment, the microphone 1 can be installed on the ceiling as shown in FIG.

【0038】図2は住宅の間取りを簡素化して示す説明
図である。図2において、天井41の裏側(いわゆる天
井裏)に、制御部10を設置する。マイクロホン1は部
屋の横壁42、天井41に設置することができる。従来
の音声認識装置の性能では、マイクロホンと人間との間
の距離が約1メートル以上離れると、音声認識精度が極
端に低下する。しかしながら、上述の歪み補正機能およ
び/または雑音除去機能を有する音声認識用プロセッサ
14を使用すると、人間と音声認識装置との間が1メー
トル以上離れても、実用に供するだけの音声認識精度を
維持できる。このため、マイクロホン1を天井41に設
置することが可能となり、マイクロホン1の設置場所の
自由度が高まる。
FIG. 2 is an explanatory diagram showing a simplified layout of a house. In FIG. 2, the control unit 10 is installed behind the ceiling 41 (so-called ceiling). The microphone 1 can be installed on the side wall 42 and the ceiling 41 of the room. In the performance of the conventional speech recognition apparatus, if the distance between the microphone and a person is about 1 m or more, the accuracy of speech recognition is extremely reduced. However, when the speech recognition processor 14 having the above-described distortion correction function and / or noise removal function is used, even if the distance between the human and the speech recognition apparatus is 1 meter or more, the speech recognition accuracy sufficient for practical use is maintained. it can. For this reason, the microphone 1 can be installed on the ceiling 41, and the degree of freedom of the installation location of the microphone 1 is increased.

【0039】(第2の実施形態)第1の実施形態は複数
のマイクロホン1から入力される音声信号の中の1つを
調停回路13により選択して、音声認識用プロセッサ1
4でその音声信号を音声認識する例であった。次に、マ
イクロホンと制御部を1対とした音声認識装置を複数有
する設備制御システムを説明する。
(Second Embodiment) In the first embodiment, one of the audio signals input from the plurality of microphones 1 is selected by the arbitration circuit 13 and the voice recognition processor 1 is selected.
4 is an example of voice recognition of the voice signal. Next, an equipment control system having a plurality of voice recognition devices each having a pair of a microphone and a control unit will be described.

【0040】図3は第2の実施形態のシステム構成を示
す。図3において、100は音声認識装置である。音声
認識装置100はマイクロホン101、A/D102、
音声認識用プロセッサ103、制御用インタフェース1
04および通信用インタフェース106を有する。マイ
クロホン101、A/D102および音声認識用プロセ
ッサ103は第1の実施形態と同様の回路を使用する。
ただし、音声認識用プロセッサ103は後述の通信機能
を有する。
FIG. 3 shows the system configuration of the second embodiment. In FIG. 3, reference numeral 100 denotes a voice recognition device. The voice recognition device 100 includes a microphone 101, an A / D 102,
Speech recognition processor 103, control interface 1
04 and a communication interface 106. The microphone 101, the A / D 102, and the speech recognition processor 103 use the same circuits as in the first embodiment.
However, the voice recognition processor 103 has a communication function described later.

【0041】制御用インタフェース104は第1の実施
形態のインタフェース15と同じである。通信用インタ
フェース106は、例えば、イーサネットと呼ばれるL
AN(広域ネットワーク)用の通信インタフェースを使
用する。音声認識用プロセッサ103の音声認識結果に
対応する制御信号が制御用インタフェース104を介し
て制御対象機器(第1の実施形態のエアコン等)105
に送られる。
The control interface 104 is the same as the interface 15 of the first embodiment. The communication interface 106 is, for example, an L called Ethernet.
Use a communication interface for AN (Wide Area Network). A control signal corresponding to the voice recognition result of the voice recognition processor 103 is transmitted to the control target device (such as the air conditioner of the first embodiment) 105 via the control interface 104.
Sent to

【0042】このような音声認識装置100複数台が信
号線110を介して接続される。
A plurality of such voice recognition devices 100 are connected via a signal line 110.

【0043】本実施形態の特徴は、マイクロホン101
に音声が入力されると、音声認識用プロセッサ103が
他の音声認識装置100に対して音声認識処理および/
または音声信号の入力処理を停止を要求する機能と、他
の音声認識装置100からの停止要求に応じて、音声認
識処理および/または音声信号の入力処理を停止する機
能を有する点にある。
The feature of this embodiment is that the microphone 101
Is input to the voice recognition processor 103, the voice recognition processor 103 performs a voice recognition process and / or
Alternatively, it has a function of requesting a stop of the voice signal input process and a function of stopping the voice recognition process and / or the voice signal input process in response to a stop request from another voice recognition device 100.

【0044】音声認識装置100の設置例を図4に示
す。音声認識装置100は筐体201内に収納され、天
井202に設置される。マイクロホン101は筐体20
1の外側に集音可能に取り付けられる。
FIG. 4 shows an example of installation of the voice recognition device 100. The voice recognition device 100 is housed in a housing 201 and installed on a ceiling 202. The microphone 101 is the housing 20
1 is attached so as to be able to collect sound.

【0045】この例では部屋に設置された制御対象機器
105に対して赤外線、あるいは無線による通信により
制御動作が制御用インタフェース104から指示され
る。なお、マイクロホン101、音声認識用プロセッサ
103、インタフェース104,106は、設置場所に
応じて一体に形成すればよい。たとえば、風呂場では、
マイクロホン101のみを風呂場に設置すると好適であ
る。
In this example, the control operation is instructed from the control interface 104 to the control target device 105 installed in the room by infrared or wireless communication. Note that the microphone 101, the voice recognition processor 103, and the interfaces 104 and 106 may be integrally formed according to the installation location. For example, in the bathroom,
It is preferable to install only the microphone 101 in the bathroom.

【0046】他の音声認識装置との通信によって、一番
早く音声が入力された音声認識装置の機器制御のみを有
効とさせるための処理を図5を参照して説明する。
Referring to FIG. 5, a description will be given of a process for validating only the device control of the voice recognition device to which the voice is input first by communicating with another voice recognition device.

【0047】図5は音声認識用プロセッサ103内に記
憶された音声認識・通信用のプログラムの内容を示す。
このプログラムは、CPUが実行可能なプログラム言語
で記載され、音声認識用プロセッサ103の内のROM
等に保存記憶される。
FIG. 5 shows the contents of a speech recognition / communication program stored in the speech recognition processor 103.
This program is written in a program language that can be executed by the CPU, and is stored in the ROM in the speech recognition processor 103.
Etc.

【0048】音声認識用プロセッサ103内のCPU
(以下、CPUと略記する)は電源が供給される間、図
5の処理手順を実行し続ける。
CPU in speech recognition processor 103
(Hereinafter, abbreviated as CPU) continues to execute the processing procedure of FIG. 5 while power is supplied.

【0049】なお、以下の説明で使用する音声入力停止
フラグについて説明しておく。音声入力停止フラグはオ
ン/オフについての情報で、音声認識用プロセッサ10
4内のRAMに記憶される。音声に入力停止フラグがオ
ンの時には、自己の音声認識装置は音声入力処理および
音声認識処理が停止状態であることを示す。音声に入力
停止フラグがオフの時には、自己の音声認識装置が音声
入力処理および音声認識処理が可能である状態(停止解
除状態)であることを示す。
The voice input stop flag used in the following description will be described. The voice input stop flag is information about on / off, and the voice recognition processor 10
4 is stored in the RAM. When the input stop flag is turned on for the voice, the own voice recognition device indicates that the voice input process and the voice recognition process are stopped. When the input stop flag is off for voice, it indicates that the own voice recognition device is in a state where voice input processing and voice recognition processing are possible (stop release state).

【0050】図5において、CPUは音声入力停止信号
を他の音声認識装置から受信しているか否かを通信イン
タフェース106の受信内容の確認により判定する(ス
テップS50)。この時点で、音声入力停止信号を受信
した場合、音声入力停止フラグをオン(自己の音声入力
・音声認識処理の禁止)に設定する。
In FIG. 5, the CPU determines whether or not a voice input stop signal has been received from another voice recognition device by checking the received content of the communication interface 106 (step S50). At this point, if a voice input stop signal is received, the voice input stop flag is set to ON (the own voice input / voice recognition processing is prohibited).

【0051】音声入力停止信号を受信していない場合に
は、音声入力停止解除信号が他の音声認識装置から送信
されたか否かを判定する(ステップS100)。
If a voice input stop signal has not been received, it is determined whether a voice input stop release signal has been transmitted from another voice recognition device (step S100).

【0052】この判定は、通信用インタフェース106
の受信内容を判定することで実現できる。次にCPUは
フラグの内容がオンであるか、オフであるかを判定する
(ステップS100)。
This determination is made by the communication interface 106
It can be realized by judging the contents of reception. Next, the CPU determines whether the content of the flag is on or off (step S100).

【0053】他の音声入力装置が音声入力停止解除信号
を送信した場合には音声入力停止フラグをオフに設定
し、音声入力および音声認識処理を停止解除状態とする
(ステップS105)。
If another voice input device has transmitted the voice input stop release signal, the voice input stop flag is set to off, and the voice input and voice recognition processing is set to the stop release state (step S105).

【0054】一方、音声入力停止解除信号を受信してい
ない場合、CPUは手順をステップS100からステッ
プS110に手順を進める。このステップでCPUは、
音声入力停止フラグがオンであるか否かを判定する。音
声入力停止フラグがオンのときには、手順はステップS
50に戻る。このため、他の音声認識装置からの音声入
力停止解除信号を受信するまでは、ステップS50〜S
110のループ処理が繰り返される。
On the other hand, if the voice input stop release signal has not been received, the CPU proceeds from step S100 to step S110. In this step, the CPU
It is determined whether the voice input stop flag is on. If the voice input stop flag is ON, the procedure is step S
Return to 50. Therefore, steps S50 to S50 are performed until a speech input stop release signal from another speech recognition device is received.
The loop processing of 110 is repeated.

【0055】これによりCPUの実行手順は後述のステ
ップS120以降の音声入力処理および音声認識処理へ
移行せず、たとえ、自己のマイクロホン1から音声が入
力されても音声認識用プロセッサ103はA/D102
から入力される音声信号を受け付けない。
As a result, the execution procedure of the CPU does not shift to the voice input processing and the voice recognition processing of step S120 and thereafter, and even if voice is input from its own microphone 1, the voice recognition processor 103 operates the A / D 102
Does not accept audio signals input from

【0056】自己および他の音声認識装置が音声認識を
行っていない状態では音声入力停止フラグはオン状態に
ある。
The voice input stop flag is in an on state in a state where the self and other voice recognition devices are not performing voice recognition.

【0057】したがって、手順はステップS100→S
110→S120へと進む。この時点で話者が音声を発
声していない状態、すなわち、無音状態であると、ステ
ップS120の音声入力の有無の判定(A/D102か
らの入力信号の有無の判定)は、無しとなる。したがっ
て、音声信号の入力があるまで、ステップS100〜S
120→S130→S100のループ処理が繰り返され
る。
Therefore, the procedure is changed from step S100 to S
Go to 110 → S120. At this point, if the speaker is not producing sound, that is, if there is no sound, the determination of the presence or absence of the voice input in step S120 (the determination of the presence or absence of the input signal from the A / D 102) is absent. Therefore, steps S100 to S100 are performed until an audio signal is input.
The loop processing of 120 → S130 → S100 is repeated.

【0058】話者が制御対象機器に対する動作の指示を
発声すると、マイクロホン1から入力された音声が音声
信号の形態で、音声認識用プロセッサ103に入力され
る。
When the speaker utters an operation instruction to the control target device, the voice input from the microphone 1 is input to the voice recognition processor 103 in the form of a voice signal.

【0059】この入力がステップS120において検出
され、CPUの手順はステップS120→S121へと
進む。ステップS121において、音声入力停止信号が
通信用インタフェース106、信号線110を介して、
他の音声認識装置に送信され、続いて音声認識処理が行
われる。これにより他の音声認識装置では音声入力停止
フラグをオンにするので、自己の音声入力・音声認識処
理が停止する。
This input is detected in step S120, and the procedure of the CPU proceeds from step S120 to S121. In step S121, the audio input stop signal is transmitted via the communication interface 106 and the signal line 110,
The data is transmitted to another voice recognition device, and subsequently the voice recognition process is performed. As a result, the voice input stop flag is turned on in the other voice recognition device, so that its own voice input / voice recognition process is stopped.

【0060】ステップ121では、上述したように特願
平9−56018号で開示されている処理、すなわち、
歪み補正処理と、PCT日本出願00915/1998
および特願平10−257583号で開示されている雑
音除去処理が行われた後、音声認識処理が行われる。音
声認識処理自体は周知の処理方法を使用すればよく、詳
細な説明を省略する。
In step 121, as described above, the processing disclosed in Japanese Patent Application No. 9-56018, that is,
Distortion correction processing and PCT Japanese application 00915/1998
After performing the noise removal processing disclosed in Japanese Patent Application No. 10-257585, the speech recognition processing is performed. A well-known processing method may be used for the voice recognition processing itself, and a detailed description will be omitted.

【0061】音声認識結果は、たとえば、文字コード列
の形態で得られるので、予め音声認識用プロセッサ内の
ROMに格納されている文字コード列−制御信号対応表
に基づいて、複数ビットの制御信号に変換される。変換
された制御信号が、制御用インタフェース104を介し
て部屋内の制御対象機器105に送信される(ステップ
S122)。これにより音声認識用プロセッサ103は
話者から指示された動作内容を制御対象機器105に対
して実行させることができる。
Since the speech recognition result is obtained, for example, in the form of a character code string, a control signal of a plurality of bits is obtained based on a character code string-control signal correspondence table stored in advance in a ROM in the speech recognition processor. Is converted to The converted control signal is transmitted to the control target device 105 in the room via the control interface 104 (step S122). Thereby, the voice recognition processor 103 can cause the control target device 105 to execute the operation content instructed by the speaker.

【0062】この後、CPUは手順をステップS123
へ進め、音声入力停止解除信号を通信用インタフェース
106および信号線110を介して他の音声認識用プロ
セッサに送信する。
Thereafter, the CPU proceeds to step S123.
Then, a speech input stop release signal is transmitted to another speech recognition processor via the communication interface 106 and the signal line 110.

【0063】この音声入力停止信号を受けて、他の音声
認識プロセッサでは自己の音声入力停止フラグをオフに
切り替え、音声入力、音声認識可能状態とする。
In response to the voice input stop signal, the other voice recognition processors switch their own voice input stop flags to off, thereby enabling voice input and voice recognition.

【0064】以上の処理を複数の音声認識装置が実行す
ると、全ての音声認識装置が音声入力・音声認識可能状
態(音声入力停止フラグオフ)にあるときに、一番早く
音声を入力した音声認識装置から音声入力停止信号が発
生され、この入力停止信号を受けた他の音声認識装置で
は音声入力停止フラグをオンに設定することで、自己の
音声入力・音声認識処理を停止する。これにより、一番
早く話者の音声を入力した音声認識装置だけが、制御対
象機器(105)の制御を実行することができる。
When a plurality of speech recognizers execute the above processing, when all of the speech recognizers are in the speech input / speech recognizable state (speech input stop flag is off), the speech recognizer that has input the speech earliest. , A speech input stop signal is generated, and the other speech recognition devices that have received the input stop signal set their speech input stop flag to on to stop their own speech input / speech recognition processing. Thus, only the voice recognition device that has input the voice of the speaker first can control the control target device (105).

【0065】また、上記一番早く音声を入力した音声認
識装置の制御処理が終了すると、その音声認識装置から
音声入力停止解除信号が発生されるので、この信号を受
けた他の音声認識装置では音声入力停止フラグをオンに
設定して、自己での音声入力・音声認識処理を可能状態
とする。
When the control process of the voice recognition device which has input the voice earliest is completed, a voice input stop release signal is generated from the voice recognition device. The voice input stop flag is set to on to enable the voice input / voice recognition processing by itself.

【0066】(第3の実施形態)複数の音声認識用プロ
セッサの音声認識結果を専用の制御用プロセッサが受信
して、制御用プロセッサが設備制御を統括する第3の実
施形態を説明する。第3の実施形態のシステム構成を図
6に示す。第2の実施形態と同様の回路には同一の符号
を付しており詳細な説明を省略する。
(Third Embodiment) A third embodiment in which a dedicated control processor receives voice recognition results of a plurality of voice recognition processors and the control processor controls the facility control will be described. FIG. 6 shows a system configuration of the third embodiment. Circuits similar to those in the second embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.

【0067】図6において、200は設備制御装置であ
り制御用プロセッサ201、通信用インタフェース20
2および制御用インタフェース203を有する。制御用
インタフェースは複数の制御対象機器に対して、制御用
プロセッサ201からの動作指示を転送する。
In FIG. 6, reference numeral 200 denotes an equipment control unit, which is a control processor 201 and a communication interface 20.
2 and a control interface 203. The control interface transfers an operation instruction from the control processor 201 to a plurality of control target devices.

【0068】通信用インタフェース202は信号線11
0と接続し、複数の音声認識装置100から音声認識結
果を受信する。
The communication interface 202 is connected to the signal line 11
0, and receives speech recognition results from a plurality of speech recognition devices 100.

【0069】制御用プロセッサ201は複数の音声認識
結果から受信した音声認識結果を制御用の動作指示信号
に変換する。また、一定時間内に受信した複数組の音声
認識結果を相互比較し、内容が一致している音声認識結
果を見つけると同一内容の複数の音声認識結果を単一の
音声認識結果に統合する。
The control processor 201 converts the received speech recognition result from the plurality of speech recognition results into an operation instruction signal for control. Also, a plurality of sets of speech recognition results received within a certain time are compared with each other, and when a speech recognition result having the same content is found, a plurality of speech recognition results of the same content are integrated into a single speech recognition result.

【0070】このようなシステムの動作を図7のフロー
チャートを使用して説明する。図7は制御用プロセッサ
201が実行する処理プログラムの内容を示す。この処
理プログラムは予め、制御用プロセッサ内のメモリに組
み込まれている。
The operation of such a system will be described with reference to the flowchart of FIG. FIG. 7 shows the contents of the processing program executed by the control processor 201. This processing program is incorporated in a memory in the control processor in advance.

【0071】音声認識用プロセッサ103はマイクロホ
ン101から音声の入力があると、従来と同様にして音
声認識を行い、その音声認識結果を通信用インタフェー
ス106を介して、設備制御装置200に送信する。
When a voice is input from the microphone 101, the voice recognition processor 103 performs voice recognition in the same manner as in the related art, and transmits the voice recognition result to the equipment control device 200 via the communication interface 106.

【0072】制御用プロセッサ201は通常は、ステッ
プS200〜S210のループ処理により音声認識装置
100からの送信を待機している。音声認識装置100
からのデータ送信があることをステップS200で検知
すると制御用プロセッサ201は受信したデータ(音声
認識結果)を内部メモリに一時記憶する(ステップS2
00→S205)。
Normally, the control processor 201 waits for transmission from the speech recognition apparatus 100 by loop processing of steps S200 to S210. Speech recognition device 100
When it is detected in step S200 that there is data transmission from the control processor 201, the control processor 201 temporarily stores the received data (speech recognition result) in the internal memory (step S2).
00 → S205).

【0073】また、ステップS210では一定時間を計
時する内部タイマーがカウントアップしたか否かを監視
し、カウントアップしていない場合には、手順をステッ
プS210からS200に戻す。内部タイマーのカウン
トアップ時間をたとえば、10秒とすると、10秒の間
に、複数の音声認識装置100から送信される音声認識
結果が内部メモリに収集される。内部タイマーがカウン
トアップしたことをステップS210で検出した制御用
プロセッサ201は、内部メモリに記憶されている1以
上の音声認識結果の中の2つの音声認識結果を任意に組
み合わせ、一致比較を行う。本実施形態では、ソーティ
ングと呼ばれている周知の情報処理手法を使用して、音
声認識結果の並び換えを行う途中で、音声認識結果の文
字列が同一のものを1つに統合する(ステップS220
→S230)。ソーティング用のプログラムを使用しな
くても、2つの音声認識結果が一致の判定が得られた場
合には、2つの音声認識結果の内の1つを内部メモリか
ら削除することにより音声認識結果の統合を行うことが
できる。
In step S210, it is monitored whether or not an internal timer for counting a predetermined time has counted up. If not, the procedure returns from step S210 to S200. Assuming that the count-up time of the internal timer is, for example, 10 seconds, the voice recognition results transmitted from the plurality of voice recognition devices 100 are collected in the internal memory within 10 seconds. The control processor 201, which has detected in step S210 that the internal timer has counted up, arbitrarily combines two voice recognition results among one or more voice recognition results stored in the internal memory and performs a match comparison. In the present embodiment, using a well-known information processing technique called sorting, during the rearrangement of the speech recognition results, those having the same character string of the speech recognition results are integrated into one (step S1). S220
→ S230). Even if a sorting program is not used, if the two speech recognition results are determined to be coincident, one of the two speech recognition results is deleted from the internal memory to thereby reduce the result of the speech recognition. Integration can be performed.

【0074】同一音声認識結果を統合した後の複数の音
声認識結果は文字列から制御機器への動作指示に従来と
同様にして変換され、制御用インタフェース203を介
して制御対象機器204に送られる。
A plurality of speech recognition results after integrating the same speech recognition result are converted from character strings into operation instructions to the control device in the same manner as in the related art, and sent to the control target device 204 via the control interface 203. .

【0075】この後、内部メモリ内の音声認識結果は消
去され、内部カウンタが再起動される(ステップS24
0)。
Thereafter, the voice recognition result in the internal memory is deleted, and the internal counter is restarted (step S24).
0).

【0076】以上の手順を繰り返すと一定時間間隔(こ
の形態では10秒)間隔で音声認識結果が設備制御装置
100で収集され、収集された音声認識結果の中の同一
のものが統合される。したがって、10秒以内に複数の
人間から発生された同一内容の音声や複数のマイクロホ
ン101から入力され複数の音声認識用プロセッサ10
2で音声認識される単一話者の音声についても、制御用
プロセッサ201側では複数回、制御対象機器に動作指
示を行うことはない。
When the above procedure is repeated, the speech recognition results are collected by the equipment control unit 100 at regular time intervals (10 seconds in this embodiment), and the same speech recognition results among the collected speech recognition results are integrated. Therefore, a plurality of voice recognition processors 10 input from a plurality of microphones 101 and voices of the same content generated from a plurality of humans within 10 seconds.
Regarding the voice of a single speaker whose voice is recognized in step 2, the control processor 201 does not give an operation instruction to the control target device a plurality of times.

【0077】上述の実施形態の他に次の形態を実施でき
る。
The following embodiment can be carried out in addition to the above embodiment.

【0078】1)第1の実施形態において、制御対象機
器と、制御部10あるいは音声認識装置100との間の
通信手段は無線(たとえば、赤外線、光を使用した無線
通信方法)、有線の周知の通信手段を使用することがで
きる。さらにマイクロホンと音声認識用プロセッサの間
のいずれかの経路部分を無線の通信手段としてもよいこ
と勿論である。
1) In the first embodiment, the communication means between the device to be controlled and the control unit 10 or the voice recognition device 100 is wireless (for example, a wireless communication method using infrared rays or light) or wired. Communication means can be used. Further, it goes without saying that any path between the microphone and the voice recognition processor may be a wireless communication means.

【0079】2)第2の実施形態の音声認識装置100
の間の通信についても、イーサネットのような通信方法
の他に、有線、無線の通信方法(手段)を使用すること
ができる。
2) Speech Recognition Apparatus 100 of Second Embodiment
In addition, a communication method (means) of a wired or wireless communication can be used in addition to the communication method such as Ethernet.

【0080】3)上述の第1、第2の実施形態では、設
備の一例として、住宅設備を説明したが、他の設備、た
とえば、生産設備など、他の設備にも本実施形態を適用
できる。
3) In the above-described first and second embodiments, the residential equipment has been described as an example of the equipment. However, the present embodiment can be applied to other equipment, for example, other equipment such as production equipment. .

【0081】4)上述の実施形態において、光電池(光
電変換手段)を太陽光を受光可能な位置に設置し、音声
認識装置100等や設備制御システム全体の電源とする
こともできる。
4) In the above embodiment, the photovoltaic cell (photoelectric conversion means) can be installed at a position where sunlight can be received, and can be used as a power supply for the voice recognition device 100 and the like and the entire equipment control system.

【0082】5)上述の第1の実施形態においては、入
力が受け付けられなかった音声の話者、第2の実施形態
においては音声認識が行われなかった音声の話者に音声
が受け付けられなかった旨を案内する複数の案内手段を
設置することもできる。この場合、案内手段としては合
成音声発生器や表示器を使用する。第1の実施形態で
は、入力を受け付けるマイクロホンを調停回路が検知す
るので、調停回路から、入力を受け付けなかったマイク
ロホンに対の案内手段に案内実行のための信号を送信す
る。案内手段では合成音声あるいは表示によりメッセー
ジを案内する。案内としては、その他、ランプの点灯、
ブザーによる報知も可能である。
5) In the above-described first embodiment, no voice is accepted by a speaker whose input is not accepted, and in the second embodiment, a speaker whose speech is not recognized. A plurality of guide means for guiding the user can be provided. In this case, a synthetic speech generator or a display is used as the guidance means. In the first embodiment, since the arbitration circuit detects a microphone that accepts an input, the arbitration circuit transmits a signal for executing guidance to the paired guidance means to the microphone that has not received the input. The guidance means guides the message by synthesized voice or display. Other guidance includes lighting of the lamp,
Notification by buzzer is also possible.

【0083】第2の実施形態では音声認識用プロセッサ
が音声入力フラグをオンに設定した時点で、自己に対応
する案内手段に案内実行の信号を送信する。
In the second embodiment, when the speech recognition processor sets the speech input flag to ON, a signal for executing the guidance is transmitted to the guidance means corresponding to the self.

【0084】6)第2の実施形態では通信用インタフェ
ースを含む音声認識装置100を1つの筐体の中に収納
したが、筐体の形状としては図4の形状に限らず、人
形、家具、生活用備品等各種の収納可能物体に音声認識
装置100を収納することができる。
6) In the second embodiment, the voice recognition device 100 including the communication interface is housed in one housing. However, the shape of the housing is not limited to the shape shown in FIG. The voice recognition device 100 can be stored in various storable objects such as household items.

【0085】7)音声を入力するマイクロホンは1部屋
に複数設置してもよいこと勿論である。
7) Needless to say, a plurality of microphones for inputting voice may be provided in one room.

【0086】8)上述の第2実施形態では、音声の入力
および認識処理を双方を停止させる例を説明したが、話
者が異なる部屋におり、離れているような場合は各、音
声認識プロセッサでは入力の音声信号を内部メモリに記
憶し、音声認識処理のみを停止することもできる。
8) In the above-described second embodiment, an example has been described in which both the voice input and the recognition processing are stopped. However, in the case where the speakers are in different rooms and are separated, the voice recognition processor Then, the input voice signal can be stored in the internal memory, and only the voice recognition processing can be stopped.

【0087】9)第2の実施形態では音声認識用プロセ
ッサの間で通信を行うことによりシステムに調停機能
(一番早く音声信号が入力された音声認識用プロセッサ
で音声認識を行うこと)を持たせたが、専用の調停回路
を設け、調停回路により一番早く音声信号を入力した音
声認識用プロセッサを動作可能状態(アクチブ)とする
ことができる。
9) In the second embodiment, the system has an arbitration function (perform speech recognition by the speech recognition processor to which the speech signal is input first) by communicating between the speech recognition processors. However, a dedicated arbitration circuit can be provided, and the arbitration circuit can set the speech recognition processor to which the voice signal is input first, in an operable state (active).

【0088】10)第1の実施形態の調停回路13は、
音声が一番早くされた音声入力系統を選択する。選択さ
れた入力系統の解除は、音声認識の終了時としてもよ
い、選択した音声入力系統上の音声信号のレベルが閾値
以下(発生していた音声の停止)としてもよい。
10) The arbitration circuit 13 of the first embodiment
Select the audio input system with the fastest audio. The release of the selected input system may be performed at the end of the voice recognition, or the level of the voice signal on the selected voice input system may be equal to or less than the threshold (stopping the generated voice).

【0089】11)上述の実施形態1〜2では一番早く
入力した音声またはその音声認識結果を選択するように
しているが、複数の音声が重複的に発生した場合に、音
声の質が一番よい音声が入力された音声入力系統を選択
することもできる。音声の質を表すパラメータとして
は、音声信号平均レベル、すなわち、音声信号が発生し
てから一定時間内の音声信号のレベル平均を比較するパ
ラメータとして使用することができる。また、S/N
比、音声信号の振幅の最大値を比較のためのパラメータ
とすることもできる。
11) In the first and second embodiments, the earliest input voice or the voice recognition result is selected. However, when a plurality of voices are generated repeatedly, the voice quality is reduced. It is also possible to select a voice input system to which the best voice has been input. As a parameter indicating the quality of the voice, it can be used as a parameter for comparing the average level of the voice signal, that is, the level average of the voice signal within a predetermined time after the voice signal is generated. Also, S / N
The ratio and the maximum value of the amplitude of the audio signal can be used as parameters for comparison.

【0090】したがって、図1の調停回路13は、一定
時間内の音声信号を保持する回路、上記パラメータの値
を当該保持された音声信号から取得する回路と、取得さ
れたパラメータの値を比較する回路および比較の結果に
応じて、音声入力系統を音声認識用プロセッサ14に接
続させる信号線切替え回路で構成すればよい。これら個
々の回路自体は周知の回路を使用することができ、当業
者であれば、容易に調停回路を作成することができよ
う。
Therefore, the arbitration circuit 13 of FIG. 1 compares the value of the obtained parameter with the circuit for holding the audio signal within a certain period of time and the circuit for obtaining the value of the parameter from the held audio signal. What is necessary is just to comprise the signal line switching circuit which connects the audio | voice input system to the audio | voice recognition processor 14 according to a circuit and the result of comparison. Known circuits can be used as these individual circuits themselves, and those skilled in the art will be able to easily create an arbitration circuit.

【0091】12)第3の実施形態に第2実施形態の調
停機能を持たしてもよいことは言うまでもない。
12) It goes without saying that the third embodiment may have the arbitration function of the second embodiment.

【0092】13)第1〜第3の実施形態の音声認識用
プロセッサは、制御対象機器への1つの動作指示が1回
の発話で行われることを想定しているが、1回の発話の
中に複数組の動作指示を含ませてもよい。この場合、単
一の音声認識用プロセッサの中に、同一の複数の音声認
識結果を統合する機能(第3実施形態のソーティング機
能)を持たせるとよい。この機能を持たせることによ
り、発話者が繰り返し発生した動作指示を1つの音声認
識結果として統合することができる。
13) The speech recognition processors according to the first to third embodiments assume that one operation instruction to the control target device is performed by one utterance. A plurality of sets of operation instructions may be included therein. In this case, a single voice recognition processor may have a function of integrating the same plurality of voice recognition results (the sorting function of the third embodiment). By providing this function, the operation instructions repeatedly generated by the speaker can be integrated as one voice recognition result.

【0093】[0093]

【発明の効果】本発明によれば、所定時間内に複数の音
声が重複的に発生した場合に、複数の音声認識手段から
の音声認識結果がソーティング処理により並び替えられ
て、同一の音声認識結果が検出される。このため、同一
時刻に発生した異なる複数の音声は、そのまま使用さ
れ、また、同一時刻あるいは所定時間内の異なる時刻で
発生された同一内容の複数の音声に対する音声認識結果
は単一の音声認識結果として取扱われる。これにより、
2人の話者の音声が重複して発生された場合、あるいは
同一人物の音声が距離の異なる複数の音声入力手段に入
力された場合でも正しく音声認識を行って制御対象機器
を制御することができる。
According to the present invention, when a plurality of voices are generated repeatedly within a predetermined time, the voice recognition results from the plurality of voice recognition means are rearranged by sorting processing, and the same voice recognition is performed. The result is detected. For this reason, a plurality of different voices generated at the same time are used as they are, and a voice recognition result for a plurality of voices of the same content generated at the same time or at different times within a predetermined time is a single voice recognition result. Treated as This allows
Even when the voices of two speakers are duplicated, or when the voice of the same person is input to a plurality of voice input units at different distances, it is possible to correctly perform voice recognition and control the control target device. it can.

【0094】[0094]

【0095】[0095]

【0096】[0096]

【0097】[0097]

【0098】[0098]

【0099】[0099]

【0100】[0100]

【0101】[0101]

【0102】[0102]

【0103】[0103]

【0104】[0104]

【0105】[0105]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明第1の実施形態のシステム構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing a system configuration according to a first embodiment of the present invention.

【図2】システムの配置例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of a system arrangement.

【図3】本発明第2の実施形態のシステム構成を示すブ
ロック図である。
FIG. 3 is a block diagram showing a system configuration according to a second embodiment of the present invention.

【図4】本発明第2の実施形態の模式的な外観を示す構
成図である。
FIG. 4 is a configuration diagram showing a schematic appearance of a second embodiment of the present invention.

【図5】本発明第2の実施形態の処理手順を示すフロー
チャートである。
FIG. 5 is a flowchart illustrating a processing procedure according to a second embodiment of the present invention.

【図6】本発明第3の実施形態のシステム構成を示すブ
ロック図である。
FIG. 6 is a block diagram showing a system configuration according to a third embodiment of the present invention.

【図7】本発明第3の実施形態の処理手順を示すフロー
チャートである。
FIG. 7 is a flowchart illustrating a processing procedure according to a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1、101 マイクロホン 11、102 A/D 13 調停回路 14、103 音声認識用プロセッサ 201 音声認識(制御)用プロセッサ DESCRIPTION OF SYMBOLS 1, 101 Microphone 11, 102 A / D 13 Arbitration circuit 14, 103 Speech recognition processor 201 Speech recognition (control) processor

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G10L 3/00 571C 571H 571K 3/02 301A 301D (56)参考文献 特開 平4−318900(JP,A) 特開 平5−83764(JP,A) 特開 平5−289694(JP,A) 特開 平10−276483(JP,A) 特開 平8−328579(JP,A) 特開 昭59−23397(JP,A) 特開 平10−257583(JP,A) 特開 平10−254494(JP,A) 特開 平2−179700(JP,A) 特開 平8−314489(JP,A) 特開 平8−186654(JP,A) 特開 平7−231668(JP,A) 特開 平7−162989(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 15/00 G10L 15/20 G10L 15/28 G10L 21/02 ────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification code FIG10L 3/00 571C 571H 571K 3/02 301A 301D (56) References JP-A-4-318900 (JP, A) JP-A-5 JP-83764 (JP, A) JP-A-5-289694 (JP, A) JP-A-10-276483 (JP, A) JP-A-8-328579 (JP, A) JP-A-59-23397 (JP, A) JP-A-10-257583 (JP, A) JP-A-10-254494 (JP, A) JP-A-2-179700 (JP, A) JP-A-8-314489 (JP, A) 186654 (JP, A) JP-A-7-231668 (JP, A) JP-A-7-162989 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 15/00 G10L 15 / 20 G10L 15/28 G10L 21/02

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力された音声信号を音声認識手段によ
り音声認識し、音声認識結果に対応する内容の動作を制
御対象機器に実行させる設備制御システムにおいて、 異なった場所からの音声を入力し、音声信号を出力する
複数の音声入力手段と、 当該複数の音声入力手段から出力される音声信号を音声
認識する複数の音声認識手段と、 所定の時間内に複数の音声が重複的に発生した時に、前
記複数の音声に対する前記複数の音声認識手段の音声認
識結果をソーティング処理し、該ソーティング処理によ
り同一の複数の音声認識結果については単一の音声認識
結果として処理して出力する情報処理手段と、 該情報処理手段から出力される音声認識結果に対応する
内容の動作を前記制御対象機器に実行させる制御手段と
を備えたことを特徴とする設備制御システム。
1. An equipment control system for recognizing an input voice signal by voice recognition means and executing an operation having a content corresponding to the voice recognition result on a control target device, wherein voices from different places are input; A plurality of voice input means for outputting a voice signal; a plurality of voice recognition means for recognizing a voice signal output from the plurality of voice input means; An information processing unit that performs a sorting process on the voice recognition results of the plurality of voice recognition units with respect to the plurality of voices, and processes and outputs the same plurality of voice recognition results as a single voice recognition result by the sorting process; And control means for causing the controlled device to execute an operation having a content corresponding to a speech recognition result output from the information processing means. Equipment control system.
JP11874199A 1999-04-26 1999-04-26 Equipment control system Expired - Lifetime JP3357629B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11874199A JP3357629B2 (en) 1999-04-26 1999-04-26 Equipment control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11874199A JP3357629B2 (en) 1999-04-26 1999-04-26 Equipment control system

Publications (2)

Publication Number Publication Date
JP2000310999A JP2000310999A (en) 2000-11-07
JP3357629B2 true JP3357629B2 (en) 2002-12-16

Family

ID=14743925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11874199A Expired - Lifetime JP3357629B2 (en) 1999-04-26 1999-04-26 Equipment control system

Country Status (1)

Country Link
JP (1) JP3357629B2 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3838029B2 (en) * 2000-12-18 2006-10-25 セイコーエプソン株式会社 Device control method using speech recognition and device control system using speech recognition
JP4109414B2 (en) * 2000-12-18 2008-07-02 セイコーエプソン株式会社 Device control method using speech recognition, device control system using speech recognition, and recording medium recording device control program using speech recognition
JP4346571B2 (en) 2005-03-16 2009-10-21 富士通株式会社 Speech recognition system, speech recognition method, and computer program
JP4821489B2 (en) * 2006-08-04 2011-11-24 トヨタ自動車株式会社 Robot apparatus and control method of robot apparatus
JP4821648B2 (en) * 2007-02-23 2011-11-24 パナソニック電工株式会社 Voice controller
US10074367B2 (en) 2014-03-28 2018-09-11 Panasonic Intellectual Property Management Co., Ltd. Voice command input device and voice command input method
US11676608B2 (en) 2021-04-02 2023-06-13 Google Llc Speaker verification using co-location information
US9257120B1 (en) 2014-07-18 2016-02-09 Google Inc. Speaker verification using co-location information
US11942095B2 (en) 2014-07-18 2024-03-26 Google Llc Speaker verification using co-location information
US9424841B2 (en) 2014-10-09 2016-08-23 Google Inc. Hotword detection on multiple devices
US9318107B1 (en) 2014-10-09 2016-04-19 Google Inc. Hotword detection on multiple devices
KR102429260B1 (en) 2015-10-12 2022-08-05 삼성전자주식회사 Apparatus and method for processing control command based on voice agent, agent apparatus
US9972320B2 (en) 2016-08-24 2018-05-15 Google Llc Hotword detection on multiple devices
KR102241970B1 (en) 2016-11-07 2021-04-20 구글 엘엘씨 Suppressing recorded media hotword trigger
JP6810641B2 (en) * 2017-03-14 2021-01-06 シャープ株式会社 Instruction execution device, server, instruction execution system, instruction execution method, and instruction execution program
EP4293661A3 (en) 2017-04-20 2024-02-21 Google LLC Multi-user authentication on a device
US10395650B2 (en) 2017-06-05 2019-08-27 Google Llc Recorded media hotword trigger suppression
US20210080141A1 (en) * 2017-07-14 2021-03-18 Daikin Industries, Ltd. Air conditioner, air-conditioning system, communication system, control system, device control system, device management system, and sound information analysis system
JP2019184679A (en) * 2018-04-03 2019-10-24 シャープ株式会社 Network system, server, and information processing method
JP7133969B2 (en) * 2018-04-27 2022-09-09 シャープ株式会社 Voice input device and remote dialogue system
US10692496B2 (en) 2018-05-22 2020-06-23 Google Llc Hotword suppression
JP7091925B2 (en) * 2018-08-10 2022-06-28 コニカミノルタ株式会社 Image processing equipment and programs

Also Published As

Publication number Publication date
JP2000310999A (en) 2000-11-07

Similar Documents

Publication Publication Date Title
JP3357629B2 (en) Equipment control system
US10304456B2 (en) Voice command input device and voice command input method
JP5419361B2 (en) Voice control system and voice control method
US9571617B2 (en) Controlling mute function on telephone
CN108257616A (en) Interactive detection method and device
Potamitis et al. An integrated system for smart-home control of appliances based on remote speech interaction.
DE69531861D1 (en) VOICE-CONTROLLED VEHICLE ALARM SYSTEM
JP2002311990A (en) Activation method and system of voice-controlled apparatus
EP1494208A1 (en) Method for controlling a speech dialog system and speech dialog system
WO2007138503A1 (en) Method of driving a speech recognition system
WO2020173156A1 (en) Method, device and electronic device for controlling audio playback of multiple loudspeakers
JP2004500750A (en) Hearing aid adjustment method and hearing aid to which this method is applied
KR101874946B1 (en) home network system
JPH11126092A (en) Voice recognition device and on-vehicle voice recognition device
CN109949803B (en) Building service facility control method and system based on semantic instruction intelligent identification
JP7197992B2 (en) Speech recognition device, speech recognition method
JPH01179855A (en) Method of voice control for air conditioner
CN113228167B (en) Voice control method and device
CN102682767B (en) Speech recognition method applied to home network
CN113516975A (en) Intelligent household voice-operated switch system and control method
KR101863098B1 (en) Apparatus and method for speech recognition
WO2021010056A1 (en) Microphone unit
CN113628613A (en) Two-stage user customizable wake word detection
CN115762518A (en) Vehicle external voice interaction system and method and vehicle applying same
CN115662419A (en) Intelligent sound box control method based on voice recognition

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020903

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081004

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081004

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091004

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101004

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101004

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111004

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111004

Year of fee payment: 9

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111004

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111004

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121004

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121004

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131004

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term