JPH02309398A - Illumination control device by voice - Google Patents

Illumination control device by voice

Info

Publication number
JPH02309398A
JPH02309398A JP1131196A JP13119689A JPH02309398A JP H02309398 A JPH02309398 A JP H02309398A JP 1131196 A JP1131196 A JP 1131196A JP 13119689 A JP13119689 A JP 13119689A JP H02309398 A JPH02309398 A JP H02309398A
Authority
JP
Japan
Prior art keywords
voice
input
lighting control
words
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1131196A
Other languages
Japanese (ja)
Inventor
Yoichi Sato
洋一 佐藤
Kazuhiko Okashita
和彦 岡下
Shingo Nishimura
新吾 西村
Masayuki Unno
海野 雅幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sekisui Chemical Co Ltd
Original Assignee
Sekisui Chemical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sekisui Chemical Co Ltd filed Critical Sekisui Chemical Co Ltd
Priority to JP1131196A priority Critical patent/JPH02309398A/en
Publication of JPH02309398A publication Critical patent/JPH02309398A/en
Pending legal-status Critical Current

Links

Landscapes

  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

PURPOSE:To obtain the illumination control device by ordinary voice by using the average frequency characteristics of voice determined by words as the voice input to a neural network in the case of controlling illumination by the above-mentioned voice input. CONSTITUTION:The input voice is passed through a BPF 21 of the n-channel of a voice recognizing circuit 15 via a microphone 11 and an A/D converter 14 and is then average by an averaging circuit 22. This output is inputted to 3 layers of the hierarchical neural network 23. The respective corresponding units of the words to be learned, such as ''turn on'' and ''turn out'' are provided in the output layer 23C and the output thereof is inputted to a decision section 24, by which the words of the voice are recognized. The network to assure a specified recognition rate is built by inputting the words to be learned by changing speaker until the error of the output corresponding to the input converges to a specified level. The control of the lighting, putting out, etc., by ordinary voice is possible according to this method within one sec.

Description

【発明の詳細な説明】 [産業上の利用分腎] 本発明は、人間の入力音声により、照明器具の点灯状態
を制御する、音声による照明制御装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Applications] The present invention relates to an audio lighting control device that controls the lighting state of a lighting fixture using human voice input.

〔従来の技術] 従来、音声による照明制御装置として、特開昭61−2
71781号公報に記載のものが提案されている。
[Prior art] Conventionally, as a lighting control device using audio, there is
The method described in Japanese Patent No. 71781 has been proposed.

特開昭61−271781号公報に記載の照明制御装置
は、誤動作防止のために、■声帯を使用した通常の音声
ではなく、口中の共振摩擦音を音源として用いること、
■制御回路に入力する周波数を5kHz〜8kHzに限
定すること、■上記■、■に基づく音声信号が所定時間
(1秒)継続した時に点灯すること、及び■上記@によ
る点灯の一定時間経過後に消灯することを要旨としてい
る。
In order to prevent malfunctions, the lighting control device described in Japanese Patent Application Laid-open No. 61-271781 uses (1) resonant fricative sounds in the mouth as a sound source instead of normal voices using the vocal cords;
■ Limiting the frequency input to the control circuit to 5kHz to 8kHz, ■ Lighting when the audio signal based on the above ■ and ■ continues for a predetermined period of time (1 second), and ■ After a certain period of lighting according to the above @ has elapsed. The gist is to turn off the lights.

[発明が解決しようとする課M] 然しながら、特開昭61−271781号公報に記載の
照明制御装置には下記■〜■の問題点がある。
[Problem M to be Solved by the Invention] However, the lighting control device described in Japanese Unexamined Patent Publication No. 61-271781 has the following problems (1) to (4).

■話言葉として使われない特殊な周波数領域の音声を必
要としており、特殊な発声方法を必要とする。
■It requires sound in a special frequency range that is not used in spoken language, and requires a special method of vocalization.

■上記■の領域の音であって、所定時間(1秒)以上続
く全ての音〈例えば、連続的に物を叩く音)に反応して
しまう。
(2) It reacts to all sounds in the above (2) range that last longer than a predetermined time (1 second) (for example, the sound of continuous hitting on something).

■点灯後、一定時間経過しない限り、消灯したくとも消
灯てきない。
■Even if you want to turn off the light, it will not turn off unless a certain period of time has passed after it was turned on.

本発明は、特殊な発声を所定時間以上続けることなく、
通常の音声から高い認識率で照明制御指令を認識し、点
灯、消灯、或いは調光を実時間処理できる照明制御装置
を得ることを目的とする。
The present invention allows the user to make a special utterance without continuing for more than a predetermined time.
It is an object of the present invention to provide a lighting control device that can recognize lighting control commands from normal speech with a high recognition rate and can process turning on, turning off, or dimming in real time.

[課題を解決するための手段] 請求項1に記載の本発明は、ニューラルネ・ントワーク
を用いて入力音声から照明制御指令を認識し、該照明制
御指令に基づいて照明器具の点灯状態を制御する、音声
による照明制御装置であって、ニューラルネットワーク
への入力として、単語で決定される音声の平均的な周波
数特性を用いるようにしだものである。
[Means for Solving the Problems] The present invention according to claim 1 recognizes a lighting control command from an input voice using a neural network, and controls the lighting state of a lighting fixture based on the lighting control command. This is a voice-based lighting control device that uses the average frequency characteristics of voices determined by words as input to a neural network.

3i’l求項2に記載の本発明は、前記ニューラルネッ
トワークか階層的なニューラルネットワークであるよう
にしたものである。
3i'l The present invention described in claim 2 is such that the neural network is a hierarchical neural network.

[作用] 請求項1に記載の本発明によれば、下記■〜■の作用効
果かある。
[Action] According to the present invention as set forth in claim 1, there are the following effects (1) to (2).

■ニューラルネットワークを用いて入力音声から照明制
御指令を認識するようにしたから、特殊な発声を所定時
間以上続けることなく、通常の音声から、入力された照
明制御指令を認識てきる。
■Since the lighting control command is recognized from the input voice using a neural network, the input lighting control command can be recognized from the normal voice without having to continue special utterance for more than a predetermined time.

■照明制御指令のための入力音声として1点灯指令のた
めの「チンドウ」或いは消灯指令のための「ショウトウ
j等の単語を定めることにより、点灯、或いは消灯等の
各種制御を行なうことかできる。従って、調光の制御も
行なえる。
(1) Various controls such as turning on or off the lights can be performed by defining words such as ``chindo'' for a lighting command or ``shotoj'' for a lights-off command as the input voice for the lighting control command. Therefore, dimming can also be controlled.

■経時的な認識率の劣化からめて少ない。このことは、
ニューラルネットワークが音声の時期差による変動の影
響を受けにくい構造をとることか可能なためと推定され
る。
■It is relatively low due to the deterioration of recognition rate over time. This means that
It is presumed that this is because it is possible for the neural network to adopt a structure that is less susceptible to fluctuations due to differences in speech timing.

■ニューラルネットワークへの人力として、「単語で決
定される音声の平均的な周波数特性Jを用いたから、入
力を得るための前処理が単純となり、この前処理に要す
る時間が短くて足りる。
■As a human resource for the neural network, ``Since we use the average frequency characteristic J of speech determined by words, the preprocessing to obtain input is simple, and the time required for this preprocessing is short.

■ニューラルネットワークは、原理的に、ネ・ソトワー
ク全体の演算処理が単純且つ迅速である。
■Neural networks are, in principle, capable of simple and quick arithmetic processing of the entire network.

■ニューラルネットワークは、原理的に、それを構成し
ている各ユニットが独立に動作しており、並列的な演算
処理か可能である。従って、演算処理か迅速である。
■In principle, each unit that makes up a neural network operates independently, and parallel arithmetic processing is possible. Therefore, calculation processing is quick.

■上記■〜■により、照明制御指令の認識処理を複雑な
処理装置によることなく容易に実時間処理できる。
(2) According to (1) to (2) above, the recognition process of lighting control commands can be easily processed in real time without using a complicated processing device.

又、請求項2に記載の本発明によれば上記■〜■の作用
効果に加えて、以下の■の作用効果かある。
Further, according to the present invention as set forth in claim 2, in addition to the effects (1) to (2) above, there is also the following effect (2).

0階層的なニューラルネットワークにあっては、現在、
後述する如くの簡単な学習アルゴリズム(ハックプロパ
ゲーション)が確立されており、高い認識率を実現てき
るニューラルネットワークを容易に形成てきる。
Currently, in a zero-layer neural network,
A simple learning algorithm (hack propagation) as described below has been established, and it is possible to easily create a neural network that achieves a high recognition rate.

[実施例コ 第1図は本発明の一実施例に係る照明制御装置を示すソ
ロツク図、第2図は音声認識回路の一例を示すブロック
図、第3図はニューラルネ・ソトワークを示す模式図、
第4図は階層的なニューラルネットワークを示す模式図
、第5図はユニ・ントの構造を示す模式図である。
[Embodiment] Fig. 1 is a diagram showing a lighting control device according to an embodiment of the present invention, Fig. 2 is a block diagram showing an example of a voice recognition circuit, and Fig. 3 is a schematic diagram showing a neural network system. ,
FIG. 4 is a schematic diagram showing a hierarchical neural network, and FIG. 5 is a schematic diagram showing the structure of a unit.

本発明の具体的実施例の説明に先立ち、ニューラルネッ
トワークの構成、学習アルゴリズムについて説明する。
Prior to describing specific embodiments of the present invention, the configuration of the neural network and the learning algorithm will be described.

(1)ニューラルネットワークは、その構造から、第3
図(A)に示す階層的ネットワークと第3図(B)に示
す相互結合ネットワークの2種に大別できる。本発明は
、両ネットワークのいずれを用いて構成するものてあっ
ても良いか、階層的ネ・ソトワークは後述する如くの簡
単な学習アルゴリズムか確立されているためより有用で
ある。
(1) Due to its structure, neural networks are
It can be roughly divided into two types: a hierarchical network shown in FIG. 3(A) and an interconnected network shown in FIG. 3(B). Although the present invention may be constructed using either of these networks, the hierarchical network is more useful because a simple learning algorithm as described below has been established.

(2)ネットワークの構造 階層的ネットワークは、第4図に示す如く、入力層、中
間層、出力層からなる階層構造をとる。
(2) Network Structure A hierarchical network has a hierarchical structure consisting of an input layer, an intermediate layer, and an output layer, as shown in FIG.

各層は1以上のユニットから構成される。結合は、人力
層→中間層→出力層という前向きの結合たけて、各層内
ての結合はない。
Each layer is composed of one or more units. The connections are forward-looking, from the human power layer to the middle layer to the output layer, and there are no connections within each layer.

(3)ユニットの構造 ユニットは第5図に示す如く脳のニューロンのモデル化
であり構造は簡単である。他のユニットから入力を受け
、その総和をとり一定の規則(変換関数)て変換し、結
果を出力する。他のユニットとの結合には、それぞれ結
合の強さを表わす可変の重みを付ける。
(3) Structure of the unit The unit is a model of a neuron in the brain and has a simple structure as shown in FIG. It receives input from other units, sums it up, transforms it using a certain rule (conversion function), and outputs the result. Each connection with another unit is given a variable weight that represents the strength of the connection.

(4)学習(ハックプロパゲーション)ネットワークの
学習とは、実際の出力を目標値C望ましい出力)に近づ
けることであり、一般的には第5図に示した各ユニット
の変換関数及び重みを変化させて学習を行なう。
(4) Learning (Hack propagation) Learning of a network is to bring the actual output closer to the target value C (desired output), and generally changes the conversion function and weight of each unit shown in Figure 5. Let them learn.

又、学習のアルゴリズムとしては、例えば、Rumel
hart、 D、E、、McClelland、 J、
L、 and thaPDP Re5earch Gr
oup、 PARALLEL DISTRIBIJTE
DPROCESSING、 the !IIIT Pr
ess、 1986;に記載されているパックプロパゲ
ーションを用いることができる。
Further, as a learning algorithm, for example, Rumel
hart, D.E., McClelland, J.
L, and thaPDP Re5earch Gr.
oup, PARALLEL DISTRIBIJTE
DPROCESSING, the! IIIT Pr
Pack propagation can be used as described in J. ess, 1986;

以下、本発明の具体的な実施例について説明する。Hereinafter, specific examples of the present invention will be described.

照明制御装置10は、第1図に示す如く、マイク11と
、マイクアンプ12と、ローパスフィルタ13と、A/
D変換器14と、音声認識回路15と、照明制御部16
とを有して構成され、照明器具17を制御する。
As shown in FIG. 1, the lighting control device 10 includes a microphone 11, a microphone amplifier 12, a low-pass filter 13, and an A/
D converter 14, voice recognition circuit 15, and lighting control section 16
and controls the lighting equipment 17.

ここて、音声認識回路15は、マイク11、マイクアン
プ12、ローパスフィルタ13、及びA/D変換器14
を経て入力される入力音声から照明制御指令を認識し、
該照明制御指令に基づき、照明制御部16を介して、照
明器具17の点灯状I5を制御する。
Here, the voice recognition circuit 15 includes a microphone 11, a microphone amplifier 12, a low-pass filter 13, and an A/D converter 14.
Recognizes lighting control commands from input audio input via
Based on the lighting control command, the lighting state I5 of the lighting fixture 17 is controlled via the lighting control unit 16.

この時、音声認識回路15は、nチャンネルのバントパ
スフィルタ21、平均化回路22、ニューラルネットワ
ーク23、判定部24の結合にて構成される(第2図参
照)。
At this time, the speech recognition circuit 15 is constituted by a combination of an n-channel bandpass filter 21, an averaging circuit 22, a neural network 23, and a determining section 24 (see FIG. 2).

(A)学習単語を「チンドウ」、「ショウトウ」、「マ
ドオープン」、「マドクローズ」、「フロ」、「カギ」
、及び「オヤスミナサイ」の7単語とし、照明制御指令
のための入力単語を「チンドウ」、及び「ショウ1〜つ
」の2単話とした。
(A) Learn the words "chindo", "shoto", "mado open", "mado close", "flo", "kagi"
, and "Oyasuminasai", and the input words for the lighting control command were two single words, "chindo" and "sho 1 ~ tsu".

(B)前処理 ■マイク11で検出されA/D変換器14てA/D変換
された入力音声(学習のための7単語のそれぞれ、及び
照明制御指令のための2単語のそれぞれ)を、第2図に
示す如く、複数(n個)(この実施例ではn=8)チャ
ンネルのバンドパスフィルタ21に通ず。
(B) Preprocessing ■ Input audio detected by the microphone 11 and A/D converted by the A/D converter 14 (each of the 7 words for learning and 2 words for the lighting control command), As shown in FIG. 2, it passes through a bandpass filter 21 having a plurality of (n) channels (n=8 in this embodiment).

この時、バントパスフィルタ21の出力は各ブロック毎
に平均化回路22て平均化される。
At this time, the output of the band pass filter 21 is averaged by the averaging circuit 22 for each block.

(C)ニューラルネットワークによる処理及び・判定 ■前処理の結果(バントパスフィルタ21の出力)を、
第2図に示す如く、3層の階層的なニューラルネットワ
ーク23に入力する。人力層23Aは、前処理のnチャ
ンネルに対応するnユニット(この実施例ではn=8.
8ユニツト)にて構成される。出カフ123 Cは、7
単語のそれぞれに対応するユニットを設け、全体を7ユ
ニツトにて構成される。
(C) Processing and judgment by neural network ■Preprocessing results (output of band pass filter 21)
As shown in FIG. 2, the input signal is input to a three-layer hierarchical neural network 23. The human power layer 23A has n units (n=8 in this embodiment) corresponding to n channels of preprocessing.
It consists of 8 units). Out cuff 123 C is 7
A unit corresponding to each word is provided, and the whole is composed of 7 units.

■ニューラルネットワーク23の出力を判定部24に入
力し、今回人力音声の単語を認識する。
- The output of the neural network 23 is input to the determination unit 24, and the words of the human voice are recognized this time.

■前述した学習アルゴリズムのハックプロパゲーション
により、入力に対する出力のエラーか一定レベルに収束
するまて3人の話者により各1,000回(各話者が交
互に1回づつ、各1,000回入力するものとし、各話
者の各1回の入力にて前述の7単語全てを発声するもの
とする)学習させ、一定認識率を保証し得るネットワー
クを構築する。尚、出力としては、各登録単語に対応し
たユニットか「1」、その他の単語に対応したユニット
か「0」となるように学習した。
■Using the hack propagation of the learning algorithm described above, three speakers each performed 1,000 times (each speaker took turns once, each 1,000 times) until the output error for input converged to a certain level. (assuming that each speaker utters all seven words in one input), and constructs a network that can guarantee a constant recognition rate. The output was learned to be "1" for units corresponding to each registered word, and "0" for units corresponding to other words.

(D)実験 上記照明制御装置10において、音声認識回路15のf
=lI定部24により照明制御指令を認、識し、その認
識結果を転送された照明制御部16により照明器具17
を点灯/消灯制御した。
(D) Experiment In the lighting control device 10 described above, f of the voice recognition circuit 15
=I The lighting control command is recognized and understood by the II fixed part 24, and the lighting equipment 17 is controlled by the lighting control part 16 to which the recognition result is transferred.
The lights were turned on/off.

入力音声は、パックプロパゲーションにより学習した7
単語のうちの2単語である、点灯制御指令のための2単
語「チンドウ」、及び「ショウトウ」である。
The input speech was learned using pack propagation.
Two of the words are two words for lighting control commands, "chindo" and "shouto."

(a)認識率 結果、認識率は99%以上であることが認められた。(a) Recognition rate As a result, the recognition rate was found to be 99% or higher.

尚、サンプル数は5.000回[(200回/人)×(
25人)コである。
The number of samples is 5,000 times [(200 times/person) × (
25 people).

(b)認識処理速度 又、認識処理速度(1単語の発声に対する認識に要した
時間)は1秒以内であり、極めて迅速処理てきることが
認められた。
(b) Recognition processing speed Also, the recognition processing speed (the time required to recognize one word uttered) was within 1 second, indicating extremely rapid processing.

即ち、上記照明制御装置10にあっては、上記(a)の
結果か示すように、特殊な発声を所定時間以上続けるこ
となく、通常の音声から高い認識率て照明制御指令を認
識し、照明器具17を点灯/消灯制御てきる。
That is, as shown in the result (a) above, the lighting control device 10 recognizes the lighting control command from normal speech with a high recognition rate without continuing special utterances for more than a predetermined period of time, and recognizes the lighting control command from the normal voice. The lighting/extinguishing of the fixture 17 can be controlled.

又、上記照明制御装置10にあっては、上記(b)の結
果が示すように照明制御指令の認識処理を複雑な処理装
置によることなく迅速処理でき、容易に実時間処理てき
る。
Further, in the lighting control device 10, as shown in the result (b) above, the recognition processing of lighting control commands can be quickly processed without using a complicated processing device, and can be easily processed in real time.

[発明の効果] 以上のように本発明によれば、特殊な発声を所定時間以
上続けることなく、通常の音声から高い認識率で照明制
御指令を認識し、点灯、消灯、或いは調光を実時間処理
てきる照明制御装置を得ることかできる。
[Effects of the Invention] As described above, according to the present invention, a lighting control command can be recognized from normal speech with a high recognition rate, and the lighting control command can be turned on, turned off, or dimmed without continuing a special utterance for more than a predetermined time. You can get a lighting control device that can handle time.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例に係る照明制御装置を示すブ
ロック図、第2図は音声認識回路の−・例を示すブロッ
ク図、第3図はニューラルネットワークを示す模式図、
第4図は階層的なニューラルネットワークを示す模式図
、第5図はユニットの構造を示す模式図である。 10・・・照明制御装置、 15・・・音声認識回路、 16・・・照明制御部、 17・・・照明器具、 21・・・バンドパスフィルタ、 22・・・平均化回路、 23・・・ニューラルネットワーク、 24・・・判定部。 特許出願人 積水化学工業株式会社 代表者  廣1)馨 第1図 第2図 第3図 第4図 出カバターン 第5図
FIG. 1 is a block diagram showing a lighting control device according to an embodiment of the present invention, FIG. 2 is a block diagram showing an example of a voice recognition circuit, and FIG. 3 is a schematic diagram showing a neural network.
FIG. 4 is a schematic diagram showing a hierarchical neural network, and FIG. 5 is a schematic diagram showing the structure of a unit. DESCRIPTION OF SYMBOLS 10... Lighting control device, 15... Voice recognition circuit, 16... Lighting control unit, 17... Lighting fixture, 21... Band pass filter, 22... Averaging circuit, 23... - Neural network, 24...determination section. Patent applicant: Sekisui Chemical Co., Ltd. Representative Hiroshi 1) Kaoru Figure 1 Figure 2 Figure 3 Figure 4 Output cover turn Figure 5

Claims (2)

【特許請求の範囲】[Claims] (1)ニューラルネットワークを用いて入力音声から照
明制御指令を認識し、該照明制御指令に基づいて照明器
具の点灯状態を制御する、音声による照明制御装置であ
って、ニューラルネットワークへの入力として、単語で
決定される音声の平均的な周波数特性を用いる音声によ
る照明制御装置。
(1) A voice-based lighting control device that recognizes a lighting control command from an input voice using a neural network and controls the lighting state of a lighting fixture based on the lighting control command, and as an input to the neural network, A voice-based lighting control device that uses the average frequency characteristics of voices determined by words.
(2)前記ニューラルネットワークが階層的なニューラ
ルネットワークである請求項1記載の音声による照明制
御装置。
(2) The audio lighting control device according to claim 1, wherein the neural network is a hierarchical neural network.
JP1131196A 1989-05-24 1989-05-24 Illumination control device by voice Pending JPH02309398A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1131196A JPH02309398A (en) 1989-05-24 1989-05-24 Illumination control device by voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1131196A JPH02309398A (en) 1989-05-24 1989-05-24 Illumination control device by voice

Publications (1)

Publication Number Publication Date
JPH02309398A true JPH02309398A (en) 1990-12-25

Family

ID=15052275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1131196A Pending JPH02309398A (en) 1989-05-24 1989-05-24 Illumination control device by voice

Country Status (1)

Country Link
JP (1) JPH02309398A (en)

Similar Documents

Publication Publication Date Title
JP4456537B2 (en) Information transmission device
US5212821A (en) Machine-based learning system
US11551685B2 (en) Device-directed utterance detection
Rosen et al. Automatic speech recognition and a review of its functioning with dysarthric speech
US5278911A (en) Speech recognition using a neural net
JPH02298998A (en) Voice recognition equipment and method thereof
JPH0540497A (en) Speaker adaptive voice recognizing device
JPH02309399A (en) Illumination control device by voice
JPH02309398A (en) Illumination control device by voice
Shechtman et al. Controllable sequence-to-sequence neural TTS with LPCNET backend for real-time speech synthesis on CPU
KR20210000802A (en) Artificial intelligence voice recognition processing method and system
Selouani et al. Recognition of Arabic phonetic features using neural networks and knowledge-based system: a comparative study
JPH0315898A (en) Method of recognizing voice
Unluturk Speech Command Based Intelligent Control of Multiple Home Devices for Physically Handicapped
JPH04219798A (en) Speaker adaptive voice recognizing method and device
KR102116014B1 (en) voice imitation system using recognition engine and TTS engine
Sarma et al. Speech processing technology: basic consideration
JPH03276199A (en) Speaker recognizing system
Jawarkar Emotion recognition using prosody features and a fuzzy min-max neural classifier
JPH05313689A (en) Speaker recognition system
JPH02254500A (en) Vocalization speed estimating device
Yao Machine Learning Algorithms for Speech Emotion Classification
Agarwalla et al. Composite feature set for mood recognition in dialectal assamese speech
JPS6245560B2 (en)
JPH03157697A (en) Word recognizing system