JPH02173732A - Controller for flashing device - Google Patents

Controller for flashing device

Info

Publication number
JPH02173732A
JPH02173732A JP63329883A JP32988388A JPH02173732A JP H02173732 A JPH02173732 A JP H02173732A JP 63329883 A JP63329883 A JP 63329883A JP 32988388 A JP32988388 A JP 32988388A JP H02173732 A JPH02173732 A JP H02173732A
Authority
JP
Japan
Prior art keywords
output
angle
layer
learning
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63329883A
Other languages
Japanese (ja)
Inventor
Shinichi Kodama
児玉 晋一
Masabumi Yamazaki
正文 山崎
Toshiyuki Toyofuku
敏之 豊福
Junichi Ito
順一 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP63329883A priority Critical patent/JPH02173732A/en
Publication of JPH02173732A publication Critical patent/JPH02173732A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)

Abstract

PURPOSE:To automatize a flashing device by controlling the angle and the light quantity of the flashing part of the flashing device and the irradiation angle in accordance with output from an output layer of a neurone computer. CONSTITUTION:The output from plural photoelectric conversion elements 102 for image and a photodetector 106 for detecting a distance is inputted in an input layer consisting of plural units which constitute the neurone computer 109. The output from each unit of the input layer is inputted in an intermediate layer consisting of plural units which are bonded with specified bonding strength obtained by previous learning. The output from each unit of the intermediate layer is inputted in the output layer consisting of plural units bonded with the specified bonding strength obtained by previous learning. The output from the output layer is taken as the correction information outputted from the neurone computer 109 so as to correct the angle and the light quantity of the flashing part and the irradiation angle which are automatically set by the flashing device in accordance with the information from a camera such as ISO sensitivity, focal distance and stop, etc. Thus, the irradiation angle and the angle and the light quantity of the flashing part are accurately controlled to be optimum value at high speed.

Description

【発明の詳細な説明】 [産業上の利用分!Ff] 本発明は、カメラに装着されて閃光撮影を行なう閃光装
置において、閃光部の角度、光量、照射角を最適値に制
御する閃光装置の制御装置に関する。
[Detailed description of the invention] [Industrial use! Ff] The present invention relates to a control device for a flash device that controls the angle, light amount, and irradiation angle of a flash unit to optimal values in a flash device that is attached to a camera to perform flash photography.

[従来の技術〕 従来、閃光装置(ストロボ)を用いた閃光撮影の自動化
が進み、「レンズの焦点距離」と「被写体までの距離」
の片方又は両方の情報を得て、常に画角全体を照射する
ように照射角を調整して画いる。
[Conventional technology] In the past, flash photography using flash devices (strobes) has been automated, and the focus has been on the "focal length of the lens" and "distance to the subject."
Obtain information on one or both of these and adjust the illumination angle so that the entire field of view is illuminated at all times.

しかし、常に画面全体にストロボ光を照射する必要はな
く、部分的に照射するのみで良い場合もある。かかる場
合に画面全体にストロボ光を照射するのはエネルギーの
無駄である。また、積極的に部分的照射を望む場合もあ
る。
However, it is not always necessary to irradiate the entire screen with strobe light, and it may be sufficient to irradiate only a portion of the screen. In such a case, it is a waste of energy to irradiate the entire screen with strobe light. There are also cases where partial irradiation is actively desired.

閃光部の角度変更はバララックスの補正以外にバウンズ
効果を得たい時に特に必要となるが、この場合は画角以
外の画像情報とユーザの勘とに頼っているのが現状であ
る。
Changing the angle of the flash section is especially necessary when you want to obtain a bounce effect in addition to correcting vararax, but in this case, the current situation is that it relies on image information other than the angle of view and the user's intuition.

また、光量の制御は、ストロボ側では発光曲線を変える
などの制御は行わず、カメラ側から供給される信号に従
って制御するようになっているが、近距離などでは制御
範囲を逸脱することが発生する。そこで、ユーザが拡散
板などを用いて光量を減す等の処置を行って使用してい
るのが現状である。
In addition, the light amount is controlled according to the signal supplied from the camera side without changing the light emission curve on the strobe side, but it may deviate from the control range at short distances etc. do. Therefore, the current situation is that users use a diffuser plate or the like to reduce the amount of light.

[発明が解決しようとする課MB] このように閃光撮影は、人間の勘に頼っている所が非常
に多く残されており、これらを定式化するのは困難であ
る。したがって、現在のノイマン型のマイクロコンピュ
タダを用いて上記閃光制御をパターン化により自動化し
ようとすると膨大なパターン数になり、これにつれてプ
ログラム及び処理時間が共に膨大になり、高速処理が要
求される閃光制御にノマン型のマイクロコンピュタは適
せず、自動化の障害になっているという問題点があった
[Question MB that the invention seeks to solve] As described above, flash photography still relies on human intuition in many areas, and it is difficult to formulate these. Therefore, if we attempt to automate the above flash control by patterning using current Neumann-type microcomputers, the number of patterns will be enormous, and the program and processing time will also be enormous. The problem was that Norman-type microcomputers were not suitable for control, and were an obstacle to automation.

本発明は、上記問題点を解消するためになされたもので
、人間の勘に頼らずに、正確かつ高速に照射角、閃光部
の角度、光量を最適値に制御することのできる閃光装置
の制御装置を提供することを目的とする。
The present invention has been made to solve the above problems, and is a flash device that can accurately and quickly control the irradiation angle, the angle of the flash section, and the amount of light to optimal values without relying on human intuition. The purpose is to provide a control device.

[課題を解決するための手段] 本発明の閃光装置の制御装置は、段数の画像用光電変換
素子と、この画像用光電変換素子上に被写体とその背景
とを結像させる光学装置と、段数の距離検出用投光素子
と、この距離検出用投光素子の信号を受ける段数の受光
素子と、上記段数の光電変換素子及び上記複数の受光素
子の各出力が入力される、段数のユニットから成る入力
層と、この入力層の各ユニットと所定の結合の強さで相
互に結合された複数のユニットから成る中間層と、この
中間層の各ユニットと所定の結合の強さで相互に結合さ
れた段数のユニットから成る出力層とにより成るニュー
ロンコンピュータと、このニューロンコンピュータの上
記出力層からの出力に応じて閃光装置の閃光部の角度、
光量、照射角を制御する制御手段とを具備することを特
徴とする。
[Means for Solving the Problems] A control device for a flash device of the present invention includes a number of stages of image photoelectric conversion elements, an optical device for forming an image of a subject and its background on the image photoelectric conversion elements, and a number of stages of image photoelectric conversion elements. a distance detection light emitting element, a number of stages of light receiving elements that receive the signal of this distance detection light projecting element, and a number of stages of units into which the outputs of the above number of stages of photoelectric conversion elements and the plurality of light receiving elements are inputted. an input layer consisting of an input layer, an intermediate layer consisting of a plurality of units that are mutually coupled with each unit of this input layer with a predetermined coupling strength, and a plurality of units that are mutually coupled with each unit of this intermediate layer with a predetermined coupling strength. a neuron computer comprising an output layer consisting of units with a number of stages, and an angle of the flash section of the flash device according to the output from the output layer of the neuron computer;
It is characterized by comprising a control means for controlling the amount of light and the angle of illumination.

[作用] この発明は、複数の画像用光電変換素子及び距離検出用
受光素子の出力を、ニューロンコンピュータを構成する
複数のユニットからなる入力層に入力し、この入力層の
各ユニットの出力は、予め学習することにより得られる
所定の結合の強さで結合された複数のユニットよりなる
中間層に入力され、この中間層の各ユニットの出力は、
予め学習することにより得られる所定の結合の強さで結
合された181のユニットよりなる出力層に入力され、
この出力層の出力を、ニューロンコンピュータが出力す
る補正情報として、ISO感度、焦点距離、絞り等のカ
メラからの情報に従って閃光装置が自動設定する閃光部
の角度、光ユ、照射角を補正することにより閃光装置を
最適に制御するものである。
[Operation] According to the present invention, the outputs of a plurality of image photoelectric conversion elements and a distance detection light receiving element are input to an input layer consisting of a plurality of units constituting a neuron computer, and the output of each unit of this input layer is as follows. The input is input to a middle layer consisting of a plurality of units connected with a predetermined connection strength obtained by prior learning, and the output of each unit of this middle layer is
input to an output layer consisting of 181 units connected with a predetermined connection strength obtained by prior learning,
The output of this output layer is used as correction information output by the neuron computer to correct the angle, light intensity, and irradiation angle of the flash unit that is automatically set by the flash device according to information from the camera such as ISO sensitivity, focal length, and aperture. This allows the flash device to be optimally controlled.

[実施例] 第1図は本発明に係る閃光装置(ストロボ)の制御装置
の一例を示すブロック図である。
[Embodiment] FIG. 1 is a block diagram showing an example of a control device for a flash device (strobe) according to the present invention.

図において、光学装置としての広角レンズ101は、画
像用光電変換素子としてのカラーエリアセンサ1021
−にレンズ画角より広い範囲の画像を結像させるもので
ある。カラーエリアセンサ102は、」二足広角レンズ
101により結像された画像を光電変換することにより
画像の明暗信号及び色信号を取り出すものである。この
カラーエリアセンサ102の出力はA/D変換器107
に0(給されるようになっている。A/D変換器107
は、上記カラーエリアセンサ102から出力されるアナ
ログ信号としての明暗信号及び色信号をデジタル信号に
変換するものである。このA/D変換器107の出力は
ニューロンコンピュータ109(詳細は後述する)に供
給されるようになっている。また、ニューロンコンピュ
ータ109の出力は制御手段としてのメインCPUI 
11に供給されるようになっている。このメインCPU
I 11は、閃光装置の全体の制御を司るものである。
In the figure, a wide-angle lens 101 as an optical device is a color area sensor 1021 as an image photoelectric conversion element.
- forms an image in a wider range than the angle of view of the lens. The color area sensor 102 extracts brightness signals and color signals of the image by photoelectrically converting the image formed by the biped wide-angle lens 101. The output of this color area sensor 102 is sent to an A/D converter 107.
A/D converter 107
The converter converts the contrast signal and color signal as analog signals outputted from the color area sensor 102 into digital signals. The output of this A/D converter 107 is supplied to a neuron computer 109 (details will be described later). Further, the output of the neuron computer 109 is controlled by the main CPU as a control means.
11. This main CPU
I11 is in charge of overall control of the flash device.

距離検出用投光素子としての赤外線発光ダイオード(以
下、I REDと記す)103は、メインCPUI 1
1からの発光タイミング信号に従って赤外線を発光する
ものであり、このIRED103から発せられた赤外線
は、広角レンズ104により、カラーエリアセンサ10
2の画像の範囲まで広げられるようになっている。
An infrared light emitting diode (hereinafter referred to as IRED) 103 as a distance detection light emitting element is connected to the main CPU 1.
The infrared rays emitted from this IRED 103 are transmitted to the color area sensor 10 by a wide-angle lens 104.
It can be expanded to the range of 2 images.

広角レンズ105は、IRED103から発せられた光
線を全て受光素子としての位置検出素子(以下、PSD
アレイと記す)106上に結像させるものである。この
PSDアレイ106は、上記広角レンズ105により導
かれた光線を光電変換することにより被写体までの距離
信号を取り出すものである。このPSDアレイ106の
出力はA/D変換S 108に供給されるようになって
いる。A/D変換器108は、上記PSDアレイ106
から出力されるアナログ信号としての距離信号をデジタ
ル信号に変換するものである。このA/D変換器108
の出力もニューロンコンピュタ109に供給されるよう
になっている。
The wide-angle lens 105 receives all the light beams emitted from the IRED 103 using a position detection element (hereinafter referred to as PSD) as a light receiving element.
(referred to as an array) 106. This PSD array 106 extracts a distance signal to the subject by photoelectrically converting the light beam guided by the wide-angle lens 105. The output of this PSD array 106 is supplied to an A/D converter S108. The A/D converter 108 is connected to the PSD array 106.
This converts a distance signal as an analog signal output from a digital signal into a digital signal. This A/D converter 108
The output of is also supplied to the neuron computer 109.

また、上記メインCPUI 11には、ストロボに備え
られたスイッチ群(SW群)112、表示素子113、
照射角変更及び閃光部の角度変更を兼用するモータ11
4、及び光量変更用の充電コンデンサ容量切り替えスイ
ッチ(以下、コンデンサSWと記す)が接続されるよう
になっている。さらに、メインCPUI 11は、カメ
ラ本体150とも接続されるようになっている。
The main CPU 11 also includes a switch group (SW group) 112 provided in the strobe, a display element 113,
Motor 11 that serves both to change the irradiation angle and to change the angle of the flash section
4, and a charging capacitor capacity changeover switch (hereinafter referred to as capacitor SW) for changing the amount of light. Furthermore, the main CPU 11 is also connected to the camera body 150.

また、」二4己ニューロンコンピュータ1091こは、
学習記憶部110が接続されるようになっている。
Also, "24 Self Neuron Computer 1091"
A learning storage unit 110 is connected.

この学習記憶部110は、学習記憶部110のWJlの
設定装置により所定の情報が記憶されるものである。詳
細については後述する。
The learning storage section 110 stores predetermined information by the WJl setting device of the learning storage section 110. Details will be described later.

次に、上述したニューロンコンピュータ109について
詳細に説明する。第2図にニューロンコンピュータ(以
下NCと記す)のモデルを示す。
Next, the neuron computer 109 mentioned above will be explained in detail. FIG. 2 shows a model of a neuron computer (hereinafter referred to as NC).

このモデルはルメルハルト(Ru*olhart)等に
よってP1!案されたもので、パックプロパゲーション
(Back Propagation)モデル(以下、
BPモデルと略す)と呼ばれる。ニューロコンピュータ
は多数のユニットにニューロン)からなり、ユニットは
入力層、中間層、出力層に分類されている。各ユニット
は入力層−中間層→出力層の方向に接続され、ネットワ
ークにコーラルネット)を形成する。各ユニットの結合
の強さは学習により決定される。ただし、各層内でのユ
ニット相互の接続はない。各ユニットのモデルを第3図
に示す。
This model was developed by Ru*olhart and others as P1! This is a proposed model called the Back Propagation model (hereinafter referred to as
It is called the BP model (abbreviated as BP model). A neurocomputer consists of many units (neurons), and the units are classified into input layer, intermediate layer, and output layer. Each unit is connected in the direction of input layer - middle layer -> output layer, forming a network (coral net). The strength of the connections between each unit is determined by learning. However, there is no mutual connection between units within each layer. Figure 3 shows the model of each unit.

次に、このBPモデルの学習アルゴリズムの原理を説明
する。あるパターンPを入力層に与えた時、出力層に現
われる実際の出力値をO、とじ、1)J その時の望ましい出力値(以下、教師信号という)を【
 とすると、両者の差E 、は次のように表わpJ  
                     pJされ
る。
Next, the principle of this BP model learning algorithm will be explained. When a certain pattern P is given to the input layer, the actual output value appearing in the output layer is O, and 1) J is the desired output value at that time (hereinafter referred to as the teacher signal).
Then, the difference E between the two is expressed as follows, pJ
PJ is done.

E  、−1/2 (t  、−〇  、  )   
   ・・・ (1)1)J       pJ   
pJ 学習させるには、この誤差E 、を減少させるよpJ うに、全てのユニットの結合の強さを変えればよい。
E, -1/2 (t, -〇, )
... (1)1) J pJ
In order to learn pJ, it is sufficient to change the strength of connections between all units so as to reduce this error E, pJ.

パターンPを与えたときの(K−1)層のi番目のユニ
ットからに層の1番目のユニットに対する結合の強さW
jlの変化量を次のように定義する。
When the pattern P is given, the strength of the bond W from the i-th unit of the (K-1) layer to the first unit of the layer
The amount of change in jl is defined as follows.

ここで、lくは出力層を0として、入力層になるにつれ
て増える。
Here, l is set to 0 at the output layer and increases as the input layer approaches.

(anet  、に/aW、 K)     −(3)
pJ        Ji る。
(anet, ni/aW, K) -(3)
pJ Jiru.

また、fをシグモイド(Slgmold)関数として、
K         K O−f(net   )と表わすと、(3)式%式% は次のように変形される。シグモイド関数を第4図に示
す。
Also, if f is a sigmoid (Slgmold) function,
When expressed as K K O-f(net), the formula (3) is transformed as follows. The sigmoid function is shown in FIG.

K         K       K+19E、/
FaW、   −一δ 、   −0−(4)1)J 
     J I        9J      u
lここで、δ  は第に層における誤差の後向きj 伝播量であり、δ 、  −−9E  、/anet 
 、KpJ            pJ      
      pJである。従って、(2)式は次のよう
に変型される。ここで、ηは定数である。
K K K+19E, /
FaW, -1δ, -0-(4)1)J
J I 9 J u
l where δ is the amount of backward propagation of the error in the layer, and δ , −−9E , /anet
, KpJ pJ
It is pJ. Therefore, equation (2) is transformed as follows. Here, η is a constant.

K      K    K+1 Δ pW、      −η  壷  δ   、  
  −O・・・   (5)Ji      pJpi 0、)  、O,=f(net  、)なので、pJ 
          I)J            
   I)J出力層の後向き伝播量δ  は、次のよう
になる。
K K K+1 Δ pW, -η pot δ,
-O... (5)Ji pJpi 0,) ,O,=f(net,), so pJ
I)J
I) The backward propagation amount δ of the J output layer is as follows.

j δ 、O pJ δ 、K = 1)J aEp/19net  、K pJ (ao   /anet、K pi           f)J 月 f ′ (net、K pJ ・・・ (6) 中間ユニットの場合は、各層内でのユニットの結合はな
いので、誤差の後向き伝播口は次のようになる。
j δ , O pJ δ , K = 1) J aEp/19net , K pJ (ao /anet, K pi f) J monthf ′ (net, K pJ ... (6) In the case of intermediate units, within each layer Since there is no unit coupling at , the backward propagation port for the error is:

・・・ (7) (7)式はδの再帰関数である。... (7) Equation (7) is a recursive function of δ.

ΔpW、’ゝを一般的に定式化すると、次のようになる
A general formulation of ΔpW,'ゝ is as follows.

ΔpW、K (n+1) l −ηδpjK・0+αΔpWjIK(n)K+1 I ・・・ (8) ただし、ΔpWjIK (0)−0であり、nは学習の
回数を表わす。(8)式の右辺の第2項は誤差の振動を
減らし収束を速めるために加えている。
ΔpW, K (n+1) l −ηδpjK·0+αΔpWjIK(n)K+1 I (8) where ΔpWjIK (0)−0, and n represents the number of times of learning. The second term on the right side of equation (8) is added to reduce error vibration and speed up convergence.

(8)式から、結合の強さは次のように更新される。From equation (8), the bond strength is updated as follows.

W、K (n+1) に               K −WJ I  (n)+Δp Wji  (n)(K−
0,1,2,・・・)     ・・・ (9)ここで
、シグモイド関数f1を −n e t I )   ・・・(10)f 1−1
 / (1+ e で定義するとf  ’ −f  (1−f、)であるの
で後向き伝播量は次式のように簡単化される。
W, K (n+1) to K −WJ I (n)+Δp Wji (n)(K−
0, 1, 2, ...) ... (9) Here, the sigmoid function f1 is -net I) ... (10) f 1-1
/ (1+e) Since f'-f (1-f,) is defined, the amount of backward propagation can be simplified as shown in the following equation.

出カニニットの場合: (t−0,。)   ・・・(11) pJ    9J 中間ユニットの場合: K    K      K δ 、−0,(1−0,) pJ        l)J            
 pJ・・・(12) 以」二かられかるように、ΔWの計算は出力層のユニッ
トから始めて、中間層のユニットへ移る。
In case of output crab unit: (t-0,.) ...(11) pJ 9J In case of intermediate unit: K K K δ , -0, (1-0,) pJ l)J
pJ (12) As shown in section 2, the calculation of ΔW starts from the output layer unit and moves to the intermediate layer unit.

このように学習は入力データの処理とは逆方向に進む。In this way, learning proceeds in the opposite direction to the processing of input data.

従って、BPモデルによる学習は次のように行なわれる
。先ず、学習用のデータを入力し、結果を出力する。次
に、結果の誤差(実際の出力と教師信号との差)を減ら
すように結合の強さを変える。そして、再び、学習用デ
ータを入力する。この動作を、ΔWが収束するまで繰り
返す。
Therefore, learning using the BP model is performed as follows. First, data for learning is input and the results are output. Next, the strength of the coupling is changed to reduce the resulting error (the difference between the actual output and the teacher signal). Then, input the learning data again. This operation is repeated until ΔW converges.

第5図にBPモデルの基本回路構成を示す。FIG. 5 shows the basic circuit configuration of the BP model.

ランダムアクセスメモリ(以下RAMと記す)1は結合
の強さWjlを格納し、層毎にに−i〜NのNページか
ら成る。RAM2はパターンPを与えたときの結合の強
さW、の変化量ΔWj1を格納Jl し、k−1〜NのNページから成る。RAM3は誤差の
後向き伝播量δ 、を格納し、k−0〜NのJ (N+1)ページから成る。RAM4は各ユニットの出
力値0 、を格納し、k−0〜Nの(N+1)1)J ページから成る。5はO、の演算回路、6はδ 。
A random access memory (hereinafter referred to as RAM) 1 stores the strength of connection Wjl, and consists of N pages -i to N for each layer. The RAM 2 stores the amount of change ΔWj1 in the bond strength W when the pattern P is given, and is composed of N pages k-1 to N. The RAM 3 stores the amount of backward propagation of errors, δ, and consists of J (N+1) pages of k-0 to N. The RAM 4 stores the output value 0 of each unit and consists of (N+1)1)J pages of k-0 to N. 5 is an arithmetic circuit of O, and 6 is δ.

1)J          I)J の演算回路、7はΔpwj、の演算回路である。9は全
体のシーケンスを制御するシーケンスコントローラであ
る。
1) J I) J arithmetic circuit; 7 is an arithmetic circuit for Δpwj; 9 is a sequence controller that controls the entire sequence.

第5図のBPモデルによる学習のプロセスを説明する。The learning process using the BP model shown in FIG. 5 will be explained.

ここでは、ノイマン型のコンピュータによりBPモデル
をシミュレーションした場合の動作を、第6図〜第9図
のフローチャートを参照して説明する。第6図は0 、
演算のフローチャート、J 第7図はδ 、演算のフローチャート、第8図はJ W 、演算のフローチャート、第9図は学習のレベJ ル判定のフローチャートである。
Here, the operation when the BP model is simulated by a Neumann type computer will be explained with reference to the flowcharts of FIGS. 6 to 9. Figure 6 is 0,
7 is a flowchart of the calculation, FIG. 8 is a flowchart of the calculation of JW, and FIG. 9 is a flowchart of the determination of the learning level.

ステップ1(Sl)でRAMI内の結合の強さWjiを
ランダムな値に初期化する。ステップ2で入力値O、N
+1をRAM4に設定し、ステップ3J 〜ステップ9で演算回路5により入力層から出力層に向
かって順にユニット出力値O、Kを演算し1)J ていく。
In step 1 (Sl), the coupling strength Wji in the RAMI is initialized to a random value. Input value O, N in step 2
+1 is set in the RAM 4, and in steps 3J to 9, the arithmetic circuit 5 calculates unit output values O and K in order from the input layer to the output layer.

次に、第7図のステップ11〜ステツプ20で演算回路
6により出力値0pj0と望ましい出力を層の誤差の後
向き伝播量δpj0を求める。
Next, in steps 11 to 20 of FIG. 7, the arithmetic circuit 6 calculates the backward propagation amount δpj0 of the error in the layer to obtain the output value 0pj0 and a desired output.

次に、第8図のステップ21〜ステツプ24で演算回路
7により(8)式に従って結合の強Δpw j、 0の
切期値ΔpWj、K (0)はすべて0である。ステッ
プ25で、*、n回路8により(9)(1)、Wj1’
  (1)が求まる。この後、これらは初期データを更
新する形でRAM1〜RAM4に格納される。
Next, in steps 21 to 24 of FIG. 8, the arithmetic circuit 7 calculates the cut-off value ΔpWj, K (0) of the coupling strength Δpwj,0, which is all 0, according to equation (8). In step 25, (9) (1), Wj1' by *,n circuit 8
(1) is found. Thereafter, these are stored in RAM1 to RAM4 in a form that updates the initial data.

次に、中間層の学習を行なう。第7図のフローチャート
に戻り、演算回路6により以上で求めたれているO 、
。を用いて、誤差の後向き伝播量J δ 、Kを求める。次に、第8図のフローチャートJ において、演算回路7により結合の強さの変化量回路8
により結合の強さWj、K(1)を(9)式に従って求
める。出力層と同様に、以上で求めたデータはRA M
 1〜RAM4に更新する形で格納されていく。以上の
フローを入力層(K −N +1 )に向かって順次繰
り返し行ない第1回目の学習が終了する。
Next, learn the middle layer. Returning to the flowchart in FIG. 7, O obtained above by the arithmetic circuit 6,
. The backward propagation amounts J δ and K of the error are determined using . Next, in the flowchart J of FIG.
The bond strength Wj, K(1) is determined according to equation (9). Similar to the output layer, the data obtained above is stored in RAM
1 to RAM4 in an updated form. The above flow is sequentially repeated toward the input layer (K - N +1), and the first learning is completed.

以上の学習を複数(n)回実行することにより、各ユニ
ット間の結合の強さWjlが決定され、ある入カバター
ンPを示す入力値O、を与えたときに1)J 所望の出力値P 、を得るためのネットワークが自G)
J 動的に形成されることになる。
By performing the above learning a plurality of times (n), the strength of the coupling between each unit Wjl is determined, and when an input value O indicating a certain input pattern P is given, 1) J desired output value P The network for obtaining , is self-G)
J will be formed dynamically.

第9図は、実際の出力値O、と教師信号t 、と9J 
              l)jの平均二乗誤差E
pを求めるフローチャートである。この値が小さくなる
程、実際の出力値は望ましい出力値に近くなる。いまE
pがあるしきい値εより小さければ学習を終了し、εよ
り大きければ学習を繰り返す。
Figure 9 shows the actual output value O, the teacher signal t, and 9J.
l) Mean square error E of j
It is a flowchart for calculating p. The smaller this value is, the closer the actual output value will be to the desired output value. Now E
If p is smaller than a certain threshold ε, learning is terminated, and if p is larger than ε, learning is repeated.

以上では、1つの入カバターンPに対する学習について
述べたが、入カバターンを複数にし、それぞれのパター
ンに対応した複数の出カバターンを得るような学習も可
能である。また、複数の入カバターンに対しである特定
の1つの出カバターンを出力するように学習させること
も可能である。
Although learning for one input cover turn P has been described above, it is also possible to perform learning in which a plurality of input cover turns are used and a plurality of output cover turns corresponding to each pattern are obtained. It is also possible to learn to output one specific output pattern for a plurality of input patterns.

以上述べたBPモデルは、現在広く民生機器等で使用さ
れているノイマン型のマイクロコンピュータで実現可能
であるが、このままではニューロコンピュータの1つの
大きな長所である並列処理による高速化の機能は生かさ
れない。そのため、第6図〜第9図の処理を複数のコン
ピュータで並列に処理させることが好ましい。
The BP model described above can be realized with the Neumann-type microcomputers that are currently widely used in consumer devices, but as it is, one of the major strengths of neurocomputers, which is the ability to speed up through parallel processing, will not be utilized. . Therefore, it is preferable that the processes shown in FIGS. 6 to 9 be performed in parallel by a plurality of computers.

第10図はこのための並列処理システムの構成を示す。FIG. 10 shows the configuration of a parallel processing system for this purpose.

複数のマイクロプロセッサP1〜P□がホストプロセッ
サ11に接続される。第2図に示すニューラルネットを
n個の部分ネットワークに分割し、それぞれをマイクロ
プロセッサP1ゞP に割り当てる。ホストプロセッサ
ー1は、マ■1 イクロプロセッサP1〜Po相互のタイミングの制御を
行なったり、マイクロプロセッサPl〜P に分散され
ているデータを統合してパターン認識などの処理を行な
う。各々のマイクロプロセッサP1〜Pnは上述した演
算手順に従い、第5図に示す出力値O、の連続する複数
列の演算を実1)J 行する。そのため、マイクロプロセッサP1〜P はt
u当する出力値を演算するのに必要なδpj。
A plurality of microprocessors P1 to P□ are connected to host processor 11. The neural network shown in FIG. 2 is divided into n partial networks, and each is assigned to a microprocessor P1.P. The host processor 1 controls the mutual timing of the microprocessors P1 to Po, integrates data distributed among the microprocessors P1 to P, and performs processing such as pattern recognition. Each of the microprocessors P1 to Pn performs arithmetic operations on a plurality of consecutive columns of output values O shown in FIG. 5 according to the arithmetic procedure described above. Therefore, the microprocessors P1 to P are t
δpj necessary to calculate the output value corresponding to u.

ΔWjl” jlをそれぞれ格納するだめのRAMと演
算回路を備えている。担当する全てのユニットの出力値
の演算が終了すると、各プロセッサP1〜P 間で同期
をとりながら、データの更新のための通信が行なわれる
。ホストプロセッサー1においては学習の達成レベルの
判定や、マイクロプロセッサPl=Pn相互のタイミン
グの制御を行なう。
It is equipped with a RAM for storing ΔWjl''jl and an arithmetic circuit. When the calculation of the output values of all the units in charge is completed, the processors P1 to P are synchronized and are updated to update the data. Communication is performed.The host processor 1 determines the learning achievement level and controls the mutual timing of the microprocessors Pl=Pn.

学習した結果に基づいて、パターン認識等の処理を行な
う場合は、第2図に示す入力層から出力の演算を行なっ
ていくことにより、最終的に必要な出力値P 、。が求
められる。この場合も、第J 11図に示すような段数のマイクロブロセ・ツサによる
分散処理を実行することによりニューラルネットの並列
性による高速化がはかれる。
When performing processing such as pattern recognition based on the learned results, the final required output value P is calculated by performing output calculations from the input layer shown in FIG. is required. In this case as well, speeding up can be achieved due to the parallelism of the neural network by executing distributed processing using microprocessors with the number of stages as shown in FIG.

なお、学習の過程においては基本的に第5図に示す回路
が必要になるが、学習結果を応用するだけの場合、構成
は非常に簡単化される。
Although the circuit shown in FIG. 5 is basically required in the learning process, the configuration can be greatly simplified if only the learning results are applied.

第11図はこの場合の基本回路構成である。入力データ
は入力部12(例えば、A/D変換器等をの演算を順次
行なうことにより、出力データ0 、。を得る。結合の
強さ、、にの格納される係J 数メモリ14はROM、または書き替え可能なROMで
もよい。
FIG. 11 shows the basic circuit configuration in this case. The input data is inputted to the input unit 12 (for example, an A/D converter, etc.) to obtain output data 0 by sequentially performing calculations. , or a rewritable ROM.

第12図は学習結果を応用する製品に対する製造時の学
習システムの概略ブロック図である。製品16は、結合
の強さW、、Kを格納するROM17l を内蔵する。18は学習装置であり、ROM17と学習
装置18を合せたものは基本的には第5図に の装置と同一であるが、ROM17へのWjI の書き
込みか終了すると、製品16 (ROM17)と学習装
置18は分離される。なお、同一種類の各製品に対して
、毎回学習させる必要はないので、ROM17をコピー
して使用することも可能である。
FIG. 12 is a schematic block diagram of a learning system during manufacturing for products to which learning results are applied. The product 16 has a built-in ROM 17l that stores the coupling strengths W, , K. 18 is a learning device, and the combination of ROM 17 and learning device 18 is basically the same as the device shown in FIG. Device 18 is separated. Note that it is not necessary to perform learning each time for each product of the same type, so it is also possible to copy and use the ROM 17.

次に、図面を参照しつつ、ニューロンコンピュータ10
9を用いたストロボの制御装置の動作を説明する。
Next, referring to the drawings, the neuron computer 10
The operation of a strobe control device using 9 will be explained.

まず、広角レンズに101よりレンズ画角より広い範囲
までの画像をカラーエリアセンサ102上に結像させ、
画像の明暗信号と色信号を取り出す。このカラーエリア
センサ102が出力する明暗信号と色信号はA/D変換
器107によりデジタル信号に変換されてN Ci 0
9に供給される。
First, a wide-angle lens 101 forms an image on a color area sensor 102 that covers a wider range than the lens field of view.
Extracts the brightness and color signals of the image. The bright/dark signal and color signal output by the color area sensor 102 are converted into digital signals by the A/D converter 107 and N Ci 0
9.

一方、メインCPUI 11から供給される発光タイミ
ングにより、I RE D 1.03を発光させ、その
光線をカラーエリアセンサ102の像の範囲まで広角レ
ンズ104により広げる。そして、被写体から反射され
る上記光線を広角レンズ105により集光し、1RED
103の光線をすべて受光素子としてのPSDアレイ1
061−に結像させる。このPSDアレイ106で光電
変換された距離信号は、A/D変換器108に入力され
デジタルデータとし、NC109に入力される。この際
、メインCPUI 11はデータを取り込む信号をNC
l09に出力する。
On the other hand, the I RED 1.03 is caused to emit light according to the light emission timing supplied from the main CPU 11, and the light beam is spread by the wide-angle lens 104 to the range of the image of the color area sensor 102. Then, the light beam reflected from the subject is focused by a wide-angle lens 105, and 1RED
PSD array 1 serves as a light receiving element for all 103 light beams.
061-. The distance signal photoelectrically converted by this PSD array 106 is inputted to an A/D converter 108, converted into digital data, and inputted to the NC 109. At this time, the main CPU 11 sends the data import signal to the NC
Output to l09.

またメインCPUIIIは、カメラ本体150からカメ
ラ本体150における測光、 Apl距による絞り値、
シャッタ速度、レンズf値、フィルム感度、及び距離情
報を入力し、レンズf値により画角の照射角を決定し、
NC109にカメラ本体150の絞り値、シャッタ速度
2 フィルム感度。
The main CPU III also performs photometry from the camera body 150 to the camera body 150, an aperture value based on the Apl distance,
Input the shutter speed, lens f value, film sensitivity, and distance information, determine the illumination angle of the angle of view based on the lens f value,
NC109, aperture value of camera body 150, shutter speed 2, film sensitivity.

距離情報、レンズf値による照射角を出力する。Outputs distance information and irradiation angle based on lens f value.

また、NC109は、上記したようにカラーエリアセン
サ102の出力をA/D変換’5107によりデジタル
値に変換した信号と、PSDアレイ106の出力をA/
D変換器108によりデジタル値に変換した信号と、メ
インCPUI 11からカメラ本体150の絞り値、シ
ャッタ速度、フィルム感度、距離情報とレンズf値によ
るストロボの照射角を入力する。
Further, as described above, the NC 109 converts the output of the color area sensor 102 into a digital value by A/D conversion '5107 and the output of the PSD array 106.
The signal converted into a digital value by the D converter 108 and the aperture value of the camera body 150, shutter speed, film sensitivity, distance information, and strobe illumination angle based on the lens f value are input from the main CPU 11.

NC109は第11図と同じ構成であり、結合の重みW
ljは、学習記憶部110からパワーオン時にNC10
9内のRAMにロードされる。NC109は、結合の重
みWljにより照射角の補正。
NC109 has the same configuration as in FIG. 11, and the connection weight W
lj is stored in NC10 from the learning storage unit 110 when the power is turned on.
9 is loaded into the RAM. NC109 corrects the illumination angle using the connection weight Wlj.

閃光部の角度、光量値とカメラ本体150の露出補正デ
ータをメインCPUI 11に出力する。メインCPU
I 11はNC109の出力、つまり、照射角の補正、
閃光部の角度、光量値からモータ114とコンデンサ5
W115を制御し、さらにカメラ本体150へ露出補正
データを出力する。
The angle of the flash unit, the light amount value, and the exposure correction data of the camera body 150 are output to the main CPU 11. Main CPU
I11 is the output of NC109, that is, the correction of the irradiation angle,
The motor 114 and capacitor 5 are determined from the angle of the flash and the light intensity value.
W115 and further outputs exposure correction data to the camera body 150.

第13図は学習記憶部110のWljの設定装置である
。モデルパターン入力装置122は、学習用ニューロン
コンピュータ(以下、TNCと記す)121へ、ストロ
ボ使用時のデータを入力する。
FIG. 13 shows a Wlj setting device of the learning storage section 110. A model pattern input device 122 inputs data when using a strobe to a learning neuron computer (hereinafter referred to as TNC) 121.

それと同時に、教師信号123は、本来望ましい値をT
NC121へ入力する。TNC121は、上記の一連の
動作により各層の結合係数を内蔵RAMに一度記憶し、
学習終了後、学習記憶部110へTNC121のRAM
データを移す。学習記憶部110は学習記憶部のW、j
の設定装置から分離することができ、ストロボ本体に取
り付けて使用する。
At the same time, the teacher signal 123 changes the originally desired value T
Input to NC121. The TNC 121 once stores the coupling coefficient of each layer in the built-in RAM through the above series of operations,
After the learning is completed, the RAM of the TNC 121 is transferred to the learning storage unit 110.
Transfer data. The learning storage unit 110 stores W, j of the learning storage unit
It can be separated from the setting device and used by attaching it to the strobe body.

次に、−り記学習記憶部110のWljの設定装置にお
ける、モデルパターン入力による学習について説明する
。ストロボ撮影に使われる時の状態をN+1 モデルとしたパターンのデジタル値をO、とJ N+1 する。01.は各ブロックごとに分かれて独立J した状態で連想され、出力層に1連の値を出力する。ニ
ューロンネットワークは、第14図に示すように入力層
、中間層、出力層の3層で構成される。第15図にモデ
ルパターンの基本的なものを2つ示す。
Next, learning by model pattern input in the Wlj setting device of the record learning storage unit 110 will be explained. The digital value of the pattern is assumed to be O and J N+1 with the N+1 model as the state used for strobe photography. 01. is divided into each block and associated in an independent state, and outputs a series of values to the output layer. The neuron network is composed of three layers: an input layer, a middle layer, and an output layer, as shown in FIG. FIG. 15 shows two basic model patterns.

第15図(a)において画角情報は、主要被写体が中心
に有り距離は2m、まわりはストロボ光のとどかない距
離である。カメラからの距離情報は、中心の被写体と同
じで2mである。上記の場合カラー二リアセンサ102
の情報は、空の色と主要被写体の色と明暗を、距離検出
用のPSDアレイ106はカラーエリアセンサ102に
対応した距離情報として、中心の被写体は2m、まわり
は10を出力する。
In FIG. 15(a), the angle of view information indicates that the main subject is at the center and the distance is 2 m, and the surroundings are at a distance beyond the reach of the strobe light. The distance information from the camera is 2 m, which is the same as the center subject. In the above case, the color rear sensor 102
The information includes the color of the sky and the color and brightness of the main subject, and the PSD array 106 for distance detection outputs 2 m for the central subject and 10 for the surroundings as distance information corresponding to the color area sensor 102.

これら情報にもとづきNC109は照射角を半分(50
%、β−0,5)にして、閃光部角度を100下げる(
α−−10)。このことにより、中心の被写体だけにス
トロボ光を与える。
Based on this information, NC109 reduces the beam angle by half (50
%, β-0,5) and lower the flash angle by 100 (
α--10). This gives strobe light only to the central subject.

第15図(b)において、画角情報は、室内で天井は白
っぽく主要被写体が壁と接近していて、1′i1接スト
ロボ光を発するとバックに変な影が発生する。カメラか
らの距離情報は主要被写体と同じである。
In FIG. 15(b), the viewing angle information shows that the main subject is indoors, the ceiling is whitish and the main subject is close to the wall, and when the 1'i1 strobe light is emitted, a strange shadow appears in the background. The distance information from the camera is the same as the main subject.

カラーエリアセンサ102の情報は天井の色情報などを
出力しPSDアレイ106は天井の距離情報と主要被写
体の距離情報などを出力する。
The color area sensor 102 outputs color information of the ceiling, etc., and the PSD array 106 outputs distance information of the ceiling, distance information of the main subject, etc.

これらの情報にもとづきNC109は閃光部角度を90
°上(α−90@)へ、光量を2倍(K−2) 、カメ
ラへの露出補正値として−0,5補正(C−−0,5)
を行なう。これによって光を十分まわすことができ変な
影も発生しない。
Based on this information, NC109 sets the flash angle to 90.
°Up (α-90@), double the light intensity (K-2), -0.5 correction as exposure compensation value to the camera (C--0.5)
Do this. This allows the light to circulate sufficiently and there are no strange shadows.

次に、NC109によって補正するパラメータについて
第16図を参照して説明する。
Next, the parameters corrected by the NC 109 will be explained with reference to FIG. 16.

β;照射角 レンズ焦点距離をカバーする範囲をβ−1
とする。
β: Irradiation angle The range covering the lens focal length is β-1
shall be.

α;閃閃光用角度水平方向をα−〇とする48≦α≦9
0 に;光量2通常をに−1とする。
α; Flash angle 48≦α≦9 where horizontal direction is α−〇
0; Light amount 2 Normal is set to -1.

C:カメラ側での露出補正データ 通常をC−0 以」−2つの例を示したが、実際のモデルバタンは数百
パターンで行なう。第13図ではNC109はT N 
C121と同じ構成であり、学習した学習記憶部データ
Wljにより結合の強さが設定され、カラーセンサ10
2の出力、PSDアレイ106の出力とカメラ本体15
0の絞り値、シャッタ速度、フィルム感度、距離情報、
レンズf値によるストロボの照射角のデータはO、にと
して与えら11J の演算が行なわれ出力層より結果が出力される。
C: Exposure correction data on the camera side is usually C-0 or higher.Two examples have been shown, but in reality, several hundred patterns are used for model stamping. In Fig. 13, NC109 is T N
It has the same configuration as C121, and the strength of the connection is set by the learned learning storage data Wlj, and the color sensor 10
2 output, output of PSD array 106 and camera body 15
0 aperture value, shutter speed, film sensitivity, distance information,
Data on the irradiation angle of the strobe based on the lens f value is given as O, and 11J calculations are performed and the results are output from the output layer.

以上説明したように、ニューロンコンピュータの学習機
能によりストロボ撮影の様に、パターン化すると膨大な
パターン数になり定式化、プログラム化が難しいもので
も制御可能となっている。
As explained above, the learning function of the neuron computer makes it possible to control even things such as strobe photography, which have a huge number of patterns and are difficult to formulate and program.

また、ニューロンコンピュータの補間作用で学習時入力
されなかったパターンに対しても正しい出力を出すこと
が可能となっている。
Additionally, the interpolation effect of the neuron computer makes it possible to output correct output even for patterns that were not input during learning.

さらに、ニューロンコンピュータの並列性により膨大な
口の入力データを高速に処理することができ、ストロボ
の制御に好適な制御装置を提供できるものとなっている
Furthermore, the parallel nature of the neuron computer allows it to process a huge amount of oral input data at high speed, making it possible to provide a control device suitable for controlling strobes.

なお、上記ニューロンコンピュータは、ソフト的に実現
したものであるが、結合の強さW s jを抵抗値又は
PLDなどで実現することによりハード的にも実現可能
であり、上記実施例と同様の効果を奏する。
Although the neuron computer described above is realized in software, it can also be realized in hardware by realizing the coupling strength W s j with a resistance value or PLD, etc. be effective.

[発明の効果] 以−り説明したように、本発明によれば人間の勘に頼ら
ずに、正確かつ高速に照射角、閃光部の角度、光量を最
適値に制御することのできる閃光装置の制御装置を提供
することができる。
[Effects of the Invention] As explained below, the present invention provides a flash device that can accurately and quickly control the irradiation angle, the angle of the flash section, and the amount of light to optimal values without relying on human intuition. control device can be provided.

【図面の簡単な説明】[Brief explanation of the drawing]

図は本発明の一実施例を示すもので、第1図は閃光装置
の制御装置のブロック図、第2図はニューロコンピュー
タのモデルを示す図、第3図はネットワークを構成する
各ユニットのモデルを示す図、第4図はシグモイド関数
を示す図、第5図はニューロコンピュータのブロック図
、第6図〜第9図は第5図のニューロコンピュータをノ
イマン型コンピュータでシミュレーションした時のフロ
ーチャートであり、第6図は各ユニットの出力O、を求
めるフローチャート、第7図は誤差の後J 向き伝播量δ 、を求めるフローチャート、第8図J は結合の強さ係数Wj[を求めるフローチャート、第9
図は学習のレベル判定のためのフローチャート、第10
図は;1に列処理システムのブロック図、第11図は学
習結果を応用する装置のブロック図、第12図は学習結
果を応用する装置を学習させるシステムのブロック図、
X113図はニューロコンピュータの学習システムのブ
ロック図、第14図はニューロコンピュータのネットワ
ークを示す図、第15図(a)、(b)は学習させる被
写体の一例を示す図、第16図は補正するパラメータを
説明するための図である。 101・・・光学装置(広角レンズ) 1o2・・・画
像月光電変換素子(カラーエリアセンサ)103・・・
距離検出用投光素子(赤外線発光素子)、106・・・
受光素子(位置検出素子)、109・・・ニューロンフ
ンピユータ、111・・・制御手段(メインCPU)。 第1図 出願人代理人 弁理士 坪井  淳 二a−ロン 第 図 net・(入力の総和) 第 図 第 図 第 図 第9 図 10マイクロプロセツサ 第10図 第11図 第12図 第13図 第14図
The figures show one embodiment of the present invention, in which Fig. 1 is a block diagram of a control device for a flash device, Fig. 2 is a diagram showing a model of a neurocomputer, and Fig. 3 is a model of each unit constituting a network. FIG. 4 is a diagram showing a sigmoid function, FIG. 5 is a block diagram of a neurocomputer, and FIGS. 6 to 9 are flowcharts when the neurocomputer shown in FIG. 5 is simulated with a Neumann type computer. , FIG. 6 is a flowchart for determining the output O of each unit, FIG. 7 is a flowchart for determining the amount of propagation in the J direction after the error, δ, FIG. 8 is a flowchart for determining the coupling strength coefficient Wj[, and FIG.
The figure is a flowchart for determining the learning level, No. 10.
The figures are: 1 is a block diagram of the column processing system, FIG. 11 is a block diagram of a device that applies learning results, and FIG. 12 is a block diagram of a system that trains a device that applies learning results.
Fig. FIG. 3 is a diagram for explaining parameters. 101... Optical device (wide-angle lens) 1o2... Image lunar photoelectric conversion element (color area sensor) 103...
Distance detection light emitting element (infrared light emitting element), 106...
Light-receiving element (position detection element), 109... Neuron computer, 111... Control means (main CPU). Fig. 1 Applicant's agent Patent attorney Junji Tsuboi A-ron Fig. net (sum of inputs) Fig. Fig. 9 Fig. 10 Microprocessor Fig. 10 Fig. 11 Fig. 12 Fig. 13 Fig. 14 figure

Claims (1)

【特許請求の範囲】 複数の画像用光電変換素子と、 この画像用光電変換素子上に被写体とその背景とを結像
させる光学装置と、 複数の距離検出用投光素子と、 この距離検出用投光素子の信号を受ける複数の受光素子
と、 上記複数の光電変換素子及び上記複数の受光素子の各出
力が入力される、複数のユニットから成る入力層と、こ
の入力層の各ユニットと所定の結合の強さで相互に結合
された複数のユニットから成る中間層と、この中間層の
各ユニットと所定の結合の強さで相互に結合された複数
のユニットから成る出力層とにより成るニューロンコン
ピュータと、 このニューロンコンピュータの上記出力層からの出力に
応じて閃光装置の閃光部の角度、光量、照射角を制御す
る制御手段と を具備することを特徴とする閃光装置の制御装置。
[Scope of Claims] A plurality of image photoelectric conversion elements, an optical device for forming an image of a subject and its background on the image photoelectric conversion elements, a plurality of distance detection light projecting elements, and a distance detection light emitting element. a plurality of light-receiving elements that receive signals from the light-emitting element; an input layer consisting of a plurality of units into which outputs of the plurality of photoelectric conversion elements and the plurality of light-receiving elements are input; each unit of the input layer and a predetermined A neuron consisting of an intermediate layer consisting of multiple units interconnected with a connection strength of , and an output layer consisting of multiple units interconnected with each unit of this intermediate layer with a predetermined connection strength A control device for a flash device, comprising: a computer; and a control means for controlling the angle, amount of light, and irradiation angle of a flash section of the flash device in accordance with the output from the output layer of the neuron computer.
JP63329883A 1988-12-27 1988-12-27 Controller for flashing device Pending JPH02173732A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63329883A JPH02173732A (en) 1988-12-27 1988-12-27 Controller for flashing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63329883A JPH02173732A (en) 1988-12-27 1988-12-27 Controller for flashing device

Publications (1)

Publication Number Publication Date
JPH02173732A true JPH02173732A (en) 1990-07-05

Family

ID=18226316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63329883A Pending JPH02173732A (en) 1988-12-27 1988-12-27 Controller for flashing device

Country Status (1)

Country Link
JP (1) JPH02173732A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023232525A1 (en) * 2022-06-03 2023-12-07 Ams-Osram Ag Illumination adapting method and picture recording arrangement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023232525A1 (en) * 2022-06-03 2023-12-07 Ams-Osram Ag Illumination adapting method and picture recording arrangement

Similar Documents

Publication Publication Date Title
JP2761391B2 (en) Focus detection device
US20200151858A1 (en) Image contrast enhancement method and device, and storage medium
US7707128B2 (en) Parallel pulse signal processing apparatus with pulse signal pulse counting gate, pattern recognition apparatus, and image input apparatus
CN110288555B (en) Low-illumination enhancement method based on improved capsule network
WO1991014226A1 (en) Neuro-fuzzy fusion data processing system
JPH10124658A (en) Method for correcting image distortion of camera by utilizing neural network
CN104662526A (en) Apparatus and methods for efficient updates in spiking neuron networks
CN112418403B (en) Optical diffraction computing processor based on optical diffraction principle and programmable device
CN115834996A (en) Method and apparatus for image processing
JP2774819B2 (en) camera
JPH02173732A (en) Controller for flashing device
CN111811532B (en) Path planning method and device based on impulse neural network
US5227830A (en) Automatic camera
CN115423758B (en) Full-field refined DNI prediction method
JP2793816B2 (en) Camera with learning function
KR102485272B1 (en) Apparatus and Method for Learning and Recognizing Collision Situation Using Collision Grid Map Based on Probability Scheme
US5732288A (en) Auto-focusing device for camera
JP2793815B2 (en) Exposure control device
JP2793817B2 (en) Exposure control device
US5266984A (en) Exposure calculating apparatus for camera
CN114660947B (en) Robot gait autonomous learning method and device, electronic equipment and storage medium
JPH02183238A (en) Exposure controller
JPH0527300A (en) Camera having learning function
Luetto People counting using detection networks and self calibrating cameras on edge computing
KR102672793B1 (en) Electronic device and method for obtain attribute information related to pedestrian using the same