JP2793815B2 - Exposure control device - Google Patents

Exposure control device

Info

Publication number
JP2793815B2
JP2793815B2 JP63250464A JP25046488A JP2793815B2 JP 2793815 B2 JP2793815 B2 JP 2793815B2 JP 63250464 A JP63250464 A JP 63250464A JP 25046488 A JP25046488 A JP 25046488A JP 2793815 B2 JP2793815 B2 JP 2793815B2
Authority
JP
Japan
Prior art keywords
output
learning
layer
input
wji
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63250464A
Other languages
Japanese (ja)
Other versions
JPH0296723A (en
Inventor
正文 山崎
敏之 豊福
順一 伊藤
晋一 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP63250464A priority Critical patent/JP2793815B2/en
Priority to US07/415,179 priority patent/US4978990A/en
Publication of JPH0296723A publication Critical patent/JPH0296723A/en
Application granted granted Critical
Publication of JP2793815B2 publication Critical patent/JP2793815B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、どのような被写体に対してもある程度の
条件を満たす撮影を行なうことができる露出制御装置に
関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an exposure control device capable of performing photographing for any subject that satisfies certain conditions.

[従来の技術] このような露出制御装置の従来例として、特開昭57−
42026号公報に記載した装置がある。これは、被写界を
複数の領域に分けて測光し、各領域に対応した複数の測
光出力を発生するマルチ測光装置において、最大輝度に
応じて、最大輝度、最大輝度と平均輝度の中間の輝度、
平均輝度、平均輝度と最小輝度の中間輝度、最小輝度の
中から1つを選択して、それにより露出を制御する。ま
た、特開昭61−173226号公報には、画面中央部のスポッ
ト測光値と画面全体の平均測光値とから逆光状態を検知
し、警告表示を行なったり露出値を補正したりするもの
において、逆光検知に被写体距離情報を用いて検知ミス
をなくす技術が開示されている。
[Prior Art] As a conventional example of such an exposure control apparatus, Japanese Patent Laid-Open No.
There is a device described in 42026. This is because, in a multi-photometer that divides an object field into a plurality of areas and measures a plurality of photometric outputs corresponding to the respective areas, a maximum luminance, an intermediate luminance between the maximum luminance and the average luminance, according to the maximum luminance. Luminance,
One is selected from the average luminance, the intermediate luminance between the average luminance and the minimum luminance, and the minimum luminance, thereby controlling the exposure. Japanese Patent Application Laid-Open No. 61-173226 discloses that a backlight condition is detected from a spot photometric value at the center of a screen and an average photometric value of the entire screen, and a warning display or an exposure value is corrected. A technique for eliminating a detection error by using subject distance information for backlight detection has been disclosed.

[発明が解決しようとする課題] これらの従来例は、マイクロコンピュータによる被写
体パターンの認識であるため、ある限られた被写体パタ
ーンにしか適応できなかったり、誤まった検出を行ない
意図しない写真ができる等の欠点があった。また、多く
の被写体パターンに対して意図通りの露出制御を行なお
うとすると、被写体パターン、あるいは明るさが定式化
できないため、プログラムが膨大になったり、演算時間
が長くなるなどの欠点がある。さらに、メーカが意図し
た通りの写真ができたとしても、写真の評価は個人の感
性によるところが大きいため、必ずしも全てのユーザに
対してよい結果が得られるとは限らない。
[Problems to be Solved by the Invention] In these conventional examples, since a subject pattern is recognized by a microcomputer, it can be applied only to a limited subject pattern, or an unintended photograph can be made by performing erroneous detection. And the like. Further, if the intended exposure control is to be performed on many subject patterns, the subject pattern or the brightness cannot be formulated, so that there are disadvantages such as a large number of programs and a long calculation time. Furthermore, even if a photograph is produced as intended by the manufacturer, the evaluation of the photograph largely depends on the sensitivity of the individual, so that good results are not necessarily obtained for all users.

この発明の目的は、これらの欠点を解決するため、各
種の入力に対して所望の出力を発生するネットワークに
より被写体のパターンを検出し、その結果に基づいて露
出制御を行なうことにより、あらゆる被写体パターンに
対して意図する露出で写真をとることができる露出制御
装置を提供することである。
An object of the present invention is to solve these drawbacks, by detecting a pattern of a subject by a network that generates a desired output with respect to various inputs, and performing exposure control based on the result, so that any subject pattern can be obtained. To provide an exposure control device capable of taking a photograph with an intended exposure.

[課題を解決するための手段及び作用] この発明による露出制御装置には、被写体パターンを
入力した時に被写体パターンに応じて平均測光に対する
露出補正量を出力するように学習された結合の強さで順
次結合される入力層、中間層、出力層からなるネットワ
ークが設けられる。複数の光電変換素子の出力がネット
ワークに入力され、ネットワークの出力と複数の光電変
換素子の出力に基づいて露出が制御される。
[Means and Actions for Solving the Problems] In the exposure control device according to the present invention, when the subject pattern is input, the exposure strength is learned so as to output the exposure correction amount for the average photometry according to the subject pattern. There is provided a network consisting of an input layer, a hidden layer, and an output layer that are sequentially connected. Outputs of the plurality of photoelectric conversion elements are input to the network, and exposure is controlled based on the output of the network and the outputs of the plurality of photoelectric conversion elements.

[実施例] 以下、図面を参照して、この発明による露出制御装置
の実施例を説明する。第1図にそのブロック図を示す。
第1図からわかるように、この実施例は、ニューロコン
ピュータを使用して、露出制御、焦点検出を行なってい
る。そこで、先ず、第2図〜第12図を参照して、ニュー
ロコンピュータについて説明する。
Embodiment An embodiment of an exposure control device according to the present invention will be described below with reference to the drawings. FIG. 1 shows a block diagram thereof.
As can be seen from FIG. 1, in this embodiment, exposure control and focus detection are performed using a neurocomputer. Therefore, first, the neurocomputer will be described with reference to FIGS.

第2図にニューロコンピュータのモデルを示す。この
モデルはルメルハルト(Rumelhart)等によって提案さ
れたもので、バックプロパゲーション(Back Propagati
on)モデル(以下、BPモデルと略す)と呼ばれる。ニュ
ーロコンピュータは多数のユニット(ニューロン)から
なり、ユニットは入力層、中間層、出力層に分類されて
いる。各ユニットは入力層→中間層→出力層の方向に接
続され、ネットワーク(ニューラルネット)を形成す
る。各ユニットの結合の強さは学習により決定される。
ただし、各層内でのユニット相互の接続はない。各ユニ
ットのモデルを第3図に示す。
FIG. 2 shows a model of the neurocomputer. This model was proposed by Rumelhart and others, and backpropagation (Back Propagati
on) model (hereinafter abbreviated as BP model). A neurocomputer is composed of many units (neurons), and the units are classified into an input layer, a hidden layer, and an output layer. Each unit is connected in the order of input layer → intermediate layer → output layer to form a network (neural network). The strength of the connection of each unit is determined by learning.
However, there is no connection between the units in each layer. FIG. 3 shows a model of each unit.

次に、このBPモデルの学習アルゴリズムの原理を説明
する。あるパターンPを入力層に与えた時、出力層に現
われる実際の出力値をOpj0とし、その時の望ましい出力
値(以下、教師信号という)をtpjとすると、両者の差
Epjは次のように表わされる。
Next, the principle of this BP model learning algorithm will be described. When a certain pattern P is given to the input layer, the actual output value appearing in the output layer is defined as Opj 0, and the desired output value (hereinafter referred to as a teacher signal) at that time is defined as tpj.
Epj is expressed as follows.

Epj=1/2(tpj−Opj0 ……(1) 学習させるには、この誤差Epjを減少させるように、
全てのユニットの結合の強さを変えればよい。
Epj = 1/2 (tpj−Opj 0 ) 2 (1) In order to perform learning, the error Epj should be reduced as follows.
What is necessary is just to change the strength of the connection of all the units.

パターンPを与えたときの(K−1)層のi番目のユ
ニットからK層のj番目のユニットに対する結合の強さ
Wjiの変化量を次のように定義する。ここで、Kは出力
層を0として、入力層になるにつれて増える。
The strength of the connection from the i-th unit of the (K-1) layer to the j-th unit of the K layer when the pattern P is given
The change amount of Wji is defined as follows. Here, K increases as the output layer becomes 0 and the input layer becomes 0.

ΔpWjiK∝−∂Ep/∂WjiK ……(2) ∂Ep/∂WjiK =(∂Ep/∂net pjK)・(∂net pjK/∂WjiK) ……(3) ここで、 である。ΔpWji K ∝−∂Ep / ∂Wji K …… (2) ∂Ep / ∂Wji K = (∂Ep / ∂net pj K ) · (∂net pj K / ∂Wji K ) …… (3) It is.

また、fをシグモイド(Sigmoid)関数として、OpkK
=f(net pkK)と表わすと、(3)式は次のように変
形される。シグモイド関数を第4図に示す。
Also, if f is a sigmoid function, Opk K
= F (net pk K ), the equation (3) is modified as follows. The sigmoid function is shown in FIG.

∂Epj/∂WjiK=−δpjK・OpiK+1 ……(4) ここで、δpjKは第K層における誤差の後向き伝播量
であり、δpjK=−∂Epj/∂net pjKである。従って、
(2)式は次のように変形される。ここで、ηは定数で
ある。
∂Epj / ∂Wji K = −δpj K · Opi K + 1 (4) where δpj K is the backward propagation amount of the error in the K-th layer, and δpj K = −∂Epj / ∂net pj K is there. Therefore,
Equation (2) is modified as follows. Here, η is a constant.

ΔpWjiK=η・δpjK・OpiK+1 ……(5) 出力ユニットの場合は、Epj=1/2(tpj−Opj02,Op
j0=f(net pj0)なので、出力層の後向き伝播量δpj0
は、次のようになる。
ΔpWji K = η · δpj K · Opi K + 1 ... (5) In the case of an output unit, Epj = 1/2 (tpj−Opj 0 ) 2 , Op
Since j 0 = f (net pj 0 ), the backward propagation amount δpj 0 of the output layer
Is as follows:

中間ユニットの場合は、各層内でのユニットの結合は
ないので、誤差の後向き伝播量は次のようになる。
In the case of the intermediate unit, there is no unit combination in each layer, and the backward propagation amount of the error is as follows.

(7)式はδの再帰関数である。 Equation (7) is a recursive function of δ.

ΔpWjiKを一般的に定式化すると、次のようになる。The general formulation of ΔpWji K is as follows.

ΔpWjiK(n+1) =ηδpjK・OpiK+1+αΔpWjiK(n) ……(8) ただし、ΔpWjiK(0)=0であり、nは学習の回数
を表わす。(8)式の右辺の第2項は誤差の振動を減ら
し収束を速めるために加えている。(8)式から、結合
の強さは次のように更新される。
ΔpWji K (n + 1) = ηδpj K · Opi K + 1 + αΔpWji K (n) (8) where ΔpWji K (0) = 0 and n represents the number of times of learning. The second term on the right side of equation (8) is added to reduce the error oscillation and speed up the convergence. From equation (8), the strength of the connection is updated as follows.

WjiK(n+1) =Wjik(n)+ΔpWjiK(n) (K=0,1,2,…) ……(9) ここで、シグモイド関数fiを fi=1/(1+e-neti) ……(10) で定義するとfi′=fi(1−fi)であるので後向き伝播
量は次式のように簡単化される。
Wji K (n + 1) = Wji k (n) + ΔpWji K (n) (K = 0, 1, 2,...) (9) Here, the sigmoid function fi is represented by fi = 1 / (1 + e- neti ). Since fi ′ = fi (1-fi) defined by (10), the amount of backward propagation is simplified as in the following equation.

出力ユニットの場合: δpj0=Opj0(1−Opj0)(tpj−Opj0) ……(11) 中間ユニットの場合: 以上からわかるように、ΔWの計算は出力層のユニッ
トから始めて、中間層のユニットへ移る。このように学
習は入力データの処理とは逆方向に進む。
In the case of an output unit: δpj 0 = Opj 0 (1−Opj 0 ) (tpj−Opj 0 ) (11) In the case of an intermediate unit: As can be seen from the above, the calculation of ΔW starts from the unit of the output layer and moves to the unit of the intermediate layer. Thus, the learning proceeds in a direction opposite to the processing of the input data.

従って、BPモデルによる学習は次のように行われる。
先ず、学習用のデータを入力し、結果を出力する。次
に、結果の誤差(実際の出力と教師信号との差)を減ら
すように結合の強さを変える。そして、再び、学習用デ
ータを入力する。この動作を、ΔWが収束するまで繰り
返す。
Therefore, learning using the BP model is performed as follows.
First, learning data is input, and the result is output. Next, the coupling strength is changed so as to reduce the resulting error (the difference between the actual output and the teacher signal). Then, the learning data is input again. This operation is repeated until ΔW converges.

第5図にBPモデルの基本回路構成を示す。 FIG. 5 shows the basic circuit configuration of the BP model.

ランダムアクセスメモリ(以下RAMと記す)1は結合
の強さWjiを格納し、層毎にk=1〜NのNページから
成る。RAM2はパターンPを与えたときの結合の強さWji
の変化量ΔWjiを格納し、k=1〜NのNページから成
る。RAM3は誤差の後向き伝播量δpjを格納し、k=0〜
Nの(N+1)ページから成る。RAM4は各ユニットの出
力値Opjを格納し、k=0〜Nの(N+1)ページから
成る。5はOpjの演算回路、6はδpjの演算回路、7は
ΔpWjiの演算回路である。9は全体のシーケンスを制御
するシーケンスコントローラである。
A random access memory (hereinafter referred to as RAM) 1 stores the strength of connection Wji, and is composed of N pages of k = 1 to N for each layer. RAM2 is the coupling strength Wji when the pattern P is given.
, And includes N pages of k = 1 to k. RAM3 stores the backward propagation amount δpj of the error, and k = 0 to
It consists of N (N + 1) pages. The RAM 4 stores the output value Opj of each unit and includes (N + 1) pages of k = 0 to N. 5 is an operation circuit of Opj, 6 is an operation circuit of δpj, and 7 is an operation circuit of ΔpWji. Reference numeral 9 denotes a sequence controller for controlling the entire sequence.

第5図のBPモデルによる学習のプロセスを説明する。
ここでは、ノイマン型のコンピュータによりBPモデルを
シミュレーションした場合の動作を、第6図〜第9図の
フローチャートを参照して説明する。第6図はOpj演算
のフローチャート、第7図はδpj演算のフローチャー
ト、第8図はWpj演算のフローチャート、第9図は学習
のレベル判定のフローチャートである。
The learning process using the BP model in FIG. 5 will be described.
Here, the operation when a BP model is simulated by a Neumann computer will be described with reference to the flowcharts of FIGS. 6 is a flowchart of the Opj operation, FIG. 7 is a flowchart of the δpj operation, FIG. 8 is a flowchart of the Wpj operation, and FIG. 9 is a flowchart of the learning level determination.

ステップ1(S1)でRAM1内の結合の強さWjiをランダ
ムな値に初期化する。ステップ2で入力値OpjN+1をRAM4
に設定し、ステップ3〜ステップ9で演算回路5により
入力層から出力層に向かって順にユニット出力値OpjK
演算していく。
In step 1 (S1), the connection strength Wji in RAM1 is initialized to a random value. In step 2, input value Opj N + 1 is stored in RAM4
Set, will calculate the order unit output value OPJ K from the input layer toward the output layer by computation circuit 5 in step 3 to step 9.

次に、第7図のステップ11〜ステップ20で演算回路6
により出力値Opj0と望ましい出力を示す教師信号tpjと
から(11)式に従って出力層の誤差の後向き伝播量δpj
0を求める。
Next, in steps 11 to 20 of FIG.
From the output value Opj 0 and the teacher signal tpj indicating the desired output according to the equation (11),
Find 0 .

次に、第8図のステップ21〜ステップ24で演算回路7
により(8)式に従って結合の強さの変化量δpWji
0(1)を求める。なお、ΔpWji0の初期値ΔpWji
K(0)はすべて0である。ステップ25で演算回路8に
より(9)式に従って結合の強さWji0(1)を求める。
以上により、出力層のOpj0,δpj0,ΔpWji0(1),Wji0
(1)が求まる。この後、これらは初期データを更新す
る形でRAM1〜RAM4に格納される。
Next, in steps 21 to 24 of FIG.
ΔpWji
0 Find (1). Note that the initial value ΔpWji of ΔpWji 0
K (0) is all zero. In step 25, the connection strength Wji 0 (1) is obtained by the arithmetic circuit 8 according to the equation (9).
As described above, the output layers Opj 0 , δpj 0 , ΔpWji 0 (1), Wji 0
(1) is obtained. Thereafter, these are stored in the RAM1 to RAM4 in such a manner that the initial data is updated.

次に、中間層の学習を行なう。第7図のフローチャー
トに戻り、演算回路6により以上で求めたδpj0,Wji
0(1)、およびRAM4に格納されているOpj0を用いて、
誤差の後向き伝播量δpjKを求める。次に、第8図のフ
ローチャートにおいて、演算回路7により結合の強さの
変化量ΔpWjiK(1)を(8)式に従って求め、演算回
路8により結合の強さWjiK(1)を(9)式に従って求
める。出力層と同時に、以上で求めたデータはRAM1〜RA
M4に更新する形で格納されていく。以上のフローを入力
層(K=N+1)に向かって順次繰り返し行ない第1回
目の学習が終了する。
Next, learning of the intermediate layer is performed. Returning to the flowchart of FIG. 7, δpj 0 , Wji
0 (1) and Opj 0 stored in RAM4,
The backward propagation amount Δpj K of the error is obtained. Next, in the flowchart of FIG. 8, the change amount ΔpWji K (1) of the coupling strength is obtained by the arithmetic circuit 7 according to the equation (8), and the coupling strength Wji K (1) is calculated by the arithmetic circuit 8 as (9) ) Determined according to the formula. At the same time as the output layer, the data obtained above are RAM1 to RA
It is stored in the form updated to M4. The above flow is sequentially repeated toward the input layer (K = N + 1), and the first learning is completed.

以上の学習を複数(n)回実行することにより、各ユ
ニット間の結合の強さWjiが決定され、ある入力パター
ンPを示す入力値Opjを与えたときに所望の出力値Ppjを
得るためのネットワークが自動的に形成されることにな
る。
By performing the above learning a plurality of times (n), the strength of connection Wji between the units is determined, and when an input value Opj indicating a certain input pattern P is given, a desired output value Ppj is obtained. The network will be formed automatically.

第9図は、実際の出力値Opjと教師信号tpjとの平均
二乗誤差▲▼を求めるフローチャートである。この
値が小さくなる程、実際の出力値は望ましい出力値に近
くなる。いまEpがあるしきい値εより小さければ学習を
終了し、εより大きければ学習を繰り返す。
FIG. 9 is a flowchart for calculating the mean square error ▲ between the actual output value Opj and the teacher signal tpj. The smaller this value is, the closer the actual output value is to the desired output value. If Ep is smaller than a certain threshold value ε, the learning is terminated, and if Ep is larger than ε, the learning is repeated.

以上では、1つの入力パターンPに対する学習につい
て述べたが、入力パターンを複数にし、それぞれのパタ
ーンに対応した複数の出力パターンを得るような学習も
可能である。また、複数の入力パターンに対してある特
定の1つの出力パターンを出力するように学習させるこ
とも可能である。
In the above, the learning for one input pattern P has been described. However, it is also possible to perform learning such that a plurality of input patterns are obtained and a plurality of output patterns corresponding to each pattern are obtained. It is also possible to learn to output one specific output pattern for a plurality of input patterns.

以上述べたBPモデルは、現在広く民生機器等で使用さ
れているノイマン型のマイクロコンピュータ実現可能で
あるが、このままではニューロコンピュータの1つの大
きな長所である並列処理による高速化の機能は生かされ
ない。そのため、第6図〜第9図の処理を複数のコンピ
ュータで並列に処理させることが好ましい。
The BP model described above can be realized by a Neumann-type microcomputer that is widely used in consumer devices and the like at present, but as it is, the function of speeding up by parallel processing, which is one of the great advantages of the neurocomputer, cannot be utilized. Therefore, it is preferable that the processes in FIGS. 6 to 9 be processed in parallel by a plurality of computers.

第10図はこのための並列処理システムの構成を示す。
複数のマイクロプロセッサPl〜Pnがホストプロセッサ11
に接続される。第2図に示すニューラルネットをn個の
部分ネットワークに分割し、それぞれをマイクロプロセ
ッサPl〜Pnに割り当てる。ホストプロセッサ11は、マイ
クロプロセッサPl〜Pn相互のタイミングの制御を行なっ
たり、マイクロプロセッサPl〜Pnに分散されているデー
タを統合してパターン認識などの処理を行なう。各々の
マイクロプロセッサPl〜Pnは上述した演算手順に従い、
第5図に示す出力値Opjの連続する複数列の演算を実行
する。そのため、マイクロプロセッサPl〜Pnは担当する
出力値を演算するのに必要なδpj,ΔWji,Wjiをそれぞれ
格納するためのRAMと演算回路を備えている。担当する
全てのユニットの出力値の演算が終了すると、各プロセ
ッサPl〜Pn間で同期をとりながら、データの更新のため
の通信が行われる。ホストプロセッサ11においては、学
習の達成レベルの判定や、マイクロプロセッサPl〜Pn相
互のタイミングの制御を行なう。
FIG. 10 shows the configuration of a parallel processing system for this purpose.
A plurality of microprocessors Pl to Pn are the host processor 11
Connected to. The neural network shown in FIG. 2 is divided into n partial networks, each of which is assigned to the microprocessors P1 to Pn. The host processor 11 controls the timing between the microprocessors Pl to Pn, and performs processing such as pattern recognition by integrating data distributed to the microprocessors Pl to Pn. Each of the microprocessors Pl to Pn follows the operation procedure described above,
The calculation of the continuous plural columns of the output value Opj shown in FIG. 5 is executed. Therefore, the microprocessors Pl to Pn are provided with a RAM and an arithmetic circuit for respectively storing δpj, ΔWji, and Wji necessary for calculating the output value in charge. When the calculation of the output values of all the units in charge is completed, communication for updating the data is performed while synchronizing the processors Pl to Pn. The host processor 11 determines the learning achievement level and controls the timing of the microprocessors Pl to Pn.

学習した結果に基づいて、パターン認識等の処理を行
なう場合は、第2図に示す入力層から出力層に向かっ
て、 の演算を行なっていくことにより、最終的に必要な出力
値Ppj0が求められる。この場合も、第11図に示すような
複数のマイクロプロセッサによる分散処理を実行するこ
とによりニューラルネットの並列性による高速化がはか
れる。
When processing such as pattern recognition is performed based on the learned result, from the input layer to the output layer shown in FIG. By performing the above calculation, the finally required output value Ppj 0 is obtained. Also in this case, by executing distributed processing by a plurality of microprocessors as shown in FIG. 11, the speed can be increased by the parallelism of the neural network.

なお、学習の過程においては基本的に第5図に示す回
路が必要になるが、学習結果を応用するだけの場合、構
成は非常に簡単化される。
In the course of learning, the circuit shown in FIG. 5 is basically required. However, when only the learning result is applied, the configuration is greatly simplified.

第11図はこの場合の基本回路構成である。入力データ
は入力部12(例えば、A/D変換器等を指す)を介して の演算を順次行なうことにより、出力データOpj0を得
る。結合の強さWjiKの格納される係数メモリ14はROM、
または書き替え可能なROMでもよい。
FIG. 11 shows a basic circuit configuration in this case. The input data is input via an input unit 12 (for example, indicating an A / D converter or the like). Are sequentially performed to obtain output data Opj 0 . The coefficient memory 14 storing the coupling strength Wji K is ROM,
Alternatively, a rewritable ROM may be used.

第12図は学習結果を応用する製品に対する製造時の学
習システムの概略ブロック図である。製品16は、結合の
強さWjiKを格納するROM17を内蔵する。18は学習装置で
あり、ROM17と学習装置18を合せたものは基本的には第
5図の装置と同一であるが、ROM17へのWjiKの書き込み
が終了すると、製品16(ROM17)と学習装置18は分離さ
れる。なお、同一種類の各製品に対して、毎回学習させ
る必要はないので、ROM17をコピーして使用することも
可能である。
FIG. 12 is a schematic block diagram of a learning system at the time of manufacturing a product to which the learning result is applied. Product 16 has a built-in ROM17 for storing the intensity Wji K of binding. Reference numeral 18 denotes a learning device. The combination of the ROM 17 and the learning device 18 is basically the same as the device shown in FIG. 5, but when the writing of Wji K to the ROM 17 is completed, the learning device 18 and the learning device 18 are read. The device 18 is separated. Since it is not necessary to learn each product of the same type each time, the ROM 17 can be copied and used.

なお、以上の説明において、BPモデルの学習とその結
果の応用については、現在使われているノイマン型コン
ピュータによるシミュレーションにより実現してきた。
これは主に学習においては、複雑なアルゴリズムが必要
で、ハードウエアで自動的に各ニューロン間の接続の重
みを自己組織化するのが非常に難かしいためである。し
かしながら、結合の強さWijがわかれば、学習結果を応
用する機械に限定して考えると、図−1に示すBPモデル
をハードウエアで構成することができる。並列処理によ
る高速化をはかったり、廉価な民生品に応用する場合
は、この方法を採用しないと、意味はない。これは、第
2図の各ユニットをインバータで構成し、結合の強さWi
jを抵抗ネットワークRijに置き換えることで実現でき、
これは、最近のLSI化の技術を使えば簡単に実現でき
る。
In the above description, the learning of the BP model and the application of the result have been realized by simulation using a Neumann-type computer that is currently used.
This is mainly because learning requires a complicated algorithm, and it is very difficult to automatically organize the weights of connections between neurons automatically by hardware. However, if the coupling strength Wij is known, the BP model shown in FIG. 1 can be configured by hardware, considering only the machine to which the learning result is applied. In the case of speeding up by parallel processing or applying to inexpensive consumer products, it is meaningless unless this method is adopted. This means that each unit shown in Fig. 2 is composed of an inverter, and the coupling strength Wi
It can be realized by replacing j with a resistor network Rij,
This can be easily achieved using recent LSI technology.

次に、第1図を参照して、以上説明したニューロコン
ピュータを応用した露出制御装置を説明する。
Next, an exposure control apparatus to which the above-described neurocomputer is applied will be described with reference to FIG.

撮影カメラ20の前面には絞り19があり、絞り19を介し
た被写体像が、第14図に示すように光電変換素子Pmnを
マトリクス状に配置してなる受光部21に入射される。そ
のため、受光部21からは、光電変換素子毎に、絞り込ま
れた状態における被写体の輝度情報が出力され、増幅器
22、A/D変換器23を介してディジタル値化されてBV′値
として演算回路(ALU)24に供給される。演算回路24
は、絞り19を通過した光から被写体の輝度BV(=BV′−
AVo)を演算するための回路であり、このため、絞り19
の開放絞り値AVoが入力されている。
An aperture 19 is provided on the front surface of the photographing camera 20, and a subject image passing through the aperture 19 is incident on a light receiving unit 21 in which photoelectric conversion elements Pmn are arranged in a matrix as shown in FIG. Therefore, from the light receiving unit 21, luminance information of the subject in the narrowed state is output for each photoelectric conversion element, and the
22, is digitized via an A / D converter 23 and supplied to an arithmetic circuit (ALU) 24 as a BV 'value. Arithmetic circuit 24
Is the brightness BV (= BV'−) of the subject from the light passing through the aperture 19.
AVo) is calculated.
Is open aperture value AVo.

演算回路24から出力された各光電変換素子毎のBV値は
演算回路27に供給されるとともに、ニューロコンピュー
タ25にも供給される。ニューロコンピュータ25は演算回
路24から出力される被写体の輝度分布パターンを入力Op
j0として、 の演算を行ない最終的に補正信号CVを求める。この結合
の強さWjiは係数メモリ26に格納されている。演算回路2
7は輝度BVの平均値、フィルム感度SV、絞り値AV、シャ
ッタースピードTV、シャッタ優先か絞り優先かなどのモ
ード信号(MOD)、ニューロコンピュータ25から供給さ
れた補正信号CVによりアペックス演算(BV+SV=TV+AV
+CV)を行ない、シャッタースピード、あるいは絞り値
を決定する。演算回路27の出力はシャッター制御装置2
8、絞り制御装置29に供給され、これらにより露出が制
御される。このように、この実施例は、平均測光値に対
してニューロコンピュータ25により求められた補正値を
考慮して露出が制御される。30はシーケンスコントロー
ラである。
The BV value for each photoelectric conversion element output from the arithmetic circuit 24 is supplied to the arithmetic circuit 27 and also to the neurocomputer 25. The neurocomputer 25 inputs the luminance distribution pattern of the subject output from the arithmetic circuit 24 Op
As j 0 , Is finally calculated to obtain the correction signal CV. The strength Wji of this connection is stored in the coefficient memory 26. Arithmetic circuit 2
7 is an apex calculation (BV + SV =) using the average value of the luminance BV, the film sensitivity SV, the aperture value AV, the shutter speed TV, the mode signal (MOD) such as shutter priority or aperture priority, and the correction signal CV supplied from the neurocomputer 25. TV + AV
+ CV) to determine the shutter speed or aperture value. The output of the arithmetic circuit 27 is the shutter control device 2
8. The exposure is supplied to the aperture control device 29, which controls the exposure. Thus, in this embodiment, the exposure is controlled in consideration of the correction value obtained by the neurocomputer 25 for the average photometric value. 30 is a sequence controller.

ニューロコンピュータ25の基本ブロック構成は第5図
に示す通りでもよいが、ここでは、高速化をはかるた
め、第10図に示すような並列コンピュータにより学習を
行なう。ここでは、被写体パターンをネットワークに入
力すると露出補正信号を出力するように、各ユニットの
結合の強さWjiを予め学習させておく。学習の結果得ら
れた結合の強さWjiは係数メモリ26に格納されている。
Although the basic block configuration of the neurocomputer 25 may be as shown in FIG. 5, here, learning is performed by a parallel computer as shown in FIG. 10 in order to increase the speed. Here, the coupling strength Wji of each unit is learned in advance so that an exposure correction signal is output when a subject pattern is input to the network. The coupling strength Wji obtained as a result of the learning is stored in the coefficient memory 26.

この学習システムを第13図に示す。モデルパターン32
は各種の被写体パターンOpjN+1をニューロコンピュータ
33に入力する入力部であり、A/D変換器等を含む。教師
信号35は各種の被写体パターンOpjN+1に対応する露出補
正信号を目標値tpjとしてニューロコンピュータ33に入
力する。ニューロコンピュータ33は実際の出力Opj0が教
師信号tpjと一致するような係合の強さWjiを学習によ
り求める。求められた結合の強さWjiは係数メモリ34に
格納されている。この係数メモリ34が係数メモリ26とし
てカメラに組込まれる。
This learning system is shown in FIG. Model pattern 32
Is a neurocomputer for various object patterns Opj N + 1
33 is an input section for inputting to 33, including an A / D converter and the like. As the teacher signal 35, an exposure correction signal corresponding to various object patterns Opj N + 1 is input to the neurocomputer 33 as a target value tpj. Neuro-computer 33 the actual output OPJ 0 is obtained by learning the strength Wji engagement to conform with the teacher signal TPJ. The determined connection strength Wji is stored in the coefficient memory 34. The coefficient memory 34 is incorporated in the camera as the coefficient memory 26.

学習を効率的に進めるためニューラルネットワークは
第15図に示すように、各行毎に独立したニューラルネッ
トS11,…で学習を行ない出力層S0で統合するようになっ
ている。ニューラルネットワークは入力層37、中間層3
8、出力層39の3層で構成され、学習の原理は前述した
通りである。
As shown in FIG. 15, the neural network performs learning by independent neural nets S11,... For each row and integrates them in the output layer S0, as shown in FIG. Neural network has input layer 37, hidden layer 3
8. The output layer 39 is composed of three layers, and the principle of learning is as described above.

第16図にモデルパターンの具体例を示す。(a)は逆
光撮影の例であり、この場合は補正量CVを+1EVにし、
人物を明るく撮る。(b)は海の例であり、この場合
は、空が明る過ぎて海が暗く写るので、補正量を+0.5E
Vとする。(c)は夜のネオン街の例であり、従来の方
法で撮ると、昼間のように明るく写ってしまいムードが
出ないので、補正量を−3EVとする。なお、この補正値
は平均測光値に対する補正値とする。以上は3つの例に
すぎないが、実際は数百のパターンを学習させる。
FIG. 16 shows a specific example of the model pattern. (A) is an example of backlight shooting, in which case the correction amount CV is set to +1 EV,
Take bright pictures of people. (B) is an example of the sea. In this case, since the sky is too bright and the sea is dark, the correction amount is + 0.5E.
V. (C) is an example of a neon street at night, and if photographed by a conventional method, the image is bright as in the daytime and the mood does not appear, so the correction amount is set to -3EV. This correction value is a correction value for the average photometric value. The above are only three examples, but in practice hundreds of patterns are learned.

なお、ニューロコンピュータはある程度の学習を行な
えば、学習時に入力されなかったパターンに対しても正
しい出力を出すという優れた性質があり、被写体主要部
の特定等の人間の感性によるところが大きく定式化の難
しい問題解決にたいへん有効である。また、ニューロコ
ンピュータの学習により、これまでノイマン型のコンピ
ュータではプログラム化できなかった膨大な種類の被写
体パターンと被写体主要部との関係が自己組織化される
ので、意図通りの露出制御を行なうことができる。さら
に、ニューロコンピュータの並列制御により高速演算が
可能なので、迅速性が要求される銀塩カメラ向きであ
る。
Note that the neurocomputer has an excellent property that if it learns to a certain extent, it outputs the correct output even for patterns that were not input at the time of learning, and it largely depends on human sensitivity such as identification of the main part of the subject. It is very effective for solving difficult problems. In addition, by learning the neurocomputer, the relationship between a huge variety of subject patterns and the main subject can be self-organized, which could not be programmed with a Neumann-type computer, so that exposure control can be performed as intended. it can. Furthermore, since high-speed calculations can be performed by parallel control of a neurocomputer, it is suitable for a silver halide camera requiring quickness.

この発明は上述した実施例に限定されずに、種々変形
可能である。以上の説明は、被写体主要部をニューロコ
ンピュータで学習させ、露出制御を行なう場合について
述べたが、ニューロコンピュータの教師信号として被写
体主要部の位置を与え、スポット測光等の学習を行なう
ことも可能である。また、ニューロコンピュータの入力
パラメータとして被写体の明るさだけでなく、温度や湿
度などを入力することにより、定式化の難しい微妙な季
節感を出すような学習も可能である。
The present invention is not limited to the above-described embodiment, but can be variously modified. In the above description, the case where the main part of the subject is learned by the neurocomputer and the exposure control is performed has been described. However, the position of the main part of the subject may be given as a teacher signal of the neurocomputer, and learning such as spot metering may be performed. is there. Further, by inputting not only the brightness of the subject but also the temperature and humidity as input parameters of the neurocomputer, it is also possible to perform learning to give a subtle seasonal feeling that is difficult to formulate.

〔発明の効果〕〔The invention's effect〕

以上説明したようにこの発明によれば、各種の被写体
パターン入力に対して所望の露出補正量を出力するよう
にニューロコンピュータを予め学習させておいて、その
出力に基づいて露出制御を行なうことにより、あらゆる
被写体パターンに対して意図する露出で写真を撮ること
ができる露出制御装置を提供することができる。
As described above, according to the present invention, the neurocomputer is previously trained so as to output a desired exposure correction amount for various subject pattern inputs, and exposure control is performed based on the output. Thus, an exposure control device capable of taking a photograph with an intended exposure for any subject pattern can be provided.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明による露出制御装置の一実施例のブロ
ック図、第2図は実施例に使われるニューロコンピュー
タのモデルを示す図、第3図はネットワークを構成する
各ユニットのモデルを示す図、第4図はシグモイド関数
を示す図、第5図はニューロコンピュータのブロック
図、第6図〜第9図は第5図のニューロコンピュータを
ノイマン型コンピュータでシミュレーションした時のフ
ローチャートであり、第6図は各ユニットの出力Opjを
求めるフローチャート、第7図は誤差の後向き伝播量δ
pjを求めるフローチャート、第8図は結合の強さ係数Wj
iを求めるフローチャート、第9図は学習のレベル判定
のためのフローチャート、第10図は並列処理システムの
ブロック図、第11図は学習結果を応用する装置のブロッ
ク図、第12図は学習結果を応用する装置を学習させるシ
ステムのブロック図、第13図は実施例のニューロコンピ
ュータを学習させる装置のブロック図、第14図は実施例
の光電変換素子の配置例を示す図、第15図は実施例のネ
ットワークを示す図、第16図(a)〜(c)は学習させ
る被写体の一例を示す図である。 21……受光部、24,27……演算回路、25……ニューロコ
ンピュータ、26……係数メモリ、28……シャッタ制御装
置、29……絞り制御装置。
FIG. 1 is a block diagram of an embodiment of an exposure control device according to the present invention, FIG. 2 is a diagram showing a model of a neurocomputer used in the embodiment, and FIG. 3 is a diagram showing a model of each unit constituting a network. FIG. 4 is a diagram showing a sigmoid function, FIG. 5 is a block diagram of a neurocomputer, and FIGS. 6 to 9 are flowcharts when the neurocomputer of FIG. 5 is simulated by a Neumann computer. The figure shows a flowchart for calculating the output Opj of each unit. FIG. 7 shows the backward propagation amount δ of the error.
FIG. 8 is a flowchart for calculating pj, and FIG.
9 is a flowchart for determining the level of learning, FIG. 10 is a block diagram of a parallel processing system, FIG. 11 is a block diagram of a device that applies the learning result, and FIG. 13 is a block diagram of a system for learning the neurocomputer of the embodiment, FIG. 14 is a block diagram of an arrangement example of the photoelectric conversion elements of the embodiment, and FIG. FIGS. 16 (a) to 16 (c) are diagrams showing an example network, and are diagrams showing an example of a subject to be learned. 21 ... light receiving unit, 24, 27 ... arithmetic circuit, 25 ... neuro computer, 26 ... coefficient memory, 28 ... shutter control device, 29 ... aperture control device.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 児玉 晋一 東京都渋谷区幡ケ谷2丁目43番2号 オ リンパス光学工業株式会社内 (56)参考文献 特開 平1−204171(JP,A) 特開 平2−33687(JP,A) 特開 平2−81159(JP,A) 特開 平2−83656(JP,A) (58)調査した分野(Int.Cl.6,DB名) G03B 7/00 - 7/28 G06F 15/18──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Shinichi Kodama 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Co., Ltd. (56) References JP-A-1-204171 (JP, A) JP JP-A-2-33687 (JP, A) JP-A-2-81159 (JP, A) JP-A-2-83656 (JP, A) (58) Fields studied (Int. Cl. 6 , DB name) G03B 7 / 00-7/28 G06F 15/18

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数の光電変換素子からなる受光部と、前
記受光部に被写体像を結像させる光学系と、前記受光部
の出力に接続され露出補正信号を出力するネットワーク
と、前記受光部の出力と前記ネットワークの出力に基づ
いてカメラの露出を制御する手段を具備し、前記ネット
ワークは前記受光部の出力に接続される複数のユニット
からなる入力層と、前記入力層の個々のユニットと所定
の結合の強さで結合された複数のユニットからなる単
層、または複数層の中間層と、前記中間層の個々のユニ
ットと所定の結合の強さで結合された複数のユニットか
らなる出力層を具備する露出制御装置。
A light receiving unit comprising a plurality of photoelectric conversion elements; an optical system for forming a subject image on the light receiving unit; a network connected to an output of the light receiving unit for outputting an exposure correction signal; Means for controlling the exposure of the camera based on the output of the network and the output of the network, the network comprising: an input layer consisting of a plurality of units connected to the output of the light receiving unit; and individual units of the input layer. A single-layer or multiple-layer intermediate layer composed of a plurality of units coupled with a predetermined coupling strength, and an output composed of a plurality of units coupled with the individual units of the intermediate layer with a predetermined coupling strength Exposure control device comprising a layer.
JP63250464A 1988-10-04 1988-10-04 Exposure control device Expired - Fee Related JP2793815B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP63250464A JP2793815B2 (en) 1988-10-04 1988-10-04 Exposure control device
US07/415,179 US4978990A (en) 1988-10-04 1989-09-29 Exposure control apparatus for camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63250464A JP2793815B2 (en) 1988-10-04 1988-10-04 Exposure control device

Publications (2)

Publication Number Publication Date
JPH0296723A JPH0296723A (en) 1990-04-09
JP2793815B2 true JP2793815B2 (en) 1998-09-03

Family

ID=17208261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63250464A Expired - Fee Related JP2793815B2 (en) 1988-10-04 1988-10-04 Exposure control device

Country Status (1)

Country Link
JP (1) JP2793815B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2728222B2 (en) * 1990-05-25 1998-03-18 キヤノン株式会社 Information recording / reproducing device
US5266984A (en) * 1991-03-22 1993-11-30 Nikon Corporation Exposure calculating apparatus for camera

Also Published As

Publication number Publication date
JPH0296723A (en) 1990-04-09

Similar Documents

Publication Publication Date Title
JP2761391B2 (en) Focus detection device
US4978990A (en) Exposure control apparatus for camera
JP4208485B2 (en) Pulse signal processing circuit, parallel processing circuit, pattern recognition device, and image input device
CN111275742B (en) Target identification method, device and system and computer readable storage medium
US5136687A (en) Categorization automata employing neuronal group selection with reentry
US7676441B2 (en) Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method
EP1164537B1 (en) Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
JP4708278B2 (en) Touch panel system and operation method thereof
JP4478296B2 (en) Pattern detection apparatus and method, image input apparatus and method, and neural network circuit
CN111241925A (en) Face quality evaluation method, system, electronic equipment and readable storage medium
WO2022179581A1 (en) Image processing method and related device
CN111368672A (en) Construction method and device for genetic disease facial recognition model
CN108563977A (en) A kind of the pedestrian's method for early warning and system of expressway entrance and exit
CN113326735B (en) YOLOv 5-based multi-mode small target detection method
US20240019777A1 (en) Training method and apparatus for lithographic mask generation model, device and storage medium
JP2793815B2 (en) Exposure control device
JP2793817B2 (en) Exposure control device
JP2793816B2 (en) Camera with learning function
JP4510237B2 (en) Pattern detection apparatus and method, image processing apparatus and method
US5227830A (en) Automatic camera
Lin et al. Image backlight compensation using neuro-fuzzy networks with immune particle swarm optimization
US5266984A (en) Exposure calculating apparatus for camera
JP2909111B2 (en) Camera exposure calculation device
JPH02183238A (en) Exposure controller
JP3217052B2 (en) Camera focus detection device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees