JP2909111B2 - Camera exposure calculation device - Google Patents

Camera exposure calculation device

Info

Publication number
JP2909111B2
JP2909111B2 JP1307324A JP30732489A JP2909111B2 JP 2909111 B2 JP2909111 B2 JP 2909111B2 JP 1307324 A JP1307324 A JP 1307324A JP 30732489 A JP30732489 A JP 30732489A JP 2909111 B2 JP2909111 B2 JP 2909111B2
Authority
JP
Japan
Prior art keywords
exposure
neural network
luminance data
input
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1307324A
Other languages
Japanese (ja)
Other versions
JPH03167535A (en
Inventor
隆史 吉原
利昭 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP1307324A priority Critical patent/JP2909111B2/en
Publication of JPH03167535A publication Critical patent/JPH03167535A/en
Priority to US07/916,792 priority patent/US5227830A/en
Application granted granted Critical
Publication of JP2909111B2 publication Critical patent/JP2909111B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明はカメラの露出演算装置に関する 〔従来の技術〕 従来、カメラの露出制御においては、特開昭57−4202
6号公報に記載のように、実写データをもとに複数の輝
度パターンを設定し、画面を複数領域に分割して測定し
た各輝度値と輝度パターンとを照合演算し、中央重点、
平均、高輝度重視、低輝度重視等の露出決定因子の中か
ら最適なものを選び、露出制御を行なうものがある。ま
た、特開昭61−173226号公報に記載のように、画面中央
部のスポット輝度値と画面全体の平均輝度値とから逆光
状態を検知し、露出補正を行なうものがある。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an exposure calculating device for a camera. 2. Description of the Related Art
As described in Japanese Patent Publication No. 6, a plurality of luminance patterns are set based on the actual image data, each luminance value measured by dividing the screen into a plurality of regions and a luminance pattern are collated, and the center weight is calculated.
Some exposure control is performed by selecting an optimum exposure determining factor from among exposure determining factors such as an average, high luminance emphasis, and low luminance emphasis. Further, as disclosed in Japanese Patent Application Laid-Open No. 61-173226, there is a method in which a backlight state is detected from a spot luminance value at the center of a screen and an average luminance value of the entire screen to perform exposure correction.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかしながら、従来の露出制御は、事前にプログラム
化されたある限られた情景には対応可能であるが、それ
以外の情景には上手く対応できない場合があった。ま
た、画面中央部を重視した露出制御では、画面中央部に
撮影したい被写体がある場合には適切な露出が得られる
が、それ以外の場合には適切な露出が得られない。な
お、このような場合でも、撮影したい被写体を画面中央
部に位置させてからAEロックすれば、被写体の位置にか
かわらず、常に適正な露出が得られるが、AEロックは操
作が面倒であるので、迅速な撮影には向かない。
However, the conventional exposure control can cope with some limited scenes programmed in advance, but cannot cope well with other scenes. In the exposure control that emphasizes the center of the screen, an appropriate exposure can be obtained when there is a subject to be photographed in the center of the screen, but otherwise, an appropriate exposure cannot be obtained. Even in such a case, if the subject you want to shoot is positioned in the center of the screen and then AE-locked, you can always get the proper exposure regardless of the position of the subject, but AE lock is cumbersome to operate. Not suitable for quick shooting.

この発明は上述した事情に対処すべきなされたもの
で、その目的は、どのような状況の下でも短時間で最適
な露出を得ることができる簡単な構成のカメラの露出演
算装置を提供することである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide an exposure calculation device for a camera having a simple configuration capable of obtaining an optimum exposure in a short time under any circumstances. It is.

〔課題を解決するための手段および作用〕[Means and actions for solving the problem]

この発明によるカメラの焦点検出装置は、所定のシナ
プス結合強度を介して輝度データベクトルが入力される
複数のニューロン・ユニットからなる単一層のニューラ
ル・ネットワークを具備する。このニューラル・ネット
ワークを、任意の画面の複数の点毎の輝度データの集合
である輝度データベクトルが入力された時にその画面に
対する露出補正値情報を出力するように学習させてお
き、その出力に基づいて露出を決定する。ここで、露出
補正値の範囲は±5EV程度とする。なお、学習の際に
は、輝度データベクトルが類似している画面どうしでは
露出補正値も同様な値であると仮定し、多数のモデルパ
ターンを使ってニューラル・ネットワークに各輝度デー
タベクトルを学習させる。
A focus detection device for a camera according to the present invention includes a single-layer neural network including a plurality of neuron units to which a luminance data vector is input via a predetermined synaptic connection strength. This neural network is trained to output exposure correction value information for a given screen when a brightness data vector, which is a set of brightness data for each of a plurality of points on an arbitrary screen, is input. To determine the exposure. Here, the range of the exposure correction value is about ± 5 EV. At the time of learning, the exposure correction value is assumed to be the same between screens having similar luminance data vectors, and the neural network learns each luminance data vector using a number of model patterns. .

第1図にこの発明によるニューラル・ネットワークを
使った露出補正値の決定手段の概略を示す。左側に示す
入力画面はファインダに写る撮影画面であり、2次元マ
トリクス状に配列された領域Pi(i=1〜n(nは正整
数、第1図では9))に分割され、各領域Pi毎に輝度デ
ータDiが得られる。右側に示すニューラル・ネットワー
クは入力画面の各領域毎の輝度データベクトルDiを入力
し、その画面に対する露出補正値Exを決定するものであ
る。この発明で用いられるニューラル・ネットワークは
所定のシナプス結合強度を介して輝度データベクトルが
入力される複数個(ここでは25個)のニューロン・ユニ
ットからなる単一層のネットワークであり、升目として
示される各ニューロン・ユニットに全輝度データベクト
ルが入力される。
FIG. 1 shows an outline of a means for determining an exposure correction value using a neural network according to the present invention. The input screen shown on the left is a photographing screen shown in the viewfinder, and is divided into regions Pi (i = 1 to n (n is a positive integer, 9 in FIG. 1)) arranged in a two-dimensional matrix, and each region Pi The luminance data Di is obtained every time. The neural network shown on the right side inputs a luminance data vector Di for each region of the input screen and determines an exposure correction value Ex for the screen. The neural network used in the present invention is a single-layer network composed of a plurality of (here, 25) neuron units to which a luminance data vector is input via a predetermined synaptic connection strength. The full luminance data vector is input to the neuron unit.

ニューラル・ネットワークの学習は次の2つのステッ
プからなる。先ず、多数のモデルパターンにおける輝度
データベクトルをニューラル・ネットワークに入力し、
教師なし学習により所定のシナプス結合強度を獲得して
おく。教師なし学習とは、教師データがなくても与えら
れた特定の入力ベクトルに選択的に反応するように各ニ
ューロン・ユニットのシナプス結合強度を修正すること
であり、これにより、輝度データベクトルがネットワー
ク上で自動的に分類される。そして、次に、モデルパタ
ーンの輝度データベクトルをニューラル・ネットワーク
に再度入力したときのニューラル・ネートワークの出力
ニューロン・ユニットと、そのモデルパターンにおける
露出補正値とを対応づけておく。すなわち、第1図の各
ニューロン・ユニットに記されている値が露出補正値で
ある。
Learning a neural network consists of the following two steps. First, luminance data vectors in a number of model patterns are input to a neural network,
A predetermined synapse connection strength is obtained by unsupervised learning. Unsupervised learning is the modification of the synaptic connection strength of each neuron unit so that it selectively responds to a given input vector without supervision data. Automatically categorized above. Next, the output neuron unit of the neural network when the luminance data vector of the model pattern is input again to the neural network is associated with the exposure correction value in the model pattern. That is, the value described for each neuron unit in FIG. 1 is the exposure correction value.

撮影の際には、第1図に示すように撮影したい画面中
の各領域Pi毎の輝度データベクトルDiをこのように学習
されたニューラル・ネットワークに入力すると、いずれ
か1つのニューロン・ユニットが最も強く発火し(第1
図では発火したニューロン・ユニットに斜線を付す)、
そのニューロン・ユニットに対応する露出補正値Ex(第
1図ではE7)が適正露出補正値であると判断でき、そこ
に応じて露出を補正すると、常に適正露出で写真が撮影
できる。
At the time of photographing, as shown in FIG. 1, when a luminance data vector Di for each region Pi in the screen to be photographed is input to the neural network trained in this way, one of the neuron units becomes the most important. Ignite strongly (1st
In the figure, the firing neuron unit is shaded),
It can be determined that the exposure correction value Ex (E7 in FIG. 1) corresponding to the neuron unit is a proper exposure correction value, and if the exposure is corrected accordingly, a photograph can always be taken with the proper exposure.

第2図〜第4図を参照してこの発明で用いられるニュ
ーラル・ネットワークを説明する。このニューラル・ネ
ットワークのモデルはヘルシンキ工科大(フィンラン
ド)のコホーネン(Kohonen)が提唱したものであり、
自己組織化ネットワークと呼ばれる。その学習手法は自
己組織化特徴マッピングとして知られている。
The neural network used in the present invention will be described with reference to FIGS. The neural network model was proposed by Kohonen of Helsinki University of Technology (Finland),
Called a self-organizing network. The learning method is known as self-organizing feature mapping.

第2図に各ニューロン・ユニットのモデルを示す。ニ
ューロン・ユニットは入力ベクトルの各入力値とシナプ
ス結合を介して接続され、その入力値と各シナプス結合
強度を比較して両者のマッチング度に応じた出力を発生
する。
FIG. 2 shows a model of each neuron unit. The neuron unit is connected to each input value of the input vector via a synapse connection, compares the input value with each synapse connection strength, and generates an output according to the degree of matching between the two.

第i番目のニューロン・ユニットの出力yiは次式で示
される。
The output yi of the ith neuron unit is given by

ここで、f()はニューロン・ユニットの出力関数
(通常、シグモイド形の単調増加関数)、 wijは第i番目のニューロン・ユニットの第j番目の
入力xkjに対するシナプス結合強度、 xkjは第k番目の入力ベクトルの第j番目の入力値、 nは入力ベクトルの次元数である。
Where f () is the output function of the neuron unit (usually a sigmoidal monotonically increasing function), wij is the synaptic connection strength for the jth input xkj of the ith neuron unit, and xkj is the kth J is the j-th input value of the input vector, and n is the number of dimensions of the input vector.

ニューラル・ネットワークは各ニューロン・ユニット
を2次元的に配置して構成されるが、ここでは、説明の
簡単化のため1次元的にモデル化したものを第3図に示
す。
The neural network is configured by arranging each neuron unit two-dimensionally. Here, FIG. 3 shows a one-dimensionally modeled one for simplicity of explanation.

第3図に示すように、このニューラル・ネットワーク
はニューロン・ユニットの出力から入力への信号のフィ
ードバック結合の効果を導入した自己組織化特徴マッピ
ングが行なわれる。ここで、wikは第k番目のニューロ
ン・ユニットから第i番目のニューロン・ユニットに向
かうフィードバック結合強度である。
As shown in FIG. 3, the neural network performs a self-organizing feature mapping that introduces the effect of feedback coupling of the signal from the output to the input of the neuron unit. Here, wik is the feedback coupling strength from the k-th neuron unit to the i-th neuron unit.

第4図はこのようなフィードバック結合のシナプス結
合強度への影響の度合を示す。すなわち、フィードバッ
ク結合の効果によりシナプス結合強度はメキシカンハッ
トタイプの形状の特性変化を示し、ある特定のニューロ
ン・ユニットの出力値が上昇すると、それに距離的に近
い位置関係にあるニューロン・ユニットもそれにひきづ
られて出力値が上昇するが、さらにその外側にあるニュ
ーロン・ユニットは逆に出力値が下がる。
FIG. 4 shows the degree of the influence of such feedback coupling on the synaptic coupling strength. In other words, the synaptic connection strength shows a change in the characteristics of the Mexican hat type shape due to the effect of the feedback connection, and when the output value of a specific neuron unit increases, the neuron units in a positional relationship close to the distance also draw to it. Therefore, the output value of the neuron unit outside the output value decreases.

このフィードバック結合の効果を考慮したシナプス結
合強度の学習が最適のマッチングをしたニューロン・ユ
ニットの近傍でのみ行なわれるように簡略化すると、こ
のニューラル・ネットワークの学習処理(自己組織化特
徴マッピング)は以下の手順で行なうことができる。
Simplifying the learning of the synapse connection strength taking into account the effect of this feedback connection so that it is performed only near the optimally matched neuron unit, the learning process (self-organizing feature mapping) of this neural network is as follows. The procedure can be performed as follows.

#1:Wi(10)を乱数で初期化し、学習回数t=0とす
る。ここで、Wi(t)=(wi1(t),wi2(t),…w
in(t))である。
# 1: Wi (10) is initialized with random numbers, and the number of times of learning t = 0. Here, Wi (t) = (wi1 (t), wi2 (t),... W
in (t)).

以下、各入力ベクトルXkに対してステップ#2,#3の
処理を繰り返す。
Hereinafter, the processing of steps # 2 and # 3 is repeated for each input vector Xk.

#2:t=t+1とし、次式を満足する最適合ニューロン
・ユニットcを求める。
# 2: Assuming that t = t + 1, an optimal combined neuron unit c satisfying the following equation is obtained.

‖Xk−wc(t)‖=min{‖Xk−Wi(t)‖} …(2) ここで、Xk=(xki,xk2,…xkn)、wc(t)は最適
合ニューロン・ユニットcのシナプス結合強度である。
{Xk−wc (t)} = min {Xk−Wi (t)} (2) where Xk = (xki, xk2,..., Xkn), and wc (t) is the optimal combined neuron unit c. It is the synaptic connection strength.

#3:i∈Ne(t)の場合はWi(t+1)=Wi(t)+α
(t)×(Xk−Wi(t))とし、 i∈Nc(t)以外の場合はWi(t+1)=Wi(t)とす
る。
# 3: If itNe (t), Wi (t + 1) = Wi (t) + α
(T) × (Xk−Wi (t)), and if i∈Nc (t), Wi (t + 1) = Wi (t).

ここで、α(t)は学習係数、Nc(t)は最適合ニュ
ーロン・ユニットcの近傍にあるニューロン・ユニット
の集合であり、通常、α(t),Nc(t)ともに、単調
減少関数である。
Here, α (t) is a learning coefficient, and Nc (t) is a set of neuron units near the optimal combined neuron unit c. Normally, both α (t) and Nc (t) are monotonically decreasing functions. It is.

このように自己組織化特徴マッピングを行なうことに
より、近傍にあるニューロン・ユニットのシナプス結合
強度は類似したものとなる。また、モデルパターン間の
類似度、相関性等の統計的性質を反映したシナプス結合
強度が獲得されるので、各モデルパターンのベクトル量
子化がなされ、モデルパターンの分類が可能となる。ま
た、任意の撮影画面の露出補正値の決定処理は最適合ニ
ューロン・ユニットcの決定処理と考えることができる
が、これはステップ#2から推察されるように、演算量
が少なく高速な決定処理が可能である。
By performing the self-organizing feature mapping in this manner, the synaptic connection strengths of the neighboring neuron units become similar. In addition, since synapse connection strength reflecting statistical properties such as similarity and correlation between model patterns is obtained, vector quantization of each model pattern is performed, and classification of the model patterns becomes possible. Further, the process of determining the exposure correction value of an arbitrary photographing screen can be considered as the process of determining the optimal combined neuron unit c. Is possible.

〔実施例〕〔Example〕

以下、第5図〜第7図を参照してこの発明によるカメ
ラの露出演算装置の実施例を説明する。第5図は実施例
としての自動露出制御カメラのブロック図である。レン
ズ1を介して入射された1画面の被写体の複数の領域毎
の輝度を検出する複数と受光素子2i(i=1〜n)が設
けられ、これらにより得られた各領域毎の輝度データDi
が正規化演算回路3に供給される。正規化演算回路3は
輝度データDiをニューラル・ネットワーク5に入力でき
るように0から1までの実数値に正規化し、上述した入
力データパターンxkjを得る。正規化演算回路3の出力
は既に学習により獲得されたシナプス結合強度を持ち複
数のニューロン・ユニットからなる単一層のニューラル
・ネットワーク5に入力される。
Hereinafter, an embodiment of an exposure calculation device for a camera according to the present invention will be described with reference to FIGS. 5 to 7. FIG. 5 is a block diagram of an automatic exposure control camera as an embodiment. A plurality of light-receiving elements 2i (i = 1 to n) for detecting the luminance of each of a plurality of regions of the subject on one screen incident through the lens 1 and the light-receiving elements 2i (i = 1 to n) are provided.
Is supplied to the normalization operation circuit 3. The normalization operation circuit 3 normalizes the luminance data Di to a real value from 0 to 1 so that it can be input to the neural network 5, and obtains the input data pattern xkj described above. The output of the normalization operation circuit 3 is input to a single-layer neural network 5 having a synaptic connection strength already acquired by learning and comprising a plurality of neuron units.

ニューラル・ネットワーク5は、輝度データxkjが入
力され、各ニューロン・ユニットのシナプス結合強度w
ij(t)とのベクトル間距離 を計算し、そのベクトル間距離の最小値Dc=min{Ni}
の検索を行ない、その最小値を与えるニューロン・ユニ
ットに対応する露出補正値Exを出力する。なお、一般
に、ニューラル・ネットワーク5は測光領域総数の5〜
20倍程度のニューロン・ユニットからなる。この露出補
正値情報は露出演算回路4に入力される。撮影情報入力
部8からレンズの開放F値、絞り値、シャッタ速度、フ
ィルム感度、モード情報(シャッタ優先、絞り優先等)
も露出演算回路4に供給される。露出演算回路4はモー
ド情報に応じたアペックス演算(輝度値−開放F値+フ
ィルム感度=シャッタ速度+絞り値)と露出補正演算と
を行い、その結果をシャッタ制御回路6、絞り制御回路
7に供給する。
The neural network 5 receives the luminance data xkj, and receives the synaptic connection strength w of each neuron unit.
distance between ij (t) and vector , And the minimum value of the distance between the vectors Dc = min {Ni}
And outputs an exposure correction value Ex corresponding to the neuron unit giving the minimum value. In general, the neural network 5 has a total number of photometric areas of 5 to 5.
It consists of about 20 times as many neuron units. This exposure correction value information is input to the exposure calculation circuit 4. Open F-number, aperture value, shutter speed, film sensitivity, mode information (shutter priority, aperture priority, etc.) of the lens from the shooting information input unit 8
Is also supplied to the exposure calculation circuit 4. The exposure calculation circuit 4 performs an apex calculation (brightness value−open F value + film sensitivity = shutter speed + aperture value) and an exposure correction calculation according to the mode information, and outputs the result to the shutter control circuit 6 and the aperture control circuit 7. Supply.

第6図にニューラル・ネットワーク5の具体的な回路
構成を示す。ニューラル・ネットワーク5は種々のデー
タ格納用のメモリ9,10,11,12と、各種の演算回路13,14
からなる。メモリとしては、正規化演算回路3から出力
された正規化輝度データxkjを格納するメモリ9、学習
により獲得されたシナプス結合強度wij(t)を格納す
るメモリ10、正規化輝度データxkjとシナプス結合強度
wij(t)とのベクトル間距離Niを格納するメモリ11、
学習済みのニューラル・ネットワーク上のニューロン・
ユニットと入力パターンの露出補正値との対応関係を示
す露出補正値情報を格納するメモリ12が設けられる。演
算回路としては、正規化輝度データxkjとシナプス結合
強度wij(t)とからベクトル間距離Niを演算する回路
13と、そのベクトル間距離Niの最小値を検出する回路14
が設けられる。
FIG. 6 shows a specific circuit configuration of the neural network 5. The neural network 5 includes memories 9, 10, 11, and 12 for storing various data and various arithmetic circuits 13 and 14.
Consists of The memory 9 stores the normalized luminance data xkj output from the normalization operation circuit 3, the memory 10 stores the synapse coupling strength wij (t) obtained by learning, and the synapse coupling with the normalized luminance data xkj. A memory 11 for storing a distance Ni between vectors with the intensity wij (t),
Neurons on the trained neural network
A memory 12 is provided for storing exposure correction value information indicating the correspondence between the unit and the exposure correction value of the input pattern. As an arithmetic circuit, a circuit that calculates a distance Ni between vectors from the normalized luminance data xkj and the synaptic connection strength wij (t).
13 and a circuit 14 for detecting the minimum value of the vector distance Ni
Is provided.

正規化演算回路3から出力された正規化輝度データx
kjはニューラル・ネットワーク5内のメモリ9に格納さ
れる。学習により獲得されたシナプス結合強度wij
(t)は予めメモリ10に格納されている。メモリ9、10
のデータはベクトル間距離演算回路13に供給され、そこ
でベクトル間距離 の演算が行なれ、演算結果がメモリ11に格納される。こ
のベクトル間距離の演算はニューロン・ユニット毎に独
立しているので、並列演算が可能である。そのため、ベ
クトル間距離演算回路13はそれぞれニューロン・ユニッ
ト毎の処理を行なう複数のプロセッサで構成され、高速
処理が可能である。また、ニューラル・ネットワーク専
用演算素子、つまりニューロチップではこの演算処理を
各ニューロン・ユニットが受け持つ。
Normalized luminance data x output from the normalization operation circuit 3
kj is stored in the memory 9 in the neural network 5. Synapse connection strength wij obtained by learning
(T) is stored in the memory 10 in advance. Memory 9, 10
Is supplied to the inter-vector distance calculation circuit 13, where the inter-vector distance is calculated. Can be performed, and the calculation result is stored in the memory 11. Since the calculation of the distance between vectors is independent for each neuron unit, parallel calculation is possible. Therefore, the inter-vector distance calculation circuit 13 is composed of a plurality of processors that perform processing for each neuron unit, and can perform high-speed processing. Further, in the arithmetic element dedicated to the neural network, that is, in the neurochip, each arithmetic processing is performed by each neuron unit.

最小値検出回路14は得られたベクトル間距離Niからそ
の最小値をもつ最適合ニューロン・ユニットcを検出す
る。露出演算回路4は予め決められメモリ12に格納され
ている対応関係からこの最適合ニューロン・ユニットに
対応する露出補正値情報Exを読出し、得られた最適合ニ
ューロン・ユニットに対応する露出補正値情報Exと撮影
情報入力部8から供給された開放F値、絞り値、シャッ
タ速度、フィルム感度、モード情報とからアペックス演
算と露出補正演算とを行い、その結果をシャッタ制御回
路6、絞り制御装置7に供給する。
The minimum value detection circuit 14 detects an optimal combined neuron unit c having the minimum value from the obtained vector distance Ni. The exposure calculation circuit 4 reads out the exposure correction value information Ex corresponding to the optimally-suited neuron unit from the correspondence relationship predetermined and stored in the memory 12, and obtains the exposure-correction value information corresponding to the obtained optimally-suited neuron unit. Apex calculation and exposure correction calculation are performed based on Ex and the open F-number, aperture value, shutter speed, film sensitivity, and mode information supplied from the shooting information input unit 8, and the results are used as the shutter control circuit 6 and the aperture control device 7. To supply.

以上により、入力画面内の被写体の情景に適切な自動
露出制御が可能になる。
As described above, automatic exposure control appropriate for the scene of the subject in the input screen can be performed.

なお、露出補正値情報としては、ニューロン・ユニッ
トの出力を定義した(1)式: により得られた値の最大値から順に選んだ複数のニュー
ロン・ユニットに対応する複数の露出補正値をニューラ
ル・ネットワークの出力値に比例して加重平均した露出
補正値を用いることも可能である。また、学習した結果
のみを応用する場合のニューラル・ネットワークは上述
した構成だけで可能であるが、初期学習、及びカメラ操
作者にニューラル・ネットワークを適応させる場合の追
加学習等を行なうには、次に説明する学習回路構成が必
要である。
As the exposure correction value information, the expression (1) defining the output of the neuron unit is: It is also possible to use an exposure correction value obtained by weighting and averaging a plurality of exposure correction values corresponding to a plurality of neuron units selected in order from the maximum value of the values obtained in accordance with the output value of the neural network. In addition, the neural network in the case of applying only the learned result is possible only with the above-described configuration. However, in order to perform the initial learning and the additional learning when adapting the neural network to the camera operator, the following is required. The learning circuit configuration described in (1) is required.

第7図にニューラル・ネットワークの学習のための回
路構成を説明する。この構成は第6図に示した回路にシ
ナプス結合強度演算回路16と露出補正値情報設定回路18
とを付加するだけで実現される。
FIG. 7 illustrates a circuit configuration for learning a neural network. This configuration is similar to the circuit shown in FIG. 6 except that the synapse connection strength calculation circuit 16 and the exposure correction value information setting circuit 18
Is realized simply by adding

その動作において、先ず、ニューラル・ネットワーク
の各ニューロン・ユニットのシナプス結合強度wijを小
さい乱数で初期化しておく。多数の学習用のモデルパタ
ーンについての各領域毎の輝度データをメモリ15に、露
出補正値に関するデータExをメモリ17に格納しておく。
メモリ15の輝度データを使用して第6図の場合と同様に
ベクトル間距離の最小値の検出により最適合ニューロン
・ユニットを決定した後、シナプス結合強度演算回路16
はその最適合ニューロン・ユニットを中心とした近傍ニ
ューロン・ユニット群のシナプス結合強度Wiを次式によ
り修正学習する。ただし、i∈Nc(t)である。
In the operation, first, the synapse connection strength wij of each neuron unit of the neural network is initialized with a small random number. The luminance data of each region for a large number of learning model patterns is stored in the memory 15, and the data Ex relating to the exposure correction value is stored in the memory 17.
After determining the optimum combined neuron unit by detecting the minimum value of the inter-vector distance using the luminance data of the memory 15 as in the case of FIG.
Learns the synaptic connection strength Wi of the neighboring neuron unit group centered on the optimal combined neuron unit by the following equation. Here, i∈Nc (t).

Wi(t+1) =Wi(t)+α(t)×(Xk−Wi(t)) …(3) ここで、α(t)は学習係数で0〜1の実数値をと
り、Nc(t)は最適合ニューロン・ユニットcの近傍に
あるニューロン・ユニットの集合で、その初期値はニュ
ーラル・ネットワークの大きさに比べてそれほど小さく
ないものとし、α(t),Nc(t)ともに単調減少関数
である。tは学習回数で、最大学習回数tmaxまで繰り
返し学習する。
Wi (t + 1) = Wi (t) + α (t) × (Xk−Wi (t)) (3) where α (t) is a learning coefficient and takes a real value of 0 to 1, and Nc (t) Is a set of neuron units near the optimal combined neuron unit c, the initial value of which is not so small as compared with the size of the neural network, and both α (t) and Nc (t) are monotonically decreasing functions. It is. t is the number of times of learning, and the learning is repeated until the maximum number of times of learning tmax.

全てのモデルパターンについての学習を終了した後、
露出補正値情報設定回路18はメモリ17に格納されている
各モデルパターンの露出補正値がニューラル・ネットワ
ークのどのニューロン・ユニットと対応付けられるかを
次の関係により調べ、その結果をメモリ12内に露出補正
値情報として設定する。
After completing the learning for all model patterns,
The exposure correction value information setting circuit 18 checks which exposure correction value of each model pattern stored in the memory 17 is associated with which neuron unit of the neural network according to the following relationship, and stores the result in the memory 12. Set as exposure compensation value information.

(第k番目の入力パターンにおける閾値)の場合、ニュ
ーロン・ユニットiに第k番目の入力パターンの露出補
正値を対応させる。
In the case of (threshold value in the k-th input pattern), the exposure correction value of the k-th input pattern is made to correspond to the neuron unit i.

学習済みニューラル・ネットワークにおいて、カメラ
操作者に適応させるためさらに追加学習を行なう場合で
は、ある任意の入力パターンが与えられたとき、ベクト
ル間距離の最小値検出により最適合ニューロン・ユニッ
トを決定した後、そのニューロン・ユニットの近傍にあ
り、かつ対応する露出補正値が共通であるニューロン・
ユニット群Nc′のシナプス結合強度Wiを次式によりシナ
プス結合強度演算回路16で修正学習する。
In the case of performing additional learning to adapt to the camera operator in the trained neural network, when an arbitrary input pattern is given, the optimal matching neuron unit is determined by detecting the minimum value of the distance between vectors. , A neuron that is in the vicinity of the neuron unit and has a common exposure correction value.
The synapse connection strength Wi of the unit group Nc 'is corrected and learned by the synapse connection strength calculation circuit 16 according to the following equation.

Wi=Wi+αo×(Xk−Wi) …(4) ただし、i∈Nc′で、αoは学習係数である。 Wi = Wi + αo × (Xk−Wi) (4) where i∈Nc ′ and αo is a learning coefficient.

この発明は上述した実施例に限定されずに、種々変形
可能である。説明した学習方法は教師なし学習である
が、入力パターンを与えた時にニューラル・ネットワー
クの出力と教師データ(入力パターンの露出補正値)と
を比較し、このニューラル・ネットワークが正しく発火
していればシナプス結合強度を入力パターンに近づけ、
また誤って発火していればシナプス結合強度を入力パタ
ーンから遠ざけるような教師付き学習も可能である。ま
た、入力値として教師データをも含めて学習することも
できる。なお、追加学習前の初期学習状態にいつでも復
帰可能にしておくためには、初期学習状態におけるシナ
プス結合強度をメモリに格納しておく必要がある。
The present invention is not limited to the above-described embodiment, but can be variously modified. The learning method described is unsupervised learning. When an input pattern is given, the output of the neural network is compared with the teacher data (exposure correction value of the input pattern). If the neural network fires correctly, Bring the synapse connection strength closer to the input pattern,
In addition, supervised learning that keeps the synapse connection strength away from the input pattern if the fire is erroneously performed is also possible. Also, learning can be performed including teacher data as input values. In order to be able to return to the initial learning state before additional learning at any time, it is necessary to store the synapse connection strength in the initial learning state in a memory.

さらに、ニューラル・ネットワークに自己組織化させ
る入力データとしては、上述した画面全体の輝度データ
だけでなく、自動焦点機構と連係させて合焦位置及びそ
の近傍の輝度データや、主被写体及びその近傍の輝度デ
ータを用いてもよい。
Further, as input data to be self-organized by the neural network, not only the luminance data of the entire screen described above, but also the luminance data of the in-focus position and the vicinity thereof, and the luminance data of the main subject and the vicinity thereof in cooperation with the automatic focusing mechanism. Brightness data may be used.

また、実施例は自動露出制御カメラを説明したが、こ
の発明は決定された露出情報をファインダ内等に表示す
るだけのマニュアル露出制御カメラに適応してもよい。
Although the embodiment has described the automatic exposure control camera, the present invention may be applied to a manual exposure control camera that only displays the determined exposure information in a viewfinder or the like.

〔発明の効果〕〔The invention's effect〕

以上説明したようにこの発明によれば、被写体の情景
に応じた露出補正値の決定のような従来は定式化、プロ
グラム化の困難であった処理において、ニューラル・ネ
ットワークに多数のモデルパターンにおける各輝度デー
タベクトルを学習させておくだけで、多様な画面に対す
る露出補正値を自動的に、かつ、高速に得ることができ
るカメラの露出演算装置を提供することができる。そし
て、ニューラル・ネットワークの並列処理を利用すれ
ば、さらに高速化が可能である。また、カメラ操作者の
好みの構図や、構図の癖をニューラル・ネットワークに
学習させ、ニューラル・ネットワークをカメラ操作者に
適応させることにより、撮影者の意図に沿った露出が自
動的に決定できる。
As described above, according to the present invention, in a process that has conventionally been difficult to formulate and program, such as determination of an exposure correction value according to the scene of a subject, a neural network has a large number of model patterns. By simply learning the luminance data vector, it is possible to provide an exposure calculation device for a camera that can automatically and quickly obtain exposure correction values for various screens. If the parallel processing of the neural network is used, the speed can be further increased. Also, by letting the neural network learn the camera operator's favorite composition and composition habit and adapt the neural network to the camera operator, the exposure according to the photographer's intention can be automatically determined.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明によるカメラの露出演算装置の概略を
示す図、第2図はニューロン・ユニットのモデルを示す
図、第3図はニューラル・ネットワークのモデルを示す
図、第4図はフィードバック結合によるシナプス結合強
度の変化を示す図、第5図はこの発明の実施例としての
自動露出制御カメラの実施例のブロック図、第6図はニ
ューラル・ネットワークの回路構成を示す図、第7図は
ニューラル・ネットワークを学習させるための回路構成
を示す図である。 1……レンズ、2……受光素子、3……正規化演算回
路、4……露出演算回路、5……ニューラル・ネットワ
ーク、6……シャッタ制御回路、7……絞り制御回路、
8……撮影情報入力部。
FIG. 1 is a diagram schematically showing an exposure calculation device for a camera according to the present invention, FIG. 2 is a diagram showing a model of a neuron unit, FIG. 3 is a diagram showing a model of a neural network, and FIG. FIG. 5 is a block diagram of an embodiment of an automatic exposure control camera as an embodiment of the present invention, FIG. 6 is a diagram showing a circuit configuration of a neural network, and FIG. FIG. 3 is a diagram showing a circuit configuration for learning a neural network. DESCRIPTION OF SYMBOLS 1 ... Lens 2 ... Light receiving element 3 ... Normalization calculation circuit 4 ... Exposure calculation circuit 5 ... Neural network 6 ... Shutter control circuit 7 ... Aperture control circuit
8 ... photographing information input unit.

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】撮影時には撮影レンズを介して入射された
被写体像の複数の領域毎の輝度に対応した各輝度データ
の集合である輝度データベクトルを得るための輝度検出
手段と、 入力された輝度データベクトルの各々に対して各々のシ
ナプス結合強度を介してそれぞれ結合される多数のニュ
ーロン・ユニットを単一層のネットワークで構成すると
ともに、予めモデルパターンに対応する輝度データベク
トルを入力した時に各ニューロン・ユニットが選択的に
反応するように各シナプス結合強度が学習されており、
上記複数のニューロン・ユニットを有する単一層のネッ
トワークにより当該撮影時の輝度データベクトルに対し
て選択的に反応したニューロン・ユニットの状態に基づ
いて露出補正に係る値を与えるニューラルネットワーク
と、 前記ニューラルネットワークにより生成された露出補正
に係る値に応じてカメラの露出を制御する露出制御手段
と、 を具備することを特徴とするカメラの露出演算装置。
1. A luminance detecting means for obtaining a luminance data vector which is a set of luminance data corresponding to the luminance of each of a plurality of regions of a subject image incident through a photographing lens at the time of photographing; A large number of neuron units connected to each of the data vectors via the respective synaptic connection strengths are formed in a single-layer network, and when a luminance data vector corresponding to the model pattern is input in advance, Each synaptic connection strength is learned so that the unit responds selectively,
A neural network for providing a value related to exposure correction based on a state of the neuron unit selectively reacting to the luminance data vector at the time of the imaging by the single-layer network having the plurality of neuron units; Exposure control means for controlling the exposure of the camera in accordance with the value relating to the exposure correction generated by (1).
【請求項2】モデルパターンの輝度データベクトルに選
択的反応をするようにシナプス結合強度を修正すること
により前記シナプス結合強度を獲得し、前記モデルパタ
ーンの輝度データベクトルを前記ニューラル・ネートワ
ークに再度入力したときの前記ニューラル・ネットワー
クの出力と前記モデルパターンの露出補正値とを対応づ
ける学習手段を具備する請求項1に記載のカメラの露出
演算装置。
2. Acquiring the synaptic connection intensity by modifying the synaptic connection intensity so as to selectively react to the luminance data vector of the model pattern, and re-transmitting the luminance data vector of the model pattern to the neural network. 2. The exposure calculation device for a camera according to claim 1, further comprising learning means for associating an output of the neural network when input with the exposure correction value of the model pattern.
JP1307324A 1989-11-27 1989-11-27 Camera exposure calculation device Expired - Lifetime JP2909111B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1307324A JP2909111B2 (en) 1989-11-27 1989-11-27 Camera exposure calculation device
US07/916,792 US5227830A (en) 1989-11-27 1992-07-17 Automatic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1307324A JP2909111B2 (en) 1989-11-27 1989-11-27 Camera exposure calculation device

Publications (2)

Publication Number Publication Date
JPH03167535A JPH03167535A (en) 1991-07-19
JP2909111B2 true JP2909111B2 (en) 1999-06-23

Family

ID=17967771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1307324A Expired - Lifetime JP2909111B2 (en) 1989-11-27 1989-11-27 Camera exposure calculation device

Country Status (1)

Country Link
JP (1) JP2909111B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019106730A1 (en) 2017-11-28 2019-06-06 株式会社ニコン Microscope system

Also Published As

Publication number Publication date
JPH03167535A (en) 1991-07-19

Similar Documents

Publication Publication Date Title
JP2761391B2 (en) Focus detection device
KR102574141B1 (en) Image display method and device
US20060210264A1 (en) Imaging apparatus and method for controlling display device
WO2001046753A1 (en) Scene recognition method and system using brightness and ranging mapping
US20220345685A1 (en) Method and apparatus for camera calibration
US5227830A (en) Automatic camera
JP6812387B2 (en) Image processing equipment and image processing methods, programs, storage media
JPH0373936A (en) Automatic exposure controller and photographic lens for camera
JP2774819B2 (en) camera
JP2909111B2 (en) Camera exposure calculation device
US5319416A (en) Exposure calculation device for camera
US10896350B2 (en) Image processing apparatus, image processing method, and image capture apparatus
JP3217052B2 (en) Camera focus detection device
US5266984A (en) Exposure calculating apparatus for camera
JP2793816B2 (en) Camera with learning function
JP2793815B2 (en) Exposure control device
JP3240705B2 (en) Camera photometer
JP3203670B2 (en) Camera photometer
JPH11252450A (en) Image processor and computer-readable storage medium thereof
CN109146966A (en) Vision SLAM front end processing method, system, storage medium and computer equipment
JP5055569B2 (en) Color imaging apparatus and image processing program
US11869224B2 (en) Method and system for establishing light source information prediction model
JP6818798B2 (en) Image processing device and image processing method, and imaging device
JP3106613B2 (en) Camera exposure calculation device
JPH04346580A (en) Automatic focusing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100402

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100402

Year of fee payment: 11