JPH03167536A - Focal point detector for camera - Google Patents

Focal point detector for camera

Info

Publication number
JPH03167536A
JPH03167536A JP30732389A JP30732389A JPH03167536A JP H03167536 A JPH03167536 A JP H03167536A JP 30732389 A JP30732389 A JP 30732389A JP 30732389 A JP30732389 A JP 30732389A JP H03167536 A JPH03167536 A JP H03167536A
Authority
JP
Japan
Prior art keywords
distance data
neural network
distance
vector
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP30732389A
Other languages
Japanese (ja)
Other versions
JP3217052B2 (en
Inventor
Takashi Yoshihara
隆史 吉原
Toshiaki Wada
利昭 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP30732389A priority Critical patent/JP3217052B2/en
Publication of JPH03167536A publication Critical patent/JPH03167536A/en
Priority to US07/916,792 priority patent/US5227830A/en
Application granted granted Critical
Publication of JP3217052B2 publication Critical patent/JP3217052B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE:To detect the focal point of main objects in various screens at high speed by allowing a neutral network to learn the distance data vector of numerous model patterns. CONSTITUTION:A detector is provided with the single-layered neutral network 5 consisting of plural neuron units where the distance data vector is inputted through a prescribed synaps combining strength. The neutral network 5 is allowed to learn so as to output position information on the main object on which the focal point of the screen is desired to be adjusted when the distance vector data as the set of each distance data of plural points in the arbitrary screen is inputted, and the focal point is adjusted based on the output. At the time of the learning, the main objects are assumed to be present on the same position when the distance data vectors of the screens are resemble, and the neutral network 5 is allowed to learn each distance vector through the use of the numerous model patterns. Thus, the main object can be determined in a short time in any condition, and the focal point of the main object can be detected at high speed.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明はカメラの焦点検出装置に関する。[Detailed description of the invention] [Industrial application field] The present invention relates to a focus detection device for a camera.

〔従来の技術〕[Conventional technology]

従来の自動焦点カメラは、画面の中央部に測距のための
フォーカスフレームが位置し、そこに主被写体が位置す
るように構図を決定していた。そして、主被写体が中央
にない場合や、自由な構図で撮影を行ないたい場合には
、フォーカスロックで対処していた。
In conventional autofocus cameras, a focus frame for distance measurement is located in the center of the screen, and the composition is determined so that the main subject is located there. If the main subject is not in the center or if you want to take a picture with a free composition, you can use focus lock.

また、1点のみでなく画面中の多くの点で測距を行い、
その中の所定の距離、例えば最短距離の点に焦点を合わ
せる従来例もある。
In addition, distance measurement is performed not only at one point but at many points on the screen,
There is also a conventional example in which the focus is focused on a point at a predetermined distance, for example, the shortest distance.

さらに、多数の写真のパターン鯉折を行なって、メンバ
シップ関数を定義し、3点の距離データ間の関係からフ
ァジィ理論による近似推論を行い主被写体の位置を決定
するカメラの自動焦点制御方式も発表されている。
Furthermore, we have developed an autofocus control method for cameras that performs pattern folding of many photographs, defines membership functions, and performs approximate inference using fuzzy theory from the relationship between the distance data of three points to determine the position of the main subject. It has been announced.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかしながら、フォーカスフレームが1つしかない従来
例では人物等が左右に並んでいる場合は、いわゆる中抜
け現象が避けられない。また、フォーカスロック操作は
面倒であり、迅速な撮影には不向きである。多くの点の
距離データから所定の距離の被写体に焦点を合わせる場
合は、必ずしも撮影者の意図した写真が撮影できるとは
限らない。
However, in the conventional example where there is only one focus frame, when people, etc. are lined up left and right, the so-called hollow phenomenon cannot be avoided. Further, the focus lock operation is troublesome and is not suitable for quick photography. When focusing on a subject at a predetermined distance from distance data of many points, it is not always possible to take the photograph intended by the photographer.

さらに、ファジィ理論を応用したものは、メンバシップ
関数の定義が難しく、その定義の仕方次第で出来不出来
が左右されるという欠点と、近似推論であるので、処理
すべき距離データが多くなると処理時間が急増するとい
う欠点がある。
Furthermore, the disadvantages of applying fuzzy theory are that it is difficult to define the membership function, and the success or failure depends on how it is defined, and because it is an approximate inference, it becomes difficult to process when there is a large amount of distance data to process. The disadvantage is that the time increases rapidly.

この発明は上述した事情に対処すべきなされたもので、
その目的は、どのような状況の下でも短時間で主被写体
を決定でき、主被写体の焦点を高速で検出することがで
きる簡単な構或のカメラの焦点検出装置を提供すること
である。
This invention was made to address the above-mentioned circumstances,
The purpose is to provide a camera focus detection device with a simple structure that can determine the main subject in a short time under any circumstances and can detect the focus of the main subject at high speed.

〔課題を解決するための手段および作用〕この発明によ
るカメラの焦点検出装置は、所定のシナプス結合強度を
介して距離データベクトルが入力される複数のニューロ
ン・ユニットからなる単一層のニューラル・ネットワー
クを具備する。
[Means and effects for solving the problem] The camera focus detection device according to the present invention uses a single-layer neural network consisting of a plurality of neuron units into which distance data vectors are input via predetermined synaptic connection strengths. Be equipped.

このニューラル・ネットワークを、任意の画面の複数の
点毎の距離データの集合である距離データベクトルが入
力された時にその両面内の黒点を合わせたい主被写体に
関する位置情報を出力するように学習させておき、その
出力に基づいて焦点を調節する。なお、学習の際には、
距離データベクトルが類似している画面どうしでは主被
写体も同様な位置にあると仮定し、多数のモデルパター
ンを使ってニューラル◆ネットワークに各距離データベ
クトルを学習させる。
This neural network is trained to output positional information regarding the main subject whose black points on both sides should be aligned when a distance data vector, which is a collection of distance data for multiple points on an arbitrary screen, is input. and adjust the focus based on the output. In addition, when learning,
It is assumed that the main subjects are in similar positions in screens with similar distance data vectors, and a neural ◆ network is made to learn each distance data vector using a large number of model patterns.

第1図にこの発゛明によるニューラル・ネットワークを
使った主被写体の決定手段の概略を示す。
FIG. 1 schematically shows a means for determining a main subject using a neural network according to this invention.

左側に示す入力画面はファインダに写る撮影画面であり
、2次元マトリクス状に配列された領域Pi (i−1
 〜n (nは正整数、第1図ではり))に分割され、
各領域Pi毎に距離データLiが得られる。実際には、
領域の中心点の距離が測定される。右側に示すニューラ
ル・ネットワークは入力画面の各領域毎の距離データベ
クトルLiを入力し、主被写体が位置する領域Pxを決
定するものである。この発明で用いられるニューラル●
ネットワークは所定のシナプス結合強度を介して距離デ
ータベクトルが入力される複数個(ここでは25個)の
ニューロン・ユニットからなる単一層のネットワークで
あり、升目として示される各ニューロン・ユニットに全
距離データベクトルが入力される。
The input screen shown on the left is the shooting screen shown in the finder, and the input screen shown in the viewfinder is the area Pi (i-1) arranged in a two-dimensional matrix.
~n (n is a positive integer, shown in Figure 1)),
Distance data Li is obtained for each region Pi. in fact,
The distance of the center point of the region is measured. The neural network shown on the right inputs the distance data vector Li for each area of the input screen and determines the area Px where the main subject is located. Neural used in this invention●
The network is a single-layer network consisting of multiple (25 in this case) neuron units into which distance data vectors are input via predetermined synaptic connection strengths, and each neuron unit represented as a square receives all distance data. A vector is input.

ニューラル・ネットワークの学習は次の2つのステップ
からなる。先ず、多数のモデルパターンにおける距離デ
ータベクトルをニューラル・ネットワークに入力し、教
師なし学習により所定のシナプス結合強度を獲得してお
く。教師なし学習とは、教師データがなくても与えられ
た特定の入力ベクトルに選択的に反応するように各ニュ
ーロン・ユニットのシナプス結合強度を修正することで
あり、これにより、距離データベクトルがネットワーク
上で自動的に分類される。そして、次に、モデルパター
ンの距離データベクトルをニューラル・ネットワークに
再度入力したときのニューラル・ネットワークの出力ニ
ューロン・ユニットと、そのモデルパターンにおける主
被写体の位置する領域とを対応づけておく。すなわち、
第1図の各ニューロン●ユニットに記されている領域が
主被写体の位置する領域である。
Neural network training consists of the following two steps. First, distance data vectors for a large number of model patterns are input into a neural network, and a predetermined synaptic connection strength is obtained by unsupervised learning. Unsupervised learning is the process of modifying the synaptic connection strength of each neuron unit to selectively respond to a given input vector without any supervised data. automatically categorized above. Next, the output neuron unit of the neural network when the distance data vector of the model pattern is input again to the neural network is associated with the region where the main subject is located in the model pattern. That is,
The area marked in each neuron ● unit in FIG. 1 is the area where the main subject is located.

撮影の際には、第1図に示すように撮影したい画面中の
各領域Pi毎の距離データベクトルLiをこのように学
習されたニューラル・ネットワークに入力すると、いず
れか1つのニューロン・ユニットが最も強く発火し、そ
のニューロン・ユニットに対応する測距領域Px(第1
図ではP7)が主被写体と判断でき、そこに焦点を合わ
せると、常に主被写体が合焦状態となる写真が撮影でき
る。
When photographing, as shown in Figure 1, when the distance data vector Li for each area Pi in the screen to be photographed is input to the neural network trained in this way, any one neuron unit The distance measurement area Px (first
In the figure, P7) can be determined to be the main subject, and if you focus on it, you can always take pictures with the main subject in focus.

第2図〜第4図を参照してこの発明で用いられるニュー
ラル・ネットワークを説明する。このニューラル●ネッ
トワークのモデルはヘルシンキエ科大(フィンランド)
のコホーネン(Kohonen )が提唱したものであ
り、自己組織化ネットワークと呼ばれる。その学習手法
は自己組織化特徴マッピングとして知られている。
The neural network used in this invention will be explained with reference to FIGS. 2 to 4. The model for this neural network is Helsinki University (Finland)
It was proposed by Kohonen and is called a self-organizing network. The learning method is known as self-organizing feature mapping.

第2図に各ニューロン・ユニットのモデルを示す。ニュ
ーロン・ユニットは入力ベクトルの各入力値とシナプス
結合を介して接続され、その入力値と各シナプス結合強
度を比較して両者のマッチング度に応じた出力を発生す
る。
Figure 2 shows a model of each neuron unit. The neuron unit is connected to each input value of the input vector via a synaptic connection, compares the input value with each synaptic connection strength, and generates an output according to the degree of matching between the two.

第i番目のニューロン・ユニットの出力y1は次式で示
される。
The output y1 of the i-th neuron unit is expressed by the following equation.

yl−f(ΣwljXxkD      −(1)4=
1 ここで、fOはニューロン●ユニットの出力関数(通宿
、シグモイド形の単調増加関数)、W1jは第i番目の
ニューロン・ユニットの第j番目の入力xkjに対する
シナプス結合強度、xkjは第k番目の入力ベクトルの
第j番目の入力値、 nは入力ベクトルの次元数である。
yl−f(ΣwljXxkD −(1)4=
1 Here, fO is the output function of the neuron ● unit (sigmoid monotonically increasing function), W1j is the synaptic connection strength of the i-th neuron unit to the j-th input xkj, and xkj is the k-th neuron unit j-th input value of the input vector, n is the number of dimensions of the input vector.

ニューラル・ネットワークは各ニューロン●ユニットを
2次元的に配置して構成されるが、ここでは、説明の簡
単化のため1次元的にモデル化したものを第3図に示す
A neural network is constructed by two-dimensionally arranging neuron units, but here, for the sake of simplicity, a one-dimensional model is shown in FIG. 3.

第3図に示すように、このニューラル・ネットワークは
ニューロン・ユニットの出力から入力への信号のフィー
ドバック結合の効果を導入した自己組織化特徴マッピン
グが行なわれる。ここで、wlkは第k番目のニューロ
ン・ユニットから第i番目のニューロン・ユニットに向
かうフィードバック結合強度である。
As shown in FIG. 3, this neural network performs self-organizing feature mapping that introduces the effect of feedback coupling of signals from the output of the neuron unit to the input. Here, wlk is the feedback coupling strength from the kth neuron unit to the ith neuron unit.

第4図はこのようなフィードバック結合のシナプス結合
強度への影響の度合を示す。すなわち、フィードバック
結合の効果によりシナプス結合強度はメキシカンハット
タイプの形状の特性変化を示し、ある特定のニューロン
・ユニットの出力値が上昇すると、それに距離的に近い
位置関係にあるニューロン・ユニットもそれにひきづら
れて出力値が上昇するが、さらにその外側にあるニュー
ロン・ユニットは逆に出力値が下がる。
FIG. 4 shows the degree of influence of such feedback connections on the synaptic connection strength. In other words, due to the effect of feedback connections, the synaptic connection strength exhibits a characteristic change in the shape of a Mexican hat, and when the output value of a particular neuron unit increases, neuron units located in a positional relationship close to it will also be affected by it. The output value of neuron units further outside the neuron unit increases, but the output value of neuron units further outside the neuron unit decreases.

このフィードバック結合の効果を考慮したシナプス結合
強度の学習が最適のマッチングをしたニューロン・ユニ
ットの近傍でのみ行なわれるように簡略化すると、この
ニューラル・ネットワークの学習処理(自己組織化特徴
マッピング)は以下の手順で行なうことができる。
If we simplify the learning process of this neural network (self-organizing feature mapping) so that learning of synaptic connection strength takes into account the effect of feedback connections is performed only in the vicinity of the optimally matched neuron unit, the learning process (self-organizing feature mapping) of this neural network is as follows. It can be done by following these steps.

# 1 : W1(0)を乱数で初期化し、学習回数1
−0とする。ここで、Wi(t)−(w11(t).w
12(t).・・・wln(t) )である。
#1: Initialize W1(0) with a random number and set the number of learning times to 1
-0. Here, Wi(t)−(w11(t).w
12(t). ...wln(t)).

以下、各入力ベクトルXkに対してステップ#2,#3
の処理を繰り返す。
Below, steps #2 and #3 for each input vector Xk
Repeat the process.

# 2 : t−t+1とし、次式を満足する最適合ニ
ューロン・ユニットCを求メる。
#2: Set t-t+1 and find the optimal neuron unit C that satisfies the following equation.

If  Xk  −we(t)It  −i1n  {
 It  Xk  −W1(t)If )・・・(2) ここで、Xk − (xkl,  xk2, ・−xk
n)、w c(t)は最適合ニューロン・ユニットCの
シナプス結合強度である。
If Xk −we(t)It −i1n {
It Xk −W1(t)If )...(2) Here, Xk − (xkl, xk2, ・−xk
n), w c(t) is the synaptic connection strength of the optimally fitting neuron unit C.

#3:iεNc(t)の場合はW I (t+1)− 
W I (t) +α(t)  X (Xk−Wl(t
))とし、i (E N c(t)以外の場合はWf(
t+1)−Wf(t)とする。
#3: In the case of iεNc(t), W I (t+1)−
W I (t) +α(t) X (Xk-Wl(t
)), and in cases other than i (E N c(t), Wf(
t+1)−Wf(t).

ここで、α0〉は学習係数、Nc(t)は最適合ニュー
ロン●ユニットCの近傍にあるニューロン●ユニットの
集合であり、通常、α(t) , Nc(t)ともに、
単調減少関数である。
Here, α0〉 is a learning coefficient, and Nc(t) is a set of optimal neuron unit C and its neighboring neuron unit. Usually, both α(t) and Nc(t) are
It is a monotonically decreasing function.

このような自己組織化特徴マッピングを行なうことによ
り、近傍にあるニューロン・ユニットのシナプス結合強
度は類似したものとなる。また、モデルパターン間の類
似度、相関性等の統計的性質を反映したシナプス結合強
度が獲得されるので、各モデルパターンのベクトル量子
化がなされ、モデルパターンの分類が可能となる。また
、任意の撮影画面の主被写体の位置の決定処理は最適合
ニューロン・ユニットCの決定処理と考えることができ
るが、これはステップ#2から推察されるように、演算
量が少なく高速な決定処理が可能である。
By performing such self-organizing feature mapping, the synaptic connection strengths of neighboring neuron units become similar. Furthermore, since synaptic connection strengths reflecting statistical properties such as similarity and correlation between model patterns are obtained, vector quantization of each model pattern is performed and classification of model patterns becomes possible. Furthermore, the process of determining the position of the main subject in any photographic screen can be considered as the process of determining the optimal fit neuron unit C, but as can be inferred from step #2, this is a fast decision process with a small amount of calculation. Processing is possible.

〔実施例〕〔Example〕

以下、第5図〜第7図を参照してこの発明によるカメラ
の焦点検出装置の実施例を説明する。第5図は実施例と
しての自動焦点カメラのブロック図である。1撮影画面
の複数の領域にある物体毎までの距離を検出する複数の
測距センサ21(i−1〜n)が設けられ、これらによ
り得られた各領域毎の距離データLiが主被写体決定回
路4に供給されるとともに、正規化演算回路3に供給さ
れる。正規化演算回路3は距離データLiをニューラル
●ネットワーク5に入力できるように0から1までの実
数値に正規化し、上述した入力データベクトルxkjを
得る。正規化演算回路3の出力は既に学習により獲得さ
れたシナプス結合強度を持ち、複数のニューロン●ユニ
ットからなる単一層のニューラル・ネットワーク5に入
力される。ここで、距離データとしては、被写体までの
距離そのもの、または距離情報を含んだデータ、例えば
三角測量法での変位量や位相差法の横ずれ量などを用い
ることができる。
Embodiments of the camera focus detection device according to the present invention will be described below with reference to FIGS. 5 to 7. FIG. 5 is a block diagram of an autofocus camera as an example. A plurality of distance measuring sensors 21 (i-1 to n) are provided to detect the distance to each object in a plurality of areas of one shooting screen, and the distance data Li for each area obtained by these sensors determines the main subject. The signal is supplied to the circuit 4 and also to the normalization calculation circuit 3. The normalization calculation circuit 3 normalizes the distance data Li to a real value from 0 to 1 so that it can be input to the neural ● network 5, and obtains the above-mentioned input data vector xkj. The output of the normalization calculation circuit 3 has the synaptic connection strength already acquired through learning, and is input to a single layer neural network 5 consisting of a plurality of neuron units. Here, as the distance data, it is possible to use the distance itself to the subject, or data including distance information, such as the amount of displacement in triangulation method or the amount of lateral shift in phase difference method.

ニューラル●ネットワーク5は、距離データxkjが入
力され、各ニューロン・ユニットのシナプス結合強度w
lj(t)とのベクトル間距離N1−Σ( X kj 
− w Ij(t) ) 2を計算し、そのべクトル間
距離の最小値Dc =m1n  (Ni lの検索を行
ない、その最小値を与えるニューロン・ユニットに対応
する主被写体の位置情報Pxを出力する。なお、一般に
、ニューラル・ネットワーク5は測距領域総数の5〜2
0倍程度のニューロン・ユニットからなる。この主被写
体の位置情報は主被写体決定回路4に入力され、その主
被写体に対応する測距センサ2からの距離データLxを
塩点検出のための演算を行なう焦点検出用演算回路6に
供給する。焦点検出用演算回路6の出力はドライバ7に
供給され、ドライバ7はこの情報に基づいてレンズ駆動
系8を動作させ、レンズ1を光軸方向に移動し焦点調節
を行なう。
The neural network 5 receives the distance data xkj and calculates the synaptic connection strength w of each neuron unit.
Vector distance N1-Σ(X kj
- w Ij(t) ) 2 is calculated, the minimum value of the distance between the vectors Dc = m1n (Ni l is searched, and the position information Px of the main subject corresponding to the neuron unit that gives the minimum value is output In general, the neural network 5 covers 5 to 2 of the total number of ranging areas.
It consists of approximately 0 times as many neuron units. This positional information of the main subject is input to the main subject determination circuit 4, and the distance data Lx from the ranging sensor 2 corresponding to the main subject is supplied to the focus detection calculation circuit 6 which performs calculations for salt point detection. . The output of the focus detection calculation circuit 6 is supplied to the driver 7, and the driver 7 operates the lens drive system 8 based on this information to move the lens 1 in the optical axis direction and perform focus adjustment.

第6図にニューラル・ネットワーク5の具体的な回路構
成を示す。ニューラル・ネットワーク5は種々のデータ
格納用のメモリ9,10,11.12と、各種の演算回
路13.14からなる。メモリとしては、正規化演算回
路3から出力された正規化距離データxkjを格納する
メモリ9、学習により獲得されたシナプス結合強度w1
j(t)を格納するメモリ10、正規化距離データxk
jとシナプス結合強度wij(t)とのベクトル間距f
iNiを格納するメモリ11、学習済みのニューラル・
ネットワーク上のニューロン・ユニットとm影画面の主
被写体位置との対応関係を示す主被写体位置情報を格納
するメモリ12が設けられる。演算回路としては、正規
化距離データxkJとシナプス結合強度wij(t)と
からベクトル間距離Nlを演算する回路13と、そのベ
クトル間距離N1の最小値を検出する回路14が設けら
れる。
FIG. 6 shows a specific circuit configuration of the neural network 5. The neural network 5 includes memories 9, 10, 11.12 for storing various data, and various arithmetic circuits 13.14. The memories include a memory 9 that stores the normalized distance data xkj output from the normalization calculation circuit 3, and a synaptic connection strength w1 acquired through learning.
Memory 10 for storing j(t), normalized distance data xk
Vector distance f between j and synaptic connection strength wij(t)
Memory 11 that stores iNi, trained neural
A memory 12 is provided for storing main subject position information indicating the correspondence between neuron units on the network and main subject positions on the m-shadow screen. As the calculation circuits, a circuit 13 that calculates the inter-vector distance Nl from the normalized distance data xkJ and the synaptic connection strength wij(t), and a circuit 14 that detects the minimum value of the inter-vector distance N1 are provided.

正規化演算回路3から出力された正規化距離データxk
jはニューラル●ネットワーク5内のメモリ9に格納さ
れる。学習により獲得されたシナプス結合強度W口(1
)は予めメモリ10に格納されている。メモリ9、10
のデータはベクトル間距離演算回路13に供給され、そ
こでベクトル間距ル間距離の演算はニューロン・ユニッ
ト毎に独立しているので、並列演算が可能である。その
ため、ベクトル間距離演算回路13はそれぞれがニュー
ロン・ユニット毎の処理を行なう複数のプロセッサで構
成され、高速処理が可能である。また、ニューラル・ネ
ットワーク専用演算素子、つまりニューロチップではこ
の演算処理を各ニューロン・ユニットが受け持つ。
Normalized distance data xk output from the normalization calculation circuit 3
j is stored in the memory 9 within the neural network 5. The synaptic connection strength W (1
) is stored in the memory 10 in advance. Memory 9, 10
The data is supplied to the vector-to-vector distance calculation circuit 13, where the vector-to-vector distance calculation is performed independently for each neuron unit, so parallel calculation is possible. Therefore, the inter-vector distance calculation circuit 13 is composed of a plurality of processors, each of which performs processing for each neuron unit, and is capable of high-speed processing. In addition, in a neural network dedicated arithmetic element, that is, a neurochip, each neuron unit is responsible for this arithmetic processing.

最小値検出回路14は得られたベクトル間距離N1から
その最小値をもつ最適合ニューロン・ユニットCを検出
する。主被写体位置決定回路4はメモリ12に格納され
ている対応関係からこの最適合ニューロン・ユニットに
対応する主被写体位置情報Pxを読出し、仝測距センサ
からのデータLLのうち、主被写体の距離データLxの
みを焦点検出用演算回路6に供給する。
The minimum value detection circuit 14 detects the optimum neuron unit C having the minimum value from the obtained inter-vector distance N1. The main subject position determination circuit 4 reads out the main subject position information Px corresponding to this optimal neuron unit from the correspondence stored in the memory 12, and calculates the distance data of the main subject from among the data LL from the distance sensor. Only Lx is supplied to the focus detection calculation circuit 6.

以上により、入力画面内の多数の被写体の中の主被写体
のみへの自動焦点制御が可能になる。
As described above, automatic focus control can be performed on only the main subject among a large number of subjects within the input screen.

なお、学習した結果のみを応用する場合のニューラル・
ネットワークは上述した構成だけで可能であるが、初期
学習、及びカメラ燥作者にニューラル・ネットワークを
適応させる場合の追加学習等を.行なうには、次に説明
する学習回路構成が必要である。
In addition, when applying only the learned results, the neural
Although the network is possible with just the configuration described above, initial learning and additional learning when adapting the neural network to the camera user are required. In order to do this, the following learning circuit configuration is required.

第7図にニューラル・ネットワークの学習のための回路
構成を説明する。この構成は第6図に示した回路にシナ
プス結合強度演算回路16と主被写体位置情報設定回路
18とを付加するだけで実現される。
FIG. 7 explains the circuit configuration for learning the neural network. This configuration can be realized by simply adding a synaptic connection strength calculation circuit 16 and a main subject position information setting circuit 18 to the circuit shown in FIG.

その動作において、先ず、ニューラル・ネットワークの
各ニューロン●ユニットのシナプス結合強度wljを小
さい乱数で初期化しておく。多数の学習用のモデルパタ
ーンについての各領域毎の距離データベクトルをメモリ
15に、主被写体の位置する領域に関するデータPxを
メモリ17に格納しておく。メモリ15の距離データを
使用して第6図の場合と同様にベクトル間距離の最小値
の検出により最適合ニューロン・ユニットを決定した後
、シナプス結合強度演算回路16はその最適合ニューロ
ン・ユニットを中心とした近傍ニューロン・ユニット群
のシナプス結合強度W1を次式により修正学習する。た
だし、iεNc(t)である.W1(t+1) −Wt(t)+α(t)X  (Xk  −W1(t)
)   ・・・ (3)ここで、α(1)は学習係数で
0〜1の実数値をトリ、Nc(t)は最適合ニューロン
・ユニットCの近傍にあるニューロン・ユニットの集合
で、その初期値はニューラル・ネットワークの大きさに
比べてそれほど小さくないものとし、α(t),Nc(
t)ともに単調減少関数である。tは学習同数で、最大
学習回数t laXまで繰り返し学習する。
In this operation, first, the synaptic connection strength wlj of each neuron ● unit of the neural network is initialized with a small random number. Distance data vectors for each region regarding a large number of learning model patterns are stored in the memory 15, and data Px regarding the region where the main subject is located is stored in the memory 17. After determining the optimal neuron unit by detecting the minimum value of the distance between vectors using the distance data in the memory 15 as in the case of FIG. 6, the synaptic connection strength calculation circuit 16 determines the optimal neuron unit. The synaptic connection strength W1 of a group of neuron units in the vicinity of the center is corrected and learned using the following equation. However, iεNc(t). W1(t+1) −Wt(t)+α(t)X (Xk −W1(t)
) ... (3) Here, α(1) is the learning coefficient, which is a real value between 0 and 1, and Nc(t) is the set of neuron units in the vicinity of the optimal neuron unit C. The initial values are not so small compared to the size of the neural network, and α(t), Nc(
t) are both monotonically decreasing functions. t is the same number of learnings, and learning is repeated up to the maximum number of learning times t laX.

全てのモデルパターンについての学習を終了した後、主
被写体位置情報設定回路18はメモリ17に格納されて
いる各モデル撮影画面の主被写体位置がニューラル●ネ
ットワークのどのニューロン・ユニットと対応付けられ
るかを次の関係により調べ、その結果をメモリ12内に
主被写体位置情報として設定する。
After completing the learning for all model patterns, the main subject position information setting circuit 18 determines which neuron unit of the neural network the main subject position of each model shooting screen stored in the memory 17 is associated with. The following relationship is investigated and the result is set in the memory 12 as main subject position information.

yi  (=f (ΣwljX x kj) )≧θk
 (第k番J・1 目の入力パターンにおける閾値)の場合、ニューロン・
ユニットiに第k番目のモデルパターンの主被写体位置
を対応させる。
yi (=f (ΣwljX x kj) )≧θk
(threshold value in the k-th J.1 input pattern), if the neuron
The main subject position of the k-th model pattern is associated with unit i.

学習済みニューラル・ネットワークにおいて、カメラ操
作者に適応させるためさらに追加学習を行なう場合では
、ある任意の入力パターンが与えられたとき、ベクトル
間距離の最小値検出により最適合ニューロン・ユニット
を決定した後、そのニューロン・ユニットの近傍にあり
、かつ対応する主被写体位置が共通であるニューロン・
ユニット!:1Nc’のシナプス結合強度W1を次式に
よりシナプス結合強度演算回路16で修正学習する。
When performing additional learning to adapt a trained neural network to a camera operator, when an arbitrary input pattern is given, the optimal neuron unit is determined by detecting the minimum value of the distance between vectors. , the neuron units that are in the vicinity of that neuron unit and have the same corresponding main object position.
unit! The synaptic connection strength W1 of :1Nc' is corrected and learned by the synaptic connection strength calculation circuit 16 using the following equation.

Wi =Wi +(20 X (Xk −Wl )  
− (4)ただし、i6Nc’で、α0は学習係数であ
る。
Wi = Wi + (20
- (4) However, in i6Nc', α0 is a learning coefficient.

この発明は上述した実施例に限定されずに、種々変形可
能である。説明した学習方法は教師なし学習であるが、
入力パターンを与えた時にニューラル・ネットワークの
出力と教師データ(入力パターンの主被写体)とを比較
し、このニューラル・ネットワークが正しく発火してい
ればシナプス結合強度を入力パターンに近づけ、また誤
って発火していればシナプス結合強度を入力パターンか
ら遠ざけるような教師付き学習も可能である。また、入
力値として教師データをも含めて学習することもできる
。なお、追加学習前の初期学習状態にいつでも復帰可能
にしておくためには、初期学習状態におけるシナプス結
合強度をメモリに格納しておく必要がある。
This invention is not limited to the embodiments described above, and can be modified in various ways. The learning method explained is unsupervised learning,
When an input pattern is given, the output of the neural network is compared with the training data (the main subject of the input pattern), and if the neural network fires correctly, the synaptic connection strength approaches the input pattern, and if it fires incorrectly, it If so, supervised learning that moves the synaptic connection strength away from the input pattern is also possible. It is also possible to learn by including teaching data as input values. Note that in order to be able to return to the initial learning state before additional learning at any time, it is necessary to store the synaptic connection strength in the initial learning state in memory.

さらに、実施例としては自動焦点カメラを説明したが、
この発明は決定された主被写体に関する焦点情報を補助
的にファインダ内等に表示するだけのマニュアル焦点調
節カメラに適応してもよい。
Furthermore, although an autofocus camera was explained as an example,
The present invention may be applied to a manual focus adjustment camera that only auxiliarily displays focus information regarding the determined main subject in a finder or the like.

〔発明の効果〕〔Effect of the invention〕

以上説明したようにこの発明によれば、主被写体の特定
のような従来は定式化、プログラム化の困難であった処
理において、ニューラル・ネットワークに多数のモデル
パターンにおける距離データベクトルを学習させておく
だけで、多様な画面中の主被写体の焦点を高速に検出す
ることができるカメラの焦点検出装置を提供することが
できる。
As explained above, according to the present invention, a neural network is made to learn distance data vectors for a large number of model patterns in processes that were conventionally difficult to formulate and program, such as identifying the main subject. By simply using the present invention, it is possible to provide a camera focus detection device that can quickly detect the focus of a main subject in various screens.

そして、ニューラル・ネットワークの並列処理を利用す
れば、さらに高速化が可能である。また、カメラ操作者
の好みの構図や、構図の癖をニューラル・ネットワーク
に学習させ、ニューラル・ネットワークをカメラ操作者
に適応させることにより、主被写体の決定をより高精度
に行なわせることができる。
Further speed-up is possible by using parallel processing of neural networks. In addition, by having the neural network learn the camera operator's preferred composition and composition habits and adapting the neural network to the camera operator, the main subject can be determined with higher precision.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明によるカメラの焦点検出の概略を示す
図、第2図はニューロン・ユニットのモデルを示す図、
第3図はニューラル・ネットワークのモデルを示す図、
第4図はフィードバック結合によるシナプス結合強度の
変化を示す図、第5図はこの発明の実施例である自動焦
点カメラのブロック図、第6図はニューラル・ネットワ
ークの回路構成を示す図、第7図はニューラル・ネット
ワークを学習させるための回路構成を示す図である。 1・・・レンズ、2・・・測距センサ、3・・・正規化
演算回路、4・・・主被写体決定回路、5・・・ニュー
ラル・ネットワーク、6・・・焦点検出用演算回路、7
・・・ドライバ、8・・・レンズ駆動系。
FIG. 1 is a diagram showing an outline of focus detection of a camera according to the present invention, FIG. 2 is a diagram showing a model of a neuron unit,
Figure 3 is a diagram showing the neural network model,
FIG. 4 is a diagram showing changes in synaptic connection strength due to feedback connections, FIG. 5 is a block diagram of an autofocus camera that is an embodiment of the present invention, FIG. 6 is a diagram showing the circuit configuration of a neural network, and FIG. The figure shows a circuit configuration for learning a neural network. DESCRIPTION OF SYMBOLS 1... Lens, 2... Distance sensor, 3... Normalization calculation circuit, 4... Main subject determination circuit, 5... Neural network, 6... Focus detection calculation circuit, 7
... Driver, 8... Lens drive system.

Claims (1)

【特許請求の範囲】 撮影画面内の複数の点までの距離を測定する手段と、 複数のニューロン・ユニットからなり、各ニューロン・
ユニットには前記測定手段から出力される各点毎の距離
データの集合、すなわち距離データベクトルが所定のシ
ナプス結合強度を介して入力される単一層のニューラル
・ネットワークと、モデルパターンの距離データベクト
ルに選択的反応をするようにシナプス結合強度を修正す
ることにより前記所定のシナプス結合強度を獲得し、前
記モデルパターンの距離データベクトルを前記ニューラ
ル・ネットワークに再度入力したときの前記ニューラル
・ネットワークの出力と前記モデルパターンにおける主
被写体の位置する点とを対応づける学習手段と、 任意の撮影画面の距離データベクトルを前記ニューラル
、ネットワークに入力したときの前記ニューラル・ネッ
トワークの出力に応じて主被写体を決定し、それに応じ
て焦点を検出する手段とを具備するカメラの焦点検出装
置。
[Claims] A device comprising means for measuring distances to a plurality of points within a photographing screen, and a plurality of neuron units, each neuron
The unit includes a single-layer neural network into which a set of distance data for each point output from the measurement means, that is, a distance data vector, is input via a predetermined synaptic connection strength, and a distance data vector of a model pattern. the output of the neural network when the predetermined synaptic connection strength is obtained by modifying the synaptic connection strength so as to cause a selective response, and the distance data vector of the model pattern is inputted into the neural network again; learning means for associating points where the main subject is located in the model pattern; and determining the main subject according to the output of the neural network when a distance data vector of an arbitrary photographic screen is input to the neural network. , and means for detecting the focus accordingly.
JP30732389A 1989-11-27 1989-11-27 Camera focus detection device Expired - Fee Related JP3217052B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP30732389A JP3217052B2 (en) 1989-11-27 1989-11-27 Camera focus detection device
US07/916,792 US5227830A (en) 1989-11-27 1992-07-17 Automatic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30732389A JP3217052B2 (en) 1989-11-27 1989-11-27 Camera focus detection device

Publications (2)

Publication Number Publication Date
JPH03167536A true JPH03167536A (en) 1991-07-19
JP3217052B2 JP3217052B2 (en) 2001-10-09

Family

ID=17967760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30732389A Expired - Fee Related JP3217052B2 (en) 1989-11-27 1989-11-27 Camera focus detection device

Country Status (1)

Country Link
JP (1) JP3217052B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021149238A1 (en) * 2020-01-24 2021-07-29 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021149238A1 (en) * 2020-01-24 2021-07-29 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
EP4096209A4 (en) * 2020-01-24 2023-01-18 Sony Group Corporation Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
JP3217052B2 (en) 2001-10-09

Similar Documents

Publication Publication Date Title
JP7482181B2 (en) Image processing device and image processing method
JP2761391B2 (en) Focus detection device
US7676441B2 (en) Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method
US20200311855A1 (en) Object-to-robot pose estimation from a single rgb image
US20220345685A1 (en) Method and apparatus for camera calibration
KR102229220B1 (en) Method and device for merging object detection information detected by each of object detectors corresponding to each camera nearby for the purpose of collaborative driving by using v2x-enabled applications, sensor fusion via multiple vehicles
US5227830A (en) Automatic camera
JPH1125263A (en) Object feature point detector, focus adjusting device, exposure controller and camera
JP2002222427A (en) Movement detecting method for digital camera
JP2001116985A (en) Camera with subject recognizing function and subject recognizing method
JP6812387B2 (en) Image processing equipment and image processing methods, programs, storage media
US5253327A (en) Optimization apparatus
CN110705564A (en) Image recognition method and device
JPH03167536A (en) Focal point detector for camera
US5732288A (en) Auto-focusing device for camera
EP3955160A1 (en) Target identification method and device
JP2909111B2 (en) Camera exposure calculation device
Anikina et al. Detect to focus: Latent-space autofocusing system with decentralized hierarchical multi-agent reinforcement learning
US5266984A (en) Exposure calculating apparatus for camera
CN112733754A (en) Infrared night vision image pedestrian detection method, electronic device and storage medium
US6836618B2 (en) Distance measuring device
JP2793815B2 (en) Exposure control device
JP2793817B2 (en) Exposure control device
JPH0667272A (en) Camera with hand shake correcting function
JP2023032243A (en) Identification model generation apparatus, identification apparatus, identification model generation method, identification method, and program

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees