JPH0296724A - Camera with learning function - Google Patents

Camera with learning function

Info

Publication number
JPH0296724A
JPH0296724A JP63250465A JP25046588A JPH0296724A JP H0296724 A JPH0296724 A JP H0296724A JP 63250465 A JP63250465 A JP 63250465A JP 25046588 A JP25046588 A JP 25046588A JP H0296724 A JPH0296724 A JP H0296724A
Authority
JP
Japan
Prior art keywords
learning
output
camera
network
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63250465A
Other languages
Japanese (ja)
Other versions
JP2793816B2 (en
Inventor
Masabumi Yamazaki
正文 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP63250465A priority Critical patent/JP2793816B2/en
Publication of JPH0296724A publication Critical patent/JPH0296724A/en
Application granted granted Critical
Publication of JP2793816B2 publication Critical patent/JP2793816B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To attain photographing which fits to a user's individually by permitting a camera to learn a network in a learning mode, and controlling the camera in an automatic mode based on an output from the network. CONSTITUTION:The camera is provided with the network composed of an input layer, an intermediate layer, and an output layer which are combined in order with the prescribed strength of the combination. In the learning mode, a signal showing the environmental condition of surroundings such as the brightness distribution of an object is connected to the input layer composed of plural units. Here, the output layer is permitted to learn the strength of the combination between all layers which generate the desired output selected by a user. In the automatic mode, the camera is controlled based on the output of the learned network. Therefore, the photographing which fits to a user's individuality can be attained for any object.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、どのような被写体に対してもある程度の条
件を満たす撮影を行なうことができる学習機能付きカメ
ラに関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a camera with a learning function that can photograph any subject that satisfies certain conditions.

[従来の技術] このようなカメラの従来例として、特開昭57−420
26号公報に記載したカメラがある。
[Prior Art] As a conventional example of such a camera, Japanese Patent Application Laid-Open No. 57-420
There is a camera described in Publication No. 26.

これは、被写界を複数の領域に分けて71p+光し、各
領域に対応した複数のバーj先出力を発生するマルチA
pl光装置において、最大輝度に応じて、最大輝度、最
大輝度と平均輝度の中間の輝度、平均輝度、平均輝度と
最小輝度の中間輝度、最小輝度の中から1つを選択して
、それにより露出を制御する。
This is a multi-A camera that divides the subject into multiple areas, emits 71p+ light, and generates multiple bar outputs corresponding to each area.
In the PL light device, depending on the maximum brightness, select one of the maximum brightness, the intermediate brightness between the maximum brightness and the average brightness, the average brightness, the intermediate brightness between the average brightness and the minimum brightness, and the minimum brightness, and thereby Control exposure.

[発明が解決しようとする課題] この従来例は、マイクロコンピュータによる被写体パタ
ーンの認識であるため、ある限られた被写体パターンに
しか適応できなかったり、誤まった検出を行ない意図し
ない写真ができる等の欠点があった。また、多くの被写
体パターンに対して意図通りの露出制御を行なおうとす
ると、被写体パターン、あるいは明るさが定式化できな
いため、プログラムが膨大になったり、演算時間が長く
なるなどの欠点がある。さらに、メーカーが意図した通
りの写真ができたとしても、写真の評価は個人の感性に
よるところが大きいため、必ずしも全てのユーザに対し
てよい結果が得られるとは限らない。
[Problems to be Solved by the Invention] This conventional example uses a microcomputer to recognize the subject pattern, so it may be applicable only to a certain limited number of subject patterns, or it may perform incorrect detection, resulting in unintended photographs. There was a drawback. Furthermore, when attempting to perform intended exposure control for many subject patterns, the subject patterns or brightness cannot be formulated, resulting in drawbacks such as an enormous program and a long computation time. Furthermore, even if a photograph is produced as intended by the manufacturer, the evaluation of the photograph largely depends on the individual's sensibilities, so good results may not necessarily be obtained for all users.

また、焦点を合わせたり、露出制御を行なったりする被
写体の中の主要部の特定も定式化が難かしい。
Furthermore, it is difficult to formulate the identification of the main parts of a subject for focusing and exposure control.

この発明の目的は、これらの欠点を解決するため、学習
モードにおいてはユーザ1人1人の好みに合った結果が
でるようにネットワークを学習させ、オートモードにお
いてはネットワークの出力に基づいてカメラを制御する
ことにより、ユーザの個性に合った結果がでるような学
習機能付きカメラを提供することを目的とする。
The purpose of this invention is to solve these drawbacks by having the network learn in learning mode to produce results that match each user's preferences, and in auto mode to adjust the camera based on the output of the network. The purpose of the present invention is to provide a camera with a learning function that can be controlled to produce results that match the user's individuality.

[課題を解決するための手段] この発明によるカメラには、所定の結合の強さで順次結
合される人力層、中間層、出力層からなるネットワーク
が設けられる。学習モードにおいては、被写体の輝度分
布などの周囲の環境状態をあらわす信号をt!i数のユ
ニットからなる人力層に接続する。この時、出力層に使
用者によって選ばれた望ましい出力が発生するような各
層間の結合の強さを学習させる。オートモードにおいて
は、学習済みのネットワークの出力に基づいてカメラの
制御が行なわれる。
[Means for Solving the Problems] A camera according to the present invention is provided with a network consisting of a human layer, an intermediate layer, and an output layer that are sequentially connected with a predetermined connection strength. In the learning mode, a signal representing the surrounding environmental conditions such as the luminance distribution of the subject is sent to t! Connect to the human power layer consisting of i number of units. At this time, the output layer learns the strength of the connection between each layer so that the desired output selected by the user is generated. In auto mode, camera control is performed based on the output of the trained network.

[作用〕 この発明によれば、ユーザ1人1人がカメラから望まし
い出力が得られるようにネットワークを学習させるので
、被写体パターンに応じた露出レベルの調整、あるいは
被写体の主要部による焦点の検出等をユーザの個性に合
わせて行なうことができる。
[Operation] According to the present invention, the network is trained so that each user can obtain the desired output from the camera, so it is possible to adjust the exposure level according to the subject pattern or detect the focus based on the main part of the subject. can be tailored to suit the user's personality.

[実施例J 以下、図面をり照して、この発明による学習機能付きカ
メラの実施例を説明する。第1図にそのブロック図を示
す。第1図からイつかるように、この実施例は、ニュー
ロコンピュータを使用して、露出制御、焦点検出を行な
っている。そこで、先ず、第2図〜第12図を参照して
。ニューロコンピュータについて説明する。
[Embodiment J] Hereinafter, an embodiment of a camera with a learning function according to the present invention will be described with reference to the drawings. FIG. 1 shows its block diagram. As can be seen from FIG. 1, this embodiment uses a neurocomputer to perform exposure control and focus detection. First, please refer to FIGS. 2 to 12. Explain about neurocomputer.

第2図にニューロコンピュータのモデルを示す。Figure 2 shows a model of a neurocomputer.

このモデルはルメルハル)□ (RuIIethart
 )等によって提案されたもので、パックプロパゲーシ
ョン(Back Propagarlon)モデル(以
下、BPモデルと略す)と呼ばれる。ニューロコンピュ
ータは多数のユニットにューロン)からなり、ユニット
は人力層、中間層、出力層に分類されている。各ユニッ
トは入力層−中間層−出力層の方向に接続され、ネット
ワークにューラルネット)を形成する。各ユニットの結
合の強さは学習により決定される。たたし、各層内での
ユニット相互の接続はない。各ユニットのモデルを第2
図に示す。
This model is Rumerhal)□ (RuIIethart
) and others, and is called the back propagation model (hereinafter abbreviated as BP model). A neurocomputer consists of many units (neurons), and the units are classified into a human layer, an intermediate layer, and an output layer. Each unit is connected in the direction of input layer-middle layer-output layer to form a network (neural net). The strength of the connections between each unit is determined by learning. However, there is no mutual connection between units within each layer. The model of each unit is
As shown in the figure.

次に、このBPモデルの学習アルゴリズムの原理を説明
する。あるパターンPを入力層に与えた時、出力層に現
われる実際の出力値をOpjoとし、その時の望ましい
出力値(以下、教師信号という)を【pjとすると、両
者の差Epjは次のように表わされる。
Next, the principle of this BP model learning algorithm will be explained. When a certain pattern P is given to the input layer, the actual output value appearing in the output layer is Opjo, and the desired output value at that time (hereinafter referred to as the teacher signal) is [pj], then the difference between the two Epj is as follows. expressed.

Epj=1/2 (tpj−OpjO) 2   ・・
・(1)学習させるには、この誤差Epjを減少させる
ように、全てのユニットの結合の強さを変えればよい。
Epj=1/2 (tpj-OpjO) 2...
- (1) To perform learning, it is sufficient to change the connection strength of all units so as to reduce this error Epj.

パターンPを与えたときの(K−1)層のi番目のユニ
ットからに層のi番目のユニットに対する結合の強さW
jjの変化量を次のように定義する。
When pattern P is given, the strength of coupling W from the i-th unit of the (K-1) layer to the i-th unit of the layer
The amount of change in jj is defined as follows.

ここで、Kは出力層を0として、入力層になるにつれて
増える。
Here, K is set to 0 at the output layer and increases toward the input layer.

ΔpWj1に−c −9E p / a WjiK−f
21aEp/aWjlK −(9E p/9 n e tpjK)・Ca n e
 tpjK/1llWHK)      −(3)ココ
テ、n e t pjK−ΣWjkK・Opk” テア
過 る。
ΔpWj1−c −9E p/a WjiK−f
21aEp/aWjlK -(9E p/9 ne tpjK)・Can e
tpjK/1llWHK) - (3) Kokote, net pjK-ΣWjkK・Opk"It's a tear.

まt二、fをシグモイド(SigTAold )関数と
して、0pkK−f  (n e tpkK)と表4)
すと、(3)式は次のように変形される。シグモイド関
数を第3図に示す。
Second, if f is a sigmoid (SigTAold) function, 0pkK-f (ne tpkK) and Table 4)
Then, equation (3) is transformed as follows. The sigmoid function is shown in FIG.

a E pj/ f3 WjlK −一δpjK・op+K”l         ・・・
(4)ここで、δpjKは第に層における。誤差の後向
きf云1番量であり、δpJ  ”=−aEl)j/9
netpjK、に である。従って、(2)式は次のように変形される。こ
こで、ηは定数である。
a E pj/ f3 WjlK -1 δpjK・op+K"l...
(4) Here, δpjK is in the first layer. It is the backward f-1 amount of error, and δpJ ”=-aEl)j/9
This is netpjK. Therefore, equation (2) is transformed as follows. Here, η is a constant.

ΔpWjlK −η・δpjK・OplK“1      ・・・(5
)出カニニットの場合は、Epj−1/2 (tpj 
−0pJ)  、  0IIJ  =f  (netp
jO)なので、50 2    ・0 .0 出力層の後向き伝播量δpJ  は、次のよう1こなる
ΔpWjlK −η・δpjK・OplK“1...(5
) In the case of crab knit, Epj-1/2 (tpj
-0pJ), 0IIJ =f (netp
jO), so 50 2 ・0. 0 The backward propagation amount δpJ of the output layer is 1 as follows.

になる。become.

δpjK 、に 一−a Ep /9 n e tpj (aopl /anetpjK)I (7)式はδの再帰関数である。δpjK , to 1-a Ep /9 ne tpj (aopl /anetpjK)I Equation (7) is a recursive function of δ.

ΔpWjlKを一般的に定式化すると、次のようになる
A general formulation of ΔpWjlK is as follows.

ΔpWjlK(n+1) 一ηδpJ・0piK+1+αΔpWjlK (n) 
  −(8)、に ただし、ΔpWjlK (0)−0であり、口は学習の
回数を表わす。(8)式の右辺の第2項は誤差の振動を
減らし収束を速めるために加入でいる。
ΔpWjlK (n+1) - ηδpJ・0piK+1+αΔpWjlK (n)
−(8), where ΔpWjlK (0)−0, and the mouth represents the number of times of learning. The second term on the right side of equation (8) is added to reduce error fluctuations and speed up convergence.

(8)式から、結合の強さは次のように更新される。From equation (8), the bond strength is updated as follows.

wjiK(n+1) −Wji  (n)+ΔpWjlK(n)(K−0,1
,2,・・・)    ・・・(9)ここで、シグモイ
ド関数flを fl =1/ (1+e  ”’ ” )   =−(
10)で定義するとfi’ −ft  (1−fi)で
あるので後向き伝播量は次式のように簡単化される。
wjiK(n+1) −Wji(n)+ΔpWjlK(n)(K−0,1
, 2,...) ... (9) Here, the sigmoid function fl is expressed as fl = 1/ (1+e ``''') = -(
10), it is fi' -ft (1-fi), so the amount of backward propagation can be simplified as shown in the following equation.

出カニニットの場合: δpj’ 一0pJ(1−OpjO)(tpj−Opjo)  ・
・・(11)、O 中間ユニットの場合。
In the case of Kaninit: δpj' - 0pJ (1 - OpjO) (tpj - Opjo) ・
...(11), O For intermediate units.

δpjK =OpjK(1−OpjK) ・Σ(δpk   −Wkj’−’ (n+ 1 )l
  −(12)に−1 長 以上かられかるように、ΔWの計算は出力層のユニット
から始めて、中間層のユニットへ移る。
δpjK = OpjK (1-OpjK) ・Σ(δpk −Wkj'-' (n+ 1)l
−1 in (12) As can be seen from the above, the calculation of ΔW starts from the output layer unit and moves to the intermediate layer unit.

このように学習は入力データの処理とは逆方向に進む。In this way, learning proceeds in the opposite direction to the processing of input data.

従って、BPモデルによる学習は次のように行われる。Therefore, learning using the BP model is performed as follows.

先ず、学習用のデータを入力し、結果を出力する。次に
、結果の誤差(実際の出力と教師信号との差)を減らす
ように結合の強さを変える。
First, data for learning is input and the results are output. Next, the strength of the coupling is changed to reduce the resulting error (the difference between the actual output and the teacher signal).

そして、再び、学習用データを入力する。この動作を、
ΔWが収束するまで繰り返す。
Then, input the learning data again. This action
Repeat until ΔW converges.

第5図にBPモデルの基本回路構成を示す。FIG. 5 shows the basic circuit configuration of the BP model.

ランダムアクセスメモリ(以下RAMと記す)1は結合
の強さWjlを格納し、層毎にに一1〜NのNページか
ら成る。RAM2はパターンPを与えたときの結合の強
さWjlの変化瓜ΔWj+を格納し、k−1〜NのNペ
ージから成る。RAM3は2;差の後向き伝播量δpj
を格納し、k−0〜Nの(N+1)ページから成る。R
A ki 4は各ユニットの出力値Opjを格納し、k
−0〜Nの(N’ + 1 )ページから成る。5はO
pjの演算回路、6はδpjの演算回路、7はΔρWj
+の演算回路である。9は全体のシーケンスを制御する
シーケンスコントローラである。
A random access memory (hereinafter referred to as RAM) 1 stores the strength of connection Wjl, and consists of N pages 11 to N for each layer. The RAM 2 stores the variation ΔWj+ of the bond strength Wjl when the pattern P is given, and is composed of N pages k-1 to N. RAM3 is 2; backward propagation amount δpj of difference
It stores (N+1) pages from k-0 to N. R
A ki 4 stores the output value Opj of each unit, and k
It consists of (N'+1) pages from -0 to N. 5 is O
pj arithmetic circuit, 6 is δpj arithmetic circuit, 7 is ΔρWj
+ calculation circuit. 9 is a sequence controller that controls the entire sequence.

第5図のBPモデルによる学習のプロセスを説明する。The learning process using the BP model shown in FIG. 5 will be explained.

ここでは、ノイマン型のコンピュータによりBPモデル
をシミュレーションした場合の動作を、第6図〜第9図
のフローチャートを参照して説明する。第6図はOpj
′7t1算のフローチャー1・、第7図はδpj演算の
フローチャート、第8図はWpj演算のフローチャート
、第9図は学習のレベル判定のフローチャートである。
Here, the operation when the BP model is simulated by a Neumann type computer will be explained with reference to the flowcharts of FIGS. 6 to 9. Figure 6 shows Opj
'7t1 calculation flowchart 1. FIG. 7 is a flowchart of δpj calculation, FIG. 8 is a flowchart of Wpj calculation, and FIG. 9 is a flowchart of learning level determination.

ステップ1(Sl)でRAMI内の結合の強さWjiを
ランダムな値に初期化する。ステップ2で人力値Opj
”lをRAM4に設定し5、ステ・ノブ3〜ステツプ9
で演算回路5により人力層から出力層に向かって順にユ
ニット出力値OpjKを演算していく。
In step 1 (Sl), the coupling strength Wji in the RAMI is initialized to a random value. In step 2, the human power value Opj
"Set l to RAM 4 5, step knob 3 to step 9
Then, the unit output value OpjK is calculated by the calculation circuit 5 in order from the human power layer to the output layer.

次に、第7図のステップ11〜ステツプ20で演算回路
6により出力値0pj0と望ましい出力を示す教師信号
tpjとから(11)式に従って出力層の誤差の後向き
伝播量δpj0を求める。
Next, in steps 11 to 20 of FIG. 7, the arithmetic circuit 6 calculates the backward propagation amount δpj0 of the error in the output layer from the output value 0pj0 and the teacher signal tpj indicating the desired output according to equation (11).

次に、第8図のステップ21〜ステツプ24て演算回路
7により(8)式に従って結合の強さの変化量δpwj
+0 (1)を求める。なお、ΔpWj+  の初期値
ΔpWjiK (0)はすべて0.0 である。ステップ25で演算回路8により(9)式に従
って結合の強さWjlo (1)を求める。以上により
、出力層のOpJ、  δpj’ 、 Δp Wjio
、0 (1)、WNo (1)が求まる。この後、これらは川
明データを更新するjしてRAMI〜RA〜14に格納
される。
Next, at steps 21 to 24 in FIG.
+0 Find (1). Note that the initial values ΔpWjiK (0) of ΔpWj+ are all 0.0. In step 25, the strength of coupling Wjlo (1) is determined by the arithmetic circuit 8 according to equation (9). From the above, OpJ of the output layer, δpj', Δp Wjio
, 0 (1), and WNo (1) are found. Thereafter, these are stored in RAMI~RA~14 after updating the river data.

次に、中間層の学習を行なう。第7図のフローチャー1
・に戻り、er算回路6により以上で求めたδpjO,
Wjio(1) 、およびRAM4に格納されている0
pj0を用いて、誤差の後向き伝播量δpjKを求める
。次に、第8図のフローチャートにおいで、演算回路7
により結合の強さの変化量ΔpWjlK (1)を(8
)式に従って求め、演算回路8により結合の強さWjl
K (1)を(9)式に従って求める。出力層と同様に
、以上で求めたデータはRAMI〜RAM4に更新する
形で格納されていく。以上のフローを入力層(K −N
 + 1 )に向かって順次繰り返し行ない第1回日の
学習が季冬了する。
Next, learn the middle layer. Flowchart 1 in Figure 7
Returning to ・, δpjO, obtained above using the er calculation circuit 6,
Wjio (1) and 0 stored in RAM4
Using pj0, the amount of backward propagation of error δpjK is determined. Next, in the flowchart of FIG.
The amount of change in the bond strength ΔpWjlK (1) is (8
), and the arithmetic circuit 8 calculates the coupling strength Wjl.
K (1) is determined according to equation (9). Similar to the output layer, the data obtained above is stored in RAMI to RAM4 in an updated form. The above flow is input layer (K − N
+ 1), and the first day's learning is completed in winter.

以上の学習を複数(n)回実行することにより、各ユニ
ット間の結合の強さV/j+が決定され、ある入カバタ
ーンPを示す人力1aopjを与えたときに所望の出力
値Ppjを得るためのネットワークが自動的に形成され
ることになる。
By performing the above learning multiple times (n), the strength of the connection between each unit V/j+ is determined, and when a human power 1aopj indicating a certain input pattern P is applied, a desired output value Ppj is obtained. network will be automatically formed.

第9図は、実際の出力値Opjと教師信号t pjとの
平均二乗誤差Epを求めるフローチャートである。この
値が小さくなる程、実際の出力値は望ましい出力値に近
くなる。いまEpがあるしきい値εより小さければ学習
を終了し、εより大きければ学習を繰り返す。
FIG. 9 is a flowchart for determining the mean square error Ep between the actual output value Opj and the teacher signal tpj. The smaller this value is, the closer the actual output value will be to the desired output value. If the current Ep is smaller than a certain threshold value ε, the learning is finished, and if it is larger than ε, the learning is repeated.

以上では、1つの入カバターンPに対する学習について
述べたが、入カバターンを複数にし、それぞれのパター
ンに対応した複数の出カバターンを11;るような学習
も可能である。また、複数の人カバターンに対しである
特定の1つの出カバターンを出力するように学習させる
ことも可能である。
Although learning for one input cover turn P has been described above, it is also possible to perform learning in which there are a plurality of input cover turns and a plurality of output cover turns corresponding to each pattern. It is also possible to learn to output a specific cover turn for a plurality of cover turns.

以上述べたBPモデルは、現在広く民生機器等で使用さ
れているノイマン型のマイクロコンピュータで実現可能
であるが、このままではニューロコンピュータの1つの
大きな長所である並列処理による高速化の機能は生かさ
れない。そのため、第6図〜第9図の処理を複数のコン
ピュータで並列に処理させることが好ましい。
The BP model described above can be realized with the Neumann-type microcomputers that are currently widely used in consumer devices, but as it is, one of the major strengths of neurocomputers, which is the ability to speed up through parallel processing, will not be utilized. . Therefore, it is preferable that the processes shown in FIGS. 6 to 9 be performed in parallel by a plurality of computers.

第10図はこのための並列処理システムの構成を示す。FIG. 10 shows the configuration of a parallel processing system for this purpose.

!!2数のマイクロプロセッサP1〜Pnがポス]・プ
ロセッサ11に接続される。第2図に示ずニューラルネ
ットをn個の部分ネットワークに分割し、それぞれをマ
イクロプロセンサP1〜Pnに割り当てる。ホストプロ
セッサ11は、マイクロプロセッサPl=Pn相互のタ
イミングの制御を行なったり、マイクロプロセッサPi
〜Pnに分散されているデータを統合してパターン認識
などの処理を行なう。各々のマイクロプロセッサPI−
Pnは上述した演算手順に従い、第5図に示す出力値O
pjの連続する複数列の演算を実行する。そのため、マ
イクロプロセッサPl〜Pnは担当する出力値を演算す
るのに必要なδpj。
! ! Two microprocessors P1 to Pn are connected to the postprocessor 11. The neural network, not shown in FIG. 2, is divided into n partial networks, and each is assigned to a microprocessor P1 to Pn. The host processor 11 controls mutual timing between the microprocessors Pl and Pn, and controls the timing between the microprocessors Pl and Pn.
~Pn is integrated to perform processing such as pattern recognition. Each microprocessor PI-
Pn is the output value O shown in FIG. 5 according to the calculation procedure described above.
Perform operations on multiple consecutive columns of pj. Therefore, the microprocessors Pl to Pn have δpj necessary to calculate the output values for which they are responsible.

ΔW j I 、 W j iをそれぞれ格納するため
のRA Mと演算回路を61えている。I!J当する全
てのユニットの出力値の演算が終了すると、各プロセッ
サPi〜P 11間で同期をとりながら、データの更新
のための通信が行なわれる。ホストプロセッサ11にお
いては、学習の達成レベルの判定や、マイクロプロセン
サP1〜Pn相互のタイミングの制御を行なう。
There are 61 RAMs and arithmetic circuits for storing ΔW j I and W j i respectively. I! When the computation of the output values of all the units corresponding to J is completed, communication for updating data is performed while maintaining synchronization among the respective processors Pi to P11. The host processor 11 determines the learning achievement level and controls the mutual timing of the microprocessors P1 to Pn.

学習した結果に基づいて、パターン認工笠の処理を行な
う場合は、第2図に示す人力層から出力の演算を行なっ
ていくことにより、最終的に必要な出力値PpjOが求
められる。この場合も、第11図に示すような複数のマ
イクロプロセッサによる分散処理を実行することにより
ニューラルネットの並列性による高速化がはかれる。
When performing pattern recognition shade processing based on the learned results, the necessary output value PpjO is finally determined by calculating the output from the human power layer shown in FIG. In this case as well, by executing distributed processing using a plurality of microprocessors as shown in FIG. 11, speeding up can be achieved due to the parallelism of the neural network.

なお、学習の過程においては基本的に第5図に示す回路
が必要になるが、学習結果を応用するだけの場合、構成
は非常に簡単化される。
Although the circuit shown in FIG. 5 is basically required in the learning process, the configuration can be greatly simplified if only the learning results are applied.

第11図はこの場合の基本回路構成である。FIG. 11 shows the basic circuit configuration in this case.

人力データは人力部12(例えば、A/D変換器等を指
す)を介して0pjK=f(ΣWjkK長 ・0pkK+1)の演算を順次行なうことにより、出力
データOpJ を得る。結合の強さWjiKの格納、0 される係数メモリ14はROM、または書き替え可能な
ROMでもよい。
The human data is outputted by sequentially performing the calculation 0pjK=f (ΣWjkK length·0pkK+1) via the human power unit 12 (for example, an A/D converter) to obtain output data OpJ. The coefficient memory 14 in which the coupling strength WjiK is stored may be a ROM or a rewritable ROM.

第12図は学習結果を応用する製品に対する製造時の学
習システムの概略ブロック図である。
FIG. 12 is a schematic block diagram of a learning system during manufacturing for products to which learning results are applied.

製品16は、結合の強さWNKを 格 納 す るR 
OIvll 7を内蔵する。18は学習装置であり、R
OM17と学習装置18を合せたものは基本的には第5
図の装置と同一であるが、ROM17へのWjiKの書
き込みが終了すると、製品16(ROM17)と学習装
置18は分離される。なお、同一種類の各製品に対して
、毎回学習させる必要はないので、ROM17をコピー
して使用することも可能である。
Product 16 is R that stores the bond strength WNK.
Built-in OIvll 7. 18 is a learning device, R
The combination of OM17 and learning device 18 is basically the fifth
Although it is the same as the device shown in the figure, when the writing of WjiK to the ROM 17 is completed, the product 16 (ROM 17) and the learning device 18 are separated. Note that it is not necessary to perform learning each time for each product of the same type, so it is also possible to copy and use the ROM 17.

なお、以上の説明において、BPモデルの学習とその結
果の応用については、現在使われているノイマン型コン
ピュータによるシミュレーションにより実現してきた。
In the above explanation, the learning of the BP model and the application of the results have been realized through simulations using currently used Neumann type computers.

これは主に学習においては、複雑なアルゴリズムが必要
で、ハードウェアで自動的に各ニューロン間の接続の重
みを自己組織化するのが非常に難かしいためである。し
かしながら、結合の強さWljがわかれば、学習結果を
応用する機械に限定して考えると、図−1に示すBPモ
デルをハードウェアで構成することができる。
This is mainly because learning requires complex algorithms, and it is extremely difficult for hardware to automatically self-organize the weights of connections between neurons. However, if the strength of the connection Wlj is known, the BP model shown in Figure 1 can be configured in hardware if the learning results are applied to a machine.

並列処理による高速化をはかったり、廉価な民生品に応
用する場合は、この方法を採用しないと、意味はない。
If you want to increase speed through parallel processing or apply it to inexpensive consumer products, there is no point unless you use this method.

これは、第2図の各ユニットをインバータで構成し、結
合の強さWljを抵抗ネットワークR1jに置き換える
ことで実現でき、これは、最近のLSI化の技術を使え
ば簡単に実現できる。
This can be achieved by configuring each unit in FIG. 2 with an inverter and replacing the coupling strength Wlj with a resistor network R1j, which can be easily achieved using recent LSI technology.

次に、第1図を参照して、以上説明したニューロコンピ
ュータを応用した学習機能付カメラを説明する。カメラ
は合用機171720aにより撮影レンズ20を光軸方
向に移動可1ノ肚なオートフォーカス(AF)カメラと
する。
Next, a camera with a learning function to which the neurocomputer described above is applied will be explained with reference to FIG. The camera is an autofocus (AF) camera in which the photographic lens 20 can be moved in the optical axis direction by a combination device 171720a.

撮影カメラ20の前面には絞り19があり、絞り19を
介した被写体像が光電変換素子をマトリクス状に配置し
てなる受光部21に入射される。
A diaphragm 19 is provided on the front surface of the photographing camera 20, and a subject image passing through the diaphragm 19 is incident on a light receiving section 21 having photoelectric conversion elements arranged in a matrix.

そのため、受光部21からは、光電変換素子毎に、絞り
込まれた状態における被写体の輝度情報が出力され、増
幅器22、A/D変換器23を介してディジタル化され
、BV’値として演算回路(A L U) 24 +:
fl、Thすhル。eL算回路24は、絞り込まれた状
態における輝度BV’値から実際ノ彼写体ノ輝度BVI
ift (−BV’ −AVo )を演算するための回
路であり、このため、絞り19の開放絞り(ifJ A
 V oが入力されている。
Therefore, the light receiving unit 21 outputs the brightness information of the subject in the narrowed down state for each photoelectric conversion element, digitizes it via the amplifier 22 and A/D converter 23, and converts it into a BV' value as the arithmetic circuit ( ALU) 24 +:
fl, Thshl. The eL arithmetic circuit 24 calculates the brightness BVI of the actual subject from the brightness BV' value in the narrowed down state.
This is a circuit for calculating ift (-BV'-AVo), and for this reason, the open aperture of the aperture 19 (ifJ A
Vo is being input.

a算回路24から出力された各光電変換素子毎のBV値
は選択回路(マルチプレクサ)28に供給されるととも
に、各光電変換素子出力を記憶するフレームメモリ40
にも供給される。選択回路24は後述する制御信号PX
yに基づいて、被写体中の主要部に対応する光電変換素
子の出力BV値のみを通過させる。
The BV value for each photoelectric conversion element output from the a calculation circuit 24 is supplied to a selection circuit (multiplexer) 28, and a frame memory 40 that stores the output of each photoelectric conversion element
Also supplied. The selection circuit 24 receives a control signal PX, which will be described later.
Based on y, only the output BV value of the photoelectric conversion element corresponding to the main part of the subject is passed.

選択回路28の出力は被写体主要部の鮮明度と位相を検
出する焦点検出のための演算回路2つに供給されるとと
もに、被写体主要部の輝度BV。
The output of the selection circuit 28 is supplied to two arithmetic circuits for focus detection that detect the sharpness and phase of the main part of the subject, and also the brightness BV of the main part of the subject.

フィルム感度SV1絞り値AV、シャッタースピードT
Vよりアペックス演算(BV+5V−TV+AV)を行
ない、シャッタースピード、あるいは絞り値を決めるた
めの演算回路31に供給される。演算回路2つは山登り
方式による焦点検出のための演算を行なう。演算゛回路
2つの出力はドライバ30に供給され、ドライバ30は
これに基づいて、合焦製溝20aを駆動させ、撮影レン
ズの位置を移動する。演算回路31の出力はシャッター
制御装置32、絞り制御装置33に供給され、露出が制
御される。このように、この実施例は、被写体全体では
なく主要部のみの輝度情報に基づいて、露出制御、焦点
検出する。主要部が複数の光電変換素子にまたがってい
る時は、演算回路29.31は複数の光電変換素子の出
力BV値を平均したものを主要部のBV値とする。
Film sensitivity SV1 Aperture value AV, Shutter speed T
Apex calculation (BV+5V-TV+AV) is performed from V, and the signal is supplied to an arithmetic circuit 31 for determining the shutter speed or aperture value. The two calculation circuits perform calculations for focus detection using the hill-climbing method. The outputs of the two arithmetic circuits are supplied to the driver 30, and based on this, the driver 30 drives the focusing groove 20a to move the position of the photographic lens. The output of the arithmetic circuit 31 is supplied to a shutter control device 32 and an aperture control device 33 to control exposure. In this way, this embodiment performs exposure control and focus detection based on the luminance information of only the main part, not the entire subject. When the main part spans a plurality of photoelectric conversion elements, the arithmetic circuit 29.31 takes the average of the output BV values of the plurality of photoelectric conversion elements as the BV value of the main part.

フレームメモリ40のデータは学習機能をもったニュー
ロコンピュータ25に入力され、被写体の輝度パターン
から主要部の位置を示す信号Pxyを演算する。すなわ
ち、ニューロコンピュータ25は被写体の輝度パターン
Opjoを人力とし、い最終的にPXyを出力する。ニ
ューロコンピュータ25の基本ブロック構成は第5図に
示す通りでもよいが、ここでは、高速化をはかるため、
第10図に示すような並列コンピュータにより学習を行
なう。学習の結果求められた結合の重みWljは係数メ
モリ26に格納される。
The data in the frame memory 40 is input to a neurocomputer 25 having a learning function, which calculates a signal Pxy indicating the position of the main part from the brightness pattern of the subject. That is, the neurocomputer 25 uses human power to obtain the brightness pattern Opjo of the subject and finally outputs PXy. The basic block configuration of the neurocomputer 25 may be as shown in FIG. 5, but here, in order to increase the speed,
Learning is performed using a parallel computer as shown in FIG. The connection weights Wlj obtained as a result of learning are stored in the coefficient memory 26.

学習の時に、焦点検出や露出制御を行なうための被写体
の主要部の位置を手動で入力するための操作部27か設
けられる。操作部27の詳細は図示してないか、画面上
の位置と一対一に対応するタッチパネルスイッチ等から
なり、ファインダを見ながら画面上の被写体主要部の位
置を人力する。
An operation section 27 is provided for manually inputting the position of the main part of the object for focus detection and exposure control during learning. The details of the operation section 27 are not shown, but it consists of touch panel switches and the like that correspond one-to-one with the positions on the screen, and the position of the main part of the subject on the screen is manually operated while looking at the finder.

ファインダのかわりに液晶表示器を用い、この液晶表示
器の表示部上に一体に設けられた透明タッチパネルによ
って入力する方法によれば、より簡単に被写体主要部を
選択できる。
By using a liquid crystal display instead of a finder and inputting information using a transparent touch panel provided integrally on the display section of the liquid crystal display, the main part of the subject can be selected more easily.

ニューロコンピュータ25の出力と操作・部27の出力
がセレクタ42に接続されている。セレクタ42は学習
モードか、学習後に被写体の主要部を自動的に検出する
オートモードかにより切換えられ、学習モードの時は操
作部27に接続され、オートモードの時はニューロコン
ピュータ25に接続される。34はシーケンスコントロ
ーラである。
The output of the neurocomputer 25 and the output of the operation section 27 are connected to the selector 42. The selector 42 is switched depending on whether it is a learning mode or an auto mode in which the main parts of the subject are automatically detected after learning, and is connected to the operation unit 27 when in the learning mode, and connected to the neurocomputer 25 when in the auto mode. . 34 is a sequence controller.

ここで、学習モードについて説明する。学習を効率的に
進めるために、ニューラルネットワークは第13図に示
すように、各行ごとに独立したニューラルネットS11
.・・・で学習を行ない、出力層SOで統合する。ニュ
ーラルネットワークは、入力層37、中間層38、出力
層39の3層で構成されるとし、学習の原理は前述した
通りである。
Here, the learning mode will be explained. In order to proceed with learning efficiently, the neural network has an independent neural network S11 for each row, as shown in FIG.
.. Learning is performed in ... and integrated in the output layer SO. The neural network is composed of three layers: an input layer 37, an intermediate layer 38, and an output layer 39, and the learning principle is as described above.

ここで、説明の簡単化のために、光電変換素子は、第1
4図に示すように、4行7列に配置されているとする。
Here, for simplicity of explanation, the photoelectric conversion element is the first
As shown in FIG. 4, it is assumed that they are arranged in 4 rows and 7 columns.

この光7L、変換素子の位置が主要部の位置pxyに対
応する。
The position of this light 7L and the conversion element corresponds to the position pxy of the main part.

第15図に被写体の具体例を示す。(a)に示すポート
レートの場合は、被写体主要部は光電変摸索−′fP3
3に幻応し、(b)の場合は光電変換素子Pa5、(c
)の場合は光電変換素子P34が主要部にそれぞれ対応
するとする。
FIG. 15 shows a specific example of a subject. In the case of the portrait shown in (a), the main part of the subject is the photoelectric transformer -'fP3
3, in the case of (b), the photoelectric conversion element Pa5, (c
), it is assumed that the photoelectric conversion element P34 corresponds to the main part.

ニューロコンピュータ25にこのような被写体の輝度パ
ターンをフレームメモリ40を介して入力として与える
とともに、これらの主要部の位置を操作部27から教師
信号として与え、結合の強さを学習させることにより、
どのような被写体パターンの場合でも、自動的に正しい
主要部を出力することができるようになる。すなわち、
ニューロコンピュータ25では、前記したアルゴリズム
により、出力が教師信号と等しくなるように、各層間の
結合の強さWjlが自己組織化される。
By providing the neurocomputer 25 with such a brightness pattern of the subject as an input via the frame memory 40, and providing the positions of these main parts as a teacher signal from the operation unit 27, the neurocomputer 25 learns the strength of the connection.
No matter what the subject pattern is, it will be possible to automatically output the correct main part. That is,
In the neurocomputer 25, the strength of the connection between each layer Wjl is self-organized by the above-described algorithm so that the output becomes equal to the teacher signal.

なお、操作部27から入力された主要部の位置を示す信
号が選択回路28にも供給されているので、学習モード
でも、主要部の信号が選択され焦点検出用演算回路2つ
、露出制御用演算回路31に供給される。このため、学
習は実際の写真撮影とともに行なうことができる。第1
5図には、3つの被写体しか示さないが、実際には数百
のパターンについて学習を繰り返す。これにより、数6
の被写体パターンを撮影しながら、被写体主要部をユー
ザの好みに合せて学習させることができる。
Note that the signal input from the operation unit 27 indicating the position of the main part is also supplied to the selection circuit 28, so even in the learning mode, the signal of the main part is selected and the two arithmetic circuits for focus detection and the two arithmetic circuits for exposure control are The signal is supplied to the arithmetic circuit 31. Therefore, learning can be done together with actual photography. 1st
Although Figure 5 shows only three objects, in reality, learning is repeated for hundreds of patterns. As a result, the number 6
While photographing the subject pattern, the main parts of the subject can be learned according to the user's preference.

さらに、ニューロコンピュータ25はある程度の学習を
行なえば、学習時に入力されなかったパターンに対して
も正しい出力を出すという優れた性質があり、被写体主
要部の特定等の人間の感性によるところが大きく定式化
の難しい問題解決にたいへん有効である。ニューロコン
ピュータの学習により、これまでノイマン型のコンピュ
ータではプログラムできなかった膨大な種類の被写体パ
ターンと主要部との関係が自己組織化されるので、意図
通りの露出制御、焦点検出が可能となる。また、ニュー
ロコンピュータは並列処理により高速演算が可能である
ので、迅速性が要求されるカメラに適する。
Furthermore, the neurocomputer 25 has the excellent property of outputting correct output even for patterns that were not input during learning after a certain amount of learning. It is very effective in solving difficult problems. The neurocomputer's learning allows it to self-organize the relationship between the subject's main parts and a huge variety of subject patterns that could not previously be programmed with a Neumann-type computer, making it possible to control exposure and detect focus as intended. Furthermore, since neurocomputers can perform high-speed calculations through parallel processing, they are suitable for cameras that require speed.

所定駒数撮影後は学習完了とみなし、セレクタ42をニ
ューロコンピュータ25に接続し、学習結果に基づき被
写体パターンから自動的に被写体主要部を判別させ、そ
の主要部の輝度BVに基づいて焦点合わせ、あるいは露
出の制御を行なう。
After a predetermined number of frames have been photographed, it is assumed that learning is completed, the selector 42 is connected to the neurocomputer 25, the main part of the subject is automatically determined from the subject pattern based on the learning result, the focus is adjusted based on the brightness BV of the main part, Or control exposure.

この発明は上述した実施例に限定されずに、種々変形可
能である。以上の説明は、被写体主要部をニューロコン
ピュータで学習させ、焦点検出、あるいは露出制御を行
なう場合について述べたが、ニューロコンピュータの教
師信号として被写体の明るさ条件、あるいはパターンに
応じた露出補正信号を与え、逆光補正などの学習を行な
うことも可能である。また、ニューロコンピュータの人
力パラメータとして被写体の明るさだけでなく、温度や
湿度などを入力することにより、定式化の難しい微妙な
季節感を出すような学習も可能である。
This invention is not limited to the embodiments described above, and can be modified in various ways. The above explanation deals with the case where the neurocomputer learns the main parts of the subject and performs focus detection or exposure control. It is also possible to perform learning such as backlight correction. Furthermore, by inputting not only the brightness of the subject but also temperature, humidity, etc. as manual parameters of the neurocomputer, it is possible to learn to create subtle seasonal sensations that are difficult to formalize.

(発明の効果〕 以上説明したようにこの発明によれば、学習モードにお
いてはユーザ1人1人の好みに合った結果がでるように
ネットワークを学習させ、オートモードにおいてはネッ
トワークの出力に基づいてカメラを制御することにより
、どのような被写体に対してもユーザの個性に合った撮
影ができる学習機能付きカメラを提供することができる
(Effects of the Invention) As explained above, according to the present invention, in the learning mode, the network is trained to produce results that match the preferences of each user, and in the auto mode, the network is trained based on the output of the network. By controlling the camera, it is possible to provide a camera with a learning function that can photograph any subject in a way that suits the user's personality.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明による学習機能付きカメラの一実施例
のブロック図、第2図は実施例に使われるニューロコン
ピュータのモデルを示す図、第3図はネットワークを構
成する各ユニットのモデルを示す図、第4図はシグモイ
ド関数を示す図、第5図はニューロコンピュータのブロ
ック図、第6図〜第9図は第5図のニューロコンピュー
タをノイマン型コンピュータでシミュレーションした時
のフローチャートであり、第6図は各ユニットの出力O
pjを求めるフロルチャート、第7図は誤差の後向き伝
播二δpjを求めるフローチャート、第8図は結合の強
さ係数Wjlを求めるフローチャート、第9図は学習の
レベル判定のためのフローチャート、第10図は並列処
理システムのブロック図、第11図は学習結果を応用す
る装置のブロック図、第12図は学習結果を応用する装
置を学習させるシステムのブロック図、第13図は実施
例のネットワ〜りを示す図、第14図は実施例の充電変
換素子の配置例を示す図、第15図(a)〜(c)は学
習させる被写体の一例を示す図である。 20 a・・・合焦機を音、21・・・受光部、24,
29゜31・・・m’J5回路、25・・・ニューロコ
ンピュータ、26・・・係数メモリ、27・・・操作部
、28・・・選択回路、32・・・シャッタ制御装置、
33・・・絞り制御装置、40・・・フレームメモリ。
Fig. 1 is a block diagram of an embodiment of a camera with a learning function according to the present invention, Fig. 2 is a diagram showing a model of a neurocomputer used in the embodiment, and Fig. 3 is a model of each unit making up the network. Figure 4 is a diagram showing a sigmoid function, Figure 5 is a block diagram of a neurocomputer, Figures 6 to 9 are flowcharts when the neurocomputer in Figure 5 is simulated with a Neumann computer, Figure 6 shows the output O of each unit.
Figure 7 is a flowchart for determining the backward propagation of error 2 δpj, Figure 8 is a flowchart for determining the coupling strength coefficient Wjl, Figure 9 is a flowchart for determining the level of learning, Figure 10. is a block diagram of a parallel processing system, Figure 11 is a block diagram of a device that applies learning results, Figure 12 is a block diagram of a system that trains a device that applies learning results, and Figure 13 is a network diagram of the embodiment. FIG. 14 is a diagram showing an example of the arrangement of charging conversion elements of the embodiment, and FIGS. 15(a) to (c) are diagrams showing examples of objects to be studied. 20 a... Focusing device for sound, 21... Light receiving section, 24,
29° 31...m'J5 circuit, 25... Neurocomputer, 26... Coefficient memory, 27... Operating unit, 28... Selection circuit, 32... Shutter control device,
33... Aperture control device, 40... Frame memory.

Claims (1)

【特許請求の範囲】[Claims] 学習モードにおいてカメラの周囲の環境状態をあらわす
信号をパラメータとして出力を決定するネットワークと
、使用者によって選ばれた望ましい出力値と前記ネット
ワークの出力値とが一致するように前記ネットワークを
自己組織化する学習装置と、オートモードにおいて前記
ネットワークの出力に基づいてカメラの制御を行なう制
御手段を具備する学習機能付きカメラ。
A network that determines an output using a signal representing the environmental state around the camera as a parameter in a learning mode, and the network is self-organized so that the desired output value selected by the user matches the output value of the network. A camera with a learning function, comprising a learning device and a control means for controlling the camera based on the output of the network in auto mode.
JP63250465A 1988-10-04 1988-10-04 Camera with learning function Expired - Fee Related JP2793816B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63250465A JP2793816B2 (en) 1988-10-04 1988-10-04 Camera with learning function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63250465A JP2793816B2 (en) 1988-10-04 1988-10-04 Camera with learning function

Publications (2)

Publication Number Publication Date
JPH0296724A true JPH0296724A (en) 1990-04-09
JP2793816B2 JP2793816B2 (en) 1998-09-03

Family

ID=17208277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63250465A Expired - Fee Related JP2793816B2 (en) 1988-10-04 1988-10-04 Camera with learning function

Country Status (1)

Country Link
JP (1) JP2793816B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5331422A (en) * 1991-03-15 1994-07-19 Sharp Kabushiki Kaisha Video camera having an adaptive automatic iris control circuit
JP2009169936A (en) * 2007-12-21 2009-07-30 Canon Inc Information processing apparatus and information processing method
JP2019134463A (en) * 2019-03-18 2019-08-08 株式会社ニコン Learning method and digital camera
WO2022255493A1 (en) * 2021-06-04 2022-12-08 ソニーセミコンダクタソリューションズ株式会社 Imaging device, imaging method, and imaging program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5331422A (en) * 1991-03-15 1994-07-19 Sharp Kabushiki Kaisha Video camera having an adaptive automatic iris control circuit
US5497196A (en) * 1991-03-15 1996-03-05 Sharp Kabushiki Kaisha Video camera having an adaptive automatic iris control circuit
JP2009169936A (en) * 2007-12-21 2009-07-30 Canon Inc Information processing apparatus and information processing method
JP2019134463A (en) * 2019-03-18 2019-08-08 株式会社ニコン Learning method and digital camera
WO2022255493A1 (en) * 2021-06-04 2022-12-08 ソニーセミコンダクタソリューションズ株式会社 Imaging device, imaging method, and imaging program

Also Published As

Publication number Publication date
JP2793816B2 (en) 1998-09-03

Similar Documents

Publication Publication Date Title
JP2761391B2 (en) Focus detection device
US4978990A (en) Exposure control apparatus for camera
US5227835A (en) Teachable camera
WO1991014226A1 (en) Neuro-fuzzy fusion data processing system
JPH0296724A (en) Camera with learning function
US5227830A (en) Automatic camera
Kurian et al. An adaptive neuro-fuzzy model for the prediction and control of light in integrated lighting schemes
Pham et al. Some applications of fuzzy logic in rule–based expert systems
JP2793817B2 (en) Exposure control device
JP2793815B2 (en) Exposure control device
EP0505205A1 (en) Exposure calculating apparatus for camera
JP2909111B2 (en) Camera exposure calculation device
JP3217052B2 (en) Camera focus detection device
JPH02183238A (en) Exposure controller
JPH0527300A (en) Camera having learning function
JP3116358B2 (en) Focus detection photometer
JPH03100510A (en) Focus detector
JPH0342610A (en) Pattern recognizer for camera
KR20230136502A (en) Photographing box and unmanned apparatus of purchasing electronic device
JPH0468463A (en) Learning device for neural network
JP3427411B2 (en) Camera TTL metering device
JPH03260805A (en) Tuning method for fuzzy control rule
JP2023184403A (en) Machine learning method and electronic device for continual learning
CN116977713A (en) Target detection method and system based on fast-RCNN model
JPH0460620A (en) Exposure controller

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees