JPH0854557A - カメラのオートフォーカス装置 - Google Patents

カメラのオートフォーカス装置

Info

Publication number
JPH0854557A
JPH0854557A JP6187137A JP18713794A JPH0854557A JP H0854557 A JPH0854557 A JP H0854557A JP 6187137 A JP6187137 A JP 6187137A JP 18713794 A JP18713794 A JP 18713794A JP H0854557 A JPH0854557 A JP H0854557A
Authority
JP
Japan
Prior art keywords
focus detection
subject
neural network
focus
detection information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6187137A
Other languages
English (en)
Inventor
Masaru Muramatsu
勝 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP6187137A priority Critical patent/JPH0854557A/ja
Publication of JPH0854557A publication Critical patent/JPH0854557A/ja
Priority to US08/783,230 priority patent/US5732288A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

(57)【要約】 【目的】 ニューラルネットワーク内の重み係数を焦点
検出結果に応じて任意に変更可能として被写体位置を精
度よく予測する。 【構成】 撮影レンズ1と、焦点検出部4と、被写体位
置予測部5とを有するオートフォーカス装置に適用さ
れ、焦点検出部4によって3回続けて焦点検出を行な
い、焦点検出を行なった時刻、各焦点検出時の撮影レン
ズの合焦位置および撮影レンズの焦点距離を被写体位置
予測部5に設けられたニューラルネットに入力する。ニ
ューラルネットからは、予測時刻txでの撮影レンズの
合焦位置が出力される。また、ニューラルネット内の各
経路の重み係数は過去に焦点検出を行なった結果により
任意に変更されるため、被写体位置を精度よく予測でき
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、被写体の距離に応じた
焦点検出情報に基づいて未来の被写体の位置を予測する
カメラのオートフォーカス装置に関する。
【0002】
【従来の技術】撮影対象である被写体は停止していると
は限らないため、撮影レンズを透過した被写体光束が結
像する位置を複数回算出し、そのうちの2箇所以上の結
像位置に基づいて未来の被写体位置を予測し、その予測
位置に基づいて撮影レンズを駆動するオートフォーカス
装置が知られている。例えば、過去2箇所の結像位置に
よって被写体位置を予測する場合には被写体の移動を直
線によって近似し、一方、過去3箇所以上の結像位置に
よって被写体位置を予測する場合には被写体の移動を2
次以上の曲線で近似する。この種の装置を用いると、焦
点検出中に被写体が移動しても、その移動速度および移
動方向を考慮に入れて焦点検出ができるため、ピントぼ
けを有効に防止できる。
【0003】
【発明が解決しようとする課題】しかし、被写体は決ま
った移動をするとは限らず、時と場合によってその移動
方向および移動速度が全く異なるため、被写体の移動を
直線近似や曲線近似等によって予測しても必ずしも精度
よく被写体位置を予測できない。また、どのような被写
体を撮影するかは撮影者によってそれぞれ異なり、特殊
な被写体を撮影することが多い撮影者は、従来のオート
フォーカス装置を用いてもピントをうまく合わせること
ができなかった。
【0004】本発明の目的は、被写体位置を予測するニ
ューラルネットワーク内の重み係数を焦点検出結果に応
じて自動的に修正することで、被写体位置を精度よく予
測できるようにしたカメラのオートフォーカス装置を提
供することにある。
【0005】
【課題を解決するための手段】実施例を示す図1に対応
づけて本発明を説明すると、本発明は、被写体との距離
に応じた焦点検出情報を間欠的に算出する焦点検出手段
4と、焦点検出情報に基づいて未来の被写体位置を予測
する被写体位置予測手段5と、この被写体位置予測手段
5の予測結果に基づいて撮影レンズを駆動するレンズ駆
動手段6とを備えたカメラのオートフォーカス装置に適
用され、焦点検出手段4によって検出された複数の焦点
検出情報のそれぞれに対応する撮影レンズの合焦位置に
関する値を入力パラメータとして未来の被写体位置を予
測する自己組織による学習が可能なニューラルネットワ
ークと、ニューラルネットワークによって予測された被
写体位置に対応する撮影レンズの合焦位置と焦点検出手
段4によって検出された焦点検出情報に対応する撮影レ
ンズの合焦位置との誤差に基づいて、ニューラルネット
ワーク内部の各ノード間の結合の強さを示す重み係数を
修正する重み係数修正手段とを被写体位置予測手段5に
備えることにより、上記目的は達成される。請求項2に
記載の発明は、被写体との距離に応じた焦点検出情報を
間欠的に検出する焦点検出手段4と、焦点検出情報に基
づいて未来の被写体の位置を予測する被写体位置予測手
段5と、この被写体位置予測手段5の予測結果に基づい
て撮影レンズを駆動するレンズ駆動手段6とを備えたカ
メラのオートフォーカス装置に適用され、焦点検出手段
4によって検出された複数の焦点検出情報のそれぞれに
対応する撮影レンズの合焦位置に関する値を入力パラメ
ータとして未来の被写体位置および被写体速度を予測す
る自己組織による学習が可能なニューラルネットワーク
と、焦点検出手段4によって検出された焦点検出情報に
基づいて被写体速度を算出する被写体速度算出手段と、
ニューラルネットワークによって予測された被写体位置
に対応する撮影レンズの合焦位置と焦点検出手段4によ
って検出された焦点検出情報に対応する撮影レンズの合
焦位置との誤差と、ニューラルネットワークによって予
測された被写体速度と被写体速度算出手段によって算出
された被写体速度との速度差とに基づいて、ニューラル
ネットワーク内部の各ノード間の結合の強さを示す重み
係数を修正する重み係数修正手段とを被写体位置予測手
段5に備えることにより、上記目的は達成される。請求
項3に記載の発明は、請求項1または2に記載されたカ
メラのオートフォーカス装置において、焦点検出手段4
によって検出された複数の焦点検出情報のそれぞれに対
応する撮影レンズの合焦位置に関する値と、複数の焦点
検出情報を検出したそれぞれの時刻とをニューラルネッ
トワークの入力パラメータとするものである。請求項4
に記載の発明は、請求項1または2に記載されたカメラ
のオートフォーカス装置において、焦点検出手段4によ
って検出された複数の焦点検出情報のそれぞれに対応す
る撮影レンズの合焦位置に関する値と、複数の焦点検出
情報を検出したそれぞれの時刻と、撮影レンズの焦点距
離とをニューラルネットワークの入力パラメータとする
ものである。
【0006】
【作用】請求項1に記載の発明の被写体位置予測手段5
は自己組織による学習が可能なニューラルネットワーク
を有し、このニューラルネットワークには入力パラメー
タとして焦点検出手段4によって検出された複数の焦点
検出情報のそれぞれに対応する撮影レンズの合焦位置に
関する値が入力され、ニューラルネットワークでは未来
の被写体位置を予測する。また、ニューラルネットワー
ク内部の各ノード間の結合の強さを示す重み係数は、ニ
ューラルネットワークによって予測された被写体位置に
対応する撮影レンズの合焦位置と焦点検出手段4によっ
て検出された焦点検出情報に対応する撮影レンズの合焦
位置との誤差に基づいて、重み係数修正手段によって修
正される。請求項2に記載の発明の被写体位置予測手段
5は自己組織による学習が可能なニューラルネットワー
クを有し、このニューラルネットワークには入力パラメ
ータとして焦点検出手段4によって検出された複数の焦
点検出情報のそれぞれに対応する撮影レンズの合焦位置
に関する値が入力され、ニューラルネットワークでは未
来の被写体位置および被写体速度を予測する。また、ニ
ューラルネットワーク内部の各ノード間の結合の強さを
示す重み係数は、ニューラルネットワークによって予測
された被写体位置に対応する撮影レンズの合焦位置と焦
点検出手段4によって検出された焦点検出情報に対応す
る撮影レンズの合焦位置との誤差と、ニューラルネット
ワークによって予測された被写体速度と被写体速度算出
手段によって算出された被写体速度との速度差とに基づ
いて、重み係数修正手段によって修正される。請求項3
に記載の発明のニューラルネットワークには、入力パラ
メータとして焦点検出手段4によって検出された複数の
焦点検出情報のそれぞれに対応する撮影レンズの合焦位
置に関する値と、複数の焦点検出情報を検出したそれぞ
れの時刻とが入力される。請求項4に記載の発明のニュ
ーラルネットワークには、入力パラメータとして焦点検
出手段4によって検出された複数の焦点検出情報のそれ
ぞれに対応する撮影レンズの合焦位置に関する値と、複
数の焦点検出情報を検出したそれぞれの時刻と、撮影レ
ンズの焦点距離とが入力される。
【0007】なお、本発明の構成を説明する上記課題を
解決するための手段と作用の項では、本発明を分かり易
くするために実施例の図を用いたが、これにより本発明
が実施例に限定されるものではない。
【0008】
【実施例】
−第1の実施例− 以下、図1〜6を用いて本発明によるカメラのオートフ
ォーカス装置の一実施例を説明する。図1はオートフォ
ーカス装置の第1の実施例の概略構成図である。図1に
おいて、1は撮影レンズ、2は撮影レンズ1を透過した
被写体光束を反射および透過させるクイックリターンミ
ラー、3はクイックリターンミラー2を透過した被写体
光束の一部を反射するサブミラー、4はサブミラー3で
反射された被写体光束取り込んで焦点検出情報を算出す
る焦点検出部である。この焦点検出部4は、周知の焦点
検出光学系、イメージセンサおよび焦点検出演算部から
構成され、撮影レンズ1を透過した被写体光束が結像す
る面とフィルム共役面との相対的なずれ量であるデフォ
ーカス量を算出する。5は焦点検出部4によって算出さ
れたデフォーカス量に基づいて未来の被写体位置を予測
する被写体位置予測部であり、CPUおよびその周辺回
路から成る。6は被写体位置予測部5で予測した被写体
位置に基づいて撮影レンズ1を合焦位置まで駆動するレ
ンズ駆動部である。
【0009】図2は本実施例で用いられるニューラルネ
ットの構成を説明する図である。このニューラルネット
は階層的ネットワークと呼ばれている。このニューラル
ネットは、図示の丸印で示された複数のニューロン(ユ
ニット)からなり、各ニューロンは、入力層、中間層お
よび出力層の3層に分類されている。各層のニューロン
は、入力層→中間層→出力層の方向に編目状に接続され
てネットワークを形成している。各ニューロンを接続す
る経路にはそれぞれ固有の重み係数が付けられており、
ネットワークの結合の強さは、各ニューロンの値と各経
路の重み係数の値によって定まる。
【0010】重み係数は、数多くの被写体を実際に撮影
した結果をもとに、公知の技術であるラメルハート(1
986)等により提案された誤差逆伝搬法等の学習法を
用いて計算機等で予め算出され、その結果はカメラ内部
の不図示のEEPROM等の書き換え可能な不揮発性メ
モリに格納される。そして、被写体位置の予測を行なう
たびに、予測位置と実際の位置とのずれにより修正され
る。図2では、ニューロンN0[1]に接続される各経
路の重み係数を上から順にW1[1,1]〜W1[1,
5]としており、ニューロンN0[2]に接続される経
路の重み係数をW1[2,1]〜W1[2,5]として
いる。以下同様に、ニューロンN0[3]〜N0[8]
に接続される各経路の各重み係数をそれぞれW1[3,
1]〜W1[8,5]としている。また図2では、中間
層の各ニューロンN1[1]〜N1[5]と出力層のニ
ューロンN2[1]とを接続する各経路の重み係数を上
から順にW2[1]〜W2[6]とし、入力層のニュー
ロンN0[8]と出力層のニューロンN2[1]を接続
する経路L26の重み係数をW2[6]としている。
【0011】入力層は8つのニューロンN0[1]〜N
0[8]からなり、ニューロンN0[2],N0
[4],N0[6]にはそれぞれ過去3回の焦点検出結
果p1〜p3が入力される。また、ニューロンN0
[1],N0[3],N0[5]には被写体位置を予測
する時刻と過去3回の焦点検出を行なった時刻との時間
差tx−t1,tx−t2,tx−t3がそれぞれ入力
され、ニューロンN0[7]には撮影レンズ1の焦点距
離fが入力され、ニューロンN0[8]には定数「1」
が入力される。
【0012】中間層は5つのニューロンN1[1]〜N
1[5]からなり、各ニューロンN1[1]〜N1
[5]の値は、入力層のニューロンN0[1]〜N0
[8]の値を所定の重み係数W1によって重み付けした
結果を入出力関数f(u)によって変換したものであ
る。図3は入出力関数f(u)の一例を示すものであ
り、シグモイド関数とも呼ばれ、−1〜1の間で連続的
に変化する。
【0013】例えば、ニューロンN0[1]は経路L1
1を通過することによりW1[1,1]・N0[1]に
重み付けされる。そして、中間層のニューロンN1
[1]の値は、(1)式に示すように、ニューロンN0
[1]〜N0[8]と重み係数W1[1,1]〜W1
[8,1]とによって定まる。
【数1】 中間層の他のニューロンの値も同様に求められ、結局中
間層のニューロンN1[n](n=1・・・5)の値
は、(2)式で示される。
【数2】
【0014】図4は被写体位置予測部内部の不図示のC
PUの処理を示すフローチャートであり、CPUは不図
示のレリーズボタンが半押しされると図4の処理を開始
する。なお、このフローチャートでは、100ms後に
駆動すべきレンズ位置を予測している。図4のステップ
S1では、焦点検出を行なった回数を示す変数nを
「0」に初期化する。ステップS2では、現在の撮影レ
ンズ位置における被写体光束の結像面位置Lpを検出す
る。ステップS3では、タイマ等を用いて現在の時刻t
mを検出する。ステップS4では、被写体輝度信号に基
づいて所定のアルゴリズムにより焦点検出演算を行な
い、デフォーカス量Dを算出する。なお、ステップS2
で検出した結像面位置LpとステップS3で算出したデ
フォーカス量Dとを加算することにより、撮影レンズ1
の真の焦点調節位置(以下、撮影レンズの合焦位置と呼
ぶ)が求まる。
【0015】ステップS5では、変数nを「1」加算す
る。ステップS6では、変数nが3より大きいか否かを
判定する。判定が肯定されるとステップS7に進み、後
述する学習ルーチンを行なう。ステップS6の判定が否
定された場合とステップS7の処理が終了した場合はと
もにステップS8に進み、変数p3に変数p2の値を代
入する。なお、変数p3には、3回前の被写体位置にお
ける撮影レンズ1の合焦位置が代入される。同様に、変
数p2,p1には、それぞれ2回前、1回前の合焦位置
が代入される。
【0016】ステップS9では、変数t3に変数t2の
値を代入する。なお、変数t1,t2,t3には、それ
ぞれ1回前、2回前、3回前に焦点検出を行なった時刻
が代入される。ステップS10では変数p2に変数p1
の値を代入し、ステップS11では変数t2に変数t1
を代入する。ステップS12では、ステップS2で求め
た結像面位置LpとステップS4で求めたデフォーカス
量Dとを加算した結果を変数p1に代入する。ステップ
S13では、変数t1に変数tmを代入する。
【0017】ステップS14では、変数nが2より大き
いか否かを判定する。判定が否定されるとステップS1
5に進み、ステップS4で算出したデフォーカス量Dに
基づいて撮影レンズ1の駆動量を算出し、その駆動量だ
け撮影レンズ1を駆動してステップS2に戻る。一方、
ステップS14の判定が肯定されるとステップS16に
進み、変数t1の値に100msを加算した値を変数t
xに代入する。ステップS17では、後述する予測ルー
チンを行なって、時刻txにおける撮影レンズ1の合焦
位置を予測する。ステップS18では、ステップS17
の予測結果に基づいて撮影レンズを駆動してステップS
2に戻る。
【0018】以上に説明した図4の処理をまとめると、
焦点検出回数が3回に満たないときには前回の焦点検出
結果に基づいて撮影レンズを駆動する。焦点検出回数が
3回になると、ニューラルネットを用いて撮影レンズの
合焦位置を予測する。焦点検出回数が3回を越えると、
前回のニューラルネットの出力に基づいてニューラルネ
ット内の重み係数の値を変更した後、ニューラルネット
を用いて撮影レンズの合焦位置を予測する。
【0019】図5は図4のステップS15の予測ルーチ
ンの詳細を示すフローチャートである。図5のステップ
S101では、入力層のニューロンNO[1]〜NO
[7]に初期値を代入する。ニューロンNO[1]には
被写体位置を予測する時刻txと1回前に焦点検出を行
なった時刻t1との時間差tx−t1が代入され、ニュ
ーロンNO[2]には時刻t1における撮影レンズ1の
合焦位置p1が代入される。ニューロンNO[3]には
予測時刻txと2回前に焦点検出を行なった時刻t2と
の時間差tx−t2が代入され、ニューロンNO[4]
には時刻t2における撮影レンズ1の合焦位置p2が代
入される。ニューロンNO[5]には予測時刻txと3
回前に焦点検出を行なった時刻t3との時間差tx−t
3が代入され、ニューロンNO[6]には時刻t3にお
ける撮影レンズ1の合焦位置p3が代入される。ニュー
ロンNO[7]には撮影レンズ1の焦点距離f[mm]
が代入され、ニューロンNO[8]には定数「1」が代
入される。ステップS102では、(2)式に基づいて
中間層のニューロンN1[1〜7]を求める。ステップ
S103では、(3)式に基づいて予測時刻txにおけ
る撮影レンズ1の合焦位置Pxを求める。
【数3】
【0020】このように図5の予測ルーチン処理では、
過去3回の焦点検出時刻、各焦点検出時の撮影レンズ1
の合焦位置および撮影レンズ1の焦点距離を入力パラメ
ータにして、ニューラルネットを用いて予測時刻txに
おける撮影レンズ1の合焦位置を求める。
【0021】図6は移動被写体に対する撮影レンズ1の
合焦位置(曲線a)と被写体位置予測部6で予測した撮
影レンズ位置(曲線b)とを比較した図である。図示の
ように、時刻t2では、時刻t3での合焦位置に従って
撮影レンズ1を駆動する。同様に、時刻t1では、時刻
t2での真の合焦位置に従って撮影レンズ1を駆動す
る。次に、時刻t1から100ms経過した時刻txで
は、図5の予測ルーチンによって予測した撮影レンズ1
の合焦位置Pxに従って撮影レンズ1を駆動する。これ
により、図6に示すように、撮影レンズ1をほぼ合焦位
置に駆動することができ、この時刻txで露出を行なう
ことにより、常にピントの合った撮影が可能となる。
【0022】しかし、図6の時刻txに示すように、ニ
ューラルネットによって算出された撮影レンズの合焦位
置とフィルム共役面位置との間には誤差Erが存在す
る。この誤差は時刻txにおけるデフォーカス量Dに相
当する。図4のステップS6の判定が肯定された場合、
すなわち焦点検出を4回以上行なった場合には、図7に
示す学習ルーチンを行なって誤差Erに応じて重み係数
を修正する。
【0023】図7は図4のステップS7の学習ルーチン
の詳細を示すフローチャートであり、この学習は前述し
た誤差逆伝搬法に基づいている。図7のステップS15
1では、(4)式に基づいて、中間層と出力層の間の経
路L21〜L25の重み係数W2[1]〜W2[5]の
修正量dw2を算出する。なお、Dはデフォーカス量、
nは各経路を識別する係数である。また、εは焦点検出
1回分の修正の大きさを定める係数であり、0以上1未
満の値である。
【数4】 dw2[n]=ε・D・N1[n] ・・・(4) ただし、n=1…5
【0024】ステップS152では、(5)式に基づい
て、経路L6の重み係数W2の修正量dw2を算出す
る。
【数5】dw2[6]=ε・D ・・・(5)
【0025】ステップS153,S154では、入力層
と中間層の間の各経路の重み係数W1[1,1]〜W1
[8,5]の修正量dw1[1,1]〜dw1[8,
5]を算出する。まず、ステップS153では、(6)
式に基づいて中間値E1[n]を算出する。この中間値
E1[n]は中間層の各ニューロンN1[1]〜N1
[5]にそれぞれ対応して求められる。
【数6】 E1[n]=W2[n]・D・(1+N1[n])・(1−N1[n]) ただしn=1…5 ・・・(6)
【0026】次にステップS154では、(7)式に基
づいて、W1の修正量dw1[1,1]〜dw1[8,
5]を算出する。なお、(7)式の係数iは入力層の各
ニューロンを識別する係数、係数nは中間層の各ニュー
ロンを識別する係数を示す。
【数7】 dw1[i,n]=ε・E1[n]・N0[i] ・・・(7) ただし、i=1…8,n=1…5
【0027】ステップS155では、(8)式に基づい
て、入力層と中間層の間の重み係数W1[1,1]〜W
1[8,5]を修正する。
【数8】 W1[i,n]=W1[i,n]+dw1[i,n] ・・・(8) ただし、i=1…8,n=1…5 ステップS156では、(9)式に基づいて、中間層と
出力層の間の重み係数W2[1]〜W2[6]を修正し
てリターンする。
【数9】 W2[n]=W2[n]+dw2[n] ・・・(9) ただし、n=1…6
【0028】このように、学習ルーチンでは、ニューラ
ルネットによる予測位置でのデフォーカス量Dに基づい
て中間層と出力層の間の重み係数W2を修正し、またデ
フォーカス量Dと重み係数W2に基づいて入力層と中間
層の間の重み係数W1を修正する。
【0029】以上に説明した第1の実施例では、過去3
回の焦点検出結果と撮影レンズ1の焦点距離をニューラ
ルネットに入力して被写体位置を予測するようにしたた
め、被写体位置を正確に予測できる。また、ニューラル
ネットによる予測位置でのデフォーカス量に応じてニュ
ーラルネット内の重み係数の値を修正するようにしたた
め、被写体が複雑に移動してもピントぼけを起こさなく
なる。
【0030】−第2の実施例− 以下に説明する第2の実施例は、ニューラルネットによ
って被写体の位置とともに移動速度を予測するようにし
たものである。この第2の実施例はニューラルネットと
予測ルーチンの一部処理が第1の実施例と異なる他は第
1の実施例と共通するため、以下では、ニューラルネッ
トと予測ルーチンを中心に説明する。
【0031】図8は第2の実施例のニューラルネットを
示す図である。図示のように、第2の実施例のニューラ
ルネットの出力層は2個のニューロンN2[1],N2
[2]を有する。このうちニューロンN2[1]からは
撮影レンズの予測合焦位置Pxが出力され、ニューロン
N2[2]からは被写体の予測速度Vxが出力される。
【0032】図9は第2の実施例の予測ルーチンの詳細
を示すフローチャートである。この予測ルーチンは図4
のステップS16の処理が終了した後に実行される。図
9のステップS201では、図5のステップ101と同
様に、入力層の各ニューロンN0[1]〜N0[7]に
過去の焦点検出結果を代入する。ステップS202で
は、図5のステップS102と同様に、入力層の各ニュ
ーロン値N0[1]〜N0[8]と各経路の重み係数W
1[1,1]〜W1[8,5]に基づいて中間層の各ニ
ューロン値N1[1]〜N1[5]を設定する。次に、
ステップS203では、図5のステップS103と同様
に被写体の予測合焦位置Pxを求め、さらに、(10)
式に基づいて被写体の予測速度を求める
【数10】
【0033】図9の予測ルーチンの処理が終了すると図
4のステップS18に進み、予測ルーチンで求められた
撮影レンズの予測合焦位置Pxと予測速度Vxに基づい
て撮影レンズ1を駆動する。
【0034】図10は図4のステップS7の学習ルーチ
ンの詳細を示すフローチャートである。図10のステッ
プS251,S252では、図7のステップS151,
152と同様にして、経路L21〜L25の重み係数W
2の修正量dw2[1,1]〜dw2[6,1]を算出
する。ステップS253では、(11)式に基づいて、
被写体の速度修正量dVを算出する。
【数11】 dV=(D+Lp−p1)/(tm−t1)−Vx ・・・(11) (11)式に示すように、速度修正量dVは、時刻tm
での焦点検出結果と時刻t1での焦点検出結果とによっ
て被写体の速度を検出し、その検出値とニューラルネッ
トにより予測された予測速度Vxとの差分により求め
る。
【0035】ステップS254では、(12)式に基づ
いて、経路L6〜L10の重み係数W2の修正量dw2
[1,2]〜dw2[5,2]を算出する。
【数12】 dw2[n,2]=ε・dV・N1[n] ・・・(12) ただし、n=1…5 ステップS255では、(13)式に基づいて、重み係
数W2[6,2]の修正量dw2[6,2]を算出す
る。
【数13】 dw2[6,2]=ε・dV ・・・(13)
【0036】ステップS256,S257では、図7の
ステップS153,S154と同様に、重み係数W1の
修正量dw1を算出する。まず、ステップS256で
は、(14)式に基づいて、中間値E1[1]〜E1
[5]を求める。
【数14】 E1[n]=(W2[n,1]・D+W2[n,2]・dV) ・(1+N1[n])・(1−N1[n]) ・・・(14) ただし、n=1…5 次にステップS257では、(15)式に基づいて、重
み係数W1の修正量dw1を算出する。
【数15】 dW1[i,n]=ε・E1[n]・N0[i] ・・・(15) ただし、i=1…8,n=1…5 ステップS258,S259では、図7のステップS1
55,S156と同様に新たな重み係数W1,W2を算
出する。
【0037】このように、第2の実施例の学習ルーチン
では、中間層と出力層の間の経路L1〜L5の重み係数
についてはデフォーカス量に基づいて修正し、それ以外
の経路の重み係数についてはデフォーカス量とニューラ
ルネットでの速度予測値とに応じて修正する。このよう
に、第2の実施例では、速度を考慮に入れて重み係数を
修正するため、被写体の移動をより忠実に反映した重み
係数を算出できる。
【0038】以上に説明した第2の実施例では、ニュー
ラルネットによって撮影レンズ1の合焦位置を予測する
だけではなく、被写体の移動速度も予測するため、第1
の実施例よりもさらに精度の高い予測が可能となる。す
なわち、予測した位置で予測した速度でレンズを駆動す
れば、予測する時刻txから多少ずれた時刻で撮影が行
なわれても、ピントが外れなくなる。また、予測した撮
影レンズの合焦位置と被写体速度とに基づいてニューラ
ルネット内の各経路の重み係数を修正するようにしたた
め、特殊な被写体に対しても正確な予測が可能となる。
【0039】上記実施例では、ニューラルネットの入力
層に、過去3回分の焦点検出結果と撮影レンズ1の焦点
距離と定数「1」を入力したが、入力パラメータはこれ
らに限定されない。過去4回以上の焦点検出結果を入力
してもよく、逆に撮影レンズ1の焦点距離を入力しなく
てもよい。また、定数値として「1」以外の値を入れて
もよい。なお、上記実施例では、焦点検出結果として位
置情報p1〜p3と時間情報(tx−t1)〜(tx−
t3)を入力しているが、一定の時間間隔ごとに焦点検
出を行なう場合には時間情報を入力する必要はない。ま
た、ニューラルネットの層数も3層に限定されず、それ
以上の層数でもよい。上記各実施例では、階層構造のニ
ューラルネットを用いたが、ネットワークの形態は実施
例に限定されない。
【0040】このように構成した実施例にあっては、焦
点検出部4が焦点検出手段に、被写体位置予測部5が被
写体位置予測手段に、レンズ駆動部6がレンズ駆動手段
に、それぞれ対応する。
【0041】
【発明の効果】以上詳細に説明したように、本発明によ
れば、自己組織による学習が可能なニューラルネットワ
ークを用い、このニューラルネットワークに複数の焦点
検出情報にそれぞれ対応する撮影レンズの合焦位置に関
する値を入力するとともに、ニューラルネットワーク内
部の各ノード間の結合の強さを示す重み係数を焦点検出
時の合焦位置の誤差に応じて修正するようにしたため、
あらゆる移動する被写体に対して未来の被写体位置を精
度よく予測できる。請求項2に記載の発明によれば、合
焦位置の誤差だけでなく焦点検出時の速度差も考慮に入
れてニューラルネットワーク内部の重み係数を修正する
ようにしたため、より精度よく未来の被写体位置を予測
できる。請求項3に記載の発明によれば、焦点検出情報
を検出したそれぞれの時刻を新たにニューラルネットワ
ークの入力パラメータとするため、被写体の時間単位の
移動量が把握しやすくなる。請求項4に記載の発明によ
れば、撮影レンズの焦点距離を新たにニューラルネット
ワークの入力パラメータとするため、撮影レンズが変わ
っても同等の精度で被写体位置を予測できる。
【図面の簡単な説明】
【図1】本発明によるカメラのオートフォーカス装置の
第1の実施例の概略構成図。
【図2】第1の実施例のニューラルネットの構成を示す
図。
【図3】入出力関数f(i)の一例を示す図。
【図4】被写体位置予測部内部のCPUの動作を示すフ
ローチャート。
【図5】第1の実施例の予測ルーチンの詳細を示すフロ
ーチャート。
【図6】撮影レンズの真の合焦位置と被写体位置予測部
で予測した撮影レンズ位置とを比較した図。
【図7】第1の実施例の学習ルーチンの詳細を示すフロ
ーチャート。
【図8】第2の実施例のニューラルネットの構成を示す
図。
【図9】第2の実施例の予測ルーチンの詳細を示すフロ
ーチャート。
【図10】第2の実施例の学習ルーチンの詳細を示すフ
ローチャート。
【符号の説明】
1 撮影レンズ 2 クイックリターンミラー 3 サブミラー 4 焦点検出部 5 被写体位置予測部 6 レンズ駆動部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 被写体との距離に応じた焦点検出情報を
    間欠的に算出する焦点検出手段と、 前記焦点検出情報に基づいて未来の被写体位置を予測す
    る被写体位置予測手段と、 この被写体位置予測手段の予測結果に基づいて撮影レン
    ズを駆動するレンズ駆動手段とを備えたカメラのオート
    フォーカス装置において、 前記被写体位置予測手段は、 前記焦点検出手段によって検出された複数の焦点検出情
    報のそれぞれに対応する前記撮影レンズの合焦位置に関
    する値を入力パラメータとして未来の被写体位置を予測
    する自己組織による学習が可能なニューラルネットワー
    クと、 前記ニューラルネットワークによって予測された被写体
    位置に対応する前記撮影レンズの合焦位置と前記焦点検
    出手段によって検出された焦点検出情報に対応する前記
    撮影レンズの合焦位置との誤差に基づいて、前記ニュー
    ラルネットワーク内部の各ノード間の結合の強さを示す
    重み係数を修正する重み係数修正手段とを有することを
    特徴とするカメラのオートフォーカス装置。
  2. 【請求項2】 被写体との距離に応じた焦点検出情報を
    間欠的に検出する焦点検出手段と、 前記焦点検出情報に基づいて未来の被写体の位置を予測
    する被写体位置予測手段と、 この被写体位置予測手段の予測結果に基づいて撮影レン
    ズを駆動するレンズ駆動手段とを備えたカメラのオート
    フォーカス装置において、 前記被写体位置予測手段は、 前記焦点検出手段によって検出された複数の焦点検出情
    報のそれぞれに対応する前記撮影レンズの合焦位置に関
    する値を入力パラメータとして未来の被写体位置および
    被写体速度を予測する自己組織による学習が可能なニュ
    ーラルネットワークと、 前記焦点検出手段によって検出された焦点検出情報に基
    づいて被写体速度を算出する被写体速度算出手段と、 前記ニューラルネットワークによって予測された被写体
    位置に対応する前記撮影レンズの合焦位置と前記焦点検
    出手段によって検出された焦点検出情報に対応する前記
    撮影レンズの合焦位置との誤差と、前記ニューラルネッ
    トワークによって予測された被写体速度と前記被写体速
    度算出手段によって算出された被写体速度との速度差と
    に基づいて、前記ニューラルネットワーク内部の各ノー
    ド間の結合の強さを示す重み係数を修正する重み係数修
    正手段とを有することを特徴とするカメラのオートフォ
    ーカス装置。
  3. 【請求項3】 請求項1または2に記載されたカメラの
    オートフォーカス装置において、 前記ニューラルネットワークは、前記焦点検出手段によ
    って検出された複数の焦点検出情報のそれぞれに対応す
    る前記撮影レンズの合焦位置に関する値と、前記複数の
    焦点検出情報を検出したそれぞれの時刻とを前記入力パ
    ラメータとすることを特徴とするカメラのオートフォー
    カス装置。
  4. 【請求項4】 請求項1または2に記載されたカメラの
    オートフォーカス装置において、 前記ニューラルネットワークは、前記焦点検出手段によ
    って検出された複数の焦点検出情報のそれぞれに対応す
    る前記撮影レンズの合焦位置に関する値と、前記複数の
    焦点検出情報を検出したそれぞれの時刻と、前記撮影レ
    ンズの焦点距離とを前記入力パラメータとすることを特
    徴とするカメラのオートフォーカス装置。
JP6187137A 1994-08-09 1994-08-09 カメラのオートフォーカス装置 Pending JPH0854557A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP6187137A JPH0854557A (ja) 1994-08-09 1994-08-09 カメラのオートフォーカス装置
US08/783,230 US5732288A (en) 1994-08-09 1997-01-14 Auto-focusing device for camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6187137A JPH0854557A (ja) 1994-08-09 1994-08-09 カメラのオートフォーカス装置

Publications (1)

Publication Number Publication Date
JPH0854557A true JPH0854557A (ja) 1996-02-27

Family

ID=16200779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6187137A Pending JPH0854557A (ja) 1994-08-09 1994-08-09 カメラのオートフォーカス装置

Country Status (1)

Country Link
JP (1) JPH0854557A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009069831A (ja) * 2007-09-14 2009-04-02 Samsung Electronics Co Ltd 自動焦点調節装置および方法
WO2015166675A1 (ja) * 2014-05-02 2015-11-05 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2020048058A (ja) * 2018-09-19 2020-03-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、方法およびプログラム
CN117132646A (zh) * 2023-10-26 2023-11-28 湖南自兴智慧医疗科技有限公司 基于深度学习的分裂相自动对焦系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009069831A (ja) * 2007-09-14 2009-04-02 Samsung Electronics Co Ltd 自動焦点調節装置および方法
US7936987B2 (en) 2007-09-14 2011-05-03 Samsung Electronics Co., Ltd. Method and apparatus for auto focusing
KR101488655B1 (ko) * 2007-09-14 2015-02-03 삼성전자 주식회사 자동 초점 조절 장치 및 방법
WO2015166675A1 (ja) * 2014-05-02 2015-11-05 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US10182184B2 (en) 2014-05-02 2019-01-15 Sony Corporation Image processing apparatus and image processing method
JP2020048058A (ja) * 2018-09-19 2020-03-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、方法およびプログラム
CN117132646A (zh) * 2023-10-26 2023-11-28 湖南自兴智慧医疗科技有限公司 基于深度学习的分裂相自动对焦系统
CN117132646B (zh) * 2023-10-26 2024-01-05 湖南自兴智慧医疗科技有限公司 基于深度学习的分裂相自动对焦系统

Similar Documents

Publication Publication Date Title
JP2597961B2 (ja) 自動焦点調節装置
JP4018218B2 (ja) 光学装置及び測距点選択方法
US6311019B1 (en) Automatic focus adjusting system capable of adjusting focus of moving subject
JPH02178641A (ja) 焦点検出装置
JPH1125263A (ja) 対象物特徴点検出装置、焦点調節装置、露出制御装置及びカメラ
JP4687291B2 (ja) 焦点調節装置および撮像装置
JPH0915670A (ja) ブレ補正光学装置
JPH0629895B2 (ja) フォーカス状態決定装置
US5732288A (en) Auto-focusing device for camera
JPH0854557A (ja) カメラのオートフォーカス装置
JP4641502B2 (ja) 焦点検出装置および光学機器
JP3806489B2 (ja) 測距装置
JPH0854556A (ja) カメラのオートフォーカス装置
JP2002131624A (ja) 多点自動焦点カメラ
JPH0968644A (ja) 自動焦点調節装置
JP4610714B2 (ja) 多点自動焦点カメラ
JP3728604B2 (ja) 焦点検出装置
JP3224535B2 (ja) カメラの露出制御装置
JP4398020B2 (ja) 多点自動焦点カメラ
JP2974637B2 (ja) 自動焦点調節装置
JP3979881B2 (ja) 多点自動焦点カメラ
JPH04217237A (ja) カメラのオートフォーカス装置
JP2526884B2 (ja) 焦点検出装置
JPH0481729A (ja) カメラのオートフォーカス装置
JPH10161011A (ja) 焦点調節装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040615