JPH0854556A - カメラのオートフォーカス装置 - Google Patents

カメラのオートフォーカス装置

Info

Publication number
JPH0854556A
JPH0854556A JP6187136A JP18713694A JPH0854556A JP H0854556 A JPH0854556 A JP H0854556A JP 6187136 A JP6187136 A JP 6187136A JP 18713694 A JP18713694 A JP 18713694A JP H0854556 A JPH0854556 A JP H0854556A
Authority
JP
Japan
Prior art keywords
focus detection
subject
camera
neural network
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6187136A
Other languages
English (en)
Inventor
Masaru Muramatsu
勝 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP6187136A priority Critical patent/JPH0854556A/ja
Publication of JPH0854556A publication Critical patent/JPH0854556A/ja
Priority to US08/783,230 priority patent/US5732288A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

(57)【要約】 【目的】 ニューラルネットワークを用いることによっ
て、未来の撮影レンズの合焦位置を精度よく予測する。 【構成】 撮影レンズ1と、焦点検出部4と、被写体位
置予測部5とを有するオートフォーカス装置に適用さ
れ、焦点検出部4によって複数回続けて焦点検出を行な
い、焦点検出を行なった時刻、各焦点検出時の撮影レン
ズ1の合焦位置および撮影レンズ1の焦点距離を被写体
位置予測部5に設けられたニューラルネットに入力す
る。また、ニューラルネット内の各経路の重み係数は予
めさまざまな移動する被写体を用いて最適化する。そし
て、ニューラルネットを用いて未来における撮影レンズ
1の予測合焦位置を演算する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、被写体の距離に応じた
焦点検出情報に基づいて未来の被写体の位置を予測する
カメラのオートフォーカス装置に関する。
【0002】
【従来の技術】撮影対象である被写体は停止していると
は限らないため、撮影レンズを透過した被写体光束が結
像する位置を複数回算出し、そのうちの2箇所以上の結
像位置に基づいて未来の被写体位置を予測し、その予測
位置に基づいて撮影レンズを駆動するオートフォーカス
装置が知られている。例えば、過去2箇所の結像位置に
よって被写体位置を予測する場合には被写体の移動を直
線によって近似し、一方、過去3箇所以上の結像位置に
よって被写体位置を予測する場合には被写体の移動を2
次以上の曲線で近似する。この種の装置を用いると、焦
点検出中に被写体が移動しても、その移動速度および移
動方向を考慮に入れて焦点検出ができるため、ピントぼ
けを有効に防止できる。
【0003】
【発明が解決しようとする課題】しかし、被写体は決ま
った移動をするとは限らず、時と場合によって被写体の
移動方向および移動速度は全く異なる。また、どういう
被写体を撮影するかも撮影者によってそれぞれ異なるた
め、単に過去の結像位置をもとにするだけでは必ずしも
精度よく被写体位置を予測できない。
【0004】本発明の目的は、ニューラルネットワーク
を用いることによって、未来の撮影レンズの合焦位置を
精度よく予測するようにしたカメラのオートフォーカス
装置を提供することにある。
【0005】
【課題を解決するための手段】実施例を示す図1に対応
づけて本発明を説明すると、本発明は、被写体との距離
に応じた焦点検出情報を間欠的に算出する焦点検出手段
4と、焦点検出情報に基づいて未来の被写体位置を予測
する被写体位置予測手段5と、この被写体位置予測手段
5の予測結果に基づいて撮影レンズを駆動するレンズ駆
動手段6とを備えたカメラのオートフォーカス装置に適
用され、焦点検出手段4によって検出された複数の焦点
検出情報のそれぞれに対応する撮影レンズの合焦位置に
関する値を入力パラメータとして未来の被写体位置を予
測するニューラルネットワークを被写体位置予測手段5
に備えることにより、上記目的は達成される。請求項2
に記載の発明は、被写体との距離に応じた焦点検出情報
を間欠的に検出する焦点検出手段4と、焦点検出情報に
基づいて未来の被写体位置を予測する被写体位置予測手
段5と、この被写体位置予測手段5の予測結果に基づい
て撮影レンズを駆動するレンズ駆動手段6とを備えたカ
メラのオートフォーカス装置に適用され、焦点検出手段
4によって検出された複数の焦点検出情報のそれぞれに
対応する撮影レンズの合焦位置に関する値を入力パラメ
ータとして未来の被写体位置および被写体速度を予測す
るニューラルネットワークを被写体位置予測手段5に備
えるものである。請求項3に記載の発明は、請求項1ま
たは2に記載されたカメラのオートフォーカス装置にお
いて、焦点検出手段4によって検出された複数の焦点検
出情報のそれぞれに対応する撮影レンズの合焦位置に関
する値と、複数の焦点検出情報を検出したそれぞれの時
刻とをニューラルネットワークの入力パラメータとする
ものである。請求項4に記載の発明は、請求項1または
2に記載されたカメラのオートフォーカス装置におい
て、焦点検出手段4によって検出された複数の焦点検出
情報のそれぞれに対応する撮影レンズの合焦位置に関す
る値と、複数の焦点検出情報を検出したそれぞれの時刻
と、撮影レンズの焦点距離とをニューラルネットワーク
の入力パラメータとするものである。請求項5に記載の
発明は、請求項1〜4に記載されたカメラのオートフォ
ーカス装置において、3層以上に分類される複数のノー
ドを有し、各層に属するノードを他の層のノードと種々
の撮影条件を考慮に入れて重み付けされた経路によって
互いに接続し、各ノードの値を入力パラメータと重み付
けされた経路とによって決定するニューラルネットワー
クを有するものである。
【0006】
【作用】請求項1に記載の発明の被写体位置予測手段5
はニューラルネットワークを有し、このニューラルネッ
トワークには入力パラメータとして焦点検出手段4によ
って検出された複数の焦点検出情報のそれぞれに対応す
る撮影レンズの合焦位置に関する値が入力され、ニュー
ラルネットワークでは未来の被写体位置を予測する。請
求項2に記載の発明の被写体位置予測手段5はニューラ
ルネットワークを有し、このニューラルネットワークに
は入力パラメータとして焦点検出手段4によって検出さ
れた複数の焦点検出情報のそれぞれに対応する撮影レン
ズの合焦位置に関する値が入力され、ニューラルネット
ワークでは未来の被写体位置および被写体速度を予測す
る。請求項3に記載の発明のニューラルネットワークに
は、入力パラメータとして焦点検出手段4によって検出
された複数の焦点検出情報のそれぞれに対応する撮影レ
ンズの合焦位置に関する値と、複数の焦点検出情報を検
出したそれぞれの時刻とが入力される。請求項4に記載
の発明のニューラルネットワークには、入力パラメータ
として焦点検出手段4によって検出された複数の焦点検
出情報のそれぞれに対応する撮影レンズの合焦位置に関
する値と、複数の焦点検出情報を検出したそれぞれの時
刻と、撮影レンズの焦点距離とが入力される。請求項5
に記載の発明のニューラルネットワークは3層以上に分
類される複数のノードを有し、各層に属するノードは他
の層のノードと種々の撮影条件を考慮に入れて重み付け
された経路によって互いに接続され、各ノードの値は入
力パラメータと重み付けされた経路とによって決定され
【0007】なお、本発明の構成を説明する上記課題を
解決するための手段と作用の項では、本発明を分かり易
くするために実施例の図を用いたが、これにより本発明
が実施例に限定されるものではない。
【0008】
【実施例】
−第1の実施例− 以下、図1〜6を用いて本発明によるカメラのオートフ
ォーカス装置の一実施例を説明する。図1はオートフォ
ーカス装置の第1の実施例の概略構成図である。図1に
おいて、1は撮影レンズ、2は撮影レンズ1を透過した
被写体光束を反射および透過させるクイックリターンミ
ラー、3はクイックリターンミラー2を透過した被写体
光束の一部を反射するサブミラー、4はサブミラー3で
反射された被写体光束を取り込んで焦点検出情報を算出
する焦点検出部である。この焦点検出部4は、周知の焦
点検出光学系、イメージセンサおよび焦点検出演算部か
ら構成され、撮影レンズ1を透過した被写体光束が結像
する面とフィルム共役面との相対的なずれ量であるデフ
ォーカス量を算出する。
【0009】5は焦点検出部4によって算出されたデフ
ォーカス量に基づいて未来の被写体位置を予測する被写
体位置予測部であり、CPUおよびその周辺回路から成
る。6は被写体位置予測部5で予測した被写体位置に基
づいて撮影レンズ1を合焦位置まで駆動するレンズ駆動
部である。
【0010】図2は本実施例で用いられるニューラルネ
ットの構成を説明する図である。このニューラルネット
は階層的ネットワークと呼ばれている。このニューラル
ネットは、図示の丸印で示された複数のニューロン(ユ
ニット)からなり、各ニューロンは、入力層、中間層お
よび出力層の3層に分類されている。各層のニューロン
は、入力層→中間層→出力層の方向に編目状に接続され
てネットワークを形成している。各ニューロンを接続す
る経路にはそれぞれ固有の重み係数が付けられており、
ネットワークの結合の強さは、各ニューロンの値と各経
路の重み係数の値によって定まる。
【0011】重み係数は、数多くの移動する被写体のデ
ータを採集した結果をもとに、公知の技術であるラメル
ハート(1986)等により提案された誤差逆伝搬法等
の学習法を用いて計算機等で予め算出され、その結果は
カメラ内部の不図示のROM等に格納される。図2で
は、ニューロンN0[1]に接続される各経路の重み係
数を上から順にW1[1,1]〜W1[1,5]として
おり、ニューロンN0[2]に接続される経路の重み係
数をW1[2,1]〜W1[2,5]としている。以下
同様に、ニューロンN0[3]〜N0[8]に接続され
る各経路の各重み係数をそれぞれW1[3,1]〜W1
[8,5]としている。また図2では、中間層の各ニュ
ーロンN1[1]〜N1[5]と出力層のニューロンN
2[1]とを接続する各経路の重み係数を上から順にW
2[1]〜W2[5]とし、入力層のニューロンN0
[8]と出力層のニューロンN2[1]を接続する経路
L26の重み係数をW2[6]としている。
【0012】入力層は8つのニューロンN0[1]〜N
0[8]からなり、ニューロンN0[2],N0
[4],N0[6]にはそれぞれ過去3回の焦点検出結
果p1〜p3が入力される。また、ニューロンN0
[1],N0[3],N0[5]には被写体位置を予測
する時刻と過去3回の焦点検出を行なった時刻との時間
差tx−t1,tx−t2,tx−t3がそれぞれ入力
され、ニューロンN0[7]には撮影レンズ1の焦点距
離fが入力され、ニューロンN0[8]には定数「1」
が入力される。
【0013】中間層は5つのニューロンN1[1]〜N
1[5]からなり、各ニューロンN1[1]〜N1
[5]の値は、入力層のニューロンN0[1]〜N0
[8]の値を所定の重み係数W1によって重み付けした
結果を入出力関数f(u)によって変換したものであ
る。図3は入出力関数f(u)の一例を示すものであ
り、シグモイド関数とも呼ばれ、−1〜1の間で連続的
に変化する。
【0014】例えば、ニューロンN0[1]は経路L1
1を通過することによりW1[1,1]・N0[1]に
重み付けされる。そして、中間層のニューロンN1
[1]の値は、(1)式に示すように、ニューロンN0
[1]〜N0[8]と重み係数W1[1,1]〜W1
[8,1]とによって定まる。
【数1】 中間層の他のニューロンの値も同様に求められ、結局中
間層のニューロンN1[n](n=1…5)の値は、
(2)式で示される。
【数2】
【0015】図4は被写体位置予測部内部の不図示のC
PUの処理を示すフローチャートであり、CPUは不図
示のレリーズボタンが半押し等により図4の処理を開始
する。なお、このフローチャートでは、100ms後に
駆動すべきレンズ位置を予測している。図4のステップ
S1では、焦点検出を行なった回数を示す変数nを
「0」に初期化する。ステップS2では、現在の撮影レ
ンズ位置における被写体光束の結像面位置Lpを検出す
る。ステップS3では、タイマ等を用いて現在の時刻t
mを検出する。ステップS4では、被写体輝度信号に基
づいて所定のアルゴリズムにより焦点検出演算を行な
い、デフォーカス量Dを算出する。なお、ステップS2
で検出した結像面位置LpとステップS3で算出したデ
フォーカス量Dとを加算することにより、撮影レンズ1
の真の焦点調節位置(以下、撮影レンズの合焦位置と呼
ぶ)が求まる。
【0016】ステップS5では、変数nを「1」加算す
る。ステップS6では、変数p3に変数p2の値を代入
する。なお、変数p3には、3回前の被写体位置におけ
る撮影レンズ1の合焦位置が代入される。同様に、変数
p2,p1には、それぞれ2回前、1回前の合焦位置が
代入される。ステップS7では、変数t3に変数t2の
値を代入する。なお、変数t1,t2,t3には、それ
ぞれ1回前、2回前、3回前に焦点検出を行なった時刻
が代入される。ステップS8では変数p2に変数p1の
値を代入し、ステップS9では変数t2に変数t1を代
入する。ステップS10では、ステップS2で求めた結
像面位置LpとステップS4で求めたデフォーカス量D
とを加算した結果を変数p1に代入する。ステップS1
1では、変数t1に変数tmを代入する。
【0017】ステップS12では、変数nが2より大き
いか否かを判定する。判定が否定されるとステップS1
3に進み、ステップS4で算出したデフォーカス量Dに
基づいて撮影レンズ1の駆動量を算出し、その駆動量だ
け撮影レンズ1を駆動してステップS2に戻る。一方、
ステップS12の判定が肯定されるとステップS14に
進み、変数t1の値に100msを加算した値を変数t
xに代入する。ステップS15では、後述する予測ルー
チンを行なって、時刻txにおける撮影レンズ1の合焦
位置を予測する。ステップS16では、ステップS15
の予測結果に基づいて撮影レンズ1を駆動してステップ
S2に戻る。
【0018】図5は図4のステップS15の予測ルーチ
ンの詳細を示すフローチャートである。図5のステップ
S101では、入力層のニューロンNO[1]〜NO
[7]に初期値を代入する。ニューロンNO[1]には
被写体位置を予測する時刻txと1回前に焦点検出を行
なった時刻t1との時間差tx−t1が代入され、ニュ
ーロンNO[2]には時刻t1における撮影レンズ1の
合焦位置p1が代入される。ニューロンNO[3]には
予測時刻txと2回前に焦点検出を行なった時刻t2と
の時間差tx−t2が代入され、ニューロンNO[4]
には時刻t2における撮影レンズ1の合焦位置p2が代
入される。ニューロンNO[5]には予測時刻txと3
回前に焦点検出を行なった時刻t3との時間差tx−t
3が代入され、ニューロンNO[6]には時刻t3にお
ける撮影レンズ1の合焦位置p3が代入される。ニュー
ロンNO[7]には撮影レンズ1の焦点距離f[mm]
が代入され、ニューロンNO[8]には定数「1」が代
入される。
【0019】ステップS102では、(2)式に基づい
て中間層のニューロンN1[1〜7]を求める。ステッ
プS103では、(3)式に基づいて予測時刻txの撮
影レンズ1の合焦位置Pxを求める。
【数3】
【0020】以上に説明した図4,5のフローチャート
の処理をまとめると、まず3回続けて焦点検出を行な
い、焦点検出を行なった時刻と各焦点検出時の撮影レン
ズ1の合焦位置をそれぞれ変数t1〜t3、p1〜p3
に代入する。次に、被写体位置を予測する時刻txを設
定した後に予測ルーチンを行なう。予測ルーチンでは、
過去3回の焦点検出時刻、各焦点検出時の撮影レンズ1
の合焦位置および撮影レンズ1の焦点距離を入力パラメ
ータにしてニューラルネットを用いて予測時刻txでの
撮影レンズ1の合焦位置を求める。
【0021】図6は移動被写体に対する撮影レンズ1の
真の合焦位置(曲線a)と被写体位置予測部6で予測し
た撮影レンズ位置(曲線b)とを比較した図である。図
示のように、時刻t2では、時刻t3での合焦位置に従
って撮影レンズ1を駆動する。同様に、時刻t1では、
時刻t2での合焦位置に従って撮影レンズ1を駆動す
る。次に、時刻t1から100ms経過した時刻txで
は、図の予測ルーチンによって予測した撮影レンズ1の
合焦位置Pxに従って撮影レンズ1を駆動する。これに
より、図6に示すように、撮影レンズ1をほぼ合焦位置
に駆動することができ、この時刻txで露出を行なうこ
とにより、常にピントの合った撮影が可能となる。
【0022】このように、第1の実施例では、過去3回
の焦点検出結果と撮影レンズ1の焦点距離をニューラル
ネットに入力し、またニューラルネット内の各経路の重
み係数を種々の撮影条件を考慮に入れて設定するため、
ニューラルネットを用いることによって未来の被写体位
置を正確に予測できる。
【0023】−第2の実施例− 以下に説明する第2の実施例は、ニューラルネットによ
って被写体の位置とともに移動速度も予測するようにし
たものである。この第2の実施例はニューラルネットと
予測ルーチンの一部処理が第1の実施例と異なる他は第
1の実施例と共通するため、以下では、ニューラルネッ
トと予測ルーチンを中心に説明する。
【0024】図7は第2の実施例のニューラルネットを
示す図である。図示のように、第2の実施例のニューラ
ルネットの出力層は2個のニューロンN2[1],N2
[2]を有する。このうちニューロンN2[1]からは
撮影レンズの予測合焦位置Pxが出力され、ニューロン
N2[2]からは被写体の予測速度Vxが出力される。
【0025】図8は第2の実施例の予測ルーチンの詳細
を示すフローチャートである。この予測ルーチンは図4
のステップS14の処理が終了した後に実行される。図
8のステップS201では、図5のステップ101と同
様に、入力層の各ニューロンN0[1]〜N0[7]に
過去の焦点検出結果を代入する。ステップS202で
は、図5のステップS102と同様に、入力層の各ニュ
ーロン値N0[1]〜N0[8]と各経路の重み係数W
1[1,1]〜W1[8,5]に基づいて中間層の各ニ
ューロン値N1[1]〜N1[5]を設定する。次に、
ステップS203では、図5のステップS103と同様
に被写体の予測合焦位置Pxを求め、さらに、(4)式
に基づいて被写体の予測速度Vxを求める。
【数4】
【0026】図8の予測ルーチンの処理が終了すると図
4のステップS16に進み、予測ルーチンで求められた
撮影レンズの予測合焦位置Pxと予測速度Vxに基づい
て、撮影レンズ1を駆動する。
【0027】このように、第2の実施例では、ニューラ
ルネットによって撮影レンズ1の合焦位置を予測するだ
けではなく、被写体の移動速度も予測するため、第1の
実施例よりもさらに精度の高い予測が可能となる。すな
わち、例えば予測した位置で予測した速度でレンズを駆
動すれば、予測する時刻txから多少ずれた時刻で撮影
が行なわれてもピント外れが生じなくなる。
【0028】上記実施例では、ニューラルネットの入力
層に、過去3回分の焦点検出結果と撮影レンズ1の焦点
距離と定数「1」を入力したが、入力パラメータはこれ
らに限定されない。過去4回以上の焦点検出結果を入力
してもよく、逆に撮影レンズ1の焦点距離を入力しなく
てもよい。また、定数値として「1」以外の値を入れて
もよい。なお、上記実施例では、焦点検出結果として位
置情報p1〜p3と時間情報(tx−t1)〜(tx−
t3)を入力しているが、一定の時間間隔ごとに焦点検
出を行なう場合には時間情報を入力する必要はない。ま
た、ニューラルネットの層数も3層に限定されず、それ
以上の層数でもよい。上記各実施例では、階層構造のニ
ューラルネットを用いたが、ネットワークの形態は実施
例に限定されない。
【0029】このように構成した実施例にあっては、焦
点検出部4が焦点検出手段に、被写体位置予測部5が被
写体位置予測手段に、レンズ駆動部6がレンズ駆動手段
に、それぞれ対応する。
【0030】
【発明の効果】以上詳細に説明したように、本発明によ
れば、ニューラルネットワークを用い、このネットワー
クに複数の焦点検出情報にそれぞれ対応する撮影レンズ
の合焦位置に関する値を入力するようにしたため、未来
の被写体位置を精度よく予測できる。請求項2に記載の
発明によれば、ニューラルネットワークによって未来の
被写体位置と未来の被写体速度を予測するようにしたた
め、被写体が複雑に移動しても被写体位置を正確に予測
できる。請求項3に記載の発明によれば、焦点検出情報
を検出したそれぞれの時刻を新たにネットワークの入力
パラメータとするため、被写体の時間単位の移動量が把
握しやすくなる。請求項4に記載の発明によれば、撮影
レンズの焦点距離を新たにネットワークの入力パラメー
タとするため、撮影者が撮影レンズを変えても同等の精
度で被写体位置を予測できる。請求項5に記載の発明に
よれば、ネットワークを3層以上に層分けし、ネットワ
ーク内の各経路を種々の撮影条件を考慮に入れて重み付
けするようにしたため、撮影条件および過去の焦点検出
結果を考慮に入れて未来の被写体位置を予測できる。
【図面の簡単な説明】
【図1】本発明によるカメラのオートフォーカス装置の
第1の実施例の概略構成図。
【図2】第1の実施例のニューラルネットの構成を示す
図。
【図3】入出力関数f(i)の一例を示す図。
【図4】被写体位置予測部内部のCPUの動作を示すフ
ローチャート。
【図5】第1の実施例の予測ルーチンの詳細を示すフロ
ーチャート。
【図6】撮影レンズの真の合焦位置と被写体位置予測部
で予測した撮影レンズ位置とを比較した図。
【図7】第2の実施例のニューラルネットの構成を示す
図。
【図8】第2の実施例の予測ルーチンの詳細を示すフロ
ーチャート。
【符号の説明】
1 撮影レンズ 2 クイックリターンミラー 3 サブミラー 4 焦点検出部 5 被写体位置予測部 6 レンズ駆動部

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 被写体との距離に応じた焦点検出情報を
    間欠的に算出する焦点検出手段と、 前記焦点検出情報に基づいて未来の被写体位置を予測す
    る被写体位置予測手段と、 この被写体位置予測手段の予測結果に基づいて撮影レン
    ズを駆動するレンズ駆動手段とを備えたカメラのオート
    フォーカス装置において、 前記被写体位置予測手段は、前記焦点検出手段によって
    検出された複数の焦点検出情報のそれぞれに対応する前
    記撮影レンズの合焦位置に関する値を入力パラメータと
    して未来の被写体位置を予測するニューラルネットワー
    クを有することを特徴とするカメラのオートフォーカス
    装置。
  2. 【請求項2】 被写体との距離に応じた焦点検出情報を
    間欠的に検出する焦点検出手段と、 前記焦点検出情報に基づいて未来の被写体位置を予測す
    る被写体位置予測手段と、 この被写体位置予測手段の予測結果に基づいて撮影レン
    ズを駆動するレンズ駆動手段とを備えたカメラのオート
    フォーカス装置において、 前記被写体位置予測手段は、前記焦点検出手段によって
    検出された複数の焦点検出情報のそれぞれに対応する前
    記撮影レンズの合焦位置に関する値を入力パラメータと
    して未来の被写体位置および被写体速度を予測するニュ
    ーラルネットワークを有することを特徴とするカメラの
    オートフォーカス装置。
  3. 【請求項3】 請求項1または2に記載されたカメラの
    オートフォーカス装置において、 前記ニューラルネットワークは、前記焦点検出手段によ
    って検出された複数の焦点検出情報のそれぞれに対応す
    る前記撮影レンズの合焦位置に関する値と、前記複数の
    焦点検出情報を検出したそれぞれの時刻とを入力パラメ
    ータとすることを特徴とするカメラのオートフォーカス
    装置。
  4. 【請求項4】 請求項1または2に記載されたカメラの
    オートフォーカス装置において、 前記ニューラルネットワークは、前記焦点検出手段によ
    って検出された複数の焦点検出情報のそれぞれに対応す
    る前記撮影レンズの合焦位置に関する値と、前記複数の
    焦点検出情報を検出したそれぞれの時刻と、前記撮影レ
    ンズの焦点距離とを入力パラメータとすることを特徴と
    するカメラのオートフォーカス装置。
  5. 【請求項5】 請求項1〜4に記載されたカメラのオー
    トフォーカス装置において、 前記ニューラルネットワークは3層以上に分類される複
    数のノードを有し、各層に属するノードは他の層のノー
    ドと種々の撮影条件を考慮に入れて重み付けされた経路
    によって互いに接続され、各ノードの値は前記入力パラ
    メータと前記重み付けされた経路とによって決定される
    ことを特徴とするカメラのオートフォーカス装置。
JP6187136A 1994-08-09 1994-08-09 カメラのオートフォーカス装置 Pending JPH0854556A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP6187136A JPH0854556A (ja) 1994-08-09 1994-08-09 カメラのオートフォーカス装置
US08/783,230 US5732288A (en) 1994-08-09 1997-01-14 Auto-focusing device for camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6187136A JPH0854556A (ja) 1994-08-09 1994-08-09 カメラのオートフォーカス装置

Publications (1)

Publication Number Publication Date
JPH0854556A true JPH0854556A (ja) 1996-02-27

Family

ID=16200763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6187136A Pending JPH0854556A (ja) 1994-08-09 1994-08-09 カメラのオートフォーカス装置

Country Status (1)

Country Link
JP (1) JPH0854556A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7936987B2 (en) 2007-09-14 2011-05-03 Samsung Electronics Co., Ltd. Method and apparatus for auto focusing
WO2019181053A1 (ja) * 2018-03-22 2019-09-26 富士フイルム株式会社 デフォーカス量測定装置、方法およびプログラム、並びに判別器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7936987B2 (en) 2007-09-14 2011-05-03 Samsung Electronics Co., Ltd. Method and apparatus for auto focusing
WO2019181053A1 (ja) * 2018-03-22 2019-09-26 富士フイルム株式会社 デフォーカス量測定装置、方法およびプログラム、並びに判別器

Similar Documents

Publication Publication Date Title
JP2597961B2 (ja) 自動焦点調節装置
US6311019B1 (en) Automatic focus adjusting system capable of adjusting focus of moving subject
JPH02178641A (ja) 焦点検出装置
JPH01237610A (ja) オートフォーカス装置
JPH1125263A (ja) 対象物特徴点検出装置、焦点調節装置、露出制御装置及びカメラ
JP2007024941A (ja) 焦点検出装置、焦点調節装置および撮像装置
JP4641502B2 (ja) 焦点検出装置および光学機器
US5732288A (en) Auto-focusing device for camera
US5166722A (en) Camera image shake detecting apparatus
JPH0720547A (ja) カメラの手ぶれ補正装置
US5589909A (en) Automatic focus adjustment camera with high speed sequential photography capability, and method of automatic focus adjustment therefor
JPH0854557A (ja) カメラのオートフォーカス装置
JPH0854556A (ja) カメラのオートフォーカス装置
JP3806489B2 (ja) 測距装置
JPH04235512A (ja) グル−プ化機能を有する焦点検出装置
JPH11337814A (ja) 光学装置
JP2850336B2 (ja) 焦点検出装置
JP2002131624A (ja) 多点自動焦点カメラ
JP4610714B2 (ja) 多点自動焦点カメラ
JP3728604B2 (ja) 焦点検出装置
JP4398020B2 (ja) 多点自動焦点カメラ
JP2974637B2 (ja) 自動焦点調節装置
JP5065466B2 (ja) 焦点検出装置および光学機器
JP3979881B2 (ja) 多点自動焦点カメラ
JP3757470B2 (ja) 自動合焦装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040608