JP2004179868A - Electronic camera with automatic focus adjustment function - Google Patents

Electronic camera with automatic focus adjustment function Download PDF

Info

Publication number
JP2004179868A
JP2004179868A JP2002342394A JP2002342394A JP2004179868A JP 2004179868 A JP2004179868 A JP 2004179868A JP 2002342394 A JP2002342394 A JP 2002342394A JP 2002342394 A JP2002342394 A JP 2002342394A JP 2004179868 A JP2004179868 A JP 2004179868A
Authority
JP
Japan
Prior art keywords
lens
image
image size
camera
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002342394A
Other languages
Japanese (ja)
Inventor
Koji Tamura
浩二 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002342394A priority Critical patent/JP2004179868A/en
Publication of JP2004179868A publication Critical patent/JP2004179868A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Structure And Mechanism Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera for properly performing automatic focus adjustment of a multipoint AF even when a lens with a different image size is mounted on the camera. <P>SOLUTION: The electronic camera is provided with: an object recognition means for dividing the areas of a picked up image and comparing a distance difference in the two areas with a threshold value to discriminate a principal object; a focus adjustment means for focusing the principal object; an adapting means for adapting the picked up image of a camera main body to the image size of an interchangeable lens through electronic zooming in accordance with the image size of the interchangeable lens; and a threshold value change means for changing the threshold value on the basis of a magnification of electronic zooming or the image size information when the adapting means performs electronic zooming. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、自動焦点調節機能を有するレンズ交換可能な電子カメラに関する物である。
【0002】
【従来の技術】
レンズ交換可能な電子カメラにおいては、従来、イメージサイズの異なるカメラ本体及び交換レンズ毎にそれぞれマウントの径を変えているものがあるが、このようなものでは交換レンズの汎用性が乏しいものとなる。しかし、マウントをすべて共通化すると、イメージサイズの大きな交換レンズであれば小さなイメージサイズ用のカメラ本体に対しては問題ないが、交換レンズのイメージサイズが小さい場合には光束のケラレ(口径食)等の問題が生じる。
【0003】
これに対し、例えば特開平2−33267号及び特開平2−33268号に示されたように、小さなイメージサイズの交換レンズを大きなイメージサイズのカメラ本体に対してメカ的に装着不能とすることにより、前記ケラレ等の問題の発生を防止することができる。また、特開平2−39777号に示されたように、交換レンズとカメラ本体とを電気的に接続し、レンズ側に記憶された交換レンズのイメージサイズに関連する情報に基づいて、カメラ本体側のイメージサイズに対して交換レンズのイメージサイズが適合しないと判定された場合(交換レンズ側のイメージサイズが小さい場合)に、警告を発するようにした構成も考えられる。
【0004】
また一方、上記電子カメラはいずれも、カメラ本体に対して交換レンズのイメージサイズが適合しない場合に、その交換レンズの装着を回避することによってケラレ等の問題の発生を防止するものであり、交換レンズの汎用性が十分に確保されたわけではない。
【0005】
そこで、カメラ本体に適合しないイメージサイズの交換レンズを装着した場合であっても、ケラレのない良好な撮影画像を得ることができる電子カメラを提供することを目的として、カメラ側マウントを有するカメラ本体と、該カメラ側マウントと結合するレンズ側マウントを有する交換レンズとから成る電子カメラにおいて、 前記交換レンズのイメージサイズを表わす情報を前記カメラ本体に入力する入力手段と、前記入力手段によって入力された前記情報に基づき、前記交換レンズのイメージサイズがそのままで前記カメラ本体に適合するか否かを判定する判定手段と、前記判定手段によって不適合と判定されると、前記交換レンズによって形成される撮像素子上の像を表わす画像信号に対して電子回路で信号処理を行うことによって前記撮影素子上の像を所定の範囲に対応する像に拡大する電子ズームにより、前記交換レンズのイメージサイズに前記カメラ本体を適合させる物も提案されている。
【0006】
一方、従来より撮影画面内に複数の焦点検出領域を備えたカメラにおいて、撮影画面内を細かくブロック分割し、これら分割されたブロックを各々測距し、距離分布情報(距離マップ)を作成し、被写界を構成する各物体を画面上で分離するために領域分割(グルーピング)を行い、隣接する2つのブロックの距離の差が所定の閾値以内であれば「2つのブロックを構成する物体は同一物体を形成する」と判断し、また隣接する2つのブロックの距離の差が所定の閾値より大きければ「2つのブロックを構成する物体は別物体である」と判断することで、被写界中の主被写体の存在領域を推測(撮影者の意図する被写体をカメラ側が自動的に判断)し、前記距離情報に基づいて一つの焦点調節距離を決定した後、レンズを駆動して前記被写体に自動的に焦点を合わせる、自動焦点調節装置を備えたカメラが開示されている。
【0007】
【発明が解決しようとする課題】
ところで、前記自動焦点調節装置を備えたカメラに、イメージサイズの小さいレンズを装着したときに、前記カメラをイメージサイズに適応させて撮影するということは、撮影画面の小さいカメラとして撮影することになるが、一般に撮影画面上での合焦状態を規定する許容錯乱円径は画面サイズ(対角線長)に応じて変化し、撮影画面が小さくなると許容錯乱円径も小さくなる。
【0008】
このとき、前記自動焦点調節装置を備えたカメラにおいて、被写界中の主被写体の存在領域を推測するための閾値も許容錯乱円径に応じて変更する必要がある。
【0009】
しかしながら従来はイメージサイズの小さいレンズを装着したときにも前記閾値は変更されていないので、同一物体であっても画面サイズによって認識結果が異なり、撮影者が本来意図した被写体が正確に被写体として判断されないと言った問題があった。
【0010】
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、カメラ本体側の画面サイズに対してイメージサイズの小さいレンズを装着した時には電子ズームにより撮影画像を切り出し、画像の領域を変更するとともに、被写界中の主被写体の存在領域を推測するための閾値を前記切り出し画像の大きさに応じて変更し、焦点調節制御を行うカメラを提供することを目的とする。
【0011】
【課題を解決するための手段】
上記目的を達成するため、本発明では、カメラ側マウントを有するカメラ本体と、該カメラ側マウントと結合するレンズ側マウントを有する交換レンズとから成り、焦点検出手段と前記焦点検出手段の結果に基づいてレンズの焦点調節動作を制御する合焦制御手段と、対象空間の距離またはデフォーカス分布に関する情報に基づき、二つの分布点の距離またはデフォーカスに関する情報の差または比と閾値との比較を行い、比較結果に応じて該二つの分布点に対応する領域が同一対象物であるか否かを判定する被写体認識手段と、前記交換レンズのイメージサイズを表わす情報を前記カメラ本体に入力する入力手段と、前記入力手段によって入力された前記情報に基づき、前記交換レンズのイメージサイズが前記カメラ本体に適合するか否かを判定する判定手段と、前記判定手段によって不適合と判定されると、前記交換レンズによって形成される撮像素子上の像を表わす画像信号に対して電子回路で信号処理を行なうことによって前記撮影素子上の像の所定の範囲に対応する像を拡大する電子ズームにより、前記交換レンズのイメージサイズに前記カメラ本体を適合させる適合手段と、少なくともイメージサイズの異なるレンズに交換し、前記適合手段により電子ズームが行われたときには、前記イメージサイズを表す情報または前記電子ズームの拡大率に基づいて前記閾値を変更することで、前記目的を達成する。
【0012】
【発明の実施の形態】
以下、図面を用いて本発明の実施形態を説明する。
【0013】
図1は本発明にかかるデジタル一眼レフカメラシステムの要部構成図である。
【0014】
図1に示すように、本実施形態のデジタルカメラシステムはデジタルカメラ本体を構成するカメラ本体1と、複数の撮影レンズを有する撮影レンズ2で構成されており、該撮影レンズ2はカメラ本体1に対して着脱自在に配設されている。
【0015】
尚、撮影レンズ2は本実施例では便宜上3、4の2枚レンズで示したが実際はさらに多数のレンズから構成されていることは周知の通りである。
【0016】
5はハーフミラーからなる主ミラーで、不示図のヒンジ軸により回転可能に軸支されおり、観察状態の時は撮影光路に斜設され、撮影レンズ2を透過した光束をファインダー及びサブミラーへと導き、撮影状態時は退去される。6はサブミラーで、不示図のヒンジ軸により主ミラー5に対して回転可能に軸支されており、観察状態の時は主ミラー5を透過した光束をカメラボディの下方へ向けて反射し、撮影状態時は主ミラー5に連動して退避する。
【0017】
7はシャッターで、シャッター7の後方には光学ローパスフィルター及び赤外線カットフィルターを一体化した光学フィルター8が配置され、更にその後方には撮影画像を記録するためのCCD等から構成される撮像素子9が配置されている。11は結像面近傍に配置されたフィールドレンズ11a、反射ミラー11b及び11c、2次結像レンズ11e、絞り11d、CCD等からなるエリアセンサー11fから構成されている周知の位相差方式の焦点検出装置で、被写界の複数領域を焦点検出可能なように構成されている。尚、エリアセンサー11fは2つの撮像画面からなり、お互いの撮像画面上には撮影レンズ2のお互いに異なる瞳位置から光束が導かれ、前記フィールドレンズ11a、2次結像レンズ11eにより定まる結象倍率で再結像される。また、エリアセンサー11fは、撮影レンズ2に対して撮像素子9と光学的に等価な位置に配設され、前記エリアセンサー11fの2つの撮像画面は撮像素子9の撮影画面に等しい視野を有している。12は撮影レンズ2の予定結像面に配置されたピント板。13は後述する撮影画面サイズに対応して視野領域を形成し撮影者に撮影領域を知らしめるための透過型液晶からなる視野マスクである。15はファインダー光路変更用のペンタダハプリズムである。ペンタプリズム15の後方には接眼レンズ16が配置され、ピント板12に結像された被写体像の光束が撮影者の眼球17に達し観察される。18、19は観察画面内の被写体輝度を測定するための結像レンズと測光センサーで、結像レンズ18はペンタダハプリズム15内の反射光路を介してピント板12と測光センサー19を共役な結像関係に位置付けている。21はファインダー視野外に撮影情報を表示するためのファインダー内LCDで、照明用LED20によって照明されることによりファインダー内LCD21を透過した光が三角プリズム22によりファインダー内に導かれ、撮影情報がファインダー視野外に表示される。これによって撮影者は撮影情報を知ることができる。23は撮影レンズ2内に設けた絞り、24は後述する絞り制御回路110を含む絞り駆動装置、25はレンズ駆動用モーター、26は駆動ギヤ等からなるレンズ駆動部材、27はフォトカプラーで、レンズ駆動部材26に連動するパルス板28の回転を検知してレンズ焦点調節回路109に伝えている。焦点調節回路109は、この情報とカメラ側からのレンズ駆動量の情報に基づいてレンズ駆動用モーター25を所定量駆動させ、撮影レンズ3を合焦位置に移動させるようになっている。29はカメラ本体1と撮影レンズ2とのインターフェイスとなるマウント接点で、該マウント接点を通してカメラ・レンズ間の種々の情報通信を行っている。31は撮像素子9によって得られた画像データを表示するためのTFT液晶からなるモニター用LCDである。
【0018】
図2は前記構成のデジタルカメラシステムに内蔵された電気的構成を示すブロック図であり、図1と同一のものは同一番号をつけている。
【0019】
カメラ本体に内蔵されたマイクロコンピュータの中央処理装置(以下CPUと呼ぶ)100は例えば内部にROM、PAM、A/D変換機能を有する1チップマイコンで、デジタル回路101、測光回路102、自動焦点検出回路103、信号入力回路104、LCD駆動回路105、LED駆動回路106、シャッター制御回路107、モーター制御回路108が接続されている。また撮影レンズ2内に配置された焦点調節回路109、絞り制御回路110を制御し、開放Fナンバー、焦点距離、各種ピント補正量や後述するイメージサークル情報等、撮影レンズに関する固有の種々の情報が予め記憶されているROM等の記憶手段を有するレンズ内制御回路111とは図1で示したマウント接点29を介して信号の伝達がなされる。
【0020】
デジタル回路101は撮像素子9を駆動し、撮像素子9からの撮像信号の読み出しを行う撮像素子駆動回路101aと読み出した撮像信号を記憶するためのRAM101bとRAM101bに記憶された撮像信号を所定の画像データに変換する信号処理回路101cと画像データを記憶するためのフラッシュメモリ101dで構成される。
【0021】
測光回路102は測光センサー19からの被写界の明るさに対応した輝度信号出力を増幅後、対数圧縮、A/D変換し、各センサーの被写界輝度情報としてCPU100に送られる。測光センサー19は多分割されたファインダー視野(不示図)の各領域に対応した複数のフォトダイオードから構成されている。
【0022】
エリアセンサー11fは公知のCCDラインセンサーで、自動焦点検出回路103はこれらラインセンサー11fから得た電圧をA/D変換し、CPU100に送る。
【0023】
信号入力回路104には例えば、不示図のレリーズ釦の第一ストロークでONし、カメラの測光、測距等を開始するためのスイッチであるSW1、レリーズ釦の第二ストロークでONし、レリーズ動作を開始するためのスイッチであるSW2、カメラの撮影モード等を選択するための不示図のモードダイヤル内に設けられたSW−M、選択されたモードの中で更に選択し得る設定値を選択するための不示図の電子ダイヤル内設けたダイヤルスイッチであるSW−DIAL、焦点検出領域を自動で行うか否かを選択するためのスイッチであるSW−SIの各スイッチが接続され、前記各スイッチの信号が信号入力回路104に入力されデーターバスによってCPU100に送信される。尚、SW−DIALの信号は信号入力回路104内のアップダウンカウンターに入力され、電子ダイヤルの回転クリック量をカウントした後CPU100に送信される。
【0024】
LCD駆動回路105はファインダー内LCD21、モニター用LCD31を表示駆動させるための公知のLCD駆動回路で、CPU100からの信号に従い各LCDの表示内容を制御する。
【0025】
LED駆動回路106は、照明用LED20(F−LED)を点灯制御する。
【0026】
シャッター制御回路107は通電すると先幕を走行させるマグネットMGー1と後幕を走行させるマグネットMG−2を制御し、撮像素子9に所定光量を蓄積させる。
【0027】
モーター制御回路108は主ミラー5及びシャッター7のチャージを行なうためのモーターMを制御するためのものである。これらシャッター制御回路107、モーター制御回路108によって一連のカメラのレリーズシーケンスが動作する。
【0028】
絞り制御回路110、焦点調節回路109は、図1で示した撮影レンズ2内に配置され、マウント接点29を介してCPU100との信号の伝達がなされ、絞り23、レンズ駆動用モーター25、フォトカプラ27等を制御する。
【0029】
次に、前記撮影レンズの固有情報の一つであるイメージサークルについて説明する。
【0030】
カメラ本体1の所定のマウント部(不図示)と撮影レンズ2の所定の被マウント部(不図示)とを所定の手段によって連結することで、マウント接点29によって両者の間は電気的な接続が確保された状態となる。
【0031】
この状態において、カメラ本体1の主電源が投入されることによって、本デジタルカメラシステムは、撮影記録動作を開始し得る撮影準備状態になる。即ち、この主電源が投入されることによって、CPU100が起動して、同CPUは、本デジタルカメラシステムにおける回路全体の初期化を行なう。そして、所定の初期化処理が完了すると、続いて同CPUは、マウント接点29を介してレンズ内制御回路111内の記憶手段からイメージサイズ情報を読み込む。このとき読み込まれるイメージサイズ情報は、上述したように装着された撮影レンズ2を構成する撮影光学系に関する固有の情報である。
【0032】
このようにしてCPU100によってカメラ本体1に読み込まれたイメージサイズ情報は、例えば同CPU100の内部記憶領域に一時的に記憶される。
【0033】
尚、このようにしてメモリに一時的に記憶されたイメージサイズ情報は、カメラ本体1の主電源がオフ状態とされたときには、無効な情報として扱われ、次回のシステム起動時における初期化処理によって消去される。そして、撮影レンズ2のレンズ内制御回路111内の記憶手段から所定のイメージサイズ情報を読み
込むための制御が改めて実行される。
【0034】
また、メモリに一時的に記憶されたイメージサイズ情報は、撮影レンズ2がカメラ本体1から取り外され、お互いの電気的接続が切り離されたときにも無効化されるようになっている。この場合には、他の撮影レンズ2がカメラ本体1に装着され、お互いの電気的接続が、新たに確立されることを待って、CPU100は、自動的に記憶手段から所定のイメージサイズ情報を読み込む制御を実行する。これによってメモリには、新たなイメージサイズ情報が無効化された情報に上書きされることになる。
【0035】
以上のようにして、イメージサイズ情報の読み出しを行っている。
【0036】
読み出されるイメージサイズ情報は、図3に示すように50の『大』、51の『中』、52の『小』の3種に識別され、CPU100は前記読み出されたイメージサイズ情報に応じて9a、9b、9cの3種に撮像素子9の画像の切り出しを行う。これによって、カメラ本体に適合しないイメージサイズの交換レンズを装着した場合であっても、ケラレのない良好な撮影画像を得ることが出来る。
【0037】
図4は視野マスク13及びファインダー内LCD21の表示内容を示した図で、(a)はイメージサイズ大のレンズを装着した時の表示内容を示し、(b)はイメージサイズ中のレンズを装着した時の表示内容を示し、(c)はイメージサイズ小のレンズを装着した時の表示内容をそれぞれ示す。
【0038】
視野マスク13は前述の撮影レンズ2のイメージサイズ情報によって決定される撮像素子9の画像サイズに連動しており、決定された画像サイズに対応した視野領域を形成し撮影者に撮影領域を知らしめると共に、ファインダー内LCD21においてもイメージサイズ情報に応じた表示を行ない、撮影者に装着されているレンズのイメージサイズ情報を知らしめる。即ちイメージサイズ大のレンズを装着した時はLCD21に“L”を、イメージサイズ中のレンズを装着した時は“M”を、イメージサイズ小のレンズを装着した時は“S”をそれぞれ表示する。
【0039】
尚、本実施例では、説明の便宜上装着されるレンズのイメージサイズは『大』、『中』、『小』の3種に限定しているが、これに限定されるものではない。
【0040】
次に、本デジタルカメラシステムの全体動作を図5に示すフローチャートを参照して説明する。
【0041】
モードダイヤルSW−Mを所定の位置に回転させると、カメラの電源がONされ(S100)、カメラは回路全体の初期化を行う(S101)。続いてSW1がONされるまで待機する(S102)。
【0042】
SW1がONされたことを信号入力回路104が検知すると、CPU100は撮影レンズ2との通信を開始し(S103)、撮影レンズ2の固有の情報であるイメージサイズ情報の判別を行う(S104)。ここで、イメージサイズ情報が『大』と判定された時は、CPU100は撮像素子9の撮像範囲を『大』(図4:9a)に設定する(S105)。イメージサイズ情報が『中』と判定された時は、CPU100は撮像素子9の撮像範囲を『中』(図4:9b)に設定する(S106)。イメージサイズ情報が『小』と判定された時は、CPU100は撮像素子9の撮像範囲を『小』(図4:9c)に設定する(S107)。続いて、前記判別したイメージサイズ情報に基づき視野マスク13の表示(S108)及びファインダー内LCD21の表示(S109)を前述した図4(a)、(b)、(c)にそれぞれ切り替える。
【0043】
その後カメラはSW1がONされるまで待機する(S110)。
【0044】
次に、CPU100は焦点検出領域を自動で選択するか否かを選択するためのSW−SIの設定確認を行う(S111)。
【0045】
該SW−SIがONされていると、焦点検出領域手動選択モードに入る(S112)。焦点検出領域手動選択モードの時は、焦点検出領域の選択は撮影者が電子ダイヤルスイッチSW−DIALを操作することで被写界の複数領域の中で任意の位置が選択可能となる。
【0046】
前記SW−SIがOFFの場合は、焦点検出領域自動選択モードに入り(S113)、焦点検出領域自動選択サブルーチンによって特定の焦点検出領域を選択する。
【0047】
ここで、前記焦点検出領域自動サブルーチンについて図6から図11を用いて説明する。
【0048】
図6は、デフォーカス(あるいは距離)分布情報を作成して物体配置状況を認識し、主要被写体を検出した後、主要被写体にレンズの焦点を合わせ、さらに主被写体の光量を測定することにより主被写体に露出をあわせる機能を有するカメラの動作、特に環境を認識して主被写体を判断する焦点検出領域選択の動作を表すフローチャートである。
【0049】
撮影者がレリーズボタンを押すとスイッチSW1がオンになり、焦点検出領域自動選択モードが選択されると、CPUはROMに記録されているプログラムに従い、図6のフローチャートで示した制御を開始する(S200)。
【0050】
次に、エリアセンサ11fの画像の取り込みを行う(S201)。エリアセンサ11fの画像の取り込みは次のように実施される。まず、エリアセンサ11fのリセットを行う。具体的には、エリアセンサ11fの出力の読み出し、リセット信号であるφV、φH、φRをCPU100にて同時に一定時間“H”にすることで、自動焦点検出回路内部でリセット動作が行われる。
【0051】
次にCPU100から蓄積開始命令を送り蓄積を開始し、後に蓄積終了を検知する。
【0052】
そして、φV、φHを駆動してセンサ出力IMAGEを順次読み出し、CPU100にてA/D変換してRAM上の所定領域IMG1、IMG2に格納しセンサの出力信号の取り込みが完了する。
【0053】
次に、m×nブロック(m,nは1以上の正数)で構成されるデフォーカス分布情報(デフォーカスマップ)の作成が行われる(S202)。
【0054】
ここで、前記デフォーカスマップ作成のフローチャートを図7で説明する。
【0055】
まず、ブロックの座標を指示する変数x,yが初期化される(S301)。
【0056】
次に、ブロック(x,y)のデフォーカス演算に必要な信号がRAM上の画像データIMG1の中から抽出され、RAM上の所定アドレスAにコピーされ(S302)、また、ブロック(x,y)のデフォーカス演算に必要なもう一方の信号がIMG2の中から抽出され、RAM上の所定アドレスBにコピーされる(S303)。
【0057】
次に、アドレスAとアドレスBに記録された輝度分布信号に対して公知の相関演算COR(A,B)が実施され、二つの像信号のずれ良δが算出される(S304)。
【0058】
次に、デフォーカスの算出が公知の関数h(δ)により実施され、RAM上の距離分布記録用に確保された所定のアドレスD(x,y)にデフォーカス値が格納される(S305)。
【0059】
次に、xの値を一つ増加して、処理対象を隣接ブロックに移す(S306)。
【0060】
次に、xとデフォーカスマップのx方向の解像度mとの比較が行われ(S307)、x<mが真(YES)と判定された場合はステップS302に戻り、x方向の隣のブロックに対して前述と同様にデフォーカス値の演算と格納が行われる。また、x<mが偽(NO)と判定された場合、xを初期化、yを1増加する(S308)。
【0061】
次に、yの値が評価されy<nが真と判定されたとき再びステップS302に戻り次のブロック列に対する演算が開始される。y<nが偽と判定されたときは、すべてのブロックに対するデフォーカス演算が完了となり、距離マップの作成を終了する(S310)。
【0062】
図6の説明に戻る。
【0063】
マップ作成後、領域分割を行う(S203)。
【0064】
例えば図8のように、画面の左上のブロックから図中の矢印のようにラスタ・スキャンしながら分割処理を行う場合、注目ブロックG(x,y)の上のブロックG(x,y−1)と、左ブロックG(x−1,y)との間で、同じグループかどうかの判断を行えば、結果的にすべての隣接ブロック間で同一ブロックかどうかの判断を行うことができる。このとき、画面の上辺(y=0)と左辺(x=0)のブロックは、それぞれ上のブロックと左のブロックが存在しないので、それらに対する処理は行わない。
【0065】
また、判断の結果はRAM上のメモリG(0,0)〜G(m−1,n−1)に記録する。まず、(x,y)=(0,0)のブロックはグループ番号g=1として登録して、領域が異なるグループが検出されればgの数を一つ増やしてそのブロックのグループ番号とする。
【0066】
この処理により例えば図9(a)のような撮影シーンは、同図(b)のように各グループ毎に番号が与えられる。
【0067】
こうした、番号付けの処理自体は「ラベリング法」と呼ばれる公知技術であるので、領域分け全体のフローチャートは省略するが。次に領域分割処理の中で行われる「隣接ブロックが同一グループかどうか判断するアルゴリズム」を以下に説明する。
【0068】
図10は、スキャン中のある注目ブロックG(x,y)とその左のブロックG(x−1,y)とのブロック間で、二つのブロックが同一物体であるか別物体であるか判断する場合のフローチャートである。
【0069】
注目ブロック(G(x,y)のデフォーカス値D(x,y)がワーク用の変数d1 に(S401)、比較ブロックG(x−1,y)のデフォーカス値D(x−1,y)がワーク用の変数d2 にそれぞれコピーされる(S402)。
【0070】
次に、注目ブロックG(x,y)のデフォーカスd1 を引数として関数fの演算を行い、その結果をしきい値T8 に設定する(S403)。
【0071】
ここで、注目ブロックのデフォーカスdに対して最適なしきい値を決定する関数f(d)の内容について説明する。
【0072】
近距離と遠距離の物体に対して生じる領域分割の不均衡性を押えるための高精度な方法として、二つのブロックで構成される物体面と光軸の成す角が一定の角度以上かどうかを判断するという方法が考えられる。
【0073】
図11を用いて説明する。図において点0は座標系の原点であり、同時に結像系の理想的な光学中心であると考える。横軸は光軸であり、原点より左側が物体空間である。図中右側にある縦軸に平行な面は光学系の結像面である。ここで結像面上の隣接する二つの測距点、p0 とp1 において測定される距離情報(ここでは距離情報で考える)を比較する場合を考える。
【0074】
p0 ,p1 をそれぞれ原点と結んだとき、光軸との成す角をそれぞれφ0 ,φ1 とするとp0 ,p1 が観測し得る物体の存在領域は、それぞれ直線p=−Ltanφ0 ,p=−Ltanφ1 上にある。
【0075】
今、観測点p0 ,p1 での観測結果がそれぞれ距離L0 ,L1 であった場合、物体は図中のA(L0 ,−L0 tanφ0 )とB(L1 ,−L1 tanφ1 )に存在する。したがってこの2点が構成する面が物体面と考えることができ、この面と光軸の成す角θは、
θ=tan−1[(L1tanφ1−L0tanφ0)/( L0−L1)]
により求められる。この角度の絶対値が、所定の閾角より大きければ、物体は光軸に対して垂直に近い面を構成していることから同一物体と考えることができ、閾角度より小さければ別物体と判断できる。
【0076】
ここで、物体面と光軸の交点Cの距離をLC とした場合、距離差L0 〜L1 は
L0−L1=[(tanθ/(tanθ−tanφ0))−(tanθ/(tanθ−tanφ1))]×Lc
で表わすことができ、角度が一定でも距離差はLC に比例して大きくなることが分かる。したがって距離の差により、一定の角度を検出するためには、閾値と距離Lの関係を
TS =C1 L
のように比例関係とすれば良い。ここで、C1 は閾角θT 、光学中心から結像面までの距離a、距離測定点の位置などから決定される定数であり、
C1==[(1/(tanθ−(p0/a))−(tanθ/(1/(tanθ−(p1/a)))×tanθ
で表わせる。
【0077】
C1 はp0 ,p1 を含んでいるため、本来はすべての隣接関係ごとに計算しなければならないが、分布点の間隔が等しく、p0 ,p1 の差がaに対して十分小さいような場合、画面の何処の隣接関係であっても、C1 の値にさほど変化はない。したがって、代表的なC1 値の値を一つだけ演算しておき、この値を他の隣接関係の演算に用いても良い。
【0078】
これで、距離から均一の角度を検出するための閾値を求める手段が分かった。次に、デフォーカスからの均一の角度を検出するための閾値の設定手段を考えるデフォーカスdと距離の間Lには
d=(1/fL −1/L)−1−C2
の関係がある。ここでfL は光学系の焦点距離、C2 は焦点距離fL と想定する焦点位置LF によって決まる値であり、
C2 =(1/fL −1/LF )−1
で表わせる。
【0079】
さて、以上の関係より、デフォーカスから閾値を決定する関数fは
f(d)=C1 (1/fL −1/(d+C2 )−1
で表わすことができる。
【0080】
この関数をもって閾値とすれば、どのような距離にある物体に対しても一定の角度を基準として同一物体か否かの判断を行うことと同様の効果が得られるので、従来あった近くの物体は細かく分割し、遠くの物体は粗く分割されるという問題を解消することができる。
【0081】
また、上記“想定する焦点位置”LF には、レンズシャッターカメラのように初期焦点位置が固定されているようなカメラでは、その初期位置を設定すればよく、また一眼レフカメラなど焦点位置が変動する場合には、もっとも頻繁に利用されると考えられる撮影距離(例えば2m程度)として設定するのが好ましい。また、レンズ交換可能なカメラにおいては、C1 ,C2 といった値は、レンズの焦点距離に応じて適宜設定することにより、どのようなレンズが装着された場合でも適切な認識が可能となる。
【0082】
また、ズームレンズの場合などにも、現在の焦点距離を検出して、C1 ,C2 を適宜設定することにより、どのような焦点距離にあっても適切な認識が可能となる。
【0083】
以上は正確に距離の影響を排除する方法であるが、完全に影響を排除する必要がなく、より演算量を少なくする方が好ましい場合などには、デフォーカスの増加に伴いしきい値を小さくするような単調減少の関数をfとして定義することが考えられる。例えばf(d)=C3 /d(C3 は適当な定数)などであり、こうした関数を導入することで、演算量は比較的少ないにもかかわらず、従来より認識の結果を改善することが可能である。
【0084】
図10の説明に戻る。
【0085】
デフォーカス量の差の絶対値が閾値より大きいかどうかチェックされる(S404)。
差が閾値以下であれば、二つのブロックが同一か否かを表わすフラグ変数Flagを1に設定し(S405)、差が閾値より大きければでFlagを0に設定して処理が終了する(S406)。Flag=1で、二つの物体が同一であることを表わし、Flag=0で二つの物体が別個であることを表わす。
【0086】
以上の判断をすべてのブロックのすべての隣接関係について行い、領域分割が完了する。
【0087】
TS は上記式f(d)=C1 (1/fL −1/(d+C2 ))−1又はf(d)=C3 /dにより設定される。
【0088】
上記式のうちのdはd2 であっても良いし、d1 とd2 の平均値でも良い。
【0089】
図6の説明に戻る。
【0090】
領域分割後、撮影空間を構成する各領域(各グループ)の特性を評価して、すべてのグループの中から主被写体を表わすグループを決定する(S204)。
【0091】
前記主被写体を表わすグループの決定方法としては、前記各グループすべてについて、平均的なデフォーカスや、領域の幅、高さ、画面上の位置などの特性をそれぞれ演算して、それらを総合評価して主被写体と考えられる領域を判断する。
【0092】
例えば、下記のような主被写体度評価関数が考えられる。
(主被写体度)=W1 ×(幅)×(高さ)+W2 /(画面中心からの距離)−W3 ×(平均デフォーカス)
上記式に於いて、W1 ,W2 ,W3 は重み付けの定数、画面中心からの距離は画面中心と領域の重心位置との距離であり、また平均デフォーカスは領域内の全ブロックのデフォーカスの平均を表わしている。この主被写体度をすべての領域に対して演算して、この主被写体度が最も大きい被写体を主要被写体として判断する。
【0093】
以上により、主被写体を表わす領域内のデフォーカス情報に基づき一つのデフォーカスが決定される。デフォーカスの決定方法は、前記領域に含まれるすべてのブロックの平均や、領域内で最至近のブロックのデフォーカスなどが考えられる。
【0094】
尚、本実施例では撮影レンズ2のイメージサイズ情報の判別を行っているが、例えばイメージサイズの小さいレンズを装着したときに、カメラを該イメージサイズに適応させて撮影するということは、撮影画面の小さいカメラとして撮影することになり、この場合、一般に撮影画面上での合焦状態を規定する許容錯乱円径は画面サイズ(対角線長)に応じて変化し、撮影画面が小さくなると許容錯乱円径も小さくなる。
【0095】
このとき、同一物体であっても画面サイズによって認識結果が異なり、撮影者が本来意図した被写体が正確に被写体として判断されないと言った問題を防ぐために、焦点調節動作を制御する上で前述の主被写体領域推測方法における閾値も許容錯乱円径に応じて変更する必要が生じてくる。
【0096】
以下、イメージサイズによる閾値の設定について説明する。
【0097】
本実施例で用いるイメージサイズには前述したように図3に示す3種類(大、中、小)がある。
【0098】
50はイメージサイズ『大』で9aはそのときの撮像素子9のエリアである。この撮像素子9の対角線長をAとする。51はイメージサイズ『中』で、前記50のイメージサイズの2/3サイズである。9bはこのイメージサイズ51の撮像素子9のエリアで対角線長をBとする。52はイメージサイズ『小』で、前記イメージサイズの1/3サイズである。9cはこのイメージサイズ52の撮像素子9のエリアで対角線長をCとする。
【0099】
この時の上記3種類のイメージサイズの間には以下の関係が成立する。
A:B:C=A:A×2/3:A×1/3
そこで、前記閾値は、イメージサイズに応じて上記関係に当てはめることで、適正な閾値が求められることになる。
【0100】
本文に戻り、前記サブルーチンで決定した主被写体に焦点が合うようにCPU100は焦点検出回路109及びレンズ駆動用モーター25を制御し、前記デフォーカス情報に基づきラインセンサー11fにより焦点検出を行う(S114)。
次に、前記確定した主被写体の測距が可能であるか否かを判定し(S115)、不能であればCPU100はLCD駆動回路105に信号を送りファインダー内LCD21に警告表示を行い(不示図)、撮影者に測距がNGであることを警告し(S116)、SW1がOFFされるまでこの動作を継続する(S117)。
【0101】
前記確定した焦点検出領域の測距可能であり、撮影レンズ3の位置が合焦位置状態でなければ(S118)、CPU100はレンズ焦点調節回路109に信号を送り所定量撮影レンズ3を駆動させる(S119)。レンズ駆動後、自動焦点回路103は再度測距を行い(S115)、撮影レンズ3が合焦位置にいるか否かの判定を行う(S118)。
【0102】
所定の焦点検出領域において撮影レンズ3の位置が合焦位置にいれば、CPU100はLCD駆動回路105に信号を送ってファインダー内LCD21に合焦表示を行い(不示図)撮影者に合焦であることを知らしめる(S120)。
【0103】
撮影者は選択した或いは選択された焦点検出領域が正しくない(変更したい)と認識してSW1をOFFすると(S121)、引き続きカメラはSW1がONされるまで待機する(S102)。また、撮影者が引き続きSW1をONし続けたならば(S121)、CPU100は測光回路102に信号を送信して測光を行わせる(S122)。
【0104】
この時、本実施例の場合は合焦した焦点検出領域を含む測光領域(不示図)に重み付けされた公知の測光演算を行い、露出値が演算される。更に、SW2がONされているかどうかの判定を行い(S123)、SW2がOFF状態であれば再びSW1の状態の確認を行う(S121)。この結果、SW2がONされたならばCPU100はシャッタ制御回路107,モータ制御回路108,絞り制御回路110をそれぞれ制御し、撮像素子9への画像取り込みが開始される(S124)。所定の露出時間経過後、撮像素子9に蓄積された画像信号は信号処理回路101cを介してメモリ101bに一時的に記憶される。
【0105】
次に、前記画像データの中から、イメージサイズ情報に基づき設定された撮像範囲内の画像データをCPU100が切り出し(S125)、該データをCPU100内に記憶し、一連のシャッタレリーズシーケンスの動作が終了する(S126)。
【0106】
その後、カメラは再びSW1がONされるまで待機する(S102)。
【0107】
尚、本実施例では主被写体の存在領域を推測するための閾値の変更をイメージサイズ情報で行っているが、電子ズームの拡大率に基づく情報によって行ってもなんら問題はない。
【0108】
【発明の効果】
本発明の実施形態により、異なるイメージサイズの交換レンズを装着可能な電子カメラで、撮影素子に取り込まれた像の所定の範囲に対応する像を拡大する電子ズームにより前記交換レンズのイメージサイズに前記カメラ本体を適合させるカメラにおいて、撮影レンズからのイメージサイズ情報取得により、有効なイメージサイズ範囲を撮影者に知らせると共に、各イメージサイズに応じて被写界中の主被写体の存在領域を推測するための閾値を適切に設定したことで、同一物体であっても各イメージサイズ(画面サイズ)によって認識結果が異なると言った問題を解決し、撮影者が本来意図した被写体を正確に判断することが出来るカメラを提供することが出来る。
【図面の簡単な説明】
【図1】本発明にかかるデジタル一眼レフカメラシステムの要部構成図である。
【図2】図1の電気的構成を示すブロック図である。
【図3】イメージサイズ説明図である。
【図4】図1のファインダー視野内を説明する図である。
【図5】図1のカメラ全体の動作を説明するためのフローチャートである。
【図6】環境を認識して主被写体を判断する自動焦点検出領域選択の動作を説明するためのフローチャートである。
【図7】図6のマップ作成のステップの詳細を示すフローチャートである。
【図8】領域分割方法の説明図である。
【図9】ラベリング結果例を示す図である。
【図10】境界判断の動作を示すフローチャートである。
【図11】理想的な閾値を説明するための図である。
【符号の説明】
1:カメラ本体
2:撮影レンズ
9:撮像素子
11:焦点検出装置
11f:エリアセンサー
13:視野マスク
50、51,52:イメージサイズ
100:CPU
101:デジタル回路
103:焦点検出回路
111:レンズ内制御回路
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an interchangeable lens electronic camera having an automatic focusing function.
[0002]
[Prior art]
Conventionally, some interchangeable lens electronic cameras have different mount diameters for different camera bodies and interchangeable lenses having different image sizes, but such interchangeable lenses are less versatile. . However, if all mounts are shared, there is no problem with a camera body for a small image size if the interchangeable lens has a large image size. And the like.
[0003]
On the other hand, as shown in, for example, JP-A-2-33267 and JP-A-2-33268, an interchangeable lens having a small image size cannot be mechanically attached to a camera body having a large image size. In addition, it is possible to prevent problems such as vignetting. Further, as disclosed in JP-A-2-39777, the interchangeable lens and the camera main body are electrically connected, and the camera main body is connected to the camera main body based on the information related to the image size of the interchangeable lens stored in the lens side. If it is determined that the image size of the interchangeable lens does not match the image size of (i.e., the image size on the interchangeable lens side is small), a configuration may be considered in which a warning is issued.
[0004]
On the other hand, when the image size of the interchangeable lens is not compatible with the camera body, the electronic camera is designed to prevent the occurrence of problems such as vignetting by avoiding the mounting of the interchangeable lens. The versatility of the lens has not been sufficiently secured.
[0005]
Therefore, in order to provide an electronic camera capable of obtaining a good captured image without vignetting even when an interchangeable lens having an image size that is not compatible with the camera body is mounted, a camera body having a camera-side mount is provided. And an interchangeable lens having a lens-side mount coupled to the camera-side mount, wherein: input means for inputting information representing the image size of the interchangeable lens to the camera body; and Determining means for determining whether or not the image size of the interchangeable lens is compatible with the camera body based on the information; and an image sensor formed by the interchangeable lens when the determining means determines that the image is incompatible. By performing signal processing on the image signal representing the above image with electronic circuits, There has also been proposed an electronic zoom in which the camera body is adapted to an image size of the interchangeable lens by an electronic zoom for enlarging an image on the imaging element to an image corresponding to a predetermined range.
[0006]
On the other hand, conventionally, in a camera having a plurality of focus detection areas in a shooting screen, the shooting screen is finely divided into blocks, these divided blocks are each measured for distance, and distance distribution information (distance map) is created. Area division (grouping) is performed to separate each object constituting the object scene on the screen, and if the difference between the distances of two adjacent blocks is within a predetermined threshold, “the objects constituting the two blocks are By determining that the same object is formed, and if the difference between the distances of two adjacent blocks is greater than a predetermined threshold, it is determined that "the objects constituting the two blocks are different objects". After estimating the existence area of the main subject in the camera (the camera automatically determines the subject intended by the photographer) and determining one focus adjustment distance based on the distance information, the lens is driven to drive the subject. Automatically focusing the camera is disclosed having an automatic focusing device.
[0007]
[Problems to be solved by the invention]
By the way, when a lens having a small image size is attached to a camera equipped with the automatic focusing device, shooting with the camera adapted to the image size means shooting with a camera having a small shooting screen. However, in general, the permissible circle of confusion that defines the in-focus state on the photographing screen changes according to the screen size (diagonal length), and the smaller the photographing screen, the smaller the permissible circle of confusion.
[0008]
At this time, in the camera equipped with the automatic focusing device, the threshold value for estimating the existence area of the main subject in the scene needs to be changed according to the permissible circle of confusion.
[0009]
However, conventionally, even when a lens having a small image size is attached, the threshold value is not changed, so that the recognition result differs depending on the screen size even for the same object, and the subject originally intended by the photographer is accurately determined as the subject. There was a problem that said it would not.
[0010]
The present invention has been made in view of the above-described problems, and has as its object to cut out a captured image by electronic zoom when a lens having a small image size with respect to the screen size of the camera body side is cut out, and the image area is reduced. It is another object of the present invention to provide a camera that performs focus adjustment control by changing a threshold value for estimating a region where a main subject is present in a scene according to the size of the cut-out image.
[0011]
[Means for Solving the Problems]
In order to achieve the above object, the present invention comprises a camera body having a camera-side mount, and an interchangeable lens having a lens-side mount coupled to the camera-side mount, based on a result of focus detection means and the focus detection means. Focusing control means for controlling the focus adjustment operation of the lens, and based on information on the distance or defocus distribution in the target space, compares the threshold or the difference or ratio of the information or distance on the distance or defocus between the two distribution points. Subject recognition means for determining whether or not areas corresponding to the two distribution points are the same object in accordance with the comparison result, and input means for inputting information representing the image size of the interchangeable lens to the camera body Whether the image size of the interchangeable lens is compatible with the camera body based on the information input by the input unit. A determination unit, and when the determination unit determines that the image is incompatible, the electronic circuit performs signal processing on an image signal representing an image formed on the image sensor formed by the interchangeable lens. Electronic zoom for enlarging an image corresponding to a predetermined range of the image, adapting means for adapting the camera body to the image size of the interchangeable lens, and replacing the lens with at least a lens having a different image size. When performed, the object is achieved by changing the threshold based on the information indicating the image size or the enlargement ratio of the electronic zoom.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0013]
FIG. 1 is a configuration diagram of a main part of a digital single-lens reflex camera system according to the present invention.
[0014]
As shown in FIG. 1, the digital camera system according to the present embodiment includes a camera body 1 constituting a digital camera body, and a shooting lens 2 having a plurality of shooting lenses. It is arranged to be detachable.
[0015]
In this embodiment, the taking lens 2 is shown as two lenses of 3 and 4 for the sake of convenience. However, it is well known that the taking lens 2 is actually composed of a larger number of lenses.
[0016]
Reference numeral 5 denotes a main mirror composed of a half mirror, which is rotatably supported by a hinge shaft (not shown), is obliquely provided in a photographing optical path in an observation state, and transmits a light beam transmitted through the photographing lens 2 to a finder and a sub mirror. Guided and departed during shooting. Reference numeral 6 denotes a sub-mirror, which is rotatably supported on the main mirror 5 by a hinge axis (not shown), and reflects a light beam transmitted through the main mirror 5 downward in the camera body in an observation state, In the photographing state, it retracts in conjunction with the main mirror 5.
[0017]
Reference numeral 7 denotes a shutter, and an optical filter 8 having an optical low-pass filter and an infrared cut filter integrated therewith is arranged behind the shutter 7, and further behind the image pickup device 9 such as a CCD for recording a captured image. Is arranged. Reference numeral 11 denotes a well-known phase-difference focus detection system including a field lens 11a, reflection mirrors 11b and 11c, a secondary imaging lens 11e, an aperture 11d, and an area sensor 11f including a CCD and the like arranged near the imaging plane. The apparatus is configured to be able to focus-detect a plurality of regions of the object scene. The area sensor 11f includes two imaging screens. Light beams are guided from different pupil positions of the imaging lens 2 to each other on the respective imaging screens, and an image determined by the field lens 11a and the secondary imaging lens 11e. It is re-imaged at magnification. The area sensor 11f is disposed at a position optically equivalent to the imaging element 9 with respect to the imaging lens 2, and the two imaging screens of the area sensor 11f have the same visual field as the imaging screen of the imaging element 9. ing. Reference numeral 12 denotes a focusing plate arranged on a predetermined imaging plane of the photographing lens 2. Reference numeral 13 denotes a field mask formed of a transmissive liquid crystal for forming a field of view corresponding to a shooting screen size to be described later and informing the photographer of the shooting area. Reference numeral 15 denotes a penta roof prism for changing a finder optical path. An eyepiece 16 is arranged behind the pentaprism 15, and the luminous flux of the subject image formed on the focus plate 12 reaches the eyeball 17 of the photographer and is observed. Reference numerals 18 and 19 denote an imaging lens and a photometric sensor for measuring the luminance of the subject in the observation screen. The imaging lens 18 conjugates the focusing plate 12 and the photometric sensor 19 via a reflection optical path in the penta roof prism 15. Positioned in a relationship. Reference numeral 21 denotes an LCD in the finder for displaying photographing information outside the finder visual field. Light transmitted through the finder LCD 21 by being illuminated by the illumination LED 20 is guided into the finder by the triangular prism 22, and the photographing information is displayed. Displayed outside. This allows the photographer to know the photographing information. Reference numeral 23 denotes an aperture provided in the taking lens 2, reference numeral 24 denotes an aperture driving device including an aperture control circuit 110 described later, reference numeral 25 denotes a lens driving motor, reference numeral 26 denotes a lens driving member including a driving gear and the like, reference numeral 27 denotes a photocoupler, The rotation of the pulse plate 28 linked to the driving member 26 is detected and transmitted to the lens focus adjustment circuit 109. The focus adjustment circuit 109 drives the lens drive motor 25 by a predetermined amount based on this information and the information on the lens drive amount from the camera side, and moves the photographing lens 3 to a focus position. Reference numeral 29 denotes a mount contact serving as an interface between the camera body 1 and the photographing lens 2, and various kinds of information communication between the camera and the lens are performed through the mount contact. Reference numeral 31 denotes a monitor LCD composed of a TFT liquid crystal for displaying image data obtained by the image sensor 9.
[0018]
FIG. 2 is a block diagram showing an electrical configuration incorporated in the digital camera system having the above-described configuration, and the same components as those in FIG. 1 are denoted by the same reference numerals.
[0019]
A central processing unit (hereinafter referred to as a CPU) 100 of a microcomputer built in the camera body is, for example, a one-chip microcomputer having a ROM, a PAM, and an A / D conversion function therein, and includes a digital circuit 101, a photometry circuit 102, an automatic focus detection. The circuit 103, the signal input circuit 104, the LCD drive circuit 105, the LED drive circuit 106, the shutter control circuit 107, and the motor control circuit 108 are connected. Further, it controls a focus adjustment circuit 109 and an aperture control circuit 110 disposed in the photographing lens 2 so that various kinds of information specific to the photographing lens, such as an open F number, a focal length, various focus correction amounts, and image circle information described later, are provided. Signals are transmitted to the in-lens control circuit 111 having storage means such as a ROM stored in advance via the mount contact 29 shown in FIG.
[0020]
The digital circuit 101 drives the image sensor 9, reads an image signal from the image sensor 9, an image sensor drive circuit 101 a, a RAM 101 b for storing the read image signal, and an image signal stored in the RAM 101 b into a predetermined image. It comprises a signal processing circuit 101c for converting data into data and a flash memory 101d for storing image data.
[0021]
The photometry circuit 102 amplifies the luminance signal output corresponding to the brightness of the object scene from the photometry sensor 19, performs logarithmic compression and A / D conversion, and sends the result to the CPU 100 as object scene luminance information of each sensor. The photometric sensor 19 is composed of a plurality of photodiodes corresponding to each area of the viewfinder field (not shown) which is divided into many parts.
[0022]
The area sensor 11f is a known CCD line sensor, and the automatic focus detection circuit 103 performs A / D conversion of the voltage obtained from the line sensor 11f and sends it to the CPU 100.
[0023]
For example, the signal input circuit 104 is turned on by a first stroke of a release button (not shown), a switch SW1 for starting photometry, distance measurement, and the like of the camera, and turned on by a second stroke of the release button. SW2 which is a switch for starting the operation, SW-M provided in a mode dial (not shown) for selecting a photographing mode of the camera, etc., and setting values which can be further selected from the selected modes. SW-DIAL which is a dial switch provided in the electronic dial (not shown) for selection and SW-SI which is a switch for selecting whether or not to automatically perform a focus detection area are connected. The signal of each switch is input to the signal input circuit 104 and transmitted to the CPU 100 via the data bus. The SW-DIAL signal is input to an up / down counter in the signal input circuit 104, and is transmitted to the CPU 100 after counting the amount of rotation click of the electronic dial.
[0024]
The LCD driving circuit 105 is a known LCD driving circuit for driving the LCD 21 in the finder and the LCD 31 for monitoring, and controls the display content of each LCD according to a signal from the CPU 100.
[0025]
The LED drive circuit 106 controls lighting of the illumination LED 20 (F-LED).
[0026]
When energized, the shutter control circuit 107 controls the magnet MG-1 for running the front curtain and the magnet MG-2 for running the rear curtain, and causes the image sensor 9 to store a predetermined amount of light.
[0027]
The motor control circuit 108 controls the motor M for charging the main mirror 5 and the shutter 7. The shutter control circuit 107 and the motor control circuit 108 operate a series of camera release sequences.
[0028]
The aperture control circuit 110 and the focus adjustment circuit 109 are arranged in the photographing lens 2 shown in FIG. 1, and signals are transmitted to the CPU 100 via the mount contacts 29, and the aperture 23, the lens driving motor 25, the photocoupler 27 etc. are controlled.
[0029]
Next, an image circle which is one of the unique information of the photographing lens will be described.
[0030]
By connecting a predetermined mounting portion (not shown) of the camera body 1 and a predetermined mounted portion (not shown) of the photographing lens 2 by predetermined means, an electrical connection therebetween can be established by a mounting contact 29. It will be in the secured state.
[0031]
In this state, when the main power supply of the camera body 1 is turned on, the digital camera system enters a shooting preparation state in which a shooting / recording operation can be started. That is, when the main power is turned on, the CPU 100 is activated, and the CPU initializes the entire circuit in the digital camera system. When the predetermined initialization processing is completed, the CPU subsequently reads the image size information from the storage means in the in-lens control circuit 111 via the mount contact 29. The image size information read at this time is information specific to the photographing optical system constituting the photographing lens 2 mounted as described above.
[0032]
The image size information read into the camera body 1 by the CPU 100 in this manner is temporarily stored in, for example, an internal storage area of the CPU 100.
[0033]
Note that the image size information temporarily stored in the memory as described above is treated as invalid information when the main power of the camera body 1 is turned off, and is initialized by the initialization process at the next system startup. Will be erased. Then, predetermined image size information is read from storage means in the in-lens control circuit 111 of the taking lens 2.
Control is performed again.
[0034]
The image size information temporarily stored in the memory is also invalidated when the taking lens 2 is detached from the camera body 1 and the electrical connection between them is cut off. In this case, after the other photographing lens 2 is attached to the camera body 1 and the electrical connection between them is newly established, the CPU 100 automatically transmits predetermined image size information from the storage means. Execute read control. As a result, the new image size information is overwritten on the memory with the invalidated information.
[0035]
The reading of the image size information is performed as described above.
[0036]
As shown in FIG. 3, the read image size information is identified as three types of 50 “large”, 51 “medium”, and 52 “small”, and the CPU 100 responds to the read image size information. The image of the image sensor 9 is cut out for three types 9a, 9b, and 9c. As a result, even when an interchangeable lens having an image size that is not compatible with the camera body is mounted, a good captured image without vignetting can be obtained.
[0037]
4A and 4B are views showing the display contents of the field mask 13 and the LCD 21 in the viewfinder. FIG. 4A shows the display contents when a lens having a large image size is mounted, and FIG. (C) shows the display contents when a lens having a small image size is attached.
[0038]
The field mask 13 is linked to the image size of the image sensor 9 determined by the image size information of the photographic lens 2 described above, forms a field of view corresponding to the determined image size, and informs the photographer of the shooting area. At the same time, a display corresponding to the image size information is also performed on the LCD 21 in the finder to inform the photographer of the image size information of the lens attached to the photographer. That is, "L" is displayed on the LCD 21 when a lens having a large image size is mounted, "M" is displayed when a lens having a medium image size is mounted, and "S" is displayed when a lens having a small image size is mounted. .
[0039]
In the present embodiment, the image size of the lens mounted for convenience of explanation is limited to three types of "large", "medium", and "small", but is not limited to this.
[0040]
Next, the overall operation of the digital camera system will be described with reference to the flowchart shown in FIG.
[0041]
When the mode dial SW-M is rotated to a predetermined position, the power of the camera is turned on (S100), and the camera initializes the entire circuit (S101). Then, it waits until SW1 is turned on (S102).
[0042]
When the signal input circuit 104 detects that the SW1 has been turned on, the CPU 100 starts communication with the photographing lens 2 (S103), and determines image size information that is information unique to the photographing lens 2 (S104). Here, when the image size information is determined to be “large”, the CPU 100 sets the imaging range of the image sensor 9 to “large” (FIG. 4: 9a) (S105). When the image size information is determined to be “medium”, the CPU 100 sets the imaging range of the image sensor 9 to “medium” (FIG. 4: 9b) (S106). When the image size information is determined to be "small", the CPU 100 sets the imaging range of the image sensor 9 to "small" (FIG. 4: 9c) (S107). Subsequently, based on the determined image size information, the display of the visual field mask 13 (S108) and the display of the LCD 21 in the finder (S109) are switched to the above-described FIGS. 4A, 4B, and 4C.
[0043]
Thereafter, the camera waits until SW1 is turned on (S110).
[0044]
Next, the CPU 100 checks the setting of the SW-SI for selecting whether to automatically select the focus detection area (S111).
[0045]
If the SW-SI is ON, the process enters a focus detection area manual selection mode (S112). In the focus detection area manual selection mode, the photographer can operate the electronic dial switch SW-DIAL to select an arbitrary position from among a plurality of areas of the object scene.
[0046]
If the SW-SI is OFF, a focus detection area automatic selection mode is entered (S113), and a specific focus detection area is selected by a focus detection area automatic selection subroutine.
[0047]
Here, the focus detection area automatic subroutine will be described with reference to FIGS.
[0048]
FIG. 6 is a diagram showing an example in which a defocus (or distance) distribution information is created to recognize an object arrangement state, a main subject is detected, a lens is focused on the main subject, and the light quantity of the main subject is measured. 9 is a flowchart illustrating an operation of a camera having a function of adjusting exposure to a subject, particularly an operation of selecting a focus detection area for recognizing an environment and determining a main subject.
[0049]
When the photographer presses the release button, the switch SW1 is turned on, and when the focus detection area automatic selection mode is selected, the CPU starts the control shown in the flowchart of FIG. 6 according to the program recorded in the ROM ( S200).
[0050]
Next, the image of the area sensor 11f is captured (S201). The capture of the image of the area sensor 11f is performed as follows. First, the area sensor 11f is reset. Specifically, the reset operation is performed inside the automatic focus detection circuit by reading the output of the area sensor 11f and simultaneously setting the reset signals φV, φH, and φR to “H” for a certain period of time in the CPU 100.
[0051]
Next, an accumulation start command is sent from the CPU 100 to start accumulation, and the end of accumulation is detected later.
[0052]
Then, φV and φH are driven to sequentially read the sensor output IMAGE, A / D converted by the CPU 100 and stored in predetermined areas IMG1 and IMG2 on the RAM, and the capture of the output signal of the sensor is completed.
[0053]
Next, defocus distribution information (defocus map) composed of m × n blocks (m and n are positive numbers of 1 or more) is created (S202).
[0054]
Here, a flowchart of the defocus map creation will be described with reference to FIG.
[0055]
First, variables x and y indicating the coordinates of a block are initialized (S301).
[0056]
Next, a signal necessary for the defocus calculation of the block (x, y) is extracted from the image data IMG1 on the RAM, copied to a predetermined address A on the RAM (S302), and the block (x, y). The other signal necessary for the defocus calculation of (1) is extracted from the IMG2 and copied to a predetermined address B on the RAM (S303).
[0057]
Next, a known correlation operation COR (A, B) is performed on the luminance distribution signals recorded at the address A and the address B, and a deviation δ between the two image signals is calculated (S304).
[0058]
Next, the defocus is calculated by a known function h (δ), and the defocus value is stored at a predetermined address D (x, y) reserved for recording the distance distribution on the RAM (S305). .
[0059]
Next, the value of x is increased by one, and the processing target is moved to an adjacent block (S306).
[0060]
Next, x is compared with the resolution m of the defocus map in the x direction (S307). When x <m is determined to be true (YES), the process returns to step S302, and the next block in the x direction is read. On the other hand, the defocus value is calculated and stored in the same manner as described above. If x <m is determined to be false (NO), x is initialized and y is increased by 1 (S308).
[0061]
Next, when the value of y is evaluated and it is determined that y <n is true, the process returns to step S302 again, and the operation on the next block sequence is started. When it is determined that y <n is false, the defocus calculation for all the blocks is completed, and the creation of the distance map ends (S310).
[0062]
Returning to the description of FIG.
[0063]
After the map is created, area division is performed (S203).
[0064]
For example, as shown in FIG. 8, when performing division processing while performing raster scanning from the upper left block of the screen as indicated by the arrow in the figure, the block G (x, y-1) above the block of interest G (x, y) ) And the left block G (x−1, y), it is possible to determine whether or not the adjacent block is the same block as a result. At this time, the blocks on the upper side (y = 0) and the left side (x = 0) of the screen do not have the upper block and the left block, respectively, so that no processing is performed on them.
[0065]
The result of the determination is recorded in the memories G (0,0) to G (m-1, n-1) on the RAM. First, a block of (x, y) = (0, 0) is registered as a group number g = 1, and when a group having a different area is detected, the number of g is increased by one and set as the group number of the block. .
[0066]
By this processing, for example, a shooting scene as shown in FIG. 9A is given a number for each group as shown in FIG. 9B.
[0067]
Since the numbering process itself is a known technique called "labeling method", a flowchart of the entire area division is omitted. Next, an "algorithm for determining whether or not adjacent blocks are in the same group" performed in the area division processing will be described below.
[0068]
FIG. 10 shows whether two blocks are the same object or different objects between a block of interest G (x, y) being scanned and a block G (x−1, y) on the left. It is a flowchart in the case of doing.
[0069]
The defocus value D (x, y) of the target block (G (x, y)) is set to the work variable d1 (S401), and the defocus value D (x-1, y) of the comparison block G (x-1, y). y) is copied to the work variable d2 (S402).
[0070]
Next, the function f is calculated using the defocus d1 of the target block G (x, y) as an argument, and the result is set as a threshold value T8 (S403).
[0071]
Here, the content of the function f (d) for determining the optimum threshold value for the defocus d of the target block will be described.
[0072]
As a high-accuracy method to suppress the imbalance of region division that occurs for objects at short distances and long distances, it is necessary to determine whether the angle between the object plane composed of two blocks and the optical axis is greater than a certain angle. There is a method of making a judgment.
[0073]
This will be described with reference to FIG. In the figure, point 0 is considered to be the origin of the coordinate system and at the same time to be the ideal optical center of the imaging system. The horizontal axis is the optical axis, and the left side of the origin is the object space. The plane parallel to the vertical axis on the right side in the drawing is the image plane of the optical system. Here, a case where distance information measured at two adjacent distance measuring points p0 and p1 on the imaging plane (considered here by distance information) is compared.
[0074]
When p0 and p1 are connected to the origin, respectively, assuming that the angles formed by the optical axis are φ0 and φ1, respectively, the existence areas of the objects observable by p0 and p1 are represented by straight lines p = −Ltanφ0 and p = −Ltanφ1 respectively. is there.
[0075]
If the observation results at the observation points p0 and p1 are the distances L0 and L1, respectively, the objects exist at A (L0, -L0 tan φ0) and B (L1, -L1 tan φ1) in the figure. Therefore, the plane formed by these two points can be considered as the object plane, and the angle θ between this plane and the optical axis is
θ = tan -1 [(L1tanφ1-L0tanφ0) / (L0-L1)]
Required by If the absolute value of this angle is larger than a predetermined threshold angle, the object can be considered to be the same object because it constitutes a surface nearly perpendicular to the optical axis, and if smaller than the threshold angle, it is determined to be another object. it can.
[0076]
Here, assuming that the distance between the intersection C of the object plane and the optical axis is LC, the distance differences L0 to L1 are
L0−L1 = [(tan θ / (tan θ−tan φ1)) − (tan θ / (tan θ−tan φ1))] × Lc
It can be seen that the distance difference increases in proportion to LC even when the angle is constant. Therefore, in order to detect a certain angle based on the difference in distance, the relationship between the threshold and the distance L must be determined.
TS = C1 L
What is necessary is just to make a proportional relationship like this. Here, C1 is a constant determined from the threshold angle θT, the distance a from the optical center to the imaging plane, the position of the distance measurement point, and the like.
C1 == [(1 / (tan θ− (p0 / a)) − (tan θ / (1 / (tan θ− (p1 / a))) × tan θ)
Can be represented by
[0077]
Since C1 includes p0 and p1, it must be calculated for every adjacent relationship. However, when the intervals between distribution points are equal and the difference between p0 and p1 is sufficiently small with respect to a, the screen is displayed. No matter where the adjacency relationship is, the value of C1 does not change much. Therefore, only one representative C1 value may be calculated, and this value may be used for calculation of another adjacent relationship.
[0078]
Thus, a means for calculating a threshold value for detecting a uniform angle from the distance has been found. Next, consider a means for setting a threshold for detecting a uniform angle from defocus.
d = (1 / fL-1 / L) -1-C2
There is a relationship. Here, fL is the focal length of the optical system, C2 is a value determined by the focal length fL and the assumed focal position LF,
C2 = (1 / fL−1 / LF) −1
Can be represented by
[0079]
Now, from the above relationship, the function f for determining the threshold from the defocus is
f (d) = C1 (1 / fL−1 / (d + C2) −1)
Can be represented by
[0080]
If this function is used as a threshold value, it is possible to obtain the same effect as determining whether or not an object at any distance is the same object based on a certain angle. Can be finely divided, and a distant object can be roughly divided.
[0081]
Further, in the "assumed focal position" LF, the initial position may be set in a camera such as a lens shutter camera in which the initial focal position is fixed, and the focal position may fluctuate, such as in a single-lens reflex camera. In this case, it is preferable to set the shooting distance (for example, about 2 m) which is considered to be used most frequently. In addition, in a camera having interchangeable lenses, values such as C1 and C2 are appropriately set according to the focal length of the lens, so that appropriate recognition can be performed regardless of what lens is attached.
[0082]
Also, in the case of a zoom lens or the like, appropriate recognition can be performed at any focal length by detecting the current focal length and appropriately setting C1 and C2.
[0083]
The above is a method of accurately eliminating the influence of distance.However, it is not necessary to completely eliminate the influence, and in cases such as when it is preferable to reduce the amount of calculation, the threshold value is reduced with an increase in defocus. It is conceivable to define a monotonically decreasing function as f as For example, f (d) = C3 / d (C3 is an appropriate constant). By introducing such a function, it is possible to improve the recognition result compared to the related art despite the relatively small amount of calculation. It is.
[0084]
Returning to the description of FIG.
[0085]
It is checked whether the absolute value of the difference between the defocus amounts is larger than a threshold value (S404).
If the difference is equal to or smaller than the threshold value, the flag variable Flag indicating whether the two blocks are the same is set to 1 (S405). If the difference is larger than the threshold value, the flag is set to 0 and the process ends (S406). ). Flag = 1 indicates that the two objects are the same, and Flag = 0 indicates that the two objects are distinct.
[0086]
The above determination is made for all the adjacencies of all the blocks, and the area division is completed.
[0087]
TS is set by the above expression f (d) = C1 (1 / fL−1 / (d + C2)) − 1 or f (d) = C3 / d.
[0088]
In the above expression, d may be d2 or an average value of d1 and d2.
[0089]
Returning to the description of FIG.
[0090]
After the area division, the characteristics of each area (each group) constituting the photographing space are evaluated, and a group representing the main subject is determined from all the groups (S204).
[0091]
As a method of determining the group representing the main subject, for each of the groups, characteristics such as average defocus, an area width, a height, and a position on a screen are respectively calculated and comprehensively evaluated. To determine a region considered to be the main subject.
[0092]
For example, the following main subject degree evaluation function can be considered.
(Main subject degree) = W1 × (width) × (height) + W2 / (distance from screen center) −W3 × (average defocus)
In the above equation, W1, W2, and W3 are weighting constants, the distance from the screen center is the distance between the screen center and the center of gravity of the area, and the average defocus is the average of the defocus of all blocks in the area. Represents. The main subject degree is calculated for all areas, and the subject having the highest main subject degree is determined as the main subject.
[0093]
As described above, one defocus is determined based on the defocus information in the area representing the main subject. As a method of determining the defocus, an average of all the blocks included in the area, a defocus of the closest block in the area, and the like can be considered.
[0094]
In the present embodiment, the image size information of the photographing lens 2 is determined. However, for example, when a lens having a small image size is attached, photographing by adapting the camera to the image size means that the photographing screen In this case, the diameter of the permissible circle of confusion, which generally defines the focusing state on the photographing screen, changes according to the screen size (diagonal length). The diameter also becomes smaller.
[0095]
At this time, even if the same object is used, the recognition result differs depending on the screen size, and in order to prevent the problem that the subject originally intended by the photographer is not correctly determined as the subject, the above-described main control in controlling the focus adjustment operation is performed. It becomes necessary to change the threshold value in the subject area estimation method according to the permissible circle of confusion.
[0096]
Hereinafter, the setting of the threshold based on the image size will be described.
[0097]
As described above, there are three types of image sizes (large, medium, and small) used in this embodiment, as described above.
[0098]
Reference numeral 50 denotes an image size “large”, and reference numeral 9a denotes an area of the imaging element 9 at that time. The diagonal length of this image sensor 9 is denoted by A. Reference numeral 51 denotes an image size "medium" which is 2/3 of the 50 image size. Reference numeral 9b denotes an area of the image sensor 9 having the image size 51, and the diagonal length is B. Reference numeral 52 denotes an image size "small", which is 1/3 of the image size. Reference numeral 9c denotes an area of the image sensor 9 having the image size 52, and the diagonal length is C.
[0099]
At this time, the following relationship is established between the three types of image sizes.
A: B: C = A: A × 2/3: A × 1/3
Therefore, by applying the above threshold value to the above-described relationship according to the image size, an appropriate threshold value is obtained.
[0100]
Returning to the main text, the CPU 100 controls the focus detection circuit 109 and the lens driving motor 25 so that the main subject determined in the subroutine is focused, and performs focus detection by the line sensor 11f based on the defocus information (S114). .
Next, it is determined whether or not the distance measurement of the determined main subject is possible (S115). If the distance measurement is not possible, the CPU 100 sends a signal to the LCD drive circuit 105 to display a warning on the LCD 21 in the finder (not shown). FIG.), The photographer is warned that the distance measurement is NG (S116), and this operation is continued until SW1 is turned off (S117).
[0101]
If the distance can be measured in the determined focus detection area and the position of the taking lens 3 is not in the focused position (S118), the CPU 100 sends a signal to the lens focus adjusting circuit 109 to drive the taking lens 3 by a predetermined amount (S118). S119). After driving the lens, the auto focus circuit 103 measures the distance again (S115), and determines whether or not the photographing lens 3 is at the in-focus position (S118).
[0102]
If the position of the photographing lens 3 is at the in-focus position in the predetermined focus detection area, the CPU 100 sends a signal to the LCD drive circuit 105 to perform in-focus display on the LCD 21 in the finder (not shown). It is notified that there is (S120).
[0103]
The photographer recognizes that the selected or selected focus detection area is incorrect (want to change) and turns off SW1 (S121), and then the camera waits until SW1 is turned on (S102). If the photographer continues to turn on SW1 (S121), the CPU 100 transmits a signal to the photometric circuit 102 to perform photometry (S122).
[0104]
At this time, in the case of the present embodiment, a known photometric calculation is performed by weighting a photometric region (not shown) including the focused focus detection region, and the exposure value is calculated. Further, it is determined whether or not SW2 is ON (S123). If SW2 is OFF, the state of SW1 is confirmed again (S121). As a result, if the switch SW2 is turned on, the CPU 100 controls the shutter control circuit 107, the motor control circuit 108, and the aperture control circuit 110, respectively, and starts capturing an image into the image sensor 9 (S124). After a predetermined exposure time has elapsed, the image signals stored in the image sensor 9 are temporarily stored in the memory 101b via the signal processing circuit 101c.
[0105]
Next, from the image data, the CPU 100 cuts out the image data within the imaging range set based on the image size information (S125), stores the data in the CPU 100, and ends a series of shutter release sequence operations. (S126).
[0106]
Thereafter, the camera waits until SW1 is turned on again (S102).
[0107]
In the present embodiment, the threshold for estimating the area where the main subject is present is changed based on the image size information. However, there is no problem if the threshold is changed based on the information based on the enlargement ratio of the electronic zoom.
[0108]
【The invention's effect】
According to an embodiment of the present invention, in an electronic camera capable of mounting interchangeable lenses having different image sizes, an electronic zoom that enlarges an image corresponding to a predetermined range of an image captured by an image pickup device has an image size of the interchangeable lens. In a camera that adapts the camera body, to obtain the image size information from the photographing lens to inform the photographer of the effective image size range and to estimate the existence area of the main subject in the scene according to each image size By properly setting the threshold of, it is possible to solve the problem that the recognition result differs depending on each image size (screen size) even for the same object, and to accurately determine a subject originally intended by the photographer. A camera that can be provided can be provided.
[Brief description of the drawings]
FIG. 1 is a main part configuration diagram of a digital single-lens reflex camera system according to the present invention.
FIG. 2 is a block diagram showing an electrical configuration of FIG.
FIG. 3 is an explanatory diagram of an image size.
FIG. 4 is a view for explaining the inside of a finder visual field of FIG. 1;
FIG. 5 is a flowchart for explaining the operation of the entire camera of FIG. 1;
FIG. 6 is a flowchart illustrating an operation of automatic focus detection area selection for recognizing an environment and determining a main subject.
FIG. 7 is a flowchart showing details of the map creation step of FIG. 6;
FIG. 8 is an explanatory diagram of a region dividing method.
FIG. 9 is a diagram showing an example of a labeling result.
FIG. 10 is a flowchart illustrating an operation of boundary determination.
FIG. 11 is a diagram for explaining an ideal threshold value.
[Explanation of symbols]
1: Camera body
2: Shooting lens
9: Image sensor
11: Focus detection device
11f: Area sensor
13: Field mask
50, 51, 52: Image size
100: CPU
101: Digital circuit
103: focus detection circuit
111: In-lens control circuit

Claims (1)

カメラ側マウントを有するカメラ本体と、該カメラ側マウントと結合するレンズ側マウントを有する交換レンズとから成り、
焦点検出手段と前記焦点検出手段の結果に基づいてレンズの焦点調節動作を制御する合焦制御手段と、
対象空間の距離またはデフォーカス分布に関する情報に基づき、二つの分布点の距離またはデフォーカスに関する情報の差または比と閾値との比較を行い、比較結果に応じて該二つの分布点に対応する領域が同一対象物であるか否かを判定する被写体認識手段と、
前記交換レンズのイメージサイズを表わす情報を前記カメラ本体に入力する入力手段と、前記入力手段によって入力された前記情報に基づき、前記交換レンズのイメージサイズが前記カメラ本体に適合するか否かを判定する判定手段と、前記判定手段によって不適合と判定されると、前記交換レンズによって形成される撮像素子上の像を表わす画像信号に対して電子回路で信号処理を行なうことによって前記撮影素子上の像の所定の範囲に対応する像を拡大する電子ズームにより、前記交換レンズのイメージサイズに前記カメラ本体を適合させる適合手段と、
少なくともイメージサイズの異なるレンズに交換し、前記適合手段により電子ズームが行われたときには、前記イメージサイズを表す情報または前記電子ズームの拡大率に基づいて前記閾値を変更する閾値変更手段を有する電子カメラ。
A camera body having a camera-side mount, and an interchangeable lens having a lens-side mount coupled to the camera-side mount;
Focus control means for controlling a focus adjustment operation of the lens based on a result of the focus detection means and the focus detection means,
Based on the information on the distance or defocus distribution of the target space, the difference or ratio of the information or the distance or defocus of the two distribution points is compared with a threshold, and the area corresponding to the two distribution points is determined according to the comparison result. Subject recognition means for determining whether are the same object,
Input means for inputting information representing the image size of the interchangeable lens to the camera body; and determining whether or not the image size of the interchangeable lens fits the camera body based on the information input by the input means. And an electronic circuit performing signal processing on an image signal representing an image on the image sensor formed by the interchangeable lens when the image is determined to be incompatible by the determiner. Adapting means for adapting the camera body to the image size of the interchangeable lens by electronic zoom for enlarging an image corresponding to a predetermined range of
An electronic camera having a threshold changing unit that changes the threshold based on information representing the image size or an enlargement ratio of the electronic zoom when at least the lens is replaced with a lens having a different image size and the electronic zoom is performed by the adapting unit. .
JP2002342394A 2002-11-26 2002-11-26 Electronic camera with automatic focus adjustment function Pending JP2004179868A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002342394A JP2004179868A (en) 2002-11-26 2002-11-26 Electronic camera with automatic focus adjustment function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002342394A JP2004179868A (en) 2002-11-26 2002-11-26 Electronic camera with automatic focus adjustment function

Publications (1)

Publication Number Publication Date
JP2004179868A true JP2004179868A (en) 2004-06-24

Family

ID=32704481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002342394A Pending JP2004179868A (en) 2002-11-26 2002-11-26 Electronic camera with automatic focus adjustment function

Country Status (1)

Country Link
JP (1) JP2004179868A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007220009A (en) * 2006-02-20 2007-08-30 Seiko Epson Corp Image determination device and image determination method
EP2455806A1 (en) * 2010-11-19 2012-05-23 Canon Kabushiki Kaisha Single-lens reflex camera with focus detection unit
JP2014003404A (en) * 2012-06-15 2014-01-09 Canon Inc Image recording apparatus and image reproducing apparatus
CN110799423A (en) * 2018-04-12 2020-02-14 深圳市大疆创新科技有限公司 Control device, control method, and program
JP2020043574A (en) * 2014-12-03 2020-03-19 株式会社ニコン Electronic apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007220009A (en) * 2006-02-20 2007-08-30 Seiko Epson Corp Image determination device and image determination method
JP4513764B2 (en) * 2006-02-20 2010-07-28 セイコーエプソン株式会社 Image determination apparatus and image determination method
EP2455806A1 (en) * 2010-11-19 2012-05-23 Canon Kabushiki Kaisha Single-lens reflex camera with focus detection unit
US8439579B2 (en) 2010-11-19 2013-05-14 Canon Kabushiki Kaisha Single-lens reflex camera using phase difference detection method
JP2014003404A (en) * 2012-06-15 2014-01-09 Canon Inc Image recording apparatus and image reproducing apparatus
US9451148B2 (en) 2012-06-15 2016-09-20 Canon Kabushiki Kaisha Image recording apparatus and image reproducing apparatus
US10021309B2 (en) 2012-06-15 2018-07-10 Canon Kabushiki Kaisha Image recording apparatus and image reproducing apparatus
JP2020043574A (en) * 2014-12-03 2020-03-19 株式会社ニコン Electronic apparatus
US11297221B2 (en) 2014-12-03 2022-04-05 Nikon Corporation Image-capturing apparatus, electronic device, and program
CN110799423A (en) * 2018-04-12 2020-02-14 深圳市大疆创新科技有限公司 Control device, control method, and program

Similar Documents

Publication Publication Date Title
JPH10161013A (en) Environment recognition device and camera provided therewith
JP2008199486A (en) Single lens reflex type electronic imaging device
JP4804210B2 (en) Imaging apparatus and control method thereof
US6463214B1 (en) Multi-point autofocus system
JP2009115921A (en) Imaging apparatus
JP2009103912A (en) Image pickup apparatus
JPH11190816A (en) Optical device and focusing point selecting method
US9781330B2 (en) Focus detection apparatus and control method for focus detection apparatus
JP2003029135A (en) Camera, camera system and photographic lens device
JP5963552B2 (en) Imaging device
JP4630649B2 (en) camera
US8004598B2 (en) Focus adjustment apparatus and image capturing apparatus
JP4732065B2 (en) Autofocus control device
JP2011107501A (en) Focusing device and imaging apparatus
JP2004179868A (en) Electronic camera with automatic focus adjustment function
JP2008203428A (en) Imaging apparatus
JP6032967B2 (en) IMAGING DEVICE, LENS DEVICE, AND IMAGING DEVICE CONTROL METHOD
JP5871196B2 (en) Focus adjustment device and imaging device
JP4512173B2 (en) Ranging device
JP2010282107A (en) Imaging apparatus and control method therefor
JP2008170748A (en) Imaging apparatus and its control method
JP2005345501A (en) Electronic camera
JP2007240566A (en) Focus detecting device, optical apparatus and camera
JP2016142776A (en) Imaging device
JP2004212892A (en) Photographing device