JP2004341112A - Imaging unit - Google Patents

Imaging unit Download PDF

Info

Publication number
JP2004341112A
JP2004341112A JP2003135851A JP2003135851A JP2004341112A JP 2004341112 A JP2004341112 A JP 2004341112A JP 2003135851 A JP2003135851 A JP 2003135851A JP 2003135851 A JP2003135851 A JP 2003135851A JP 2004341112 A JP2004341112 A JP 2004341112A
Authority
JP
Japan
Prior art keywords
imaging
display
gazing point
unit
photographer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003135851A
Other languages
Japanese (ja)
Other versions
JP4038817B2 (en
Inventor
Mitsuteru Matsunaga
光輝 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003135851A priority Critical patent/JP4038817B2/en
Publication of JP2004341112A publication Critical patent/JP2004341112A/en
Application granted granted Critical
Publication of JP4038817B2 publication Critical patent/JP4038817B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging unit equipped with a 1st imaging means for imaging an object and a 2nd imaging means for imaging photographer's eyes looking at a large screen, and constituted so that an imaging function such as a focusing function can be set by detecting the pupils of the eyes imaged by the 2nd imaging means, detecting a gazing point, and then, specifying the display area of the large screen indicated by the gazing point. <P>SOLUTION: The imaging unit is provided with a 1st imaging means for imaging the object, a 2nd imaging means for imaging the photographer's eyes viewing a display part where the image picked up by the 1st imaging means is displayed, and a gazing point detecting means for detecting the gazing point by the photographer on the basis of information on the photographer's eyes imaged by the 2nd imaging means, and then, the imaging function of the object is set on the basis of the information on the gazing point obtained by the gazing point detecting means. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、撮像装置に関するものであり、詳しくは、被写体を撮影すると同時に、撮影者の目の部分を撮影し、その撮影した瞳孔の動きを観察して、被写体のフォーカス等を行うようにした撮像装置に関する。
【0002】
【従来の技術】
従来技術における撮像装置、例えば、デジタルスチルカメラやビデオカメラでは、撮影や再生といった機能項目に対してユーザが設定を変更したり、実施したりする際、釦やスイッチといったものが必ず外装に取付けられ、それを入力デバイスとして操作させてきた。
しかし、近年デジタルスチルカメラやビデオカメラは小型化になってきており、その結果、釦やスイッチというものが極力排除される方向に進んでいる。
なくなった釦やスイッチの代用として、現在押圧式の表示装置の利用から、人間の視線や音声を利用して操作を補助する方法が採られてきている。
特に、視線を利用する方法は、釦やスイッチを殆ど使用することなく操作できる。又、音声を使用した撮影においては、被写体を自然な動きで追いながら、操作することができる。
又、現在の視線の入力では、一般的に使用者や電子ビューファインダーを覗き込み、覗き込んだ状態に対して、LEDを照射し、その反射から瞳孔の位置を検出して位置を特定するものである。
【0003】
【特許文献1】
特開平04−96580号公報 (第2頁 第1図)
【0004】
【発明が解決しようとする課題】
しかしながら、従来技術で説明した電子ビューファインダ−を覗き込んで、LEDを照射することで瞳孔の位置を検出して位置を特定するという手法では、ユーザは常に電子ビューファインダーを覗き込む行為が必要であり、近年のデジタルスチルカメラやビデオカメラで多い大画面の表示装置の利用ができなかったり、又、装置として電子ビューファインダーを必要とするため、小型化するうえで障害になっているという問題がある。
従って、小型化する撮像装置、例えば、デジタルスチルカメラやビデオカメラにおいて、ユーザが所望する撮像機能の設定を瞳孔の動きで特定する手法に解決しなければならない課題を有する。
【0005】
【課題を解決するための手段】
上記課題を達成するために、本発明に係る撮像装置は、次に示す構成にすることである。
【0006】
(1)撮像装置は、被写体を撮像する第1の撮像手段と、前記第1の撮像手段で撮像する画像が表示される表示器と、前記表示器をみている撮影者の目を撮像する第2の撮像手段と、前記第2の撮像手段で撮像した目の情報から撮影者の目の注視点を検出する注視点検出手段と、を備え、前記注視点検出手段で検出された注視点の位置情報に基づいて、被写体の撮像機能を設定するようにしたことである。
(2)前記注視点の位置情報は、前記表示器の指定された位置をみて算出された注視点を表示器の表示領域に位置合わせるキャリブレーションによる情報であることを特徴とする(1)に記載の撮像装置。
(3)前記撮影者の注視点の位置情報は、前記表示器に表示するようにしたことを特徴とする(1)に記載の撮像装置。
(4)前記注視点検出手段で検出された注視点の位置情報に基づく被写体の撮像機能の設定は、前記表示器で注視された表示領域に対してフォーカスを追従させることである(1)に記載の撮像装置。
(5)前記表示器を撮影者がみていないときは、前記撮像機能の設定を停止させるようにしたことを特徴とする(1)に記載の撮像装置。
(6)前記撮像機能の設定の停止は、前記第2の撮像手段の電源供給を停止又は省電力モードにすることである(5)に記載の撮像装置。
【0007】
(7)撮像装置は、被写体を撮像する第1の撮像手段と、前記第1の撮像手段で撮像する画像が表示される表示器と、前記表示器に各種操作モードを所定のキャラクターで表示させる操作モード表示手段と、前記表示器をみている撮影者の目を撮像する第2の撮像手段と、前記第2の撮像手段により撮像した目の情報から撮影者の目の注視点を検出する注視点検出手段と、を備え、前記注視点検出手段で検出された注視点の位置情報に基づいて、何れかの前記キャラクターを注視していることが検出されたとき、対応した操作モードにするようにしたことである。
(8)前記注視点の位置情報は、前記表示器の指定された位置をみて算出された注視点を表示器の表示領域に位置合わせるキャリブレーションによる情報であることを特徴とする(7)に記載の撮像装置。
(9)前記撮影者の注視点の位置情報は、前記表示器に表示するようにしたことを特徴とする(7)に記載の撮像装置。
(10)前記注視点検出手段で検出された注視点の位置情報が、表示器に表示されている画像の領域であるときに、該表示器で注視された表示領域に対してフォーカスを追従させるようにしたことを特徴とする(7)に記載の撮像装置。
(11)前記表示器を撮影者がみていないときは、前記第2の撮像手段の機能を停止させるようにしたことを特徴とする(7)に記載の撮像装置。
(12)前記第2の撮像手段の機能を停止させることは、前記第2の撮像手段の電源供給を停止又は省電力モードにすることである(11)に記載の撮像装置。
【0008】
このように、被写体を撮像するときに撮影者の目を撮像して注視点を観察することで、被写体のフォーカス等を撮影者の目の動きによって自動的に調整することができる。
【0009】
【発明の実施の形態】
次に、本願発明に係る撮像装置の実施形態について図面を参照して説明する。
【0010】
本願発明に係る撮像装置は、図1に示すように、被写体を取り込む第1のレンズ部11、第1のシャッタ12、第1のアイリス13を介して撮像素子に結像させるための第1のCCD部14と、結像された画像を電気信号に変換し、デジタル信号に変換する第1のフロントエンド部15と、画像信号の信号処理を行うDSPを備えた信号処理部17と、CPUを備えた中央制御装置18と、RAM部19と、ROM部20と、OSD表示を制御するディスプレイコントロール部21と、液晶画面である表示器に相当するLCD22と、メモリーカード23を制御するメモリーインターフェイス部24と、中央制御装置18により制御され第1のCCD部14で取り込む映像のクロックを生成するタイミングジェネレータ25と、中央制御装置18により制御され第1のCCD部14で取り込む映像の同期を取る垂直ドライバー26と、中央制御装置18により制御され、第1のレンズ部11と、第1のアイリス13を制御するレンズ/アイリスドライバー27と、電源制御部28と、温度センサー29と、釦及びスイッチからなる外部操作部30と、第1のネットワークインターフェイス部31と、第2のネットワークインターフェイス部32と、を備え、加えて更に、撮影者の顔面を撮像する第2のレンズ部33、第2のシャッタ34、第2のアイリス35を介して撮像素子に結像させるための第2のCCD部36と、第2のCCD部36に結像された画像をデジタル信号に変換する第2のフロントエンド部37と、からなり、第2のフロントエンド部37で変換された信号は信号処理部17に送られ、被写体に対する瞳孔の位置を検出して目の注視点を検出する処理が行われる。
【0011】
このうち、第1のレンズ部11、第1のシャッタ12、第1のフォーカス/アイリス13を介して撮像素子に結像させるための第1のCCD部14、第1のフロントエンド部15が第1の撮像手段16を形成し、撮影者の顔面を撮像する第2のレンズ部33、第2のシャッタ34、第2のアイリス35を介して撮像素子に結像させるための第2のCCD部36と、第2のCCD部36に結像された画像をデジタル信号に変換する第2のフロントエンド部37が第2の撮像手段38を形成する。
そして、中央制御装置18、RAM部19、ROM部20、ディスプレイコントロール部21、メモリーインターフェイス部24、信号処理部17、第1のネットワークインターフェイス部31、第2のネットワークインターフェイス部32がバスライン39に接続され、中央制御装置18により制御される構成になっている。
【0012】
信号処理部17は、第1の撮像手段16で得られた映像信号から輝度を検出すると共に第2の撮像手段38で撮像した目の情報から撮影者の目の注視点を検出する注視点検出手段を備え、SDRAMコントローラ40を介してSDRAMメモリ41に輝度の情報及び注視点の情報を蓄積する。
【0013】
中央制御装置18は、上記の信号処理部17で得られた注視点の情報やキャリブレーションされた情報等から第1のフォーカス/アイリス13を制御してフォーカスを追従させるように制御したり、その他、LCD22に各種操作モードを所定のキャラクターで表示させる操作モード表示手段を備え、信号処理部17の注視点検出手段で検出された注視点の位置情報に基づいて、何れかのキャラクターを注視していることが検出されたとき、対応した操作モードにするように制御する。
【0014】
このような構成からなる撮像装置における動作について、以下、説明する。
先ず、実際に撮影者の注視点を検出する手法について、図10に示すフローチャートを参照して、以下説明する。
先ず、ユーザが外部操作部30の本スイッチをオンにする(ステップST11)。その結果を中央制御装置18が受理すると、第2のCCD部36と第2のフロントエンド部37に対して電源制御部28を制御して、電源を供給し、結像を開始する(ステップST12)。
【0015】
被写体を向いた第1のCCD部14より第1のフロントエンド部15でデジタル信号とされた画像情報を信号処理部17に入力し、輝度を算出する(ステップST13)。
【0016】
それと同時に、撮影者に向いた第2のCCD部36は、撮影者の画像、特に顔面の画像を結像し、そのアナログデータを第2のCCD部36に直結した第2のフロントエンド部37で、デジタル信号にし、その情報を信号処理部17に送る(ステップST14)。
信号処理部17では、第2のフロントエンド部37より入力されたデジタル信号をSDRAMコントローラ40を介してSDRAMメモリ41に貼付け格納する(ステップST15)。
【0017】
中央制御装置18では、図2に示すように、SDRAMメモリ41に格納された顔面の情報から先鋭度と肌色領域検出を行い、顔を特定し、その後、白情報のある領域を検出する(ステップST15)。
そして、図3に示すように、検出された白情報の領域からその縦横の範囲を決定し、その範囲の最大最小点から伸ばした直線上で縦横が重なる部分の領域ZをSDRAMメモリ41上の本画像から抜き出し、別のメモリエリアに格納する(ステップST16、ST17、ST18)。
【0018】
格納された領域から実際の瞳孔の大きさを検出する方法は、色差からと二値化からがあるが、今回は二値化の方法で説明する。
人間の目の領域は、白、虹彩、瞳孔で濃淡が異なる。中央制御装置18では、図4に示すように、この濃淡を正確に検知するため、格納された領域に対して、ステップ毎に二値化の閾値を変化させる(ステップST19)。
【0019】
閾値を変化させ、二値化を行った後、先鋭度を検出して、格納された領域内における最小の円周の先鋭度を算出し、その幅、最大の円周の先鋭度の白の部分A11、A12、その次の虹彩の部分の円周の幅A21、A22、瞳孔の外周の幅A31、A32を決定する(ステップST20)。
上記の閾値では、A11〜A32までの情報が特定できない場合は、再度閾値をインクリメントかデクリメントし、再度、同様の処理を行う(ステップST21)。
【0020】
また、瞳孔の外周の幅A31、A32の座標情報より、(A31+A32)/2で、実際の瞳孔の注視点である中心点座標P1が求められる(ステップST22)。
【0021】
次に、中心点座標P1については、後述するキャリブレーションの結果を使用して位置補正が行われる(ステップST23)。
【0022】
そして、この補正された中心点座標P1が前の状態から極端に移動や閾値を超えていない場合には、中心点座標P1の結果から位置キャラクター表示を生成し、ディスプレイコントロール部21を経由して表示器であるLCD22に表示する(ステップST24、ST25)。
【0023】
キャリブレーションは、目の注視点とLCD22の表示領域との関係を関連付けするもので、キャリブレーション時は、図6及び図7に示すように、中心に指標(Po(127、127))とLCD22の四隅に対してキャラクタ(Py(0、255)、Px(255、0))を表示し、撮影者はそれを注目してもらうことで、画面中心時の瞳孔中心基準座標(Po(0、0))と四隅の座標が求められる。このキャリブレーションについては後述する。
【0024】
そして、中心点を(0.0)として、各四隅はそこからの規定のオフセット値として算出する。その結果は、中央制御装置18内に保持する。記録情報は、EEPROMといったメモリに保存することも可能である。
【0025】
次に、撮影者の瞳孔の位置が変化した場合は、図5に示すように、上述の図4で示した処理と同じく、人間の目の領域は、白、虹彩、瞳孔で濃淡が異なる。中央制御装置18では、この濃淡を正確に検知するため、格納された領域に対して、ステップ毎に二値化の閾値を変化させる。閾値を変化させ、二値化を行った後、先鋭度を検出して、格納された領域内における最小の円周の先鋭度を算出し、その幅、最大の円周の先鋭度の白の部分A11、A12、その次の虹彩の部分の円周の幅A21、A22、瞳孔の外周の幅A31、A32を決定することで、移動した瞳孔の中心点座標P2が求められる。中心点座標P2を検出時、抜き出した指定領域が、極端にずれている場合は、直前の抜き出し領域をZ(図3参照)と比較し、位置補正をかけた後で最終的な中心点座標P2とする。
【0026】
中心点は、図7に示すように、キャリブレーションした中心位置との比率で、画面内の移動位置を決定する。ここで、中心点座標P2の情報がキャリブレーションした、四隅のオフセット値を超えていた場合、LCD22上の位置キャラクター表示は、直前の位置のままとする。
範囲内であれば、図8に示すように、中央制御装置では中心点座標P2の位置にキャラクター表示(P1(10、−20))を生成し、ディスプレイコントロール部21を経由して、LCD22に表示する。
もし、その座標位置が、機能をオンするキャラクター表示の領域内であれば、中央制御装置18では、カウントを開始する。中央制御装置18では、カウントをデクリメントし、零になった時点でもその領域内に注視点がある場合は、領域内の機能をオンとして、設定などを変更させる。
【0027】
この方法を利用して、一定の領域に対してフォーカスを合わせることが可能なのは自明である。即ち、LCD22に撮像画像が表示されているときに、注視点で決定された特定領域のフォーカシングをする。このようにすることで、例えば、被写体の遠望の位置を注視点にすると、その遠望の領域にピント合わせがされる。
この点については後述する。
又、ユーザがLCD22をオフにした場合は、それを中央制御装置18で判断し、撮影者を撮像する第2のCCD部36と第2のフロントエンド部37の電源供給を停止或いは省電力モードに移行させる。
【0028】
ユーザ操作により、LCD22が再びオンになったことを、中央制御装置18が検知した場合、第2のCCD部36と第2のフロントエンド部37の電源供給を元に戻し、再びスイッチがオンであれば、上記処理を再開する。
【0029】
次に、キャリブレーションについて、図11に示すフローチャートを参照して説明する。
先ず、注視点入力のスイッチがオンされると、LCD22にキャリブレーションキャラクターが表示される(ステップST31、ST32)。
次に、上記図10のフローチャートで説明した注視点の処理が開始され、カウンターのデクリメントが開始され、設定位置はキャラクターの状態を変化させることでユーザに知らせる(ステップST33、ST34)。
【0030】
そして、カウンターが零でないときには一定間隔でカウンターのデクリメントを行い、カウンターが零になるまで行う(ステップST35、ST36)。
【0031】
カウンターが零になると、次に注視点の処理結果を指定位置と対応させて登録する(ステップST37)。
【0032】
次のキャリブレーション位置がある場合には、カウンターをプリセットし、上記ステップST34〜ST37の注視点処理結果を指定位置と対応させて登録する(ステップST38、ST39)。
【0033】
次に、キャリブレーション位置がない場合には、完了表示した後に、通常表示に戻る(ステップST40)。
【0034】
このようにしてキャリブレーションを行うわけであるが、それは、例えば、図9に示すように、センターの位置がLCDでは(127、127)であるのに対してユーザの位置は(30、30)、レフトトップの位置がLCDでは(0、255)であるのに対してユーザの位置は(20、40)、ライトトップの位置がLCDでは(255、255)であるのに対して、ユーザの位置は(40、40)、レフトボトムの位置がLCDでは(0、0)であるのに対して、ユーザの位置は(20、20)、ライトボトムの位置がLCDでは(0、255)であるのに対して、ユーザの位置は(40、20)であるように対応付けできるのである。
【0035】
次に、上記注視点を得ることで、撮像画像のフォーカスを行うことについて、図12に示すフローチャートを参照して説明する。
先ず、注視点入力するためのスイッチをオンにし、カウンターをリセットして注視点の処理を開始する(ステップST41、ST42)。
【0036】
そして、指定領域に注視点がきているかどうかを確認する(ステップST43)。
【0037】
指定領域に注視点が存在しているときには、カウンターのデクリメントを開始する(ステップST44)。
【0038】
カウンターが零でないときには、一定間隔でカウンターをデクリメントする(ステップST45、ST46)。
【0039】
カウンターが零であるときに、いまだ注視点が指定領域に存在しているかを調べる(ステップST47)。
【0040】
指定領域に注視点が存在しているときには、指定領域に割り当てられている処理、即ち、指定領域のフォーカスを行う処理を実行する(ステップST48)。
【0041】
以上のように、本発明の撮像装置では、被写体を撮像する第1の撮像手段16とは別に、撮影者の顔面、特に目が映る程度の第2の撮像手段38を持ち、そこより光電変換された信号から、撮影者の顔情報より瞳孔の位置を検出し、その結果より目の注視点を算出し、注視点をLCD22に表示させることにより、ユーザに対してボタンを使用しないが、簡単に操作が可能な入力方法を提供できるのである。
又、目の位置とLCD22の表示領域との関連性を持たせる、所謂、キャリブレーションを行うことで、ユーザの目の移動範囲に対しても汎用性を持たせられる。
又、上記入力方法でLCD22上のキャラクタを見ることにより、設定等が変更できるので、ボタンやスイッチが削減でき、更なる小型化が可能になる。
また、従来のような電子ビューファインダーを覗き込む必要性がなくなるため、小型化と汎用的な視線入力デバイスを提供することができる。
【0042】
【発明の効果】
以上説明したように、本願発明の撮像装置は、被写体を撮像する第1の撮像手段の他に撮影者の顔面、特に目を撮像する第2の撮像手段を備え、この第2の撮像手段で撮像した目の瞳孔の位置である注視点からLCDに表示されている撮像画像の撮像機能の設定をするようにしたことで、撮影者の目により様々な撮影の条件を設定変更することができるようになり、釦やスイッチといった操作部材を省くことができ、装置自体のコンパクト化及び小型化を図ることができるという効果がある。
【図面の簡単な説明】
【図1】本発明に係る撮像装置にブロック図である。
【図2】同、第2の撮像手段で撮像した撮影者の顔の部分を表示部の撮像画面上に表示した説明図である。
【図3】同、目の白の部分、虹彩、瞳孔の部分を抽出した様子を示した説明図である。
【図4】同、目の瞳孔が移動した様子を示した説明図である。
【図5】同、表示部のLCDの領域と目の動き具合の関連性を示すキャリブレーションの様子を示した説明図である。
【図6】同、LCDの表示領域と目との関連性を示した説明図である。
【図7】同、LCDの表示領域と目との関連性を示した説明図である。
【図8】同、キャリブレーションしたLCDの位置と目の位置との関係を示した表である。
【図9】同、キャリブレーションのデータのイメージを示した表である。
【図10】同、注視点入力のためのフローチャートである。
【図11】同、注視点入力におけるキャリブレーションのフローチャートである。
【図12】同、注視点入力におけるフオーカス処理のフローチャートである。
【符号の説明】
11;第1のレンズ部、12;第1のシャッタ、13;第1のアイリス、14;第1のCCD部、15;第1のフロントエンド部、16;第1の撮像手段、17;信号処理部、18;中央制御装置、19;RAM部、20;ROM部、21;ディスプレイコントロール部、22;LCD、23;メモリーカード、24;メモリーインターフェイス部、25;タイミングジェネレータ、26;垂直ドライバ、27;レンズ/アイリスドライバ、28;電源制御部、29;温度センサー、30;外部操作部、31;第1のネットワークインターフェイス部、32;第2のネットワークインターフェイス部、33;第2のレンズ部、34;第第2のシャッタ、35;第2のアイリス、36;第2のCCD部、37;第2のフロントエンド部、38;第2の撮像手段、39;バスライン、40;SDRAMコントローラ、41;SDRAMメモリ。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device, and more specifically, simultaneously shoots a subject, shoots an eye portion of a photographer, observes the movement of the shot pupil, and focuses the subject. The present invention relates to an imaging device.
[0002]
[Prior art]
In an imaging device in the related art, for example, a digital still camera or a video camera, when a user changes a setting or implements a function item such as shooting or playback, a button or a switch is always attached to an exterior. , And operated it as an input device.
However, in recent years, digital still cameras and video cameras have been reduced in size, and as a result, buttons and switches have been removed as much as possible.
As a substitute for the missing buttons and switches, a method of assisting the operation by using a human line of sight or voice has been adopted from the use of a currently-displayed display device.
In particular, the method using the line of sight can be operated with little use of buttons and switches. Further, in the photographing using sound, the operation can be performed while following the subject with natural movement.
In addition, the current gaze input generally looks into a user or an electronic viewfinder, irradiates an LED to the looking state, and detects the position of the pupil from its reflection to specify the position. It is.
[0003]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 04-96580 (Page 2 FIG. 1)
[0004]
[Problems to be solved by the invention]
However, in the technique of detecting the position of the pupil by illuminating the LED by looking into the electronic viewfinder described in the related art and specifying the position, the user always needs to act to look into the electronic viewfinder. There is a problem that a large-screen display device, which is often used in digital still cameras and video cameras in recent years, cannot be used, and an electronic viewfinder is required as a device, which is an obstacle to miniaturization. is there.
Therefore, there is a problem that an imaging apparatus to be miniaturized, for example, a digital still camera or a video camera, has to be solved by a method of specifying a setting of an imaging function desired by a user by movement of a pupil.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, an imaging device according to the present invention has the following configuration.
[0006]
(1) An imaging apparatus includes: a first imaging unit that captures an image of a subject; a display that displays an image captured by the first imaging unit; and a second imaging unit that captures an eye of a photographer looking at the display. And a fixation point detecting means for detecting a fixation point of the photographer's eye from information on the eyes picked up by the second image pickup means, wherein the fixation point detected by the fixation point detection means is provided. That is, an imaging function of a subject is set based on position information.
(2) The position information of the gazing point is information by calibration that positions the gazing point calculated by looking at the designated position of the display on the display area of the display. An imaging device according to any one of the preceding claims.
(3) The imaging apparatus according to (1), wherein the position information of the point of gaze of the photographer is displayed on the display.
(4) The setting of the imaging function of the subject based on the position information of the gazing point detected by the gazing point detection means is to make the focus follow the display area gazed by the display. An imaging device according to any one of the preceding claims.
(5) The imaging device according to (1), wherein the setting of the imaging function is stopped when a photographer does not look at the display.
(6) The imaging apparatus according to (5), wherein stopping the setting of the imaging function is to stop power supply of the second imaging unit or to set the power to a power saving mode.
[0007]
(7) The image pickup apparatus has a first image pickup unit for picking up an image of a subject, a display for displaying an image picked up by the first image pickup unit, and various operation modes displayed on the display with a predetermined character. Operation mode display means, second imaging means for imaging the eyes of the photographer looking at the display, and detection of the gaze point of the photographer's eyes from information of the eyes imaged by the second imaging means A viewpoint detection unit, and based on the position information of the gazing point detected by the gazing point detection unit, when it is detected that one of the characters is gazing, a corresponding operation mode is set. That is what we did.
(8) The position information of the gazing point is information by calibration that positions the gazing point calculated by looking at the designated position of the display on the display area of the display. An imaging device according to any one of the preceding claims.
(9) The imaging device according to (7), wherein the position information of the point of gazing point of the photographer is displayed on the display.
(10) When the position information of the gazing point detected by the gazing point detecting means is the area of the image displayed on the display, the focus is made to follow the display area watched by the display. The imaging device according to (7), which is configured as described above.
(11) The imaging device according to (7), wherein the function of the second imaging unit is stopped when a photographer does not look at the display.
(12) The imaging device according to (11), in which stopping the function of the second imaging unit is to stop power supply of the second imaging unit or to set the second imaging unit in a power saving mode.
[0008]
In this way, by capturing the photographer's eyes and observing the gazing point when capturing the image of the subject, it is possible to automatically adjust the focus and the like of the subject according to the movement of the eyes of the photographer.
[0009]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, an embodiment of an imaging device according to the present invention will be described with reference to the drawings.
[0010]
As shown in FIG. 1, the imaging apparatus according to the present invention includes a first lens unit 11 for capturing an object, a first shutter 12, and a first iris 13 for forming an image on an imaging device. A CCD section 14, a first front end section 15 for converting an image formed into an electric signal and converting it into a digital signal, a signal processing section 17 including a DSP for performing signal processing of an image signal, and a CPU. A central controller 18, a RAM unit 19, a ROM unit 20, a display control unit 21 for controlling an OSD display, an LCD 22 corresponding to a display as a liquid crystal screen, and a memory interface unit for controlling a memory card 23. 24, a timing generator 25 controlled by the central control unit 18 to generate a clock of an image captured by the first CCD unit 14, and a central control unit A vertical driver 26 controlled by the first CCD unit 14 to synchronize the image captured by the first CCD unit 14; a lens / iris driver controlled by the central controller 18 to control the first lens unit 11 and the first iris 13 27, a power control unit 28, a temperature sensor 29, an external operation unit 30 including buttons and switches, a first network interface unit 31, and a second network interface unit 32. A second CCD unit 36 for forming an image on an image sensor via a second lens unit 33 for capturing an image of the photographer's face, a second shutter 34, and a second iris 35; and a second CCD unit 36 And a second front end unit 37 for converting the image formed on the digital camera into a digital signal. The signal converted by the second front end unit 37 is a signal. It is sent to the processing unit 17, processing for detecting the gaze point of the eye by detecting the position of the pupil with respect to the subject is performed.
[0011]
Among them, the first lens unit 11, the first shutter 12, the first CCD unit 14 for forming an image on the imaging device via the first focus / iris 13, and the first front end unit 15 are the first A second CCD section for forming an image pickup means 16 and forming an image on an image pickup device via a second lens section 33, a second shutter 34, and a second iris 35 for taking an image of the face of the photographer; 36 and a second front end unit 37 that converts an image formed on the second CCD unit 36 into a digital signal form a second imaging unit 38.
The central controller 18, the RAM unit 19, the ROM unit 20, the display control unit 21, the memory interface unit 24, the signal processing unit 17, the first network interface unit 31, and the second network interface unit 32 are connected to the bus line 39. They are connected and controlled by the central control unit 18.
[0012]
The signal processing unit 17 detects the luminance from the video signal obtained by the first imaging unit 16 and detects the gazing point of the photographer's eyes from the information of the eyes captured by the second imaging unit 38. Means for storing luminance information and gazing point information in the SDRAM memory 41 via the SDRAM controller 40.
[0013]
The central control device 18 controls the first focus / iris 13 based on the information on the point of gaze obtained by the signal processing unit 17 or the calibrated information to control the first focus / iris 13 to follow the focus. An operation mode display unit for displaying various operation modes on the LCD 22 with a predetermined character, and gazing at any one of the characters based on the position information of the gazing point detected by the gazing point detection unit of the signal processing unit 17. When the operation mode is detected, control is performed so as to set the corresponding operation mode.
[0014]
The operation of the imaging apparatus having such a configuration will be described below.
First, a method of actually detecting the point of gaze of the photographer will be described below with reference to the flowchart shown in FIG.
First, the user turns on the main switch of the external operation unit 30 (step ST11). When the result is received by the central control unit 18, the power supply control unit 28 is controlled to the second CCD unit 36 and the second front end unit 37 to supply power and start imaging (step ST12). ).
[0015]
Image information converted into a digital signal by the first front end unit 15 is input to the signal processing unit 17 from the first CCD unit 14 facing the subject, and the luminance is calculated (step ST13).
[0016]
At the same time, the second CCD section 36 facing the photographer forms an image of the photographer, particularly an image of the face, and a second front end section 37 which directly connects the analog data to the second CCD section 36. Then, a digital signal is sent and the information is sent to the signal processing unit 17 (step ST14).
The signal processing section 17 pastes and stores the digital signal input from the second front end section 37 in the SDRAM memory 41 via the SDRAM controller 40 (step ST15).
[0017]
As shown in FIG. 2, the central control unit 18 detects the sharpness and the skin color area from the information on the face stored in the SDRAM memory 41, specifies the face, and then detects the area with white information (step). ST15).
Then, as shown in FIG. 3, the vertical and horizontal ranges of the white information are determined from the detected white information area, and the area Z where the vertical and horizontal overlaps on the straight line extending from the maximum and minimum points of the range is defined on the SDRAM memory 41. The image is extracted from the main image and stored in another memory area (steps ST16, ST17, ST18).
[0018]
Methods for detecting the actual pupil size from the stored area include color difference and binarization, but this time, the binarization method will be described.
In the human eye region, the shading differs in white, iris, and pupil. As shown in FIG. 4, the central controller 18 changes the binarization threshold for each step in the stored area in order to accurately detect the shading (step ST19).
[0019]
After changing the threshold value and performing binarization, the sharpness is detected, the sharpness of the smallest circumference in the stored area is calculated, and the width, the whiteness of the sharpness of the largest circumference are calculated. The portions A11 and A12, the circumferential widths A21 and A22 of the next iris portion, and the outer pupil widths A31 and A32 are determined (step ST20).
When the information of A11 to A32 cannot be specified with the above threshold value, the threshold value is incremented or decremented again, and the same processing is performed again (step ST21).
[0020]
Further, the center point coordinate P1 which is the actual gazing point of the pupil is obtained from (A31 + A32) / 2 based on the coordinate information of the outer pupil widths A31 and A32 (step ST22).
[0021]
Next, with respect to the center point coordinates P1, the position is corrected using the result of the calibration described later (step ST23).
[0022]
When the corrected center point coordinate P1 does not extremely move or exceed the threshold from the previous state, a position character display is generated from the result of the center point coordinate P1, and is displayed via the display control unit 21. The information is displayed on the LCD 22, which is a display (steps ST24 and ST25).
[0023]
The calibration is for associating the relationship between the point of regard of the eye and the display area of the LCD 22. At the time of calibration, as shown in FIGS. 6 and 7, the index (Po (127, 127)) and the LCD 22 are centered. The characters (Py (0, 255), Px (255, 0)) are displayed at the four corners of the pupil, and the photographer is noticed, so that the pupil center reference coordinates (Po (0, 0)) and the coordinates of the four corners are obtained. This calibration will be described later.
[0024]
Then, the center point is set to (0.0), and each of the four corners is calculated as a specified offset value therefrom. The result is held in the central controller 18. The recording information can be stored in a memory such as an EEPROM.
[0025]
Next, when the position of the pupil of the photographer changes, as shown in FIG. 5, in the same manner as in the processing shown in FIG. 4, the human eye area has different shades of white, iris, and pupil. In order to accurately detect the shading, the central control device 18 changes the binarization threshold value for each step in the stored area. After changing the threshold value and performing binarization, the sharpness is detected, the sharpness of the smallest circumference in the stored area is calculated, and the width, the whiteness of the sharpness of the largest circumference are calculated. By determining the portions A11 and A12, the circumferential widths A21 and A22 of the next iris portion, and the outer pupil widths A31 and A32, the center point coordinates P2 of the moved pupil can be obtained. If the extracted designated area is extremely displaced when the center point coordinates P2 are detected, the immediately preceding extracted area is compared with Z (see FIG. 3), and after finalizing the position, the final center point coordinates are applied. P2.
[0026]
As shown in FIG. 7, the center position determines the moving position in the screen by the ratio with the calibrated center position. Here, if the information of the center point coordinates P2 exceeds the calibrated offset values of the four corners, the position character display on the LCD 22 remains at the immediately preceding position.
If it is within the range, as shown in FIG. 8, the central control unit generates a character display (P1 (10, -20)) at the position of the center point coordinate P2, and sends it to the LCD 22 via the display control unit 21. indicate.
If the coordinate position is within the character display area where the function is turned on, the central controller 18 starts counting. The central controller 18 decrements the count and, even when the count reaches zero, if there is a gazing point in the area, the function in the area is turned on to change the setting or the like.
[0027]
Obviously, it is possible to focus on a certain area using this method. That is, when the captured image is displayed on the LCD 22, focusing is performed on the specific area determined by the point of regard. In this way, for example, when the distant position of the subject is set as the gazing point, the distant region is focused.
This will be described later.
When the user turns off the LCD 22, the central control unit 18 determines that the LCD 22 has been turned off, and the power supply to the second CCD unit 36 and the second front end unit 37 for capturing an image of the photographer is stopped or the power saving mode is set. Move to
[0028]
When the central control unit 18 detects that the LCD 22 is turned on again by a user operation, the power supply to the second CCD unit 36 and the second front end unit 37 is restored, and the switch is turned on again. If so, the above process is restarted.
[0029]
Next, calibration will be described with reference to the flowchart shown in FIG.
First, when the gazing point input switch is turned on, a calibration character is displayed on the LCD 22 (steps ST31 and ST32).
Next, the processing of the gazing point described in the flowchart of FIG. 10 is started, the counter decrement is started, and the setting position is notified to the user by changing the state of the character (steps ST33 and ST34).
[0030]
When the counter is not zero, the counter is decremented at regular intervals until the counter becomes zero (steps ST35 and ST36).
[0031]
When the counter reaches zero, the processing result of the gazing point is registered in association with the designated position (step ST37).
[0032]
If there is a next calibration position, the counter is preset, and the results of the gazing point processing in steps ST34 to ST37 are registered in association with the designated position (steps ST38 and ST39).
[0033]
Next, when there is no calibration position, after completion display is performed, the display returns to normal display (step ST40).
[0034]
Calibration is performed in this manner. For example, as shown in FIG. 9, the position of the center is (127, 127) on the LCD, while the position of the user is (30, 30). The position of the left top is (0, 255) in the LCD, the position of the user is (20, 40), and the position of the right top is (255, 255) in the LCD, whereas the position of the user is (255, 255). The position is (40, 40), the position of the left bottom is (0, 0) on the LCD, while the position of the user is (20, 20), and the position of the right bottom is (0, 255) on the LCD. In contrast, the position of the user can be associated as (40, 20).
[0035]
Next, focusing of a captured image by obtaining the point of regard will be described with reference to a flowchart shown in FIG.
First, the switch for inputting the point of interest is turned on, the counter is reset, and the processing of the point of interest is started (steps ST41 and ST42).
[0036]
Then, it is confirmed whether or not the point of interest is in the designated area (step ST43).
[0037]
If the point of interest exists in the designated area, the counter starts decrementing (step ST44).
[0038]
If the counter is not zero, the counter is decremented at regular intervals (steps ST45 and ST46).
[0039]
When the counter is zero, it is checked whether or not the point of gaze still exists in the designated area (step ST47).
[0040]
When the point of gaze exists in the specified area, the processing assigned to the specified area, that is, the processing for focusing on the specified area is executed (step ST48).
[0041]
As described above, the image pickup apparatus of the present invention has the second image pickup means 38 for imaging the face of the photographer, particularly the eyes, separately from the first image pickup means 16 for picking up an object, and performs photoelectric conversion therefrom. By detecting the position of the pupil from the photographer's face information from the signal thus obtained, calculating the gazing point of the eye from the result, and displaying the gazing point on the LCD 22, the button is not used for the user. It is possible to provide an input method that can be operated.
In addition, by performing a so-called calibration in which the relationship between the position of the eyes and the display area of the LCD 22 is performed, versatility can be given to the moving range of the eyes of the user.
Further, since the settings and the like can be changed by looking at the character on the LCD 22 by the above input method, the number of buttons and switches can be reduced, and the size can be further reduced.
Further, since it is not necessary to look into the electronic viewfinder as in the related art, it is possible to provide a downsized and general-purpose line-of-sight input device.
[0042]
【The invention's effect】
As described above, the imaging apparatus of the present invention includes the second imaging unit for imaging the face of the photographer, particularly the eyes, in addition to the first imaging unit for imaging the subject. By setting the imaging function of the captured image displayed on the LCD from the fixation point, which is the position of the pupil of the imaged eye, various imaging conditions can be changed according to the eyes of the photographer. As a result, operation members such as buttons and switches can be omitted, and there is an effect that the size and size of the device itself can be reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an imaging apparatus according to the present invention.
FIG. 2 is an explanatory view showing a portion of a photographer's face captured by a second image capturing means on an image capturing screen of a display unit.
FIG. 3 is an explanatory diagram showing a state in which a white portion, an iris, and a pupil portion of the eye are extracted.
FIG. 4 is an explanatory view showing a state in which the pupil of the eye has moved.
FIG. 5 is an explanatory diagram showing a state of calibration indicating a relationship between an LCD area of a display unit and a degree of eye movement.
FIG. 6 is an explanatory diagram showing a relationship between a display area of the LCD and eyes.
FIG. 7 is an explanatory diagram showing the relationship between the display area of the LCD and the eyes.
FIG. 8 is a table showing a relationship between a calibrated LCD position and an eye position.
FIG. 9 is a table showing an image of calibration data.
FIG. 10 is a flowchart for inputting a gazing point.
FIG. 11 is a flowchart of calibration in inputting a gazing point.
FIG. 12 is a flow chart of a focus process in inputting a gazing point.
[Explanation of symbols]
11; first lens unit, 12; first shutter, 13; first iris, 14; first CCD unit, 15; first front end unit, 16; first imaging means, 17; Central processing unit, 19; RAM unit, 20; ROM unit, 21; display control unit, 22; LCD, 23; memory card, 24; memory interface unit, 25; timing generator, 26; 27; lens / iris driver; 28; power supply control unit; 29; temperature sensor; 30; external operation unit; 31; first network interface unit; 32; second network interface unit; 34; second shutter, 35; second iris, 36; second CCD section, 37; second front end section, 38; Second imaging means, 39; bus line, 40; SDRAM controller, 41; SDRAM memory.

Claims (12)

被写体を撮像する第1の撮像手段と、前記第1の撮像手段で撮像する画像が表示される表示器と、前記表示器をみている撮影者の目を撮像する第2の撮像手段と、前記第2の撮像手段で撮像した目の情報から撮影者の目の注視点を検出する注視点検出手段と、を備え、
前記注視点検出手段で検出された注視点の位置情報に基づいて、被写体の撮像機能を設定するようにしたことを特徴とする撮像装置。
A first image pickup unit for picking up an image of a subject, a display for displaying an image picked up by the first image pickup unit, a second image pickup unit for picking up an eye of a photographer looking at the display, Gazing point detecting means for detecting a gazing point of the photographer's eye from information on the eyes imaged by the second imaging means;
An imaging apparatus, wherein an imaging function of a subject is set based on positional information of a gazing point detected by the gazing point detection unit.
前記注視点の位置情報は、前記表示器の指定された位置をみて算出された注視点を表示器の表示領域に位置合わせるキャリブレーションによる情報であることを特徴とする請求項1に記載の撮像装置。2. The imaging apparatus according to claim 1, wherein the position information of the gazing point is information based on calibration for aligning a gazing point calculated based on a designated position of the display with a display area of the display. 3. apparatus. 前記撮影者の注視点の位置情報は、前記表示器に表示するようにしたことを特徴とする請求項1に記載の撮像装置。The imaging apparatus according to claim 1, wherein the position information of the point of gazing point of the photographer is displayed on the display. 前記注視点検出手段で検出された注視点の位置情報に基づく被写体の撮像機能の設定は、前記表示器で注視された表示領域に対してフォーカスを追従させることである請求項1に記載の撮像装置。2. The imaging apparatus according to claim 1, wherein the setting of the imaging function of the subject based on the position information of the gazing point detected by the gazing point detection unit is to make the focus follow a display area gazed by the display. apparatus. 前記表示器を撮影者がみていないときは、前記撮像機能の設定を停止させるようにしたことを特徴とする請求項1に記載の撮像装置。2. The imaging apparatus according to claim 1, wherein the setting of the imaging function is stopped when a photographer does not look at the display. 前記撮像機能の設定の停止は、前記第2の撮像手段の電源供給を停止又は省電力モードにすることである請求項5に記載の撮像装置。The imaging apparatus according to claim 5, wherein stopping the setting of the imaging function is to stop the power supply of the second imaging unit or to set the power to a power saving mode. 被写体を撮像する第1の撮像手段と、前記第1の撮像手段で撮像する画像が表示される表示器と、前記表示器に各種操作モードを所定のキャラクターで表示させる操作モード表示手段と、前記表示器をみている撮影者の目を撮像する第2の撮像手段と、前記第2の撮像手段により撮像した目の情報から撮影者の目の注視点を検出する注視点検出手段と、を備え、
前記注視点検出手段で検出された注視点の位置情報に基づいて、何れかの前記キャラクターを注視していることが検出されたとき、対応した操作モードにするようにしたことを特徴とする撮像装置。
A first imaging unit for imaging a subject, a display on which an image captured by the first imaging unit is displayed, an operation mode display unit for displaying various operation modes on the display with a predetermined character, A second imaging unit configured to capture an image of a photographer's eyes looking at a display; and a fixation point detection unit configured to detect a fixation point of the photographer's eyes from information of the eyes captured by the second imaging unit. ,
An imaging mode wherein a corresponding operation mode is set when it is detected that any one of the characters is gazing based on positional information of a gazing point detected by the gazing point detecting means. apparatus.
前記注視点の位置情報は、前記表示器の指定された位置をみて算出された注視点を表示器の表示領域に位置合わせるキャリブレーションによる情報であることを特徴とする請求項7に記載の撮像装置。The imaging apparatus according to claim 7, wherein the position information of the gazing point is information obtained by calibration that positions a gazing point calculated by looking at a designated position of the display on a display area of the display. apparatus. 前記撮影者の注視点の位置情報は、前記表示器に表示するようにしたことを特徴とする請求項7に記載の撮像装置。The imaging apparatus according to claim 7, wherein the position information of the gazing point of the photographer is displayed on the display. 前記注視点検出手段で検出された注視点の位置情報が、表示器に表示されている画像の領域であるときに、該表示器で注視された表示領域に対してフォーカスを追従させるようにしたことを特徴とする請求項7に記載の撮像装置。When the position information of the gazing point detected by the gazing point detection unit is the area of the image displayed on the display, the focus is made to follow the display area watched by the display. The imaging device according to claim 7, wherein: 前記表示器を撮影者がみていないときは、前記第2の撮像手段の機能を停止させるようにしたことを特徴とする請求項7に記載の撮像装置。The imaging apparatus according to claim 7, wherein the function of the second imaging unit is stopped when a photographer does not look at the display. 前記第2の撮像手段の機能を停止させることは、前記第2の撮像手段の電源供給を停止又は省電力モードにすることである請求項11に記載の撮像装置。12. The imaging apparatus according to claim 11, wherein stopping the function of the second imaging unit stops power supply of the second imaging unit or sets the power supply mode.
JP2003135851A 2003-05-14 2003-05-14 Imaging device Expired - Fee Related JP4038817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003135851A JP4038817B2 (en) 2003-05-14 2003-05-14 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003135851A JP4038817B2 (en) 2003-05-14 2003-05-14 Imaging device

Publications (2)

Publication Number Publication Date
JP2004341112A true JP2004341112A (en) 2004-12-02
JP4038817B2 JP4038817B2 (en) 2008-01-30

Family

ID=33525989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003135851A Expired - Fee Related JP4038817B2 (en) 2003-05-14 2003-05-14 Imaging device

Country Status (1)

Country Link
JP (1) JP4038817B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077652A (en) * 2009-09-29 2011-04-14 Oki Electric Industry Co Ltd Remote communication system and remote communication method
JP2012053366A (en) * 2010-09-03 2012-03-15 Casio Comput Co Ltd Imaging apparatus and program
JP2013176049A (en) * 2013-02-26 2013-09-05 Olympus Imaging Corp Camera, reproduction device, and reproduction method
KR20150094289A (en) * 2014-02-11 2015-08-19 삼성전자주식회사 Photogrpaphing method of electronic apparatus and electronic apparatus thereof
JP2016207042A (en) * 2015-04-24 2016-12-08 株式会社コーエーテクモゲームス Program and storage medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077652A (en) * 2009-09-29 2011-04-14 Oki Electric Industry Co Ltd Remote communication system and remote communication method
JP2012053366A (en) * 2010-09-03 2012-03-15 Casio Comput Co Ltd Imaging apparatus and program
JP2013176049A (en) * 2013-02-26 2013-09-05 Olympus Imaging Corp Camera, reproduction device, and reproduction method
KR20150094289A (en) * 2014-02-11 2015-08-19 삼성전자주식회사 Photogrpaphing method of electronic apparatus and electronic apparatus thereof
KR102154802B1 (en) 2014-02-11 2020-09-11 삼성전자주식회사 Photogrpaphing method of electronic apparatus and electronic apparatus thereof
JP2016207042A (en) * 2015-04-24 2016-12-08 株式会社コーエーテクモゲームス Program and storage medium

Also Published As

Publication number Publication date
JP4038817B2 (en) 2008-01-30

Similar Documents

Publication Publication Date Title
US8890993B2 (en) Imaging device and AF control method
JP5473551B2 (en) Auto focus system
JP7346654B2 (en) Image processing device, imaging device, control method, program, and storage medium
US10136067B2 (en) Observation apparatus providing an enlarged display for facilitating changing an image-pickup condition
US20110019066A1 (en) Af frame auto-tracking system
JP2010124120A (en) Autofocus system
JP2011130382A (en) Image-capturing apparatus and control method therefor
JP2010093422A (en) Imaging apparatus
US7885527B2 (en) Focusing apparatus and method
JP2008118387A (en) Imaging device
US8446510B2 (en) Method and apparatus for improving face image in digital image processor
JP2010171797A (en) Imaging apparatus and program
JPH09149311A (en) Image pickup device
EP2187623A1 (en) Autofocus system
JP4038817B2 (en) Imaging device
JP2010085530A (en) Autofocus system
JP5081133B2 (en) Auto focus system
JP2003289468A (en) Imaging apparatus
JP2004343315A (en) Imaging apparatus
JP2010230871A (en) Auto focus system
JP5104517B2 (en) Imaging device
JP2011022203A (en) Af frame automatic follow-up system and method for automatically following up af frame
JP2004343317A (en) Imaging apparatus
JP5276538B2 (en) AF frame automatic tracking system
WO2012099174A1 (en) Autofocus system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071028

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121116

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees