JP4038817B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4038817B2
JP4038817B2 JP2003135851A JP2003135851A JP4038817B2 JP 4038817 B2 JP4038817 B2 JP 4038817B2 JP 2003135851 A JP2003135851 A JP 2003135851A JP 2003135851 A JP2003135851 A JP 2003135851A JP 4038817 B2 JP4038817 B2 JP 4038817B2
Authority
JP
Japan
Prior art keywords
unit
display
gazing point
imaging
photographer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003135851A
Other languages
Japanese (ja)
Other versions
JP2004341112A (en
Inventor
光輝 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003135851A priority Critical patent/JP4038817B2/en
Publication of JP2004341112A publication Critical patent/JP2004341112A/en
Application granted granted Critical
Publication of JP4038817B2 publication Critical patent/JP4038817B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、撮像装置に関するものであり、詳しくは、被写体を撮影すると同時に、撮影者の目の部分を撮影し、その撮影した瞳孔の動きを観察して、被写体のフォーカス等を行うようにした撮像装置に関する。
【0002】
【従来の技術】
従来技術における撮像装置、例えば、デジタルスチルカメラやビデオカメラでは、撮影や再生といった機能項目に対してユーザが設定を変更したり、実施したりする際、釦やスイッチといったものが必ず外装に取付けられ、それを入力デバイスとして操作させてきた。
しかし、近年デジタルスチルカメラやビデオカメラは小型化になってきており、その結果、釦やスイッチというものが極力排除される方向に進んでいる。
なくなった釦やスイッチの代用として、現在押圧式の表示装置の利用から、人間の視線や音声を利用して操作を補助する方法が採られてきている。
特に、視線を利用する方法は、釦やスイッチを殆ど使用することなく操作できる。又、音声を使用した撮影においては、被写体を自然な動きで追いながら、操作することができる。
又、現在の視線の入力では、一般的に使用者や電子ビューファインダーを覗き込み、覗き込んだ状態に対して、LEDを照射し、その反射から瞳孔の位置を検出して位置を特定するものである。
【0003】
【特許文献1】
特開平04−96580号公報 (第2頁 第1図)
【0004】
【発明が解決しようとする課題】
しかしながら、従来技術で説明した電子ビューファインダ−を覗き込んで、LEDを照射することで瞳孔の位置を検出して位置を特定するという手法では、ユーザは常に電子ビューファインダーを覗き込む行為が必要であり、近年のデジタルスチルカメラやビデオカメラで多い大画面の表示装置の利用ができなかったり、又、装置として電子ビューファインダーを必要とするため、小型化するうえで障害になっているという問題がある。
従って、小型化する撮像装置、例えば、デジタルスチルカメラやビデオカメラにおいて、ユーザが所望する撮像機能の設定を瞳孔の動きで特定する手法に解決しなければならない課題を有する。
【0005】
【課題を解決するための手段】
上記課題を達成するために、本発明に係る撮像装置は、次に示す構成にすることである。
【0006】
(1)撮像装置は、被写体を撮像する第1の撮像手段と、前記第1の撮像手段で撮像する画像が表示される表示器と、前記表示器をみている撮影者の目を撮像する第2の撮像手段と、前記第2の撮像手段で撮像した目の情報から撮影者の目の注視点を検出する注視点検出手段と、を備え、前記注視点検出手段で検出された注視点の位置情報は、前記表示器の指定された位置にキャリブレーションキャラクターを表示させ、該キャリブレーションキャラクターをみて算出された注視点を前記表示器の表示領域に位置合わせるキャリブレーションによる情報であると共に、前記表示器で注視された表示領域に対して前記第1の撮像手段で撮像された被写体のフォーカスを追従させることである。
(2)前記撮影者の注視点の位置情報は、前記表示器に表示するようにしたことを特徴とする(1)に記載の撮像装置。
【0008】
このように、被写体を撮像するときに撮影者の目を撮像して注視点を観察することで、被写体のフォーカス等を撮影者の目の動きによって自動的に調整することができる。
【0009】
【発明の実施の形態】
次に、本願発明に係る撮像装置の実施形態について図面を参照して説明する。
【0010】
本願発明に係る撮像装置は、図1に示すように、被写体を取り込む第1のレンズ部11、第1のシャッタ12、第1のアイリス13を介して撮像素子に結像させるための第1のCCD部14と、結像された画像を電気信号に変換し、デジタル信号に変換する第1のフロントエンド部15と、画像信号の信号処理を行うDSPを備えた信号処理部17と、CPUを備えた中央制御装置18と、RAM部19と、ROM部20と、OSD表示を制御するディスプレイコントロール部21と、液晶画面である表示器に相当するLCD22と、メモリーカード23を制御するメモリーインターフェイス部24と、中央制御装置18により制御され第1のCCD部14で取り込む映像のクロックを生成するタイミングジェネレータ25と、中央制御装置18により制御され第1のCCD部14で取り込む映像の同期を取る垂直ドライバー26と、中央制御装置18により制御され、第1のレンズ部11と、第1のアイリス13を制御するレンズ/アイリスドライバー27と、電源制御部28と、温度センサー29と、釦及びスイッチからなる外部操作部30と、第1のネットワークインターフェイス部31と、第2のネットワークインターフェイス部32と、を備え、加えて更に、撮影者の顔面を撮像する第2のレンズ部33、第2のシャッタ34、第2のアイリス35を介して撮像素子に結像させるための第2のCCD部36と、第2のCCD部36に結像された画像をデジタル信号に変換する第2のフロントエンド部37と、からなり、第2のフロントエンド部37で変換された信号は信号処理部17に送られ、被写体に対する瞳孔の位置を検出して目の注視点を検出する処理が行われる。
【0011】
このうち、第1のレンズ部11、第1のシャッタ12、第1のフォーカス/アイリス13を介して撮像素子に結像させるための第1のCCD部14、第1のフロントエンド部15が第1の撮像手段16を形成し、撮影者の顔面を撮像する第2のレンズ部33、第2のシャッタ34、第2のアイリス35を介して撮像素子に結像させるための第2のCCD部36と、第2のCCD部36に結像された画像をデジタル信号に変換する第2のフロントエンド部37が第2の撮像手段38を形成する。
そして、中央制御装置18、RAM部19、ROM部20、ディスプレイコントロール部21、メモリーインターフェイス部24、信号処理部17、第1のネットワークインターフェイス部31、第2のネットワークインターフェイス部32がバスライン39に接続され、中央制御装置18により制御される構成になっている。
【0012】
信号処理部17は、第1の撮像手段16で得られた映像信号から輝度を検出すると共に第2の撮像手段38で撮像した目の情報から撮影者の目の注視点を検出する注視点検出手段を備え、SDRAMコントローラ40を介してSDRAMメモリ41に輝度の情報及び注視点の情報を蓄積する。
【0013】
中央制御装置18は、上記の信号処理部17で得られた注視点の情報やキャリブレーションされた情報等から第1のフォーカス/アイリス13を制御してフォーカスを追従させるように制御したり、その他、LCD22に各種操作モードを所定のキャラクターで表示させる操作モード表示手段を備え、信号処理部17の注視点検出手段で検出された注視点の位置情報に基づいて、何れかのキャラクターを注視していることが検出されたとき、対応した操作モードにするように制御する。
【0014】
このような構成からなる撮像装置における動作について、以下、説明する。
先ず、実際に撮影者の注視点を検出する手法について、図10に示すフローチャートを参照して、以下説明する。
先ず、ユーザが外部操作部30の本スイッチをオンにする(ステップST11)。その結果を中央制御装置18が受理すると、第2のCCD部36と第2のフロントエンド部37に対して電源制御部28を制御して、電源を供給し、結像を開始する(ステップST12)。
【0015】
被写体を向いた第1のCCD部14より第1のフロントエンド部15でデジタル信号とされた画像情報を信号処理部17に入力し、輝度を算出する(ステップST13)。
【0016】
それと同時に、撮影者に向いた第2のCCD部36は、撮影者の画像、特に顔面の画像を結像し、そのアナログデータを第2のCCD部36に直結した第2のフロントエンド部37で、デジタル信号にし、その情報を信号処理部17に送る(ステップST14)。
信号処理部17では、第2のフロントエンド部37より入力されたデジタル信号をSDRAMコントローラ40を介してSDRAMメモリ41に貼付け格納する(ステップST15)。
【0017】
中央制御装置18では、図2に示すように、SDRAMメモリ41に格納された顔面の情報から先鋭度と肌色領域検出を行い、顔を特定し、その後、白情報のある領域を検出する(ステップST15)。
そして、図3に示すように、検出された白情報の領域からその縦横の範囲を決定し、その範囲の最大最小点から伸ばした直線上で縦横が重なる部分の領域ZをSDRAMメモリ41上の本画像から抜き出し、別のメモリエリアに格納する(ステップST16、ST17、ST18)。
【0018】
格納された領域から実際の瞳孔の大きさを検出する方法は、色差からと二値化からがあるが、今回は二値化の方法で説明する。
人間の目の領域は、白、虹彩、瞳孔で濃淡が異なる。中央制御装置18では、図4に示すように、この濃淡を正確に検知するため、格納された領域に対して、ステップ毎に二値化の閾値を変化させる(ステップST19)。
【0019】
閾値を変化させ、二値化を行った後、先鋭度を検出して、格納された領域内における最小の円周の先鋭度を算出し、その幅、最大の円周の先鋭度の白の部分A11、A12、その次の虹彩の部分の円周の幅A21、A22、瞳孔の外周の幅A31、A32を決定する(ステップST20)。
上記の閾値では、A11〜A32までの情報が特定できない場合は、再度閾値をインクリメントかデクリメントし、再度、同様の処理を行う(ステップST21)。
【0020】
また、瞳孔の外周の幅A31、A32の座標情報より、(A31+A32)/2で、実際の瞳孔の注視点である中心点座標P1が求められる(ステップST22)。
【0021】
次に、中心点座標P1については、後述するキャリブレーションの結果を使用して位置補正が行われる(ステップST23)。
【0022】
そして、この補正された中心点座標P1が前の状態から極端に移動や閾値を超えていない場合には、中心点座標P1の結果から位置キャラクター表示を生成し、ディスプレイコントロール部21を経由して表示器であるLCD22に表示する(ステップST24、ST25)。
【0023】
キャリブレーションは、目の注視点とLCD22の表示領域との関係を関連付けするもので、キャリブレーション時は、図6及び図7に示すように、中心に指標(Po(127、127))とLCD22の四隅に対してキャラクタ(Py(0、255)、Px(255、0))を表示し、撮影者はそれを注目してもらうことで、画面中心時の瞳孔中心基準座標(Po(0、0))と四隅の座標が求められる。このキャリブレーションについては後述する。
【0024】
そして、中心点を(0.0)として、各四隅はそこからの規定のオフセット値として算出する。その結果は、中央制御装置18内に保持する。記録情報は、EEPROMといったメモリに保存することも可能である。
【0025】
次に、撮影者の瞳孔の位置が変化した場合は、図5に示すように、上述の図4で示した処理と同じく、人間の目の領域は、白、虹彩、瞳孔で濃淡が異なる。中央制御装置18では、この濃淡を正確に検知するため、格納された領域に対して、ステップ毎に二値化の閾値を変化させる。閾値を変化させ、二値化を行った後、先鋭度を検出して、格納された領域内における最小の円周の先鋭度を算出し、その幅、最大の円周の先鋭度の白の部分A11、A12、その次の虹彩の部分の円周の幅A21、A22、瞳孔の外周の幅A31、A32を決定することで、移動した瞳孔の中心点座標P2が求められる。中心点座標P2を検出時、抜き出した指定領域が、極端にずれている場合は、直前の抜き出し領域をZ(図3参照)と比較し、位置補正をかけた後で最終的な中心点座標P2とする。
【0026】
中心点は、図7に示すように、キャリブレーションした中心位置との比率で、画面内の移動位置を決定する。ここで、中心点座標P2の情報がキャリブレーションした、四隅のオフセット値を超えていた場合、LCD22上の位置キャラクター表示は、直前の位置のままとする。
範囲内であれば、図8に示すように、中央制御装置では中心点座標P2の位置にキャラクター表示(P1(10、−20))を生成し、ディスプレイコントロール部21を経由して、LCD22に表示する。
もし、その座標位置が、機能をオンするキャラクター表示の領域内であれば、中央制御装置18では、カウントを開始する。中央制御装置18では、カウントをデクリメントし、零になった時点でもその領域内に注視点がある場合は、領域内の機能をオンとして、設定などを変更させる。
【0027】
この方法を利用して、一定の領域に対してフォーカスを合わせることが可能なのは自明である。即ち、LCD22に撮像画像が表示されているときに、注視点で決定された特定領域のフォーカシングをする。このようにすることで、例えば、被写体の遠望の位置を注視点にすると、その遠望の領域にピント合わせがされる。
この点については後述する。
又、ユーザがLCD22をオフにした場合は、それを中央制御装置18で判断し、撮影者を撮像する第2のCCD部36と第2のフロントエンド部37の電源供給を停止或いは省電力モードに移行させる。
【0028】
ユーザ操作により、LCD22が再びオンになったことを、中央制御装置18が検知した場合、第2のCCD部36と第2のフロントエンド部37の電源供給を元に戻し、再びスイッチがオンであれば、上記処理を再開する。
【0029】
次に、キャリブレーションについて、図11に示すフローチャートを参照して説明する。
先ず、注視点入力のスイッチがオンされると、LCD22にキャリブレーションキャラクターが表示される(ステップST31、ST32)。
次に、上記図10のフローチャートで説明した注視点の処理が開始され、カウンターのデクリメントが開始され、設定位置はキャラクターの状態を変化させることでユーザに知らせる(ステップST33、ST34)。
【0030】
そして、カウンターが零でないときには一定間隔でカウンターのデクリメントを行い、カウンターが零になるまで行う(ステップST35、ST36)。
【0031】
カウンターが零になると、次に注視点の処理結果を指定位置と対応させて登録する(ステップST37)。
【0032】
次のキャリブレーション位置がある場合には、カウンターをプリセットし、上記ステップST34〜ST37の注視点処理結果を指定位置と対応させて登録する(ステップST38、ST39)。
【0033】
次に、キャリブレーション位置がない場合には、完了表示した後に、通常表示に戻る(ステップST40)。
【0034】
このようにしてキャリブレーションを行うわけであるが、それは、例えば、図9に示すように、センターの位置がLCDでは(127、127)であるのに対してユーザの位置は(30、30)、レフトトップの位置がLCDでは(0、255)であるのに対してユーザの位置は(20、40)、ライトトップの位置がLCDでは(255、255)であるのに対して、ユーザの位置は(40、40)、レフトボトムの位置がLCDでは(0、0)であるのに対して、ユーザの位置は(20、20)、ライトボトムの位置がLCDでは(0、255)であるのに対して、ユーザの位置は(40、20)であるように対応付けできるのである。
【0035】
次に、上記注視点を得ることで、撮像画像のフォーカスを行うことについて、図12に示すフローチャートを参照して説明する。
先ず、注視点入力するためのスイッチをオンにし、カウンターをリセットして注視点の処理を開始する(ステップST41、ST42)。
【0036】
そして、指定領域に注視点がきているかどうかを確認する(ステップST43)。
【0037】
指定領域に注視点が存在しているときには、カウンターのデクリメントを開始する(ステップST44)。
【0038】
カウンターが零でないときには、一定間隔でカウンターをデクリメントする(ステップST45、ST46)。
【0039】
カウンターが零であるときに、いまだ注視点が指定領域に存在しているかを調べる(ステップST47)。
【0040】
指定領域に注視点が存在しているときには、指定領域に割り当てられている処理、即ち、指定領域のフォーカスを行う処理を実行する(ステップST48)。
【0041】
以上のように、本発明の撮像装置では、被写体を撮像する第1の撮像手段16とは別に、撮影者の顔面、特に目が映る程度の第2の撮像手段38を持ち、そこより光電変換された信号から、撮影者の顔情報より瞳孔の位置を検出し、その結果より目の注視点を算出し、注視点をLCD22に表示させることにより、ユーザに対してボタンを使用しないが、簡単に操作が可能な入力方法を提供できるのである。
又、目の位置とLCD22の表示領域との関連性を持たせる、所謂、キャリブレーションを行うことで、ユーザの目の移動範囲に対しても汎用性を持たせられる。
又、上記入力方法でLCD22上のキャラクタを見ることにより、設定等が変更できるので、ボタンやスイッチが削減でき、更なる小型化が可能になる。
また、従来のような電子ビューファインダーを覗き込む必要性がなくなるため、小型化と汎用的な視線入力デバイスを提供することができる。
【0042】
【発明の効果】
以上説明したように、本願発明の撮像装置は、被写体を撮像する第1の撮像手段の他に撮影者の顔面、特に目を撮像する第2の撮像手段を備え、この第2の撮像手段で撮像した目の瞳孔の位置である注視点からLCDに表示されている撮像画像の撮像機能の設定をするようにしたことで、撮影者の目により様々な撮影の条件を設定変更することができるようになり、釦やスイッチといった操作部材を省くことができ、装置自体のコンパクト化及び小型化を図ることができるという効果がある。
【図面の簡単な説明】
【図1】本発明に係る撮像装置にブロック図である。
【図2】同、第2の撮像手段で撮像した撮影者の顔の部分を表示部の撮像画面上に表示した説明図である。
【図3】同、目の白の部分、虹彩、瞳孔の部分を抽出した様子を示した説明図である。
【図4】同、目の瞳孔が移動した様子を示した説明図である。
【図5】同、表示部のLCDの領域と目の動き具合の関連性を示すキャリブレーションの様子を示した説明図である。
【図6】同、LCDの表示領域と目との関連性を示した説明図である。
【図7】同、LCDの表示領域と目との関連性を示した説明図である。
【図8】同、キャリブレーションしたLCDの位置と目の位置との関係を示した表である。
【図9】同、キャリブレーションのデータのイメージを示した表である。
【図10】同、注視点入力のためのフローチャートである。
【図11】同、注視点入力におけるキャリブレーションのフローチャートである。
【図12】同、注視点入力におけるフオーカス処理のフローチャートである。
【符号の説明】
11;第1のレンズ部、12;第1のシャッタ、13;第1のアイリス、14;第1のCCD部、15;第1のフロントエンド部、16;第1の撮像手段、17;信号処理部、18;中央制御装置、19;RAM部、20;ROM部、21;ディスプレイコントロール部、22;LCD、23;メモリーカード、24;メモリーインターフェイス部、25;タイミングジェネレータ、26;垂直ドライバ、27;レンズ/アイリスドライバ、28;電源制御部、29;温度センサー、30;外部操作部、31;第1のネットワークインターフェイス部、32;第2のネットワークインターフェイス部、33;第2のレンズ部、34;第第2のシャッタ、35;第2のアイリス、36;第2のCCD部、37;第2のフロントエンド部、38;第2の撮像手段、39;バスライン、40;SDRAMコントローラ、41;SDRAMメモリ。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus. Specifically, the subject is photographed at the same time as the photographer's eyes, the movement of the photographed pupil is observed, and the subject is focused. The present invention relates to an imaging apparatus.
[0002]
[Prior art]
In conventional imaging devices such as digital still cameras and video cameras, buttons and switches are always attached to the exterior when the user changes or implements settings for function items such as shooting and playback. , It has been operated as an input device.
However, in recent years, digital still cameras and video cameras have been miniaturized, and as a result, buttons and switches have been increasingly eliminated.
As a substitute for the lost button or switch, a method of assisting the operation by using a human gaze or voice has been adopted from the use of the present pressing type display device.
In particular, the method using the line of sight can be operated with almost no buttons or switches. In shooting using sound, the subject can be operated while following the subject with natural movement.
Moreover, in the present line-of-sight input, generally, a user or an electronic viewfinder is looked into, the LED is irradiated to the looked-in state, and the position of the pupil is detected from the reflection and the position is specified. It is.
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 04-96580 (Page 2, Fig. 1)
[0004]
[Problems to be solved by the invention]
However, in the method of looking into the electronic viewfinder described in the prior art and detecting the position of the pupil by irradiating the LED to identify the position, the user always needs to look into the electronic viewfinder. There is a problem that a large-screen display device, which is often used in recent digital still cameras and video cameras, cannot be used, and an electronic viewfinder is required as a device, which is an obstacle to downsizing. is there.
Therefore, there is a problem that an imaging device to be miniaturized, for example, a digital still camera or a video camera, has to solve a technique for specifying an imaging function setting desired by a user by pupil movement.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, an imaging apparatus according to the present invention is configured as follows.
[0006]
(1) An imaging apparatus captures a first imaging unit that captures an image of a subject, a display that displays an image captured by the first imaging unit, and an image of a photographer's eyes that are viewing the display. 2, and a gazing point detection unit that detects a gazing point of the photographer's eyes from the eye information captured by the second imaging unit, the gazing point detected by the gazing point detection unit The position information is information by calibration that causes a calibration character to be displayed at a specified position of the display, and aligns a gazing point calculated by looking at the calibration character with a display area of the display. The focus of the subject imaged by the first imaging means is caused to follow the display area watched by the display.
(2) The imaging apparatus according to (1), wherein the position information of the gazing point of the photographer is displayed on the display.
[0008]
In this way, when the subject is imaged, the focus of the subject can be automatically adjusted by the eye movement of the photographer by capturing the eye of the photographer and observing the gazing point.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Next, an embodiment of an imaging apparatus according to the present invention will be described with reference to the drawings.
[0010]
As shown in FIG. 1, the imaging apparatus according to the present invention has a first lens for forming an image on an imaging element via a first lens unit 11 for capturing a subject, a first shutter 12, and a first iris 13. A CCD unit 14, a first front end unit 15 that converts an image formed into an electrical signal and converts it into a digital signal, a signal processing unit 17 that includes a DSP that performs signal processing of the image signal, and a CPU A central control device 18, a RAM unit 19, a ROM unit 20, a display control unit 21 that controls OSD display, an LCD 22 that corresponds to a display that is a liquid crystal screen, and a memory interface unit that controls a memory card 23. 24, a timing generator 25 that is controlled by the central control unit 18 and generates a clock of an image captured by the first CCD unit 14, and a central control unit 8 and a vertical driver 26 that synchronizes an image captured by the first CCD unit 14 and a lens / iris driver that is controlled by the central control unit 18 and controls the first lens unit 11 and the first iris 13. 27, a power supply control unit 28, a temperature sensor 29, an external operation unit 30 comprising buttons and switches, a first network interface unit 31, and a second network interface unit 32. A second CCD unit 36 for forming an image on the image sensor via the second lens unit 33, the second shutter 34, and the second iris 35 for imaging the photographer's face, and the second CCD unit 36. And a second front end unit 37 for converting the image formed on the digital signal into a digital signal. The signal converted by the second front end unit 37 is a signal. It is sent to the processing unit 17, processing for detecting the gaze point of the eye by detecting the position of the pupil with respect to the subject is performed.
[0011]
Of these, the first lens unit 11, the first shutter 12, the first CCD unit 14 for forming an image on the image sensor via the first focus / iris 13, and the first front end unit 15 are the first ones. A second CCD unit for forming an image on the imaging element through the second lens unit 33, the second shutter 34, and the second iris 35 that form a single imaging unit 16. 36 and a second front end unit 37 that converts an image formed on the second CCD unit 36 into a digital signal forms a second imaging unit 38.
The central control device 18, RAM unit 19, ROM unit 20, display control unit 21, memory interface unit 24, signal processing unit 17, first network interface unit 31, and second network interface unit 32 are connected to the bus line 39. They are connected and controlled by the central controller 18.
[0012]
The signal processing unit 17 detects luminance from the video signal obtained by the first imaging unit 16 and detects the gaze point of the photographer from the eye information captured by the second imaging unit 38. Means for storing luminance information and gaze point information in the SDRAM memory 41 via the SDRAM controller 40.
[0013]
The central control device 18 controls the first focus / iris 13 to follow the focus from the gazing point information obtained by the signal processing unit 17 or the calibrated information, and so on. , Provided with operation mode display means for displaying various operation modes on the LCD 22 with predetermined characters, and gazing at any character based on position information of the gazing point detected by the gazing point detection means of the signal processing unit 17 When it is detected that the operation mode is detected, control is performed so that the corresponding operation mode is set.
[0014]
The operation of the imaging apparatus having such a configuration will be described below.
First, a method for actually detecting a photographer's gazing point will be described below with reference to a flowchart shown in FIG.
First, the user turns on this switch of the external operation unit 30 (step ST11). When the result is received by the central controller 18, the power control unit 28 is controlled with respect to the second CCD unit 36 and the second front end unit 37 to supply power and start imaging (step ST12). ).
[0015]
Image information converted into a digital signal by the first front end unit 15 is input to the signal processing unit 17 from the first CCD unit 14 facing the subject, and the luminance is calculated (step ST13).
[0016]
At the same time, the second CCD unit 36 facing the photographer forms an image of the photographer, particularly a face image, and a second front end unit 37 that directly connects the analog data to the second CCD unit 36. Thus, it is converted into a digital signal and the information is sent to the signal processor 17 (step ST14).
In the signal processing unit 17, the digital signal input from the second front end unit 37 is pasted and stored in the SDRAM memory 41 via the SDRAM controller 40 (step ST15).
[0017]
As shown in FIG. 2, the central control unit 18 performs sharpness and skin color area detection from face information stored in the SDRAM memory 41, specifies a face, and then detects an area with white information (step). ST15).
Then, as shown in FIG. 3, the vertical and horizontal ranges are determined from the detected white information area, and the region Z where the vertical and horizontal portions overlap on the straight line extending from the maximum and minimum points of the range is stored on the SDRAM memory 41. Extracted from the main image and stored in another memory area (steps ST16, ST17, ST18).
[0018]
There are two methods for detecting the actual pupil size from the stored area, ie, color difference and binarization. This time, the binarization method will be described.
The area of the human eye varies in shades of white, iris, and pupil. As shown in FIG. 4, the central control device 18 changes the binarization threshold value for each step in the stored area in order to accurately detect the shading (step ST19).
[0019]
After changing the threshold and binarizing, the sharpness is detected, the minimum circumference sharpness in the stored area is calculated, the whiteness of the width, the maximum circumference sharpness is calculated. The widths A21 and A22 of the circumference of the portions A11 and A12, the next iris portion, and the widths A31 and A32 of the outer periphery of the pupil are determined (step ST20).
If the information from A11 to A32 cannot be specified with the above threshold, the threshold is incremented or decremented again, and the same processing is performed again (step ST21).
[0020]
Further, from the coordinate information of the outer peripheral widths A31 and A32 of the pupil, the center point coordinate P1 that is the actual gazing point of the pupil is obtained by (A31 + A32) / 2 (step ST22).
[0021]
Next, the center point coordinate P1 is subjected to position correction using the result of calibration described later (step ST23).
[0022]
If the corrected center point coordinate P1 is not moved or exceeded the threshold value from the previous state, a position character display is generated from the result of the center point coordinate P1 and passed through the display control unit 21. It displays on LCD22 which is a display (step ST24, ST25).
[0023]
The calibration associates the relationship between the eye gazing point and the display area of the LCD 22, and at the time of calibration, as shown in FIGS. 6 and 7, the index (Po (127, 127)) and the LCD 22 are centered. The characters (Py (0, 255), Px (255, 0)) are displayed at the four corners of the screen, and the photographer pays attention so that the pupil center reference coordinates (Po (0, 0)) and the coordinates of the four corners are obtained. This calibration will be described later.
[0024]
Then, assuming that the center point is (0.0), each corner is calculated as a prescribed offset value therefrom. The result is held in the central controller 18. The recorded information can be stored in a memory such as an EEPROM.
[0025]
Next, when the position of the pupil of the photographer changes, as shown in FIG. 5, the human eye region has different shades of white, iris, and pupil, as in the process shown in FIG. The central control device 18 changes the binarization threshold value for each step in the stored area in order to accurately detect the shading. After changing the threshold and binarizing, the sharpness is detected, the minimum circumference sharpness in the stored area is calculated, the whiteness of the width, the maximum circumference sharpness is calculated. By determining the widths A21 and A22 of the circumference of the portions A11 and A12, the next iris portion, and the widths A31 and A32 of the outer periphery of the pupil, the center point coordinate P2 of the moved pupil is obtained. When the specified area extracted when the center point coordinate P2 is detected is extremely deviated, the previous extracted area is compared with Z (see FIG. 3), and after the position correction is performed, the final center point coordinates Let P2.
[0026]
As shown in FIG. 7, the center point determines the movement position in the screen based on the ratio to the calibrated center position. Here, if the information of the center point coordinate P2 exceeds the calibrated offset values of the four corners, the position character display on the LCD 22 remains at the previous position.
If it is within the range, as shown in FIG. 8, the central control unit generates a character display (P1 (10, -20)) at the position of the center point coordinate P2, and passes it through the display control unit 21 to the LCD 22. indicate.
If the coordinate position is within the character display area where the function is turned on, the central controller 18 starts counting. The central control unit 18 decrements the count, and if there is a gazing point in the area even when it becomes zero, the function in the area is turned on to change the setting or the like.
[0027]
It is obvious that it is possible to focus on a certain area using this method. That is, when the captured image is displayed on the LCD 22, the specific area determined by the gazing point is focused. In this way, for example, when the distant position of the subject is set as a gazing point, the distant area is focused.
This point will be described later.
If the user turns off the LCD 22, the central controller 18 determines this, and stops the power supply to the second CCD unit 36 and the second front end unit 37 for imaging the photographer, or the power saving mode. To migrate.
[0028]
When the central control unit 18 detects that the LCD 22 is turned on again by a user operation, the power supply of the second CCD unit 36 and the second front end unit 37 is restored, and the switch is turned on again. If there is, the above process is resumed.
[0029]
Next, calibration will be described with reference to the flowchart shown in FIG.
First, when the gazing point input switch is turned on, a calibration character is displayed on the LCD 22 (steps ST31 and ST32).
Next, the process of gazing point described in the flowchart of FIG. 10 is started, the counter is decremented, and the setting position is notified to the user by changing the character state (steps ST33 and ST34).
[0030]
When the counter is not zero, the counter is decremented at regular intervals until the counter reaches zero (steps ST35 and ST36).
[0031]
When the counter reaches zero, the gazing point processing result is registered in association with the designated position (step ST37).
[0032]
If there is a next calibration position, a counter is preset, and the gazing point processing results in steps ST34 to ST37 are registered in association with the designated position (steps ST38 and ST39).
[0033]
Next, when there is no calibration position, after completion display, the display returns to normal display (step ST40).
[0034]
The calibration is performed in this manner. For example, as shown in FIG. 9, the center position is (127, 127) on the LCD, whereas the user position is (30, 30). The position of the left top is (0, 255) on the LCD, whereas the position of the user is (20, 40), and the position of the right top is (255, 255) on the LCD, whereas the position of the user is The position is (40, 40), the position of the left bottom is (0, 0) on the LCD, whereas the position of the user is (20, 20), and the position of the right bottom is (0, 255) on the LCD. On the other hand, the user's position can be associated with (40, 20).
[0035]
Next, focusing on the captured image by obtaining the gazing point will be described with reference to a flowchart shown in FIG.
First, a gazing point input switch is turned on, the counter is reset, and gazing point processing starts (steps ST41 and ST42).
[0036]
Then, it is confirmed whether or not the gazing point is in the designated area (step ST43).
[0037]
When the gazing point exists in the designated area, the counter decrement is started (step ST44).
[0038]
When the counter is not zero, the counter is decremented at regular intervals (steps ST45 and ST46).
[0039]
When the counter is zero, it is checked whether the gazing point still exists in the designated area (step ST47).
[0040]
When the gazing point is present in the designated area, a process assigned to the designated area, that is, a process for focusing the designated area is executed (step ST48).
[0041]
As described above, the image pickup apparatus of the present invention has the second image pickup means 38 that can capture the face of the photographer, particularly the eyes, separately from the first image pickup means 16 for picking up the subject. From the received signal, the position of the pupil is detected from the photographer's face information, the eye gazing point is calculated from the result, and the gazing point is displayed on the LCD 22, so that no button is used for the user. It is possible to provide an input method that can be operated.
In addition, by performing so-called calibration that gives the relationship between the eye position and the display area of the LCD 22, versatility can be given to the movement range of the user's eyes.
Further, since the setting and the like can be changed by looking at the character on the LCD 22 by the above input method, buttons and switches can be reduced, and further miniaturization becomes possible.
Further, since there is no need to look into the conventional electronic viewfinder, a miniaturized and general-purpose line-of-sight input device can be provided.
[0042]
【The invention's effect】
As described above, the imaging apparatus according to the present invention includes the second imaging unit for imaging the face of the photographer, particularly the eyes, in addition to the first imaging unit for imaging the subject. By setting the imaging function of the captured image displayed on the LCD from the gazing point that is the position of the pupil of the imaged eye, various shooting conditions can be set and changed depending on the photographer's eyes Thus, operation members such as buttons and switches can be omitted, and the apparatus itself can be reduced in size and size.
[Brief description of the drawings]
FIG. 1 is a block diagram of an imaging apparatus according to the present invention.
FIG. 2 is an explanatory diagram in which a photographer's face portion imaged by the second imaging means is displayed on an imaging screen of a display unit.
FIG. 3 is an explanatory diagram showing a state in which a white part of an eye, an iris, and a pupil part are extracted.
FIG. 4 is an explanatory diagram showing a state in which the pupil of the eye has moved.
FIG. 5 is an explanatory diagram showing a state of calibration showing the relationship between the LCD area of the display unit and the movement of eyes;
FIG. 6 is an explanatory diagram showing the relationship between the display area of the LCD and the eyes.
FIG. 7 is an explanatory diagram showing the relationship between the display area of the LCD and the eyes.
FIG. 8 is a table showing the relationship between the calibrated LCD position and the eye position.
FIG. 9 is a table showing an image of calibration data.
FIG. 10 is a flowchart for inputting a gazing point.
FIG. 11 is a flowchart of calibration in gazing point input.
FIG. 12 is a flowchart of focus processing in gazing point input.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 11; 1st lens part, 12; 1st shutter, 13; 1st iris, 14; 1st CCD part, 15; 1st front end part, 16; 1st imaging means, 17; Processing unit 18; Central control unit 19; RAM unit 20; ROM unit 21; Display control unit 22; LCD 23; Memory card 24; Memory interface unit 25; Timing generator 26; Vertical driver 27; lens / iris driver, 28; power control unit, 29; temperature sensor, 30; external operation unit, 31; first network interface unit, 32; second network interface unit, 33; second lens unit, 34; second shutter, 35; second iris, 36; second CCD unit, 37; second front end unit, 38; Second imaging means, 39; bus line, 40; SDRAM controller, 41; SDRAM memory.

Claims (2)

被写体を撮像する第1の撮像手段と、前記第1の撮像手段で撮像する画像が表示される表示器と、前記表示器をみている撮影者の目を撮像する第2の撮像手段と、前記第2の撮像手段で撮像した目の情報から撮影者の目の注視点を検出する注視点検出手段と、を備え、
前記注視点検出手段で検出された注視点の位置情報は、前記表示器の指定された位置にキャリブレーションキャラクターを表示させ、該キャリブレーションキャラクターをみて算出された注視点を前記表示器の表示領域に位置合わせるキャリブレーションによる情報であると共に、前記表示器で注視された表示領域に対して前記第1の撮像手段で撮像された被写体のフォーカスを追従させることを特徴とする撮像装置
A first image pickup means for picking up an image of a subject; a display on which an image picked up by the first image pickup means is displayed; a second image pickup means for picking up an eye of a photographer looking at the display; Gazing point detection means for detecting the gazing point of the photographer's eyes from the eye information imaged by the second imaging means,
The position information of the gazing point detected by the gazing point detection means displays a calibration character at a specified position of the display, and displays the gazing point calculated by looking at the calibration character in the display area of the display An image pickup apparatus characterized in that the focus of the subject imaged by the first image pickup means is made to follow the display area gazed at by the display device, as well as information by calibration for alignment with the display device
前記撮影者の注視点の位置情報は、前記表示器に表示するようにしたことを特徴とする請求項1に記載の撮像装置。  The imaging apparatus according to claim 1, wherein the position information of the gazing point of the photographer is displayed on the display.
JP2003135851A 2003-05-14 2003-05-14 Imaging device Expired - Fee Related JP4038817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003135851A JP4038817B2 (en) 2003-05-14 2003-05-14 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003135851A JP4038817B2 (en) 2003-05-14 2003-05-14 Imaging device

Publications (2)

Publication Number Publication Date
JP2004341112A JP2004341112A (en) 2004-12-02
JP4038817B2 true JP4038817B2 (en) 2008-01-30

Family

ID=33525989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003135851A Expired - Fee Related JP4038817B2 (en) 2003-05-14 2003-05-14 Imaging device

Country Status (1)

Country Link
JP (1) JP4038817B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5246121B2 (en) * 2009-09-29 2013-07-24 沖電気工業株式会社 Remote communication system and remote communication method
JP5633679B2 (en) * 2010-09-03 2014-12-03 カシオ計算機株式会社 Imaging apparatus and program
JP5750668B2 (en) * 2013-02-26 2015-07-22 オリンパス株式会社 Camera, playback device, and playback method
KR102154802B1 (en) * 2014-02-11 2020-09-11 삼성전자주식회사 Photogrpaphing method of electronic apparatus and electronic apparatus thereof
JP2016207042A (en) * 2015-04-24 2016-12-08 株式会社コーエーテクモゲームス Program and storage medium

Also Published As

Publication number Publication date
JP2004341112A (en) 2004-12-02

Similar Documents

Publication Publication Date Title
JP7346654B2 (en) Image processing device, imaging device, control method, program, and storage medium
US8570391B2 (en) Imaging apparatus and image processing method used in imaging device
US8890993B2 (en) Imaging device and AF control method
JP4904243B2 (en) Imaging apparatus and imaging control method
JP4732303B2 (en) Imaging device
JP5331128B2 (en) Imaging device
US20080122939A1 (en) Image capturing apparatus and control method therefor
JP2007028536A (en) Digital camera
US9569814B2 (en) Display control apparatus, image capture apparatus, display control method, and image capture apparatus control method
KR102400998B1 (en) Method and photographing device for controlling a function based on a gesture of a user
US7124053B2 (en) Image processing method and apparatus therefor
US8446510B2 (en) Method and apparatus for improving face image in digital image processor
JP2010171797A (en) Imaging apparatus and program
JPH09149311A (en) Image pickup device
JP2004349750A (en) Digital camera and control method therefor
JP4038817B2 (en) Imaging device
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2003289468A (en) Imaging apparatus
JP2004343317A (en) Imaging apparatus
US20230281859A1 (en) Image processing apparatus, control method thereof, image capturing apparatus, and storage medium
JP2014062926A (en) Autofocus system
JP5029350B2 (en) Imaging apparatus, program, and imaging method
KR101427656B1 (en) Apparatus and method for capturing human in digital image processing device
JPH10136233A (en) Image pickup device with electronic zoom function
JPH10188146A (en) Active camera and monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071028

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121116

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees