JP2021039167A - 画像処理装置及び画像処理装置の制御方法 - Google Patents

画像処理装置及び画像処理装置の制御方法 Download PDF

Info

Publication number
JP2021039167A
JP2021039167A JP2019158662A JP2019158662A JP2021039167A JP 2021039167 A JP2021039167 A JP 2021039167A JP 2019158662 A JP2019158662 A JP 2019158662A JP 2019158662 A JP2019158662 A JP 2019158662A JP 2021039167 A JP2021039167 A JP 2021039167A
Authority
JP
Japan
Prior art keywords
region
pupil
designated
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019158662A
Other languages
English (en)
Other versions
JP7418104B2 (ja
JP2021039167A5 (ja
Inventor
拓弥 石井
Takumi Ishii
拓弥 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019158662A priority Critical patent/JP7418104B2/ja
Priority to US17/002,138 priority patent/US11438498B2/en
Publication of JP2021039167A publication Critical patent/JP2021039167A/ja
Priority to US17/929,632 priority patent/US11812133B2/en
Publication of JP2021039167A5 publication Critical patent/JP2021039167A5/ja
Application granted granted Critical
Publication of JP7418104B2 publication Critical patent/JP7418104B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】 より撮影者の意図通りの瞳にピントを合わせること。【解決手段】 撮像素子から出力された画像信号に基づいて第1の領域に含まれる、第1の瞳に対応する第2の領域の検出結果に変化があった場合、前記第1又は第2の領域の中から1つの領域を指定する。【選択図】 図2

Description

瞳に自動的にピントを合わせることができる撮像装置に関する。
撮像素子を使用したデジタルカメラにおいて、撮像素子から得られた画像データから人の顔を検出し、顔に対応する画像データの領域から瞳が検出された場合には当該瞳にピントを合わせる技術が知られている。
特許文献1では、左右の瞳のいずれかにピントを合わせることをユーザが指定するモードの場合に、選択された瞳にピントを合わせることが開示されている。
特開2015−96961号公報
特許文献1によれば、左右の瞳のうち、ユーザが意図した瞳にピントを合わせることが可能である。しかしながら、特許文献1ではユーザビリティの面で課題が残る。例えば、ユーザが左右の瞳のいずれかを指定できるのは、指定したい瞳が検出できているときに限定される。その為、ユーザは指定したい瞳が検出できるまで待たなければならない。また、例えば、被写体が誰であろうと、左右の瞳のうち同じ瞳にピントを合わせてしまう。
そこで、本発明では、先行技術と比較して、撮影者がピントを合わせたい被写体の瞳が現在検出できているか否かに関わらず、狙った被写体の狙った瞳を指定することが可能な技術を提供することを目的としている。
そこで、本発明は、撮像素子から出力された画像信号に基づいて第1の領域を検出する第1の検出手段と、前記第1の領域に含まれる、瞳に対応する1つ以上の第2の領域を検出する第2の検出手段と、前記第1又は第2の領域の中から1つの領域を指定する指定手段と、前記指定手段で指定した領域に対応する画像信号に基づいてフォーカスレンズの駆動を制御する制御手段と、を有し、前記指定手段は、前記第2の領域の検出結果に変化があった場合、前記第1又は第2の領域の中から1つの領域を指定することを特徴とする。
本発明によれば、先行技術と比較して、より撮影者の意図通りの瞳にピントを合わせることができる。
本発明を実施するための構成図 本発明の実施例1の動作を示すフローチャート 自動瞳選択の方法を示すフローチャート 実施例1における、顔枠あるいは瞳枠表示の遷移例を示した図 実施例1における、指定した瞳が左右どちらかを判別するフローチャート 実施例1における、顔以外の領域を指定した際のフローチャート
本発明の各種実施例について、添付図面を参照して説明する。各実施形態では、瞳検出機能を有する撮像装置を例示する。瞳検出機能を有する撮像装置としては、ビデオカメラ、デジタルカメラおよび銀塩スチルカメラや、さらにカメラ機能を搭載したスマートフォンなどの携帯機器も本発明の一側面を構成する。
図1は本発明の第1実施形態に係る撮像装置の構成例を示す図であり、瞳AF機能を搭載したミラーレスカメラ(以下、カメラ)の構成を例示したものである。
交換レンズ100は、カメラ本体部120に装着可能な光学機器のうちの一つである。交換レンズ100は、主撮影光学系102、光量調節を行う絞り103、およびピント調節を行うフォーカスレンズ群104を含む撮影レンズユニット101を備える。
レンズシステム制御用マイクロコンピュータ(以下、レンズ制御部という)111は、絞り103の動作を制御する絞り制御部112、フォーカスレンズ群104の動作(駆動とも称する)を制御するフォーカスレンズ制御部113、などを備える。フォーカスレンズ制御部113は、カメラ本体部120から取得したフォーカスレンズ駆動情報に基づいてフォーカスレンズ群104を撮影レンズユニット101の光軸方向に駆動させ、カメラのピント調節を行う。
なお、フォーカスレンズ群104は、複数のフォーカスレンズを有していても、1枚のフォーカスレンズのみを有していても良い。また、ここでは図の簡略化のため、交換レンズの例として単焦点レンズを示しているが、焦点距離を変更可能なレンズ(ズームレンズ)であっても良い。ズームレンズである場合には、レンズ制御部113はズームレンズ位置を検出するエンコーダ出力から焦点距離情報する。また、手振れ補正機能を搭載したレンズの場合には、レンズ制御部113は、振れ補正用のシフトレンズ群などの制御も行う。
カメラ本体部120は、露出制御に用いるシャッター121や、CMOS(相補型金属酸化膜半導体)センサ等の撮像素子122を備える。撮像素子122の出力する撮像信号は、アナログ信号処理回路123で処理された後、カメラ信号処理回路124に送られる。
カメラシステム制御用マイクロコンピュータ(以下、カメラ制御部という)131は、撮像装置全体を制御する。例えば、カメラ制御部131は不図示のシャッター駆動用のモータを駆動制御し、シャッター121を駆動する。メモリカード125は撮影された画像のデータを記録する記録媒体である。撮影者によって操作されるレリーズスイッチ181の押下状態がカメラ制御部131に送られ、その状態に応じて撮像した画像がメモリカード125に記憶される。
画像表示部171は、撮影者がカメラで撮影しようとしている画像をモニタし、また撮影した画像を表示する液晶パネル(LCD)等の表示デバイスを備える。また、タッチパネル172は撮影者が指やタッチペンにより画像表示部171における座標を指定することができる操作部であり、画像表示部171とは一体的に構成することができる。例えば、タッチパネルを光の透過率が画像表示部171の表示を妨げないように構成し、画像表示部171の表示面の内部に組み込む内蔵型(インセル型)などである。そして、タッチパネル172上の入力座標と、画像表示部171上の表示座標とを対応付ける。これにより、あたかもユーザが画像表示部171上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。操作部172への操作状態はカメラ制御部131で管理される。
カメラ本体部120は、交換レンズ100とのマウント面に、交換レンズ100と通信を行うための通信端子であるマウント接点部161を備える。また、交換レンズ100は、カメラ本体120とのマウント面に、カメラ本体120と通信を行うための通信端子であるマウント接点部114を備える。
レンズ制御部105とカメラ制御部131は、マウント接点部114および161を介して所定のタイミングでシリアル通信を行うよう通信を制御する。この通信により、カメラ制御部131からレンズ制御部111にはフォーカスレンズ駆動情報、絞り駆動情報などが送られ、レンズ制御部111からカメラ制御部131へ焦点距離などの光学情報が送られる。
カメラ信号処理回路124は、顔情報検出部141を備え、さらに器官情報検出部142を備えており、器官情報検出部142は顔情報検出部141で検出した顔情報から、瞳、口などの器官情報を検出する。顔情報検出部141、器官情報検出部142における検出結果はカメラ制御部131に送られる。
カメラ制御部131には、本発明に関連するブロックとして、対象とする瞳を検出した顔情報から自動で選択する自動選択部151、検出した顔、あるいは瞳情報に対応して表示部171に表示させるための検出枠を設定する表示枠設定部152を有する。また、ユーザによる操作に応じて選択された瞳や顔を記憶する記憶部153、さらに、選択あるいは指定した瞳や顔を、ピントを合わせるべき被写体(対象被写体とも称する)として焦点検出部155に通知するAF対象被写体設定部154がある。これらは顔情報検出部141、器官情報検出部142の出力に基づいて動作する。焦点検出部155は、AF対象被写体設定部154によって通知されたピントを合わせるべき被写体に対応する画像信号に基づいて、焦点検出処理を行う。焦点検出処理は、例えば公知の位相差検出式や、コントラスト検出式等によって実行される。位相差検出式の場合、焦点検出処理として、視差を有する一対の像信号を相関演算することで算出された像すれ量の算出、もしくは像ずれ量を更にデフォーカス量に変換して算出する処理が行われる。デフォーカス量は、交換レンズ100のレンズ駆動時の敏感度等を考慮することで、更にフォーカスレンズ駆動量へと変換することができる。カメラ制御部131は、焦点検出部155によって検出された焦点検出結果(像ずれ量またはデフォーカス量)あるいは焦点検出結果に基づいて算出されたフォーカスレンズ駆動量をレンズ制御部111に送信する。フォーカスレンズ制御部113は、カメラ制御部131から受信したフォーカスレンズ駆動情報に基づいて、フォーカスレンズの駆動を制御する。換言すると、カメラ制御部131がフォーカスレンズ制御部113を介してフォーカスレンズの駆動を制御する。
<瞳選択処理>
図2はカメラ制御部131の本発明の実施例1に関する動作を示すフローチャートである。図2の処理は、フレーム毎の画像が生成される度に行われるものとして説明するが、所定数のフレームごとに行うなど適宜変更可能である。
以下、図1、図2を参照しながら、本発明の実施例1の動作について詳細に説明する。
まず、顔情報検出部141は、撮像された画像信号から顔に対応する領域を検出する処理が行われる。更に器官情報検出部142は、当該画像信号から、顔情報検出部141で検出された顔に対応するに含まれる領域であって、瞳に対応する領域を検出する処理が行われる。
S201で、カメラ制御部131は、過去のフレームにおける検出結果に基づいて設定されていた顔枠、瞳枠、多点枠の表示フラグをすべてクリアし、S202へと移行する。
S202で、カメラ制御部131は、撮像された画像に対して、顔情報検出部141で顔が検出されたかどうかを判定する。顔が検出されていればS203へと移行し、顔が検出されていなければS216へ移行する。
S203で、カメラ制御部131は、S202で検出された顔のうち、主被写体の顔が検出されているかを判定する。主被写体の顔が検出されていればS205へと移行し、検出されていなければS204へと移行する。なお主被写体が決定されていない場合においても、S204へと移行する。主被写体とは後述のS218において枠を表示する対象であり、これまた後述のS219にて、焦点検出部155による焦点検出の対象となる被写体のことを表す。
S204で、カメラ制御部131は、現在検出されている顔の中から主被写体を決定し、さらに記憶部153は、どの被写体が主被写体であるかを記憶する。さらに瞳手動選択フラグもクリアした後、S205へと移行する。なおこのS204に入った場合、後述のS205〜S215、S218〜S219においては、このS204で決定した主被写体の顔、そしてその顔に対応する瞳に対して実施される。また主被写体の決定基準としては例えば「撮像された画像信号における顔領域が最も大きい顔」などである。
S205で、カメラ制御部131は、瞳手動選択フラグがセットされているかどうかを判定する。瞳手動選択フラグがセットされている場合はS211へと移行し、セットされていない場合はS206へと移行する。
S206において、カメラ制御部131は、前述のタッチパネル172の操作によって、左右どちらかの瞳が撮影者により手動選択されたかどうかを判定する。左右どちらかの瞳が手動選択された場合はS210へと移行し、指定されていない場合はS207へと移行する。このように撮影者により瞳選択のためのタッチ操作が行われた場合に、瞳が手動選択されたと判断する。
なおここで、現在の主被写体とは異なる被写体の顔領域内を、撮影者がタッチパネル172にタッチするなどにより、現在の主被写体とは異なる被写体の瞳を手動選択された場合は、その新たに選択された被写体を主被写体として設定し、以後のフローを実施する。またタッチパネル172の操作によって、どちらの瞳が選択されたかの判別の詳細は図5で後述する。
S207において、カメラ制御部131は瞳手動選択フラグをクリアする。なお瞳手動選択フラグがセットされていない場合は改めてクリアしても良いし、クリアしなくてもよい。そしてカメラ制御部131はS208へと移行する。
S208において瞳もしくは顔の自動選択処理が実行され、S209へと移行する。自動選択処理について、詳しくは図3で後述する。
S208で瞳もしくは顔が自動選択されると、S209で、カメラ制御部131は、自動選択されたのが瞳なら一重の瞳、顔なら一重の顔の枠表示フラグをセットし、S218へと移行する。
S210において、カメラ制御部131は、瞳手動選択フラグをセットし、さらに記憶部153はどの被写体の左右どちらの瞳が撮影者によって選択されたのかを記憶する。
S211において、カメラ制御部131は、撮影者によって選択された被写体の瞳が検出できているかどうかを判定する。具体的には、器官情報検出部142により、記憶部153で記憶している撮影者により選択された瞳と、一致するものがあるかどうかを判定する。
そして、検出できている場合にはS212へと移行し、検出できていない場合にはS215へと移行する。
S212において、カメラ制御部131は所定の瞳指定実施条件に基づき、瞳指定を実施するか否かを判定する。実施すると判定した場合はS213へと移行し、実施しないと判定した場合はS207へと移行する。
なお瞳指定実施条件とは例えば、「S206で瞳手動選択が行われてから所定時間以内」である。所定時間以内であればS213に移行し、所定時間を超えてればS207へと移行する。瞳指定実施条件は他にも、「瞳選択解除の操作が撮影者によって行われる」などや、「指定した被写体の顔における大きさ、位置、角度、信頼性、色、輝度、ボケ量、ブレ量それぞれが所定条件以内」などの例が挙げられる。そのような瞳指定実施条件を満たすならばS213に移行し、満たさないならばS207へと移行する。
なお最後の例をさらに具体的に述べると、指定した被写体の顔(以下、指定顔)の大きさが所定以上、指定顔と画像中心からの距離が所定以内、指定顔のピッチ、ロール、ヨー各方向の角度が所定範囲内の値、指定顔の検出信頼性は所定値以上、指定顔の輝度は所定範囲内の値、指定顔のボケ量は所定値以下、指定顔のブレ量は所定値以下、といった具合である。
S213では、自動選択に関するパラメータのリセットも行う。本実施例における自動選択に関するパラメータは、後述のS306、S307、S309で参照している自動選択した瞳の左右を変更するためのカウンタと、これまた後述のS304、S312で参照している瞳自動選択フラグであり、これらがリセット対象になる。パラメータのリセットを行った後はS214へと移行する。
S214では、瞳が指定されていることを示す二重枠の瞳表示フラグをセットし、S218へと移行する。
なお、カメラ制御部131は、S211において手動選択された瞳を検出できなかった場合は、S215で顔二重枠表示フラグをセットし、S218へと移行する。
さて、カメラ制御部131は、S202で顔検出できなかった場合には、S216で瞳手動選択フラグと自動選択パラメータをクリアする。さらに記憶部153は、主被写体情報をクリアする。また、カメラ制御部131は、S217で顔、瞳ともに検出できていない状態を示す多点枠表示を行うためのフラグをセットし、S218へと移行する。
S218において、セットされた枠表示フラグの条件に合わせて表示枠設定部152が顔枠、瞳枠、多点枠のいずれかを設定し、表示部171は当該設定に応じた表示を実行し、S219へと移行する。
そして、S219において、焦点検出部155による焦点検出を行う。そして、当該焦点検出の結果に基づいて、レンズ制御部111がフォーカスレンズの駆動を制御(以下、合焦)する。ここで、S202で顔検出がなされてないと判断された場合には、例えば多点枠の各々に対応する画像信号に基づいて焦点検出が行われる。このとき、例えば多点枠のうち最至近の焦点検出結果を選択するなど、公知の方法で枠を選択し、選択された枠に対応する焦点検出結果によってフォーカスレンズの駆動が制御される。また、自動/手動選択された瞳に対応する領域の検出がなされていない場合には、主被写体の顔に対応する領域の画像信号を用いて焦点検出が行われる。これら以外の場合には、自動/手動選択された瞳に対応する領域の画像信号を用いて焦点検出が行われる。
以上が実施例1の説明となる。撮影者が特定の被写体の瞳を選択したとき、選択した被写体の瞳が検出できていなくても、のちに選択した瞳が検出できれば、その瞳に合焦することが可能なところが本発明の実施例1の特徴的なところである。
<瞳自動選択処理>
図3はS208でカメラ制御部131によって実行される瞳もしくは顔の自動選択処理を説明するフローチャートである。
S301で、カメラ制御部131は、器官情報検出部142によって検出された目(瞳)の個数を判定する。両目が検出されていればS302、片目が検出されていればS303へと移行する。また、どちらの目も検出されてなければS313に移行し、S313にて自動選択部151は、顔を選択する。
両目が検出されている場合、S302において、自動選択部151は、顔情報検出部141で検出された顔の向き、顔位置に応じて左右どちらかの瞳を選択し、S304へと移行する。例えば顔が正面を向いている場合、画角の中心に近い瞳が選択され、顔が左右のどちらかを向いている場合はカメラに近い側の瞳を選択する。
自動選択部151は、S301で瞳が片側しか検出されていない場合は、S303で検出されている瞳を選択し、S304へと移行する。
次にS304で、カメラ制御部131は、瞳自動選択フラグがセットされているかを判定する。セットされている場合は、S305へと移行する。セットされていない場合はS311へと移行する。
S311で、カメラ制御部131は、今回選択した瞳が左右のどちらであるかを記憶部153に記憶させ、S312で瞳自動選択フラグをセットする。
一方、カメラ制御部131は、すでに瞳自動選択フラグがセットされていた場合には、S305において、S302あるいはS303で選択された瞳が、記憶部153に記憶されている、前回までに選択されていた瞳と同じかどうかを判定する。同じである場合はS309へと移行し、同じでない場合はS306以降で、今回選択した瞳に変更するかどうかを判定する処理を行う。
S306で、カメラ制御部131は、カウンタをインクリメントし、S307へと移行する。
S307で、カメラ制御部131は、カウンタが所定値以上かどうかを判定する。所定値以上の場合、記憶部153は、S308で今回選択した瞳を新たに記憶する。そして、カメラ制御部131は、S309でカウンタをリセットし、次の瞳の変更処理に備える。
一方、S307でカウンタが所定値以上になっていない場合は、カメラ制御部131はS310で、記憶部153に記憶されている前回までに選択されていた瞳に選択を変更する。これらのカウンタによる処理は、選択した瞳が切り替わり続けることにより表示が不自然になることを防ぐためである。
また、S305で選択した瞳が前回と同じ瞳だった場合は、カメラ制御部131は、S309でカウンタをクリアする。
以上のように、瞳自動選択処理では、例えば、顔が正面を向いている場合は画角内のより中心に近い瞳、また顔向きが正面ではなく左右どちらかに動いている場合にはより手前にある瞳を選択することによって、ピントが合わせやすくなるように設定する。また、選択していない方の瞳のピントが合いやすい状況になった場合には、選択する瞳を自動で切り替えるという動作を行っている。
<表示枠の表示例>
図4は、図2のフローチャートで示した表示枠の表示例を示したものであり、表示部171に表示される顔枠および瞳枠の例となる。
図4(a)は、自動選択時の表示であり、S209→S218と遷移した場合に表示される。
図4(b)は瞳指定時の枠表示であり、二重の瞳枠が表示される。S214→S218と遷移した場合の表示である。
また、図4(c)はS215→S218と遷移した場合の表示で、瞳手動選択はしているが、選択した瞳が検出できなかった場合の表示枠である。
そして図4(d)は、S217→S218と遷移した場合、すなわち全く顔が検出できなかった場合の多点枠表示となる。
尚、本実施例では、指定した瞳以外の瞳が検出された場合には顔枠のみを表示する構成としたが、これに限らない。指定した瞳以外の瞳のみが検出された場合には例えば瞳枠を一重にして、顔枠を二重枠にする(図4、(e)の表示)など、撮影者が瞳を指定中であることがわかるものであれば指定した瞳以外の瞳に枠がついても良い。
なお、本実施例ではピントを合わせるべき被写体として、左右どちらの瞳が選択されるかに着目して説明した。不図示であるが、選択された瞳に対応する撮像信号に基づいて、焦点検出部155による焦点検出処理が行われる。そして、焦点検出部155によって得られた焦点検出結果に基づいて、基づいて算出されたフォーカスレンズ駆動情報(フォーカスレンズの駆動情報又はこれに類する情報)を、カメラ制御部131がレンズ制御部111に送信する。これにより、適切な瞳にピントを合わせることができる。
<選択した瞳の判別方法>
図5はS206でカメラ制御部131によって実行される、左右どちらの瞳を指定したかの判別処理を説明するフローチャートである。
S501で、カメラ制御部131は、器官情報検出部142によって両方の瞳が検出されているかどうかを判定する。両方の瞳が検出されていればS503へと移行し、片方の瞳が検出された、もしくは両方の瞳ともに検出されていない場合はS502へと移行する。
S502で、器官情報検出部142は、顔情報検出部141で検出されているピッチ、ロール、ヨーの顔角度に基づき、非検出の瞳の座標とサイズを推定する。そしてS503へと移行する。
S503で、カメラ制御部131は、それぞれの瞳と、撮影者がタッチパネル172に対してタッチした位置(以下、タッチ位置)の距離を算出し、S504でタッチ位置と距離が近い方の瞳を指定する。
なお顔情報検出部141により複数の顔が検出されていた場合は、タッチ位置から最も顔領域の中心が近い顔でS501〜S504のフローを実施する。
<顔以外の領域指定時のフローチャート>
図6はカメラ制御部131によって実行される、顔以外の領域を指定したときの処理を説明するフローチャートである。
S601で、カメラ制御部131は、撮影者によって顔以外への領域が指定されたかを判定する。もし顔領域を指定していた場合、本フローの実施を中止し、図2のフローを改めて実施する。顔以外への領域を指定されていた場合は、S602で、表示枠設定部152は、その指定領域に対する二重枠を表示する。なお本実施例では顔以外の領域としているが、頭部以外の領域としても良いし、顔を含む全身領域以外としても良い。
以上、説明したように、左右、どちらかの瞳が指定された場合に、たとえ瞳が検出できてなくても、顔さえ検出できていれば、その後指定した瞳が検出できた時に瞳を指定状態に設定することができる。また瞳に対応した顔の検出が継続されている間は、指定状態を設定し続ける。これにより、撮影者が撮影を望んで設定した瞳にピントを合わせ続けることが可能である。また、当該顔が検出されなくなった場合や、瞳指定してから所定時間が経過したり、被写体が所定の状態に変化した場合は、当初撮影者が意図していたシーンとは異なるシーンになったと考えられることから、ユーザによる瞳の選択を解除して自動的に選択された瞳にピントを合わせる。これにより、シーンの変化にも柔軟に対応して瞳にピントを合わせ続けることが可能である。さらに、常に指定した瞳が選択できることにより、撮影者が望んだ瞳に対し常にピントを合わせることができる。
なお、本実施例では瞳に対応した顔の検出が継続されている間は瞳の指定状態を維持し、顔が検出されなくなったことに応じてユーザによる瞳の選択を解除する例を説明したが。ここで、顔に代えて人体や頭部を用いても良い。瞳に対応する人体や頭部を用いることで、顔の場合と同様、撮影者が意図している被写体を捉えることができている間は意図した瞳にピントを合わせ続けることができる。
<その他の実施例>
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータはがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。
122 撮像素子
124 カメラ信号処理回路
131 カメラ制御部
141 顔情報検出部
142 器官情報検出部
151 自動選択部
152 表示枠設定部
153 記憶部
171 表示部
172 タッチパネル

Claims (14)

  1. 撮像素子から出力された画像信号の画像において第1の領域を検出する第1の検出手段と、
    前記画像において、前記第1の領域に含まれる、瞳に対応する1つ以上の第2の領域を検出する第2の検出手段と、
    ユーザ操作による領域指定の指示を受け付けて、画像内で1つの領域を指定する指定手段と、
    前記指定手段で指定した領域に対応する被写体をピントを合わせる被写体として設定する設定手段と、を有し、
    前記指定手段は、前記第1の検出手段により前記第1の領域が検出されている場合、前記第2の領域の検出結果に関わらず、前記第1の領域に基づいた領域で前記瞳の指定を受け付けることを特徴とする画像処理装置。
  2. 前記第1の領域は顔に対応する領域であることを特徴とする、請求項1に記載の画像処理装置。
  3. 前記顔の角度に基づいて、検出できていない瞳に対応する第2の領域を推定する手段を有することを特徴とする、請求項1または2に記載の画像処理装置。
  4. 前記指定手段は、前記第2の領域の1つを指定されたが、その指定領域が非検出の場合、前記第1の領域を指定し、その後、前記第1の領域の前に指定していた前記第2の領域の1つが検出できた場合、その前記第2の領域の1つへの指定に切り替えることを特徴とする、請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 撮像素子から出力された画像信号を表示し、かつタッチパネルを備える表示部をさらに備え、前記指定手段は、前記表示部にユーザがタッチした位置に基づき、前記第2の領域の中から1つの領域を指定することを特徴とする、請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記第1、第2のうち少なくとも1つの領域の状態に基づき、前記第2の領域の中から1つの領域を指定するか否かの判断を行う判断手段をさらに備え、前記判断手段が指定すると判断した場合に、前記指定手段は前記第2の領域の中から1つの領域を指定することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 指定した領域の指定を解除する解除手段をさらに持つことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記解除手段は、指定してから所定の時間を経過しても指定した領域が検出できない場合、前記指定手段で指定した領域の指定を解除することを特徴とする請求項7に記載の撮像装置。
  9. 前記解除手段は、前記第1の検出手段によって前記第1の領域が検出されなくなった場合には、前記指定手段で指定した領域の指定を解除することを特徴とする請求項7または8に記載の画像処理装置。
  10. 前記指定手段は、前記表示部にユーザがタッチした位置に対し、距離が近い方の瞳に対応する第2の領域を指定することを特徴とする請求項5に記載の画像処理装置。
  11. 前記領域の状態とは、領域の大きさ、位置、角度、信頼性、色、輝度、ボケ量、ブレ量の少なくとも一つであることを特徴とする請求項6に記載の画像処理装置。
  12. 前記第1の検出手段は複数の顔に対応する領域を検出し、また第2の検出手段は複数の顔それぞれに含まれる、瞳に対応する領域を検出することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記指定手段が第1の領域と瞳のどちらでもない領域を新しく指定した場合、前記解除手段は前記第1もしくは第2の領域への指定を解除することを特徴とする請求項7乃至9のいずれか1項に記載の画像処理装置。
  14. 撮像素子から出力された画像信号において第1の領域を検出する第1の検出ステップと、
    前記画像において、前記第1の領域に含まれる、瞳に対応する1つ以上の第2の領域を検出する第2の検出ステップと、
    ユーザ操作による領域指定の指示を受け付けて、画像内で1つの領域を指定する指定ステップと、
    前記指定ステップで指定した領域に対応する画像信号に基づいてフォーカスレンズの駆動を制御する制御ステップと、を有し、
    前記指定ステップは、前記第1の検出手段により前記第1の領域が検出されている場合、前記第2の領域の検出結果に関わらず、前記第1の領域に基づいた領域で前記瞳の指定を受け付けることを特徴とする画像処理装置の制御方法。
JP2019158662A 2019-08-30 2019-08-30 画像処理装置及び画像処理装置の制御方法 Active JP7418104B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019158662A JP7418104B2 (ja) 2019-08-30 2019-08-30 画像処理装置及び画像処理装置の制御方法
US17/002,138 US11438498B2 (en) 2019-08-30 2020-08-25 Image processing apparatus and method for controlling image processing apparatus
US17/929,632 US11812133B2 (en) 2019-08-30 2022-09-02 Image processing apparatus and method for controlling image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019158662A JP7418104B2 (ja) 2019-08-30 2019-08-30 画像処理装置及び画像処理装置の制御方法

Publications (3)

Publication Number Publication Date
JP2021039167A true JP2021039167A (ja) 2021-03-11
JP2021039167A5 JP2021039167A5 (ja) 2022-09-02
JP7418104B2 JP7418104B2 (ja) 2024-01-19

Family

ID=74680482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019158662A Active JP7418104B2 (ja) 2019-08-30 2019-08-30 画像処理装置及び画像処理装置の制御方法

Country Status (2)

Country Link
US (2) US11438498B2 (ja)
JP (1) JP7418104B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117061869A (zh) * 2018-12-28 2023-11-14 株式会社尼康 电子设备、照相机以及程序
JP7418104B2 (ja) * 2019-08-30 2024-01-19 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
JP2022131706A (ja) * 2021-02-26 2022-09-07 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215403A (ja) * 2000-02-01 2001-08-10 Canon Inc 撮像装置および焦点の自動検出方法
US20080239139A1 (en) * 2007-03-30 2008-10-02 Samsung Electronics Co.; Ltd Mobile communication terminal and method for displaying image using focus information thereof
JP2009037067A (ja) * 2007-08-02 2009-02-19 Canon Inc 撮像装置及びその制御方法
US20120147252A1 (en) * 2010-12-10 2012-06-14 Keiji Kunishige Imaging device and af control method
WO2015045911A1 (ja) * 2013-09-24 2015-04-02 ソニー株式会社 撮影装置、撮影方法、およびプログラム
US20160295100A1 (en) * 2015-04-03 2016-10-06 Canon Kabushiki Kaisha Focus detection apparatus and control method therefor
JP2016197179A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 焦点検出装置およびその制御方法
CN108093170A (zh) * 2017-11-30 2018-05-29 广东欧珀移动通信有限公司 用户拍照方法、装置及设备
JP2019120748A (ja) * 2017-12-28 2019-07-22 キヤノン株式会社 電子機器及びその制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5156108B2 (ja) * 2011-04-23 2013-03-06 オリンパスイメージング株式会社 撮像装置および撮像方法
JP5911557B2 (ja) 2014-12-16 2016-04-27 オリンパス株式会社 撮像装置
JP6186521B2 (ja) * 2014-12-26 2017-08-23 富士フイルム株式会社 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
JP2018207309A (ja) * 2017-06-05 2018-12-27 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP7418104B2 (ja) * 2019-08-30 2024-01-19 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215403A (ja) * 2000-02-01 2001-08-10 Canon Inc 撮像装置および焦点の自動検出方法
US20080239139A1 (en) * 2007-03-30 2008-10-02 Samsung Electronics Co.; Ltd Mobile communication terminal and method for displaying image using focus information thereof
JP2009037067A (ja) * 2007-08-02 2009-02-19 Canon Inc 撮像装置及びその制御方法
US20120147252A1 (en) * 2010-12-10 2012-06-14 Keiji Kunishige Imaging device and af control method
JP2012123301A (ja) * 2010-12-10 2012-06-28 Olympus Imaging Corp 撮像装置
CN102572269A (zh) * 2010-12-10 2012-07-11 奥林巴斯映像株式会社 摄像装置以及af控制方法
WO2015045911A1 (ja) * 2013-09-24 2015-04-02 ソニー株式会社 撮影装置、撮影方法、およびプログラム
US20160295100A1 (en) * 2015-04-03 2016-10-06 Canon Kabushiki Kaisha Focus detection apparatus and control method therefor
JP2016197179A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 焦点検出装置およびその制御方法
CN108093170A (zh) * 2017-11-30 2018-05-29 广东欧珀移动通信有限公司 用户拍照方法、装置及设备
JP2019120748A (ja) * 2017-12-28 2019-07-22 キヤノン株式会社 電子機器及びその制御方法

Also Published As

Publication number Publication date
JP7418104B2 (ja) 2024-01-19
US20210067685A1 (en) 2021-03-04
US11812133B2 (en) 2023-11-07
US11438498B2 (en) 2022-09-06
US20220417423A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
US9888182B2 (en) Display apparatus
JP4884417B2 (ja) 携帯型電子装置及びその制御方法
JP5967432B2 (ja) 処理装置、処理方法、及び、プログラム
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
CN108377329B (zh) 摄像装置及其控制方法
JP7484866B2 (ja) ブレ補正装置、交換レンズ、撮像装置及び像ブレ補正方法
US11812133B2 (en) Image processing apparatus and method for controlling image processing apparatus
US11450131B2 (en) Electronic device
US9451149B2 (en) Processing apparatus, processing method, and program
JP2021105694A (ja) 撮像装置およびその制御方法
JP6357646B2 (ja) 撮像装置
JP6465705B2 (ja) 動きベクトル検出装置、動体角速度算出装置、撮像装置およびレンズ装置
JP6326631B2 (ja) 撮像装置
JP6465566B2 (ja) 撮像装置及び撮像方法
JP5744527B2 (ja) 撮像装置及びその制御方法
JP7277149B2 (ja) 撮像装置及びその制御方法
JP6231768B2 (ja) 撮像装置及びその制御方法
US10951829B2 (en) Image capturing apparatus and method for controlling display
US20230106750A1 (en) Image capturing apparatus for photometry, control method, and storage medium
JP6724395B2 (ja) 画像表示制御装置、画像表示制御方法及び画像表示制御プログラム
JP2008178031A (ja) 撮像装置
JP2021040183A (ja) 画像処理装置及び画像処理方法
JP2016122132A (ja) 像振れ補正装置並びにその制御方法、プログラム及び記憶媒体
JP2018056650A (ja) 光学装置、撮像装置および制御方法
JP2020052400A (ja) ズーム制御装置およびその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R151 Written notification of patent or utility model registration

Ref document number: 7418104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151