JP7542973B2 - 撮像装置およびその制御方法 - Google Patents

撮像装置およびその制御方法 Download PDF

Info

Publication number
JP7542973B2
JP7542973B2 JP2020047545A JP2020047545A JP7542973B2 JP 7542973 B2 JP7542973 B2 JP 7542973B2 JP 2020047545 A JP2020047545 A JP 2020047545A JP 2020047545 A JP2020047545 A JP 2020047545A JP 7542973 B2 JP7542973 B2 JP 7542973B2
Authority
JP
Japan
Prior art keywords
subject
imaging
state
area
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020047545A
Other languages
English (en)
Other versions
JP2021150760A5 (ja
JP2021150760A (ja
Inventor
暁彦 上田
嘉人 玉木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020047545A priority Critical patent/JP7542973B2/ja
Priority to US17/202,811 priority patent/US11662809B2/en
Publication of JP2021150760A publication Critical patent/JP2021150760A/ja
Publication of JP2021150760A5 publication Critical patent/JP2021150760A5/ja
Application granted granted Critical
Publication of JP7542973B2 publication Critical patent/JP7542973B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Ophthalmology & Optometry (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、撮像装置の制御に関する。
撮像装置には、撮像を指示するボタン操作による撮像タイミングの遅れを解消するために、特許文献1に開示されているように撮像画面内でのユーザの視線(注視位置)を検出し、該注視位置が撮像画面内で設定された焦点検出領域に一致することに応じて撮像を行うものがある。
特開平5-100148号公報
しかしながら、特許文献1の撮像装置では、焦点検出領域に含まれる被写体が撮像に適した良好な状態にあるか否かにかかわらず撮像を行うため、ユーザが意図した撮像画像を取得できない場合がある。
本発明は、ユーザの視線を利用した撮像を行うことができ、かつ良好な状態の被写体を撮像することができるようにした撮像装置を提供する。
本発明の一側面としての撮像装置は、被写体像を撮像する撮像素子と、該撮像素子の出力を用いて生成された画像データを表示する表示手段と、表示手段を見るユーザの視線を検出する視線検出手段と、画像データから被写体の状態を検出する被写体検出手段と、撮像素子による撮像領域のうち視線に対応する注視位置での被写体の状態に応じて撮像を行う制御手段とを有する。制御手段は、被写体の状態が撮像を行うための所定条件を満たす撮像対象領域を設定し、該撮像対象領域に対応する視線が検出されることに応じて撮像を行うことを特徴とする。
また本発明の他の一側面としての制御方法は、被写体像を撮像する撮像素子の出力を用いて生成された画像データを表示する表示手段を有する撮像装置に適用される。制御方法は、表示手段を見るユーザの視線を検出するステップと、画像データから被写体の状態を検出するステップと、撮像素子による撮像領域のうち視線に対応する注視位置での被写体の状態に応じて撮像を行うステップとを有する。そして、被写体の状態が撮像を行うための所定条件を満たす撮像対象領域を設定し、該撮像対象領域に対応する視線が検出されることに応じて撮像を行うことを特徴とする。なお、撮像装置のコンピュータに上記制御方法に従う処理を実行させるコンピュータプログラムも、本発明の他の一側面を構成する。
本発明によれば、ユーザの視線を利用した撮像を行うことができ、かつ良好な状態の被写体を撮像することができる。
本発明の実施例1である撮像装置の構成を示すブロック図。 実施例1において被写体の状態を判定する例を示す図。 実施例1において被写体の状態を判定する他の例を示す図。 実施例1において被写体の状態を判定するさらに別の例を示す図。 実施例1において実行される撮像処理を示すフローチャート。 実施例1において実行される撮像タイミング決定処理を示すフローチャート。 本発明の実施例2において実行される撮像処理を示すフローチャート。 本発明の実施例3において実行される撮像処理を示すフローチャート。
以下、本発明の実施例について図面を参照しながら説明する。
図1は、本発明の実施例1である撮像装置の構成を示す。本実施例では撮像装置として、デジタルカメラの構成を説明するが、本発明の撮像装置は画像処理装置、情報処理装置および電子機器等の各種装置に搭載されるものを含む。
撮像装置は、第1レンズ群101、絞りシャッタ102、第2レンズ群103、第3レンズ群105および光学ローパスフィルタ106を含む撮像光学系と、撮像素子107、電子フラッシュ115およびAF(オートフォーカス)補助光源116を備えている。また撮像装置は、ズームアクチュエータ111、絞りシャッタアクチュエータ112、フォーカスアクチュエータ114、CPU121、各種回路122~129、表示部131、操作部132およびフラッシュメモリ133を備えている。さらに撮像装置は、視線検出部134および撮像タイミング決定部135を備えている。
撮像光学系は、被写体からの光を結像させる。第1レンズ群101および第2レンズ群103は、光軸方向に移動して変倍(ズーミング)を行う。第3レンズ群105は、光軸方向に移動して焦点調節(フォーカシング)を行う。絞りシャッタ102は、その開口径を変化させて光量を調整したり静止画撮像において撮像素子107の露光量を制御したりする。光学ローパスフィルタ106は、偽色やモアレを軽減する。撮像素子107は、CMOSセンサやCCDセンサ等の光電変換素子であり、センサ駆動回路124により駆動されて撮像光学系により形成された被写体像(光学像)を撮像して撮像信号を出力する。
画像処理回路125は、撮像素子107からの撮像信号に対してガンマ変換やカラー補間等の各種処理を行うことにより画像データを生成する。
ズームアクチュエータ111は、ズーム駆動回路129により駆動され、第1レンズ群101および第2レンズ群103を光軸方向に移動させる。絞りシャッタアクチュエータ112は、絞りシャッタ駆動回路128により駆動され、絞りシャッタ102の開口径を変化させる。フォーカスアクチュエータ114は、AFにおいてフォーカス駆動回路126により駆動され、第3レンズ群105を光軸方向に移動させる。
電子フラッシュ115は、フラッシュ制御回路122により制御されて撮像時に被写体を照明するフラッシュ光を発光する。AF補助光源116は、補助光源駆動回路123により駆動され、低輝度または低コントラストの被写体に所定のパターン像を被写体に投影して焦点検出性能を向上させる。
CPU121は、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータおよび通信インターフェイス回路等を含むコンピュータである。CPU121は、ROMに記憶されたコンピュータプログラムに従ってAF処理、撮像処理、画像処理および記録処理等を実行し、各種回路の動作を制御する。具体的には、CPU121は、操作部132からのズーム指示に応じてズーム駆動回路129を通じてズームアクチュエータ111を制御する。またCPU121は、操作部132からの撮像準備指示に応じて、画像処理回路125からの画像データを用いて焦点検出を行い、その結果に応じてフォーカス駆動回路126を通じて第3レンズ群105の位置を制御するAF処理を行ったり、画像データから取得した輝度情報に応じて絞りシャッタ駆動回路128を通じて絞りシャッタ102に開口径を変化させる動作を行わせたりする。またCPU121は、操作部132からの静止画撮像指示または撮像タイミング決定部135からの撮像タイミングの通知に応じて絞りシャッタ102にシャッタ動作を行わせるとともに画像処理回路125に記録用静止画データを生成させる。さらにCPU121は、操作部132からの動画撮像指示に応じて、絞りシャッタ102の開口径制御を行いながら画像処理回路125に記録用動画データを生成させる。さらにCPU121は、被写体検出手段として、画像データから被写体を検出するとともに該被写体の状態(これについては後述する)を検出する。
表示手段としての表示部131は、LCD等の表示デバイスを含み、EVF(電子ビューファインダ)として画像データに対応した撮像前画像(プレビュー画像)や複数の焦点検出領域での合焦状態を表示したり、撮像後に記録用画像を表示したりする。また表示部131は、撮像モードに関する情報等の各種情報を表示する。
操作部132は、ユーザが操作可能な各種操作スイッチを備えており、ズーム指示、撮像準備指示および撮像指示等の各種指示を示す信号をCPU121に出力する。
フラッシュメモリ133は、撮像装置に対して着脱可能な記録媒体であり、記録用画像データ等を記録する。
視線検出手段としての視線検出部134は、表示部131に近傍に配置された赤外線発光部と受光センサを有し、赤外線発光部から発せられて表示部131を見ているユーザの眼球(角膜)で反射した赤外光により形成されるプルキニエ像を受光センサで受光して電気信号に変換する。視線検出部134は、受光センサからの電気信号を用いてユーザの眼球の回転角度、すなわちユーザの視線(ユーザが注視している方向であり、視線方向ともいう)を検出し、その情報をCPU121に出力する。CPU121は、視線検出部134により検出されたユーザの視線から、撮像領域としての撮像画面(プレビュー画像)内においてユーザが注視している位置(視線が向かう位置:以下、注視位置という)を特定し、その情報を撮像タイミング決定部135に出力する。
なお、視線検出部134として、表示部131を見ているユーザの目を撮像するカメラを設け、該カメラにより取得された画像データからユーザの視線を検出してもよい。
決定手段としての撮像タイミング決定部135は、視線検出部134から取得したユーザの注視位置と前述したようにCPU121が画像データから検出した被写体の状態とに応じて撮像タイミングを決定し、その撮像タイミングをCPU121に通知する。撮像タイミングが通知されたCPU121は、自動的に記録用静止画を取得するための撮像(以下、自動撮像という)を実行する。CPU121と撮像タイミング決定部135により制御手段が構成される。
本実施例にいう被写体の状態とは、被写体の顔(目や口等の器官)の状態や顔の向き、さらには被写体の姿勢を示している。撮像タイミング決定部135は、ユーザの注視位置に位置する被写体の顔や姿勢が撮像に適した状態であると判定したときを撮像タイミングとして決定する。
被写体の顔を検出する技術としては、ニューラルネットワークに代表される学習を用いた方法や、目、鼻、口および顔の輪郭等の物理的な形状の特徴部位を画像データからテンプレートマッチングを用いて検出する方法がある。また、肌の色や目の形等の特徴量を画像データから検出して統計的解析を用いて顔を検出する方法や、直前に顔が検出された位置の近傍であることを加味して顔を検出する方法や、服の色を参照して顔を検出する方法や、撮像画面の中央付近ほど顔を認識し易くする方法等もある。
本実施例では、CPU121は、画像データから一対の目(両目)、鼻、口および顔の輪郭を検出し、これらの相対位置から人物の顔を含む被写体領域(顔領域)を決定する方法を用いる。さらにCPU121は、顔以外の人体、動物および乗り物等の被写体に対しても、上述した顔の検出方法と同様の方法により被写体領域を検出する。
一方、被写体の姿勢の検出にも様々な方法を用いることができる。本実施例では、CPU121は、被写体が人体である場合に、顔の全体に対する器官の位置によって顔の向きを検出したり、画像データから人体の関節部位をDeep Learningを用いて推定し、推定した関節部位を繋ぎ合わせることによって人体の姿勢(関節の曲げ伸ばしや体の向き等)を検出したりする。さらにCPU121は、人体以外の動物や乗り物等の被写体に対しても、Deep Learningを用いた推定方法によりその姿勢を検出する。
また本実施例では、撮像タイミング決定部135が被写体が撮像に適した状態か否かを判定するために、撮像装置内の不図示のメモリや撮像装置が接続可能なネットワーク上に予め記憶させておいた撮像に適した(所定条件を満たす)被写体の状態を示す参照画像データを取得して用いてもよい。例えば、笑顔や目が撮像装置を向いているときの顔を示す参照画像データや、ジャンプしたり指でV字を作ったりするように撮像に際して被写体がよくとる特定姿勢を示す参照画像データを記憶させておき、それらの参照画像データと画像処理回路125からの画像データとを比較して、該画像データから参照画像データに合致する顔や姿勢を検出するようにしてもよい。顔や姿勢が検出できない場合には、撮像画面に占める被写体領域(つまりは被写体)のサイズの割合が所定値以上である状態を撮像に適した被写体の状態として判定するようにしてもよい。ここにいう所定値は、例えば水平画角の50%とすればよい。
図2(a),(b)は、被写体の状態の例として、ユーザが撮像装置の表示部131を通じて見ている被写体の顔の状態を示している。図2(a)は被写体の顔および目が撮像装置を向いているが表情が笑顔になっていない場合を示し、図2(b)は被写体の顔および目が撮像装置を向いており、かつ表情が笑顔になっている場合を示している。201はCPU121により検出された顔領域を示すようにプレビュー画像に重畳表示された被写体枠であり、202は視線検出部134による検出結果に応じた注視位置を示すようにプレビュー画像に重畳表示された注視マークである。
図2(a)ではユーザの注視位置と被写体の顔領域が一致している(顔領域に注視位置が含まれている)が、被写体の顔が笑顔ではないため、撮像タイミング決定部135は撮像に適した被写体の状態ではないと判定する。一方、図2(b)ではユーザの注視位置と被写体の顔領域が一致し、かつ被写体の顔が笑顔であるため、撮像タイミング決定部135は撮像に適した被写体の状態であると判定する。撮像タイミング決定部135は、被写体の状態が撮像に適した被写体の状態である(すなわち所定条件を満たす)と判定して撮像タイミングを決定することでCPU121が自動撮像を行う。被写体の顔が笑顔か否かは、笑顔とそれ以外の表情を識別する識別器を用いた学習技術等の既知の技術を用いて判定する。
なお、撮像タイミングを決定する所定条件(以下、撮像タイミング決定条件という)を笑顔とせず、被写体の顔または目が撮像装置を向いており、かつその状態が所定時間継続していることを撮像タイミング決定条件としてもよい。この際、器官検出によって被写体の目尻、目頭および瞳の中心の位置関係を検出して被写体の目の向きを判定してもよい。さらにユーザの注視位置に被写体の目が向いている状態が所定時間継続していることを撮像タイミング決定条件としてもよい。
さらに、被写体の笑顔、顔の向きおよび目の向きを組み合わせて、被写体の状態が撮像に適した状態であるか否かを判定してもよい。図3は、被写体が人であり、その姿勢の検出結果によって被写体の状態が撮像に適した状態として判定され得る例を示している。この図は、被写体がサッカーボールを蹴る直前の状態を示している。301はプレビュー画像に重畳表示された被写体枠であり、302はプレビュー画像に重畳表示された注視マークである。撮像タイミング決定部135は、注視位置に位置する被写体の姿勢の検出結果と予め記憶された撮像に適した状態として姿勢との一致度が所定値以上である場合に、その状態が撮像に適した状態であると判定して撮像タイミングを決定する。
図4(a),(b)は被写体が乗り物(車)である場合の例を示している。401はプレビュー画像に重畳表示された被写体枠であり、402はプレビュー画像に重畳表示された注視マークである。図4(a)ではユーザの注視位置と被写体領域とが一致しているが、撮像画面に占める被写体のサイズの割合が所定値より小さいため、撮像タイミング決定部135は撮像に適した被写体の状態ではないと判定する。一方、図4(b)では撮像画面に占める被写体のサイズの割合が所定値以上となるため、撮像タイミング決定部135は撮像に適した状態として判定する。
図5のフローチャートは、本実施例においてCPU121と撮像タイミング決定部135がコンピュータプログラムに従って実行する撮像処理を示している。ステップS501において、CPU121は、視線検出部134を通じてユーザの視線を検出し、その結果からプレビュー画像におけるユーザの注視位置を特定する。
次にステップS502では、CPU121は、プレビュー画像の画像データから人、顔、乗り物等の被写体を検出する。この際、CPU121は、自動的に画像データ全体から被写体を検出してもよいし、表示部131の表示画面上を指でタッチする等のユーザ操作によって指定された範囲内の画像データから被写体を検出するようにしてもよい。CPU121は、検出した被写体を含む矩形の領域を被写体領域として設定する。
次にステップS503では、CPU121は、撮像タイミング決定部135に、ステップS501で検出された注視位置と被写体領域との一致度を判定させる。具体的には、撮像タイミング決定部135は、被写体領域に注視位置が含まれる場合は一致度が高く、そうでない場合は一致度が低いと判定する。CPU121は、一致度が高い場合はステップS504に進み、一致度が低い場合はステップS501に戻る。
ステップS504では、CPU121は、注視位置が含まれる(視線に対応する)被写体領域を撮像対象領域としての被写体領域(以下、主被写体領域という)に設定する。そしてステップS505では、CPU121は、主被写体領域における焦点検出を行う。さらにステップS506では、CPU121は、ステップS505で行った焦点検出の結果に応じてフォーカシングを行う。
続いてステップS507では、CPU121は、主被写体領域に対する撮像タイミング決定条件を設定する。本ステップでの詳しい処理については後述する。CPU121により設定された撮像タイミング決定条件は撮像タイミング決定部135に通知される。
次にステップS508では、CPU121は、撮像タイミング決定部135に主被写体領域内の被写体の状態が撮像タイミング決定条件を満たしているかを判定させる。撮像タイミング決定部135は、被写体の状態が撮像タイミング決定条件を満たしている場合はステップS509にて撮像タイミングをCPU121に通知する。これにより、CPU121は自動撮像を行い、本処理を終了する。この際、CPU121は、自動撮像を行うことをユーザに知らせるために被写体枠や注視マークの表示形態(色や形等)を変更してもよい。
一方、被写体の状態が撮像タイミング決定条件を満たしていない場合は、撮像タイミング決定部135はそれをCPU121に通知する。これにより、CPU121はステップS501に戻る。
図6のフローチャートは、図5のステップS507でCPU121が実行する撮像タイミング決定条件を設定する処理を示している。まずステップS601では、CPU121は、前述した検出方法によって被写体の器官を検出可能か否か判定し、検出可能である場合はステップS602に進み、そうでない場合はステップS603に進む。
ステップS602では、CPU121は、撮像タイミング決定条件を、被写体の器官の特徴量が所定値以上である場合に設定する。例えば、被写体を顔とすると、図2(b)に示したように顔が笑顔であることを器官の特徴量が所定値以上であるとする。また、器官を目や口として、目がウィンクされていたり口が大きく開けられていたりすることを特徴量が所定値以上であるとしてもよい。こうして撮像タイミング決定条件を設定したCPU121は図5のステップS508に進む。
ステップS603では、CPU121は、前述した検出方法によって人体を検出可能であるか否かを判定し、検出可能である場合はステップS604に進み、そうでない場合はステップS607に進む。
ステップS604では、CPU121は、ステップS603で検出された人体の姿勢を前述した推定方法によって推定可能か否かを判定し、推定可能である場合はステップS605に進み、そうでない場合はステップS606に進む。
ステップS605では、CPU121は、撮像タイミング決定条件を、被写体の姿勢が所定姿勢に対して一致度が高い場合に設定する。所定姿勢は、前述したように撮像装置内のメモリやネットワーク上に予め記憶させておいた撮像に適した被写体の姿勢(状態)である。こうして撮像タイミング決定条件を設定したCPU121は図5のステップS508に進む。
ステップS606では、CPU121は、被写体の向きを推定可能か否かを判定し、推定可能である場合はステップS607に進み、そうでない場合はステップS608に進む。被写体の向きとは、顔の向きや体の向きを示す。顔の向きは前述したように顔の器官の検出結果から推定し、体の向きは前述したように被写体の姿勢の検出結果から推定する。
ステップS607では、CPU121は、撮像タイミング決定条件を被写体の向きとサイズに設定する。すなわち、前述したように、被写体の顔または体が撮像装置を向き、かつ撮像画面に占める被写体のサイズの割合が所定値以上である場合を撮像タイミング決定条件に設定する。一方、ステップS608では、CPU121は、撮像タイミング決定条件を被写体のサイズに設定する。すなわち、撮像画面に占める被写体のサイズの割合が所定値以上である場合を撮像タイミング決定条件に設定する。こうして撮像タイミング決定条件を設定したCPU121は図5のステップS508に進む。
本実施例によれば、ユーザの視線を利用した自動撮像を行うことができ、かつ良好な状態の被写体を撮像することができる。
次に、本発明の実施例2について説明する。本実施例における撮像装置の構成は実施例1と同じである。図7のフローチャートは、本実施例においてCPU121と撮像タイミング決定部135がコンピュータプログラムに従って実行する撮像処理を示している。本実施例では、まず被写体検出により主被写体領域の設定を行い、その後、撮像タイミング決定条件を設定し、さらに注視位置と主被写体領域の一致度が高い場合に自動撮像を行う。
具体的は、CPU121は、ステップS701で、図5のステップS502と同様に被写体検出を行い、次にステップS702において、被写体が検出された被写体領域を主被写体領域に設定する。この際、被写体領域が複数ある場合は、それらのうち撮像画面の中央等の所定位置に位置する又はユーザ指定の被写体領域を主被写体領域に設定する。そしてステップS703で主被写体領域での焦点検出を行い、ステップS704で焦点調節を行う。
次にCPU121は、ステップS705で、図5のステップS507および図6を用いて説明したように撮像タイミング決定条件を設定する。続いてCPU121は、ステップS706において、撮像タイミング決定部135に主被写体領域内の被写体の状態が撮像タイミング決定条件を満たしているかを判定させる。撮像タイミング決定部135は、被写体の状態が撮像タイミング決定条件を満たしている場合はそのことをCPU121に通知してステップS707に進み、そうでない場合はステップS701に戻る。
ステップS707では、CPU121は、ステップS501と同様に視線検出部134を通じてユーザの視線を検出して注視位置を特定する。そしてステップS708では、CPU121は注視位置と主被写体領域の一致度が高いか否かを判定し、高い場合はステップS709に進み、そうでない場合はステップS701に戻る。ステップS709では、CPU121は自動撮像を実行する。そして本処理を終了する。
本実施例によれば、主被写体領域の選択をユーザの視線検出で行う必要がないため、主被写体領域の選択までの時間を短縮することができる。そして主被写体領域の設定後に、主被写体領域とユーザの視線検出による注視位置との一致度が高いことを利用することで、自動撮像を行うことができる。
次に、本発明の実施例3について説明する。本実施例における撮像装置の構成は実施例1と同じである。図8のフローチャートは、本実施例においてCPU121と撮像タイミング決定部135がコンピュータプログラムに従って実行する撮像処理を示している。本実施例では、まず被写体検出を行った後に撮像タイミング決定条件を設定し、その後、主被写体領域を設定し、さらに注視位置と主被写体領域の一致度が高い場合に自動撮像を行う。
具体的は、CPU121は、ステップS801で図5のステップS502と同様に被写体検出を行い、ステップS802で図5のステップS507および図6を用いて説明したように撮像タイミング決定条件を設定する。
次にCPU121は、ステップS803において撮像タイミング決定部135に被写体領域内の被写体の状態が撮像タイミング決定条件を満たしているかを判定させる。撮像タイミング決定部135は、被写体の状態が撮像タイミング決定条件を満たしている場合はそのことをCPU121に通知してステップS804に進み、そうでない場合はステップS801に戻る。
さらにCPU121は、ステップS804において、被写体の状態が撮像タイミング決定条件を満たしている被写体領域を主被写体領域に設定し、次にステップS805で主被写体領域での焦点検出を行い、ステップS806で焦点調節を行う。
続いてCPU121は、ステップS807において、ステップS501と同様に視線検出部134を通じてユーザの視線を検出して注視位置を特定する。そしてステップS808で注視位置と主被写体領域の一致度が高いか否かを判定し、高い場合はステップS809に進み、そうでない場合はステップS801に戻る。ステップS809では、CPU121は自動撮像を実行する。そして本処理を終了する。
本実施例によれば、撮像タイミング決定条件を満たした被写体を主被写体領域と設定することで、主被写体領域の選択をユーザの視線検出で行う必要がないため、主被写体領域の選択までの時間を短縮することができる。そして主被写体領域の設定後に、主被写体領域とユーザの視線検出による注視位置との一致度が高いことを利用することで、自動撮像を行うことができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。
121 CPU
125 画像処理回路
134 視線検出部
135 撮像タイミング決定部

Claims (16)

  1. 被写体像を撮像する撮像素子と、
    該撮像素子の出力を用いて生成された画像データを表示する表示手段と、
    前記表示手段を見るユーザの視線を検出する視線検出手段と、
    前記画像データから被写体の状態を検出する被写体検出手段と、
    前記撮像素子による撮像領域のうち前記視線に対応する注視位置での前記被写体の状態に応じて撮像を行う制御手段とを有し、
    前記制御手段は、
    前記被写体の状態が前記撮像を行うための所定条件を満たす撮像対象領域を設定し、
    該撮像対象領域に対応する前記視線が検出されることに応じて前記撮像を行うことを特徴とする撮像装置。
  2. 前記被写体は顔であり、
    前記被写体の状態は、目の向き、顔の表情および顔の向きのうち少なくとも1つを含むことを特徴とする請求項1に記載の撮像装置。
  3. 前記被写体は体であり、
    前記被写体の状態は、体の姿勢および向きのうち少なくとも1つを含むことを特徴とする請求項1に記載の撮像装置。
  4. 前記被写体の状態は、前記撮像領域における被写体のサイズであることを特徴とする請求項1に記載の撮像装置。
  5. 前記被写体検出手段は、前記撮像領域のうちユーザ指定の領域で前記被写体を検出することを特徴とする請求項1から4のいずれか一項に記載の撮像装置。
  6. 前記被写体の状態が目の向きであり、
    前記所定条件が、前記注視位置に前記被写体の前記目が向いていることであることを特徴とする請求項に記載の撮像装置。
  7. 前記被写体の状態が顔の表情であり、
    前記所定条件が、前記表情が笑顔であることであることを特徴とする請求項に記載の撮像装置。
  8. 前記被写体の状態が顔または体の向きであり、
    前記所定条件が、前記顔または前記体が前記撮像装置を向いていることであることを特徴とする請求項に記載の撮像装置。
  9. 前記被写体の状態が体の姿勢であり、
    前記所定条件が、前記姿勢が特定姿勢であることであることを特徴とする請求項に記載の撮像装置。
  10. 前記制御手段は、前記所定条件を満たす前記被写体の状態を含む参照画像データを取得し、該参照画像データと前記撮像素子の出力を用いて生成された前記画像データとを比較して前記被写体の状態が前記所定条件を満たすか否かを判定することを特徴とする請求項1から9のいずれか一項に記載の撮像装置。
  11. 前記被写体の状態が前記撮像領域における被写体のサイズであり、
    前記所定条件が、前記撮像領域に占める前記被写体のサイズの割合が所定値以上であることであることを特徴とする請求項に記載の撮像装置。
  12. 前記表示手段は、前記画像データに重畳するように前記注視位置を表示し、
    前記制御手段は、前記被写体の状態が前記所定条件を満たすことに応じて前記注視位置の表示形態を変更することを特徴とする請求項から11のいずれか一項に記載の撮像装置。
  13. 前記制御手段は、複数の条件の候補の中から、前記所定条件を選択し、選択された前記所定条件を満たす領域を撮像対象領域として設定することを特徴とする請求項1から12のいずれか一項に記載の撮像装置。
  14. 前記制御手段は、前記複数の条件の候補の中から、前記被写体の検出結果に基づいて前記所定条件を選択することを特徴とする請求項13に記載の撮像装置。
  15. 被写体像を撮像する撮像素子の出力を用いて生成された画像データを表示する表示手段を有する撮像装置の制御方法であって、
    前記表示手段を見るユーザの視線を検出するステップと、
    前記画像データから被写体の状態を検出するステップと、
    前記撮像素子による撮像領域のうち前記視線に対応する位置での前記被写体の状態に応じて撮像を行うステップとを有し、
    前記被写体の状態が前記撮像を行うための所定条件を満たす撮像対象領域を設定し、
    該撮像対象領域に対応する前記視線が検出されることに応じて前記撮像を行うことを特徴とする撮像装置の制御方法。
  16. 被写体像を撮像する撮像素子の出力を用いて生成された画像データを表示する表示手段を有する撮像装置のコンピュータに、請求項15に記載の制御方法に従う処理を実行させることを特徴とするコンピュータプログラム。
JP2020047545A 2020-03-18 2020-03-18 撮像装置およびその制御方法 Active JP7542973B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020047545A JP7542973B2 (ja) 2020-03-18 2020-03-18 撮像装置およびその制御方法
US17/202,811 US11662809B2 (en) 2020-03-18 2021-03-16 Image pickup apparatus configured to use line of sight for imaging control and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020047545A JP7542973B2 (ja) 2020-03-18 2020-03-18 撮像装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2021150760A JP2021150760A (ja) 2021-09-27
JP2021150760A5 JP2021150760A5 (ja) 2023-03-23
JP7542973B2 true JP7542973B2 (ja) 2024-09-02

Family

ID=77748859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020047545A Active JP7542973B2 (ja) 2020-03-18 2020-03-18 撮像装置およびその制御方法

Country Status (2)

Country Link
US (1) US11662809B2 (ja)
JP (1) JP7542973B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7706896B2 (ja) * 2021-02-18 2025-07-14 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
US11792506B2 (en) * 2022-02-09 2023-10-17 Motorola Mobility Llc Electronic devices and corresponding methods for defining an image orientation of captured images

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008311817A (ja) 2007-06-13 2008-12-25 Sony Corp 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP2010028606A (ja) 2008-07-23 2010-02-04 Olympus Imaging Corp 撮像装置および撮像装置の制御方法
JP2014187657A (ja) 2013-03-25 2014-10-02 Canon Inc 撮像装置およびその制御方法
WO2014178228A1 (ja) 2013-04-30 2014-11-06 ソニー株式会社 クライアント端末、表示制御方法、プログラム、およびシステム
JP2018129659A (ja) 2017-02-08 2018-08-16 キヤノン株式会社 画像処理装置、撮像装置および制御方法
JP2018201095A (ja) 2017-05-26 2018-12-20 キヤノン株式会社 動体予測機能を有する撮像装置
JP2019134204A (ja) 2018-01-29 2019-08-08 キヤノン株式会社 撮像装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05100148A (ja) 1991-10-04 1993-04-23 Nikon Corp 視線検出装置を有するカメラ
JP4227257B2 (ja) * 1999-08-12 2009-02-18 キヤノン株式会社 カメラ
JP2004294498A (ja) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd 自動撮影システム
WO2006040761A2 (en) * 2004-10-15 2006-04-20 Oren Halpern A system and a method for improving the captured images of digital still cameras
DE602006009191D1 (de) * 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
JP4464902B2 (ja) * 2005-11-09 2010-05-19 日本放送協会 カメラ制御装置およびカメラ制御プログラム
US9596401B2 (en) * 2006-10-02 2017-03-14 Sony Corporation Focusing an image based on a direction of a face of a user
JP4787180B2 (ja) * 2007-01-24 2011-10-05 富士フイルム株式会社 撮影装置及び撮影方法
JP4396720B2 (ja) * 2007-03-26 2010-01-13 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP4600435B2 (ja) * 2007-06-13 2010-12-15 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP4640456B2 (ja) * 2008-06-25 2011-03-02 ソニー株式会社 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム
JP2010177859A (ja) * 2009-01-28 2010-08-12 Nikon Corp カメラ
JP5402409B2 (ja) * 2009-08-31 2014-01-29 ソニー株式会社 撮影条件設定装置、撮影条件設定方法及び撮影条件設定プログラム
JP5641813B2 (ja) * 2010-08-17 2014-12-17 キヤノン株式会社 撮像装置及び撮像方法、画像処理装置及び画像処理方法
JP5246275B2 (ja) * 2011-01-25 2013-07-24 株式会社ニコン 撮像装置およびプログラム
KR101794350B1 (ko) * 2011-02-08 2017-12-04 삼성전자주식회사 휴대단말기의 영상 촬영 방법
KR101231469B1 (ko) * 2012-02-23 2013-02-07 인텔 코오퍼레이션 이미지 처리 지원 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
JP2014123261A (ja) * 2012-12-21 2014-07-03 Sony Corp 情報処理装置及び記録媒体
JP2014230087A (ja) * 2013-05-22 2014-12-08 オリンパス株式会社 撮像制御端末、撮像端末、撮像システム、撮像方法、及びプログラム
US9363431B2 (en) * 2013-07-11 2016-06-07 Magisto Ltd. Method and system for capturing important objects using a camera based on predefined metrics
JP2015159550A (ja) * 2015-03-19 2015-09-03 オリンパス株式会社 撮像装置、撮像方法およびプログラム
CA3029234A1 (en) * 2016-06-30 2018-01-04 Thalmic Labs Inc. Image capture systems, devices, and methods that autofocus based on eye-tracking
JP7425562B2 (ja) * 2019-08-14 2024-01-31 キヤノン株式会社 撮像装置およびその制御方法
JP7433860B2 (ja) * 2019-11-26 2024-02-20 キヤノン株式会社 電子機器及び電子機器の制御方法
JP7661036B2 (ja) * 2020-12-17 2025-04-14 キヤノン株式会社 撮像装置、撮像制御装置の制御方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008311817A (ja) 2007-06-13 2008-12-25 Sony Corp 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP2010028606A (ja) 2008-07-23 2010-02-04 Olympus Imaging Corp 撮像装置および撮像装置の制御方法
JP2014187657A (ja) 2013-03-25 2014-10-02 Canon Inc 撮像装置およびその制御方法
WO2014178228A1 (ja) 2013-04-30 2014-11-06 ソニー株式会社 クライアント端末、表示制御方法、プログラム、およびシステム
JP2018129659A (ja) 2017-02-08 2018-08-16 キヤノン株式会社 画像処理装置、撮像装置および制御方法
JP2018201095A (ja) 2017-05-26 2018-12-20 キヤノン株式会社 動体予測機能を有する撮像装置
JP2019134204A (ja) 2018-01-29 2019-08-08 キヤノン株式会社 撮像装置

Also Published As

Publication number Publication date
JP2021150760A (ja) 2021-09-27
US11662809B2 (en) 2023-05-30
US20210297587A1 (en) 2021-09-23

Similar Documents

Publication Publication Date Title
JP4182117B2 (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
US9147106B2 (en) Digital camera system
JP6184189B2 (ja) 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体
EP1628465A1 (en) Image capture apparatus and control method therefor
JP7113364B2 (ja) 撮像装置
JP2004317699A (ja) デジタルカメラ
JP2004320286A (ja) デジタルカメラ
JP2004320287A (ja) デジタルカメラ
US11509816B2 (en) Image processing apparatus, image pickup apparatus, and control method of image processing apparatus
JP2004320285A (ja) デジタルカメラ
JP7342883B2 (ja) 撮像制御装置、撮像装置、撮像制御方法
JP7633951B2 (ja) 画像処理装置、画像処理方法および撮像装置
JP7377078B2 (ja) 画像処理装置および画像処理方法、ならびに撮像装置
JP7542973B2 (ja) 撮像装置およびその制御方法
JP7337865B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP4290164B2 (ja) 識別領域を示す表示を画像と共に表示させる表示方法、コンピュータ装置に実行させるプログラム、および、撮像装置
JP5383308B2 (ja) 画像処理装置
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP2003289468A (ja) 撮像装置
US12483780B2 (en) Apparatus, method for apparatus, image capturing apparatus, and storage medium for providing a notification of blur of a subject in a captured image
JP7566830B2 (ja) 撮像装置、撮像装置の制御方法、プログラム
JP2024003432A (ja) 電子機器
JP7743189B2 (ja) 画像処理装置およびその制御方法、撮像装置
JP2025156436A (ja) 画像処理装置、撮像装置及びそれらの制御方法
JP7561000B2 (ja) 電子機器およびその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240821

R150 Certificate of patent or registration of utility model

Ref document number: 7542973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150