JP2021105694A - 撮像装置およびその制御方法 - Google Patents

撮像装置およびその制御方法 Download PDF

Info

Publication number
JP2021105694A
JP2021105694A JP2019238006A JP2019238006A JP2021105694A JP 2021105694 A JP2021105694 A JP 2021105694A JP 2019238006 A JP2019238006 A JP 2019238006A JP 2019238006 A JP2019238006 A JP 2019238006A JP 2021105694 A JP2021105694 A JP 2021105694A
Authority
JP
Japan
Prior art keywords
subject
detecting
line
range
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019238006A
Other languages
English (en)
Other versions
JP2021105694A5 (ja
JP7467114B2 (ja
Inventor
稔 廣瀬
Minoru Hirose
稔 廣瀬
邦明 杉谷
Kuniaki Sugitani
邦明 杉谷
鈴木 康之
Yasuyuki Suzuki
康之 鈴木
賢志 木本
Kenji Kimoto
賢志 木本
遼太朗 高橋
Ryotaro Takahashi
遼太朗 高橋
高行 赤熊
Takayuki Akakuma
高行 赤熊
健悟 竹内
Kengo Takeuchi
健悟 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019238006A priority Critical patent/JP7467114B2/ja
Priority to US17/132,686 priority patent/US11729503B2/en
Publication of JP2021105694A publication Critical patent/JP2021105694A/ja
Publication of JP2021105694A5 publication Critical patent/JP2021105694A5/ja
Application granted granted Critical
Publication of JP7467114B2 publication Critical patent/JP7467114B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

【課題】 大きさおよび位置が不定な複数の画像領域の1つを視線によって選択可能とするための視線判定領域を適切に設定可能な撮像装置およびその制御方法を提供することを目的とする。【解決手段】 ユーザの視線に基づいて、画像中の注視点の位置を検出する第1の検出工程と、前記注視点の位置、および、撮影条件に基づき、被写体を検出する範囲を設定する被写体を検出する第1の設定工程と、前記画像から特徴領域を検出する第2の検出工程と、前記被写体を検出する範囲に含まれる前記特徴領域の位置に応じて、焦点検出領域を設定する第2の設定工程と、を有する。【選択図】 図5

Description

本発明は、撮像装置およびその制御方法に関し、特には主被写体の選択を支援する技術に関する。
従来、同一の大きさを有し、位置が固定された複数の候補領域の1つを視線によって選択可能とした撮像装置が知られている(特許文献1)。このような撮像装置では、候補領域ごとに予め設定した検出領域のうち、視線の方向から得られる画像中の注視点の座標を含む視線判定領域に対応する候補領域を、ユーザが選択した領域とみなすことができる。
特開2005−249831号公報
例えば、大きさおよび位置が不定な複数の画像領域の1つを視線によって選択可能に構成しようとした場合、視線判定領域も動的に設定する必要があるが、従来、そのような技術は存在していなかった。
本発明はこのような従来技術の課題に鑑みてなされたものである。本発明は、大きさおよび位置が不定な複数の画像領域の1つを視線によって選択可能とするための視線判定領域を適切に設定可能な撮像装置およびその制御方法を提供することを目的とする。
本発明の技術的特徴として、ユーザの視線に基づいて、画像中の注視点の位置を検出する第1の検出工程と、前記注視点の位置、および、撮影条件に基づき、被写体を検出する範囲を設定する被写体を検出する第1の設定工程と、前記画像から特徴領域を検出する第2の検出工程と、前記被写体を検出する範囲に含まれる前記特徴領域の位置に応じて、焦点検出領域を設定する第2の設定工程と、を有することを特徴とする。
本発明によれば、大きさおよび位置が不定な複数の画像領域の1つを視線によって選択可能とするための視線判定領域を適切に設定可能な撮像装置およびその制御方法を提供することができる。
実施形態に係る撮像装置の機能構成例を示すブロック図である。 実施形態に係る撮像装置の射出瞳と光電変換部との対応関係の例を示す図である。 実施形態に係る視線検出部の構成例を示す模式図である。 第1実施形態に係る焦点検出領域の説明図である。 第1実施形態に係る被写体を検出する範囲に関する図である。 第1実施形態に係る視線方向の平均化処理に関する図である。 第1実施形態に係るフレキシブルゾーンAFの説明図である。 第1実施形態に係る焦点検出領域設定に関するフローチャートである。 第2実施形態に係る視線検出キャリブレーション処理に関するフローチャートである。 第2実施形態に係る視線検出キャリブレーション処理に関する図である。 第2実施形態に係る被写体を検出する範囲の設定処理に関するフローチャートである。 第3実施形態に係わる撮影者の眼球を表す図である。 第3実施形態に係わる視線検出部の構成例を示す模式図である。 第3実施形態に係わる被写体を検出する範囲に関する図である。 第3実施形態に係わる焦点検出領域設定に関するフローチャートである。 第4実施形態に係わる被写体を検出する範囲に関する図である。 第5実施形態に係わる被写体を検出する範囲に設定処理に関するフローチャートである。 第5実施形態に係わる被写体を検出する範囲に関する図である。 第6実施形態に係わる被写体を検出する範囲に設定処理に関するフローチャートである。 第6実施形態に係わる被写体を検出する範囲に関する図である。
以下、添付図面を参照して本発明をその例示的な実施形態に基づいて詳細に説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、その全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
なお、以下の実施形態では、本発明をレンズ交換式のデジタルカメラで実施する場合に関して説明する。しかし、本発明は視線検出機能ならびに撮像機能を搭載可能な任意の電子機器に対して適用可能である。このような電子機器には、ビデオカメラ、コンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、メディアプレーヤ、PDAなど)、携帯電話機、スマートフォン、ゲーム機、ロボット、ドローン、ドライブレコーダなどが含まれる。これらは例示であり、本発明は他の電子機器にも適用可能である。また、視線検出機能と撮像機能とを互いに通信可能な別個の機器(例えば本体とリモートコントローラ)に設ける構成にも本発明は適用可能である。
(第1の実施形態)
<撮像装置の構成>
図1は、本発明の実施形態にかかる撮像装置の一例としてのデジタルカメラシステムの機能構成例を示すブロック図である。デジタルカメラシステムは、レンズ交換式デジタルカメラの本体100と、本体100に着脱可能なレンズユニット150とを有している。なお、レンズ交換式であることは本発明に必須でない。
レンズユニット150は本体100に装着されると本体100に設けられた通信端子10と接触する通信端子6を有する。通信端子10および6を通じて本体100からレンズユニット150に電源が供給される。また、レンズシステム制御回路4と本体100のシステム制御部50とは通信端子10および6を通じて双方向に通信可能である。
レンズユニット150において、レンズ群103は可動レンズを含む複数のレンズから構成される撮像光学系である。可動レンズには少なくともフォーカスレンズが含まれる。また、レンズユニット150によっては、変倍レンズ、ぶれ補正レンズの1つ以上がさらに含まれうる。AF駆動回路3はフォーカスレンズを駆動するモータやアクチュエータなどを含む。フォーカスレンズは、レンズシステム制御回路4がAF駆動回路3を制御することによって駆動される。絞り駆動回路2は絞り102を駆動するモータアクチュエータなどを含む。絞り102の開口量は、レンズシステム制御回路4が絞り駆動回路2を制御することによって調整される。
メカニカルシャッタ101はシステム制御部50によって駆動され、撮像素子22の露光時間を調整する。なお、メカニカルシャッタ101は動画撮影時には全開状態に保持される。
撮像素子22は例えばCCDイメージセンサやCMOSイメージセンサである。撮像素子22には複数の画素が2次元配置され、各画素には1つのマイクロレンズ、1つのカラーフィルタ、および1つ以上の光電変換部が設けられている。本実施形態においては、各画素に複数の光電変換部が設けられ、光電変換部ごとに信号を読み出し可能に構成されている。画素をこのような構成にすることにより、撮像素子22から読み出した信号から撮像画像、視差画像対、および位相差AF用の像信号を生成することができる。
A/D変換器23は、撮像素子22から出力されるアナログ画像信号をデジタル画像信号(画像データ)に変換するために用いられる。なお、A/D変換器23は撮像素子22が備えてもよい。
図2(a)は、撮像素子22が有する画素が2つの光電変換部を有する場合の、レンズユニット150の射出瞳と各光電変換部との対応関係を模式的に示した図である。
画素に設けられた2つの光電変換部201aおよび201bは1つのカラーフィルタ252および1つのマイクロレンズ251を共有する。そして、光電変換部201aには射出瞳の部分領域253aを通過した光が、光電変換部201bには射出瞳の部分領域253bを通過した光が、それぞれ入射する。
したがって、ある画素領域に含まれる画素について、光電変換部201aから読み出された信号で形成される画像と、光電変換部201bから読み出される信号で形成される画像とは視差画像対を構成する。また、視差画像対は位相差AF用の像信号(A像信号およびB像信号)として用いることができる。さらに、光電変換部201aおよび201bから読み出される信号を画素ごとに加算することで、通常の画像信号(撮像画像)を得ることができる。
なお、本実施形態では撮像素子22の各画素が、位相差AF用の信号を生成するための画素(焦点検出用画素)としても、通常の画像信号を生成するための画素(撮像用画像)としても機能する。しかしながら、撮像素子22の一部の画素を専用の焦点検出用とし、他の画素を撮像用画素とした構成であってもよい。図2(b)は、専用の焦点検出用画素の構成と、入射光が通過する射出瞳の領域253についての一例を示している。図2(b)に示す構成の焦点検出用画素は、図2(a)の光電変換部201bと同様に機能する。実際には、図2(b)に示す構成の焦点検出用画素と、図2(a)の光電変換部201aと同様に機能する別の種類の焦点検出用画素とを撮像素子22の全体に分散配置することにより、実質的に任意の場所及び大きさの焦点検出領域を設定することが可能になる。
図2(a),(b)は、記録用の画像を得るための撮像素子を位相差AF用のセンサとして用いる構成であるが、本発明は大きさおよび位置が不定の焦点検出領域を利用可能であればAFの方式には依存しない。例えばコントラストAFを用いる構成であっても本発明は実施可能である。コントラストAFのみを用いる場合、各画素が有する光電変換部は1つである。
図1に戻り、A/D変換器23が出力する画像データ(RAW画像データ)は、必要に応じて画像処理部24で処理されたのち、メモリ制御部15を通じてメモリ32に格納される。メモリ32は画像データや音声データを一時的に記憶するバッファメモリとして用いられたり、表示部28用のビデオメモリとして用いられたりする。
画像処理部24は、画像データに対して予め定められた画像処理を適用し、信号や画像データを生成したり、各種の情報を取得および/または生成したりする。画像処理部24は例えば特定の機能を実現するように設計されたASICのような専用のハードウェア回路であってもよいし、DSPのようなプロセッサがソフトウェアを実行することで特定の機能を実現する構成であってもよい。
ここで、画像処理部24が適用する画像処理には、前処理、色補間処理、補正処理、検出処理、データ加工処理、評価値算出処理などが含まれる。前処理には、信号増幅、基準レベル調整、欠陥画素補正などが含まれる。色補間処理は、画像データに含まれていない色成分の値を補間する処理であり、デモザイク処理とも呼ばれる。補正処理には、ホワイトバランス調整、画像の輝度を補正する処理、レンズユニット150の光学収差を補正する処理、色を補正する処理などが含まれる。検出処理には、特徴領域(たとえば顔領域や人体領域)の検出および追尾処理、人物の認識処理などが含まれる。データ加工処理には、スケーリング処理、符号化および復号処理、ヘッダ情報生成処理などが含まれる。評価値算出処理には、位相差AF用の1対の像信号やコントラストAF用の評価値や、自動露出制御に用いる評価値などの算出処理が含まれる。なお、これらは画像処理部24が実施可能な画像処理の例示であり、画像処理部24が実施する画像処理を限定するものではない。また、評価値算出処理はシステム制御部50が行ってもよい。
D/A変換器19は、メモリ32に格納されている表示用の画像データから表示部28での表示に適したアナログ信号を生成して表示部28に供給する。表示部28は例えば液晶表示装置を有し、D/A変換器19からのアナログ信号に基づく表示を行う。
動画の撮影と、撮影された動画の表示とを継続的に行うことで、表示部28を電子ビューファインダ(EVF)として機能させることができる。表示部28をEVFとして機能させるために表示する動画をライブビュー画像と呼ぶ。表示部28は接眼部を通じて観察するように本体100の内部に設けられてもよいし、接眼部を用いずに観察可能なように本体100の筐体表面に設けられてもよい。表示部28は、本体100の内部と筐体表面との両方に設けられてもよい。
システム制御部50は例えばCPU(MPU、マイクロプロセッサとも呼ばれる)である。システム制御部50は、不揮発性メモリ56に記憶されたプログラムをシステムメモリ52に読み込んで実行することにより、本体100およびレンズユニット150の動作を制御し、カメラシステムの機能を実現する。システム制御部50は、通信端子10および6を通じた通信によってレンズシステム制御回路4に様々なコマンドを送信することにより、レンズユニット150の動作を制御する。
不揮発性メモリ56は書き換え可能であってよい。不揮発性メモリ56は、システム制御部50が実行するプログラム、カメラシステムの各種の設定値、GUI(Graphical User Interface)の画像データなどを記憶する。システムメモリ52は、システム制御部50がプログラムを実行する際に用いるメインメモリである。
システム制御部50はその動作の一部として、画像処理部24または自身が生成した評価値に基づく自動露出制御(AE)処理を行い、撮影条件を決定する。撮影条件は例えば静止画撮影であればシャッター速度、絞り値、感度である。システム制御部50は、設定されているAEのモードに応じて、シャッター速度、絞り値、感度の1つ以上を決定する。システム制御部50はレンズユニット150の絞り機構の絞り値(開口量)を制御する。また、システム制御部50は、メカニカルシャッタ101の動作も制御する。
また、システム制御部50は、画像処理部24または自身が生成した評価値もしくはデフォーカス量に基づいてレンズユニット150のフォーカスレンズを駆動し、レンズ群103を焦点検出領域内の被写体に合焦させる自動焦点検出(AF)処理を行う。
また、本実施形態の本体100は、異なる大きさの複数の焦点検出領域を備える。図4(a)は、1点AFを示す模式図であり、比較的小さな焦点検出領域401が設定され、動きの少ない被写体に対して、ピンポイントでピント合わせを行う際に適したAFエリアモードである。図4(b)は、ゾーンAFを示す模式図であり、比較的大きい焦点検出領域402が設定され、動きの速い被写体に対してピント合わせを行う際に、フレーミングによって被写体を捕捉しやすいAFエリアモードである。ここで、2つのAFエリアモードの例を説明したが、さらに多くのAFエリアモードを備えていても良い。
システムタイマー53は内蔵時計であり、システム制御部50が利用する。
操作部70はユーザが操作可能な複数の入力デバイス(ボタン、スイッチ、ダイヤルなど)を有する。操作部70が有する入力デバイスの一部は、割り当てられた機能に応じた名称を有する。シャッターボタン61、モード切替スイッチ60、電源スイッチ72は便宜上、操作部70と別に図示ししているが、操作部70に含まれる。表示部28がタッチディスプレイである場合、タッチパネルもまた操作部70に含まれる。操作部70に含まれる入力デバイスの操作はシステム制御部50が監視している。システム制御部50は、入力デバイスの操作を検出すると、検出した操作に応じた処理を実行する。
シャッターボタン61は半押し状態でONする第1シャッタースイッチ(SW1)62と、全押し状態でONする第2シャッタースイッチ(SW2)64とを有する。システム制御部50は、SW1のONを検出すると、静止画撮影の準備動作を実行する。準備動作には、AE処理やAF処理などが含まれる。また、システム制御部50は、SW2のONを検出すると、AE処理で決定した撮影条件に従った静止画の撮影および記録動作を実行する。
モード切替スイッチ60は、既に説明したAFエリアモードを切り替えて設定するための操作部であり、異なる大きさの焦点検出領域を有する複数のAFエリアモードからいずれか1つを選択することが可能である。
また、本実施形態の操作部70は、ユーザの視線方向を検出する視線検出部701を有している。視線検出部701はユーザが直接操作する部材ではないが、視線検出部701が検出した視線の方向を入力として取り扱うため、操作部70に含めている。
図3は、ファインダ内に設ける視線検出部701の構成例を模式的に示す側面図である。視線検出部701は、本体100の内部に設けられた表示部28をファインダのアイピースを通じて見ているユーザの眼球501aの光軸の回転角を視線の方向として検出する。検出された視線の方向に基づいて、ユーザが表示部28で注視している位置(表示画像中の注視点)を特定することができる。
表示部28には例えばライブビュー画像が表示され、ユーザはアイピースの窓を覗き込むことにより、表示部28の表示内容を接眼レンズ701dおよびダイクロックミラー701cを通じて観察することができる。光源701eは、アイピースの窓方向(本体100の外部方向)に赤外光を発することができる。ユーザがファインダを覗いている場合、光源701eが発した赤外光は眼球501aで反射されてファインダ内に戻ってくる。ファインダに入射した赤外光はダイクロックミラー701cで受光レンズ701b方向に反射される。
受光レンズ701bは、赤外光による眼球像を撮像素子701aの撮像面に形成する。撮像素子701aは赤外光撮影用のフィルタを有する2次元撮像素子である。視線検出用の撮像素子701aの画素数は撮影用の撮像素子22の画素数よりも少なくてよい。撮像素子701aによって撮影された眼球画像はシステム制御部50に送信される。システム制御部50は、眼球画像から赤外光の角膜反射の位置と瞳孔の位置とを検出し、両者の位置関係から視線方向を検出する。また、システム制御部50は、検出した視線方向に基づいて、ユーザが注視している表示部28の位置(表示画像中の注視点)を検出する。なお、眼球画像から角膜反射の位置と瞳孔の位置を画像処理部24で検出し、システム制御部50は画像処理部24からこれらの位置を取得してもよい。
なお、本発明は視線検出の方法や視線検出部の構成には依存しない。したがって、視線検出部701の構成は図3(a)に示したものに限定されない。例えば、図3(b)に示すように、本体100の背面に設けられた表示部28の近傍に配置されたカメラ701fにより得られた撮像画像に基づいて視線を検出してもよい。点線で示すカメラ701fの画角は、表示部28を見ながら撮影を行うユーザの顔が撮影されるように定められている。カメラ701fで撮影した画像から検出した目領域の画像に基づいて視線の方向を検出することができる。赤外光の画像を用いる場合にはカメラ701fの近傍に配置した光源701eで画角内の被写体に赤外光を投写して撮影を行えばよい。得られた画像から視線の方向を検出する方法は図3(a)の構成と同様でよい。また、可視光の画像を用いる場合には光を投射しなくてもよい。可視光の画像を用いる場合には、目領域の目頭と虹彩の位置関係などから視線の方向を検出することができる。
再び図1に戻り、電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、電池やACアダプター等からなる。
I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200には、撮影された画像や音声などのデータファイルが記録される。記録媒体200に記録されたデータファイルはI/F18を通じて読み出され、画像処理部24およびシステム制御部50を通じて再生することができる。
通信部54は、無線通信および有線通信の少なくとも一方による外部機器との通信を実現する。撮像素子22で撮像した画像(ライブビュー画像を含む)や、記録媒体200に記録された画像は、通信部54は通じて外部機器に送信可能である。また、通信部54を通じて外部機器から画像データやその他の各種情報を受信することができる。
姿勢検知部55は重力方向に対する本体100の姿勢を検知する。姿勢検知部55は加速度センサ、または角速度センサであってよい。システム制御部50は、撮影時に姿勢検知部55で検知された姿勢に応じた向き情報を、当該撮影で得られた画像データを格納するデータファイルに記録することができる。向き情報は、例えば記録済みの画像を撮影時と同じ向きで表示するために用いることができる。
本実施形態の本体100は、画像処理部24が検出した特徴領域が適切な画像となるように各種の制御を実施することが可能である。このような制御には以下の様なものがある。特徴領域に合焦させる自動焦点検出(AF)、特徴領域が適正露出となるような自動露出制御(AE)、特徴領域のホワイトバランスが適切になるような自動ホワイトバランス、および特徴領域の明るさが適切になるような自動フラッシュ光量調整。ただし、これらに限定されない。画像処理部24は例えばライブビュー画像に対して公知の方法を適用して、予め定められた特徴に当てはまると判定される領域を特徴領域として検出し、各特徴領域の位置、大きさ、信頼度といった情報をシステム制御部50に出力する。本発明は特徴領域の種類や検出方法には依存せず、また特徴領域の検出には公知の方法を利用可能であるため、特徴領域の検出方法についての説明は省略する。
また、特徴領域は、被写体情報を検出するためにも用いることができる。特徴領域が顔領域の場合、被写体情報としては、例えば、赤目現象が生じているか否か、目をつむっているか否か、表情(例えば笑顔)などがあるが、これらに限定されない。
本実施形態では、大きさおよび位置が不定である複数の画像領域の一例としての複数の特徴領域から、各種の制御に用いたり、被写体情報を取得したりするための1つの特徴領域(以下、主被写体領域と呼ぶ)を、ユーザが視線を用いて選択することを支援する。以下、検出されたユーザの視線を視線入力と呼ぶ。
<視線入力の特徴>
視線入力の特徴は、生体由来であることによる視線方向の不安定さである。ある一点を注視しているつもりでも、眼球が微小に移動したり、無意識に視線を外してしまったりすることがある。したがって、画像中の注視点を特定するためには、ある時間にわたって検出された視線方向を統計的に処理する必要がある。そこで、所定期間に検出された複数の注視点の位置に基づき、ノイズ低減処理を行うことで、注視点の位置を平滑化する。ノイズ低減処理においては、焦点検出領域の大きさが小さいほど、ノイズ低減効果が大きくなるようにノイズ低減処理を行う。
<視線入力による主被写体(または主被写体領域)の選択方法の概要>
本実施形態では、所定期間に連続的に検出された視線方向の平均値を算出することで、視線検出結果のばらつきを抑制し、現在時刻の視線方向を決定する。また、視線方向に対して、選択されたAFエリアモードによって設定される焦点検出領域の大きさに応じて被写体を検出する範囲を設ける。被写体を検出する範囲内に画像中より検出した特徴領域が含まれる場合は、その特徴領域を主被写体領域と見なし、焦点検出領域を主被写体領域の位置に設定する。
視線入力による主被写体の選択方法について、図5(a)〜(d)を参照しながら、詳細に説明する。図5は、特徴領域として顔領域を検出する構成において、画像中に2つの顔502、503が存在し、画像処理部24が顔領域504、505を検出した例を模式的に示している。
図5(a)および(b)は、AFエリアモードとして、動きの少ない被写体に対して、ピンポイントでピント合わせを行う際に適した1点AFが選択され、比較的小さい大きさの焦点検出領域501が設定されている。図5(a)の視線方向506は、視線検出部701で検出された情報を統計的に処理したある時刻の視線方向を示している。システム制御部50は、設定された焦点検出領域501の大きさに基づき、視線方向506に対して、よりピンポイントに主被写体が検出できるよう比較的小さい被写体を検出する範囲507を設定する。システム制御部50は、被写体を検出する範囲内に最も多く含まれる特徴領域504を主被写体として選択し、図5(b)に示すように焦点検出領域501を特徴領域504に重なるように設定する。
図5(c)および(d)では、AFエリアモードとして、動きの速い被写体に対してピント合わせを行う際に、フレーミングによって被写体を捕捉しやすいゾーンAFが選択され、比較的大きい焦点検出領域509が設定されている。図5(c)の視線方向506は、視線検出部701で検出された情報を統計的に処理したある時刻の視線方向を示している。システム制御部50は、設定された焦点検出領域509の大きさに基づき、視線方向506に対して、より主被写体が捕捉しやすくなるように比較的大きい被写体を検出する範囲508を設定する。システム制御部50は、被写体を検出する範囲内に最も多く含まれる特徴領域504を主被写体として選択し、図5(d)に示すように焦点検出領域509を特徴領域504に重なるように設定する。
なお、主被写体の判定方法は、上記に限定されない。例えば、視線方向と複数の特徴領域の距離が近い方を主被写体として選択したり、被写体を検出する範囲内に収まる時間が長い方を主被写体として選択しても良い。
また、図5(a)及び(c)において、システム制御部50は、被写体を検出する範囲内に特徴領域が所定量以上含まれない場合、主被写体の選択は行わず、焦点検出領域501、509の位置変更は行わない。若しくは、被写体を検出する範囲内に特徴領域が所定量以上含まれない場合は、視線方向506に基づき、焦点検出領域501,509を設定してもよい。
また、システム制御部50は、図5(a)及び(c)において、設定した被写体を検出する範囲507、508の大きさに基づき、視線検出結果ばらつきの抑制効果を変更する。図6に視線方向の平均化処理の一例を示す。図6(a)は、AFエリアモードとして1点AFが選択された場合の焦点検出結果のばらつきの抑制処理の説明図である。図6(a)の実線は、視線検出部701から出力される画像中の視線方向であり、現在時刻nから時刻n−9までの期間に連続的に出力された履歴情報である。同図の点線は、履歴情報を用いて、直近の7つのデータを使用し、平均化処理を施した視線方向の算出結果となっている。1点AF時は、動きの少ない被写体に対して、ピンポイントでピント合わせを行う際に適したモードであるため、比較的、平均化処理に使用するデータ数を多くすることで、視線検出結果ばらつきの抑制効果を高めている。図6(b)は、AFエリアモードとしてゾーンAFが選択された場合の焦点検出結果のばらつきの抑制処理の説明図である。図6(b)の実線は、視線検出部701から出力される画像中の視線方向であり、現在時刻nから時刻n−9までの期間に連続的に出力された履歴情報である。同図の点線は、履歴情報を用いて、直近の3つのデータを使用し、平均化処理を施した視線方向の算出結果となっている。ゾーンAF時は、動きの速い被写体に対してピント合わせを行う際に適したモードであるため、比較的、平均化処理に使用するデータ数を少なくすることで、視線検出結果の平均化処理による遅延を抑制している。
(変形例)
AFエリアモードとして、焦点検出領域の大きさ・形状を変更可能なフレキシブルゾーンAFが設定されている場合の例を図7に示す。図7(a)は、フレキシブルゾーンAFの設定画面の例であり、表示部28に表示される。システム制御部50は、タッチパネルや入力デバイス(ボタン、ダイヤル)などの操作部70からの入力に基づき、ユーザの意図に合わせて、焦点検出領域701aの大きさ・形状を罫線702に合わせて適宜変更する。なお、フレキシブルゾーンAFの焦点検出領域の設定方法は、上記に限定されない。図7(b)の視線方向703は、視線検出部701で検出された情報を統計的に処理したある時刻の視線方向を示している。システム制御部50は、設定された焦点検出領域701bの大きさ・形状に基づき、視線方向703に対して、被写体を検出する範囲704を設定する。図7(b)の例では、焦点検出領域701bの大きさ・形状は、ユーザの意図により横方向に広範囲な焦点検出領域に設定されている。このことから、横方向に移動する被写体やパンニングを想定したシーンであることが推測可能である。このため、システム制御部50は、ライブビュー画像の遅延や視線検出結果の平均化処理の遅延により、検出される視線方向703も横方向に誤差が大きくなることが想定される。よって、横長の被写体を検出する範囲704を設定している。つまり、焦点検出領域701bの大きさ・形状により、視線方向703の誤差を想定した、被写体を検出する範囲704の設定が可能である。
<視線入力による主被写体の選択動作>
次に、本実施形態における視線入力による主被写体の選択動作に関して、図8に示すフローチャートを用いて説明する。この動作は例えば撮影スタンバイ状態において表示部28にライブビュー画像が表示されている際に、ライブビュー画像の生成や表示に関する動作を並行して実行することができる。
S101において画像処理部24において特徴領域の検出処理を実行する。画像処理部24は検出した特徴領域の数や、個々の特徴領域の情報(例えば大きさ、位置、信頼度など)をシステム制御部50に出力する。特徴領域は人物の顔検出に限らず、人体領域、瞳領域、動物の顔領域、乗り物領域など、パターンマッチングなど公知の技術によって検出可能な任意の特徴領域であってよい。また、特徴領域の候補の検出のみを行ってもよい。
S102においてシステム制御部50は、ユーザが選択可能なAFエリアモードによって設定される焦点検出領域の大きさ・形状を取得する。S103においてシステム制御部50は、視線検出部701から画像を取得し、図3に関して説明したようにして視線方向を検出する。さらに、システム制御部50は、S102で取得した焦点検出領域の大きさに基づき、検出した視線方向を図6で説明した手法により平均化処理を行い、ユーザが注視している表示部28もしくはライブビュー画像中の位置(注視点の位置)を特定する。
S104においてシステム制御部50は、S103で特定したユーザが注視しているライブビュー画像中の位置(注視点の位置)に対して、S102で取得した焦点検出領域の大きさ・形状に基づき、上述した手法により被写体を検出する範囲を設定する。
S105においてシステム制御部50は、S101で検出した特徴領域が、S104で設定した被写体を検出する範囲内に含まれるか否かを判定し、図5で説明した手法により主被写体を選択する。
S106においてシステム制御部50は、S105で選択した主被写体のライブビュー画像中の位置に焦点検出領域を設定する。
S107でシステム制御部50は、例えばSW1のONまたはSW2のONを検出したり、視線の検出ができないといった、終了条件が満たされたか否かを判定する。システム制御部50は、終了条件が満たされたと判定された場合にはその時点で判定されている主被写体が選択されたものとして処理を終了する。一方、システム制御部50は、終了条件が満たされたと判定されない場合には処理をS101に戻す。
以上説明したように本実施形態では、不安定なユーザの視線(画像中の注視点の位置)、および、設定された焦点検出領域の大きさ・形状に基づいて、適宜、視線方向の平均化処理、および、被写体を検出する範囲を設定する。これにより、ユーザの意図に合った焦点検出領域を設定することを可能としている。
(第2の実施形態)
次に、本発明の第2実施形態について説明する。本実施形態では、視線検出のキャリブレーション時に視線検出のばらつきを取得し、その視線検出のばらつきによって被写体を検出する範囲の大きさを設定する。
<視線検出のキャリブレーション>
図9に、視線検出のキャリブレーションのフローを示す。視線検出結果と表示部の任意の位置とを対応付けるため、視線検出のキャリブレーションが行われる。
ステップS901で、キャリブレーションカウンタを1に初期化する。ステップS902で、表示部28にターゲットを表示する。ターゲットはユーザの視線を特定の部分に集めるために表示するものである。ターゲットの形状は任意のものでよいが、視認性がよいものが望ましい。ターゲットの表示位置は、キャリブレーションカウンタに対応したものを表示する。
図10に表示部28が表示する画面1001上にターゲット1011、1012、1013、1014を表示する例を示す。例えばキャリブレーションカウンタが1のときは、画面1001上のX座標x1、Y座標y1にターゲット1011のみを表示する。キャリブレーションカウンタが2のときは、画面1001上のX座標x1、Y座標y1にターゲット1012のみを表示する。キャリブレーションカウンタが3のときは、画面1001上のX座標x3、Y座標y3にターゲット1013のみを表示する。キャリブレーションカウンタが4のときは、画面1001上のX座標x4、Y座標y4にターゲット1014のみを表示する。
ステップS903で、本体100の姿勢を検出する。姿勢検知部55を動作させ、視線位置検出時の本体100の姿勢を検出する。
ステップS904で、視線検出部701を駆動させて、ユーザの視線位置の検出を行う。このときユーザの視線位置を複数回検出する。このようにすることでユーザが特定の部分を注視しているときの平均の視線位置やそのばらつきを得ることができるからである。
ここでキャリブレーションカウンタがnのとき、視線検出部701で得られたユーザの視線位置の平均X座標をun、平均Y座標をvnとする。
ステップS905で、ステップS904で得られた複数回のユーザの視線位置のばらつきを求める。視線検出部701で得られたユーザの視線位置のX方向のばらつきをin、Y方向のばらつきをjnとする。
ステップS906で、キャリブレーションカウンタを1加算する。
ステップS907で、キャリブレーションカウンタが所定値を超えたかどうか評価する。所定値は表示部28に表示するターゲットの位置の総数である。図10の例において所定値は「4」である。
ステップS908で、視線検出位置と表示部28に表示したターゲットとの対応関係を求める。これによって、視線検出部701で検出されたユーザの視線位置が表す位置が表示部28の座標のどこであるかを得る。
図10の例において、画面1001上のターゲット1011の座標(x1、y1)に対応する視線検出部の座標は(u1,v1)である。また、ターゲット1012の座標(x2、y2)に対応する視線検出部の座標は(u2,v2)である。また、ターゲット1013の座標(x3、y3)に対応する視線検出部の座標は(u3,v3)である。また、ターゲット1014の座標(x4、y4)に対応する視線検出部の座標は(u4,v4)となる。
この対応関係を用いて、キャリブレーション以降に視線検出部で得られた任意のX座標、任意のY座標より線形補間等によって画面1001上のX座標およびY座標に変換するための情報を求める。
ステップS905で得られたユーザの視線位置のばらつきを前述の対応関係に基づいて画面1001上のX座標、Y座標のばらつきに変換する。
ステップS909で、ステップS908で得られた視線検出位置と表示部の座標との対応関係およびユーザの視線検出位置のばらつきを表示部の座標に変換したものをメモリ32に保存する。ユーザの視線検出位置のばらつきは、視線検出位置と対応させて保存する。図10の例においてはターゲット1011を表示したときのばらつきとターゲット1014を表示したときのばらつきを別々に保存するということである。ユーザが撮影しようとするとき、表示部28の画面1001上のさまざまな箇所を見ることが想定され、そのような状況で視線検出位置のばらつきを測ることは難しい。一方視線検出のキャリブレーション時には、ユーザの視線位置を画面1001上に表示するターゲットによって固定しやすくなるため、視線検出位置のばらつきを安定的に取得できる。さらに複数のターゲットによってキャリブレーションを行うことで、視線検出位置ごとのばらつきを得ることができる。さらにステップS903で得られた本体100の姿勢を視線検出位置のばらつき、視線検出位置、表示部28の座標との対応関係と対応付けて保存してもよい。
<キャリブレーション結果で得られたばらつきの活用>
次に、本実施形態における被写体を検出する範囲の設定動作を説明する。本実施形態における視線入力による焦点検出領域の決定は図8のフローチャートと同じであり、ステップS104の詳細を図11のフローチャートを用いて説明する。
ステップS1101において、視線検出位置に対応するばらつきを求める。このばらつきは、ステップS909でメモリ32に保存した視線検出位置のばらつきを用いる。変形例として、メモリ32に保存されているステップS103で得られた注視点の位置に対応する視線検出位置のばらつきを使ってもよい。さらなる変形例として、姿勢検知部55を駆動させ得られた本体100の姿勢と、メモリ32に保存されている本体100の姿勢およびステップS103で得られた注視点の位置に対応する視線検出位置のばらつきを使ってもよい。そのようにすることで姿勢に応じて視線検出位置のばらつきが異なるときでも対応できる。
ステップS1102において、視線検出位置のばらつきに応じた被写体を検出する範囲を設定する。視線検出位置のばらつきの大小は、視線検出位置の信頼性を表している。そのためステップS1102で得られた視線検出位置のばらつきが大きいときは被写体を検出する範囲を広く設定し、視線検出位置のばらつきが小さいときは被写体を検出する範囲を狭く設定する。
以上説明したように本実施形態では、視線検出のキャリブレーション時に得られたばらつきに基づいて、被写体を検出する範囲を設定することで、ユーザの意図に合った焦点検出範囲を設定することを可能としている。
(第3の実施形態)
次に、本発明の第3実施形態について説明する。本実施形態では、撮影環境に応じた視線検出方向の確からしさ(以下、信頼性)を考慮した、視線入力による主被写体の選択方法について説明する。
始めに、視線方向の信頼性が変化する要因について説明する。
<撮影環境に起因する要因>
撮影環境による視線方向の信頼性特性としては、視線方向の明るさによって変化する。例えば、暗いときには撮りたい被写体がどこにいるのかわかりづらく、撮影者が被写体を見つける動作が生じる。そうすると、視線検出方向は被写体一点にとどまるような結果ではなく、視線方向がふらふらして不安定な視線方向が得られてしまう。視線方向が1点に定まっている場合を視線方向の検出結果が良いとした場合、視線方向がふらふらした不安定な状態は信頼性が悪いと言える。
<撮影者に起因する要因>
撮影者による信頼性特性として、例えば目つぶりや撮影者の眼球に対する瞼のかかり具合によって変化する。受光レンズ701bが赤外光による眼球像を撮像素子701aの撮像面に形成する際に、撮影者が目つぶりをしていると、形成された画像から瞳孔の位置を検出することができない。そうすると視線方向を検出することができない。図12は撮影者の眼球1201に対して瞼1203がかかっており、瞳孔1202が瞼によって半分程度隠れている様子を示す図である。図12のように撮影者の瞳孔に瞼がかかっていると、正確に瞳孔の位置を検出することができない。例えば、図12のように瞳孔の上部分が瞼で隠れていると、一般的に上方向に視線方向の検出誤差が多くなる。このように瞼で瞳孔が隠れていると、視線方向の検出精度が落ちてしまう。
図13(a)は撮影者が眼鏡1301を装着している場合に赤外光が眼鏡に反射することで生じる光線1302を模式的に示す側面図である。図3(a)で説明した模式図に眼鏡1301と眼鏡1301に反射する赤外光線1302を追加した模式図であり、1301と1302以外の番号は図3と同じであるため、図3で説明した内容と重なる部分の説明は省略する。
眼鏡をかけた撮影者がファインダを覗いている場合、光源701eが発した赤外光は一部の光線が眼鏡1302で反射されてダイクロックミラー701cで受光レンズ701b方向に反射される。受光レンズ701bは、眼鏡で反射された赤外光を撮像素子701aの撮像面に形成し、図13(b)のように眼球1303を撮影した画像にゴースト1305が発生してしまう。
このゴーストが撮影者の瞳孔1304に重なってしまうと瞳孔の位置を正確に検出することができず、視線方向の検出精度が落ちてしまうことになる。
以上のように、撮影環境に起因して視線方向が不安定になったり、撮影者に起因する目つぶりや眼鏡の装着で生じるゴーストの発生で検出精度が低下し、検出した視線方向の信頼性が悪くなる。視線方向の信頼性が悪い場合、その視線方向を基にして設定する被写体を検出する範囲も不安定になり、被写体検出精度の低下を招いてしまう。
視線方向の信頼性は、眼鏡をかけている、ゴーストが発生した、瞳孔が目つむりや瞼によって隠されている等が検出された際に信頼性を下げてもよいし、過去複数回の視線方向のばらつき度合いに応じて信頼性を決定してもよい。
以下に、視線方向の信頼性を加味した主被写体の選択方法について、図14(a)〜(c)を参照しながら、詳細に説明する。図14は、特徴領域として顔領域を検出する構成において、画像中に2つの顔1402、1403が存在し、画像処理部24が顔領域1404、1405を検出した例を模式的に示している。
図14(a)および(b)(c)は、1点AFが選択され、比較的小さい大きさの焦点検出領域1401が設定されている場合の模式図である。なお、図14では焦点検出領域が1点AFについて説明しているが、1点AFより広い焦点検出領域の設定でもよい。図5(a)の視線方向1406は、視線検出部701で検出された情報を統計的に処理したある時刻の視線方向を示している。検出された視線方向の信頼性が良い場合、システム制御部50は視線方向1406に対して、よりピンポイントに主被写体が検出できるよう比較的小さい被写体を検出する範囲1407を設定する。システム制御部50は、被写体を検出する範囲内に最も多く含まれる特徴領域1404を主被写体として選択し、図14(b)に示すように焦点検出領域1401を特徴領域1404に重なるように設定する。
一方、検出された視線方向の信頼性が悪い場合には、図14(c)のようにシステム制御部50は視線方向1406に対して、より主被写体が捕捉しやすくなるように比較的大きい被写体を検出する範囲1408を設定する。システム制御部50は、被写体を検出する範囲内に最も多く含まれる特徴領域1404を主被写体として選択し、図14(b)に示すように焦点検出領域1409を特徴領域1404に重なるように設定する。
また、図14(a)及び(c)において、システム制御部50は、被写体を検出する範囲内に特徴領域が所定量以上含まれない場合、主被写体の選択は行わず、焦点検出領域1401の位置変更は行わない。若しくは、被写体を検出する範囲内に特徴領域が所定量以上含まれない場合は、視線方向1406に基づき、焦点検出領域1401を設定してもよい。
<視線入力による主被写体の選択動作>
次に、本実施形態における視線入力による主被写体の選択動作に関して、図15に示すフローチャートを用いて説明する。この動作は例えば撮影スタンバイ状態において表示部28にライブビュー画像が表示されている際に、ライブビュー画像の生成や表示に関する動作を並行して実行することができる。
ステップS1501において画像処理部24において特徴領域の検出処理を実行する。画像処理部24は検出した特徴領域の数や、個々の特徴領域の情報(例えば大きさ、位置、信頼度など)をシステム制御部50に出力する。特徴領域は人物の顔検出に限らず、人体領域、瞳領域、動物の顔領域、乗り物領域など、パターンマッチングなど公知の技術によって検出可能な任意の特徴領域であってよい。また、特徴領域の候補の検出のみを行ってもよい。
ステップS1502においてシステム制御部50は、視線検出部701から画像を取得し、図3に関して説明したようにして視線方向を検出する。
さらに、検出した視線方向を図6で説明した手法により平均化処理を行い、ユーザが注視している表示部28もしくはライブビュー画像中の位置(注視点の位置)を特定する。
ステップS1503においてシステム制御部50は、ステップS1502で特定したユーザが注視しているライブビュー画像中の位置(注視点の位置)とその信頼性に応じて、上述した手法により被写体を検出する範囲を設定する。
ステップS1504においてシステム制御部50は、ステップS1501で検出した特徴領域が、ステップS1503で設定した被写体を検出する範囲内に含まれるか否かを判定し、図14で説明した手法により主被写体を選択する。
ステップS1505においてシステム制御部50は、ステップS1504で選択した主被写体のライブビュー画像中の位置に焦点検出領域を設定する。
ステップS1506でシステム制御部50は、例えばSW1のONまたはSW2のONを検出したり、視線の検出ができないといった、終了条件が満たされたか否かを判定する。システム制御部50は、終了条件が満たされたと判定された場合にはその時点で判定されている主被写体が選択されたものとして処理を終了する。一方、システム制御部50は、終了条件が満たされたと判定されない場合には処理をステップS1501に戻す。
以上説明したように本実施形態では、不安定なユーザの視線(画像中の注視点の位置)と視線位置の信頼性に基づいて、適宜、視線方向の平均化処理、および、被写体を検出する範囲を設定する。これにより、ユーザの意図に合った焦点検出領域を設定することを可能としている。
(第4の実施形態)
次に、本発明の第4実施形態として、動画記録モード時の動作について、上述してきた内容との差分を中心に説明する。本実施形態のデジタルカメラシステムにおいても、動画撮影、および動画記録が可能になっており、操作部(70)からの入力により、記録モードを選択して、静止画撮影を行うモードであるか、動画を記録するモードであるかを切り替えるものとなっている。また記録する動画のサイズやフレームレートも選択可能となっており、サイズとしては、4K(水平3840画素×垂直2160画素)や、2K(水平1920画素×垂直1080画素)、HD(水平1280画素×垂直720画素)を選択可能である。またフレームレートとしては、240fps、120fps、60fps、30fps、24fpsのいずれかが選択可能となっている。これらの設定に応じて、デジタルカメラ内部では、撮像素子(22)から読み出すサイズや読み出しレートが相応に設定されて動作する。
ここで、この動画記録モード時の視線検出位置と被写体を検出する範囲例を図16に示す。図16において、被写体1601、視線検出位置1604としている。その視線検出位置1604に対して、破線1603が動画記録時の被写体を検出する範囲を示している。これは、視線入力位置1604を中心とした半径r2の円形となっていることを示している。また、比較対象として、破線1602にて示しているのが、静止画記録時の被写体を検出する範囲であり、視線検出位置1604を中心とした半径r1の円形となっている。すなわち、これは動画記録モードの場合には、静止画記録モードに比べて、半径で(r2−r1)相当広がることを示している。動画撮影では動くものを撮影することが前提になっていることで、被写体の動き量が大きい可能性が高いためである。また、動画記録の場合は、静止画撮影のようにピンポイントに短時間で集中しにくいシーンも多くなることから、視線位置と被写体位置との差が大きくなる可能性が高いためである。これらの理由により静止画記録モード時よりも動画記録モード時の方が被写体を検出する範囲を広げるようになっている。さらにこの(r2−r1)の広がる量については、フレームレートによって変わるようにしている。大きさの基準を60fpsにして、
r2=(60÷フレームレート)×α×r1 …式(1)
αは、静止画に対する動画の拡大率であり、本実施例ではα=1.2を採用している。なお、視線検出部(701)のデバイス特性を踏まえて、おおむね1<α<1.5とすればよい。また、この式(1)に限らず、様々な計算方法が考えられ、ここでは本実施例としての一例としている。αの範囲も他の様々な条件を加味してシステムごとに決めるものでよい。以上のように、動画記録時には静止画記録モードよりも被写体を検出する範囲が広がり、その広がる量はフレームレートに依存しており、フレームレートが高ければ広がる量は小さめとなり、フレームレートが低ければやや大き目に広がるシステムとなっている。
このように設定された被写体を検出する範囲を用いて、先述した実施例同等に、被写体検出、および焦点検出領域を設定されて、動作するデジタルカメラシステムとなっている。
(第5の実施形態)
次に、本発明の第5実施形態について説明する。本実施形態では、被写体及びカメラの動きを検出し、それらの動きの有無に応じて被写体を検出する範囲の大きさを設定する。
<動きのあるシーンにおける視線入力の課題>
視線入力の特徴は、生体由来であることによる視線方向の不安定さであり、安定した視線方向を特定するために統計的な処理が用いられることは第一の実施形態で説明した通りである。一方で、被写体が動体である場合や撮像装置自体をパンニングしながら撮影する場合など、動きのあるシーンでは課題が生じる。具体的には、先述べた視線方向を統計的に処理することによる遅延の影響や、生体由来の無意識な視線移動によりユーザが意図した主被写体を適切に選択できない課題が生じる。
<視線入力による主被写体(または主被写体領域)の選択方法の概要>
上記の課題を踏まえ、本実施形態における動きのあるシーンに適した視線入力による主被写体の選択方法について、図18(a)〜(d)を参照しながら、詳細に説明する。
図18(a)(b)及び(c)(d)は2つの代表的なシーンを示している。図18(a)(b)は静止している顔1801が存在し、画像処理部24が顔領域1802を検出した例を模式的に示している。図18(a)の視線方向1803は、視線検出部701で検出された情報を統計的に処理したある時刻の視線方向を示している。システム制御部50は、静止した被写体に対して視線によるユーザのより詳細な被写体指定が反映しやすいように比較的小さい被写体を検出する範囲1804を設定する。システム制御部50は、被写体を検出する範囲内に最も多く含まれる特徴領域1802を主被写体として選択し、図18(b)に示すように焦点検出領域1805を特徴領域1802に重なるように設定する。
一方で、図18(c)(d)は動いている顔1806が存在し、画像処理部24が顔領域1807を検出した例を模式的に示している。
図18(c)の視線方向1803は、図18(a)と同様に統計的に処理したある時刻の視線方向を示している。システム制御部50は、動体の被写体に対して視線による動体に対する被写体指定が反映しやすいように大きな被写体を検出する範囲1808を設定する。図18(c)の1804は被写体を検出する範囲の大小関係を比較、説明するために静止した被写体に適用される被写体を検出する範囲を示している。図18(c)(d)の例では動体向けの被写体を検出する範囲1808は静止した被写体向けの被写体を検出する範囲1804よりも大きな範囲が設定される。
先に示した動体と静止体での被写体を検出する範囲の切り替えの判断には動体判定もしくは撮像装置のパンニングの判定の結果を用いる。
本実施形態における動体判定では動きベクトルを用いて動体であるか否かを判断する。例えばシステム制御部50は、特徴領域の中心位置の時系列データを取得し、所定の複数フレームに渡って平均した、フレーム間の中心位置の移動量および移動方向を動きベクトルの成分とする。算出された動きベクトルの大きさが所定値以上である特徴領域については被写体が動いたと判定することができる。なお、動きベクトルは他の方法で求めてもよい。また、特徴領域(被写体)の面内方向の動きを表す情報であれば、動きベクトル以外の情報を取得してもよい。
本実施形態におけるパンニング判定では姿勢検出部55にて得られる撮像装置の現在の振れ量に基づいてパンニング中であるか否かを判断する。振れ量とは例えば角速度や角加速度などである。振れ量が所定の振れ閾値以上である場合にはパンニングが検出されたと見なす。
本実施形態では先に示した動体判定、パンニング判定より得られる情報に基づきシステム制御部50は被写体を検出する範囲の配置を決定する。例えば、動体と判断される場合には算出された動きベクトルの大きさを加味し、視線方向1803に対して被写体の進行方向に大きくなるように被写体を検出する範囲1808を設定する。また、パンニング中と判断される場合も同様に、撮像装置のパンニング方向及び振れ量を加味することで視線方向1803に対してパンニング方向に大きくなるように被写体を検出する範囲1808を設定する。これにより、注目する被写体に対して視線方向が遅れた場合であってもシステム制御部50は、被写体を検出する範囲内に最も多く含まれる特徴領域1807を主被写体として選択できる。このため、図18(d)に示すように焦点検出領域1809を特徴領域1807に重なるように設定することが可能となる。
<視線入力による被写体を検出する範囲の設定動作>
次に、本実施形態における被写体を検出する範囲の設定動作を説明する。本実施形態における視線入力による焦点検出領域の決定は図8のフローチャートと同じであり、ステップS104の詳細を図17のフローチャートを用いて説明する。
S1701においてシステム制御部50は、検出された特徴領域のそれぞれについて動きベクトルを算出し動体判定を行う。判定処理の詳細は先に説明した通りである。システム制御部50は、動きベクトルの大きさが所定値以上である特徴領域が存在する場合には動体であると判定する。
S1702においてシステム制御部50は、姿勢検出部55にて撮像装置の現在の振れ量を検出する。振れ量が所定の振れ閾値以上である場合にはパンニングが検出されたと見なす。
S1703においてシステム制御部50は、被写体を検出する範囲の切り替え条件が成立したか否かを判断する。本実施形態においては、S1701の動体判定、およびS1702のパンニング判定のいずれかもしくは両方が成立している場合には該当するものとする。S1703において、被写体を検出する範囲の切り替え条件が成立した場合にはS1705に進み、成立しない場合にはS1704に進む。
S1704においてシステム制御部50は図8のS103で特定したユーザが注視しているライブビュー画像中の位置(注視点の位置)に対して、被写体を検出する範囲を設定する。S1704では図18(a)(b)で説明した静止した被写体向けの被写体を検出する範囲が設定される。
S1705においてシステム制御部50は図8のS103で特定したユーザが注視しているライブビュー画像中の位置(注視点の位置)に対して、被写体を検出する範囲を設定する。S1705では図18(c)(d)で説明した動体の被写体向けの被写体を検出する範囲が設定される。
以上説明したように本実施形態では、動体被写体やパンニング等の撮影状況に基づいて被写体を検出する範囲を設定することで、ユーザが意図した主被写体を適切に選択し焦点検出領域を設定することが可能となる。
(第6の実施形態)
次に、本発明の第6実施形態について説明する。本実施形態では、動体に対して継続的に焦点調整を行うサーボAFの追従特性の強さに応じて被写体を検出する範囲の大きさを設定する。
<動きのあるシーンにおける視線入力の課題>
継続的に焦点調整動作を実施することが望ましい被写体の入れ替わりの多い、動きのあるシーンでは第5実施形態と同様の課題が生じる。
<視線入力による主被写体(または主被写体領域)の選択方法の概要>
上記の課題を踏まえ、本実施形態における動きのあるシーンに適した視線入力による主被写体の選択方法について、図20(a)(b)を参照しながら、詳細に説明する。
図20(a)はサーボAFの追従特性の強さとしてユーザが選択・設定可能な項目(図中の追従特性A)とその設定値に対応する被写体を検出する範囲の大きさ算出するための係数の関係を示した表である。本実施形態では1つのサーボ追従特性項目(追従特性A)の切り替えに対して被写体を検出する範囲の係数を決定し、この係数を用いて被写体を検出する範囲の大きさを変更する。
図20(b)は上記設定を反映した際の被写体を検出する範囲の例を示している。本実施形態ではユーザの視線方向2001に基づき決定される基準となる被写体を検出する範囲2002を決める。これに対して図20(a)で示した追従特性Aの設定値に対応する係数を乗算することで実際に使用する被写体を検出する範囲を決定する。したがって、追従特性Aの設定値がそれぞれ−1、0、+1の場合には対応する1/2、1、2の係数が適用され、2003、2002、2004の異なる大きさの被写体を検出する範囲が決定される。このサーボ追従特性項目に連動した被写体を検出する範囲内に画像中より検出した特徴領域が含まれる場合は、その特徴領域を主被写体領域と見なし、焦点検出領域を主被写体領域の位置に設定する。
なお、本実施形態における追従特性Aとは「被写体の速度変化に対するサーボAFの追従しやすさ」であり、被写体の加速、減速に対するサーボAFの追従敏感度をユーザが設定できるものとする。この例では、追従特性Aを強く設定すること(設定値を+1に設定)は、すなわち動きが激しい被写体の撮影を想定しており、ユーザが視線入力にて被写体を捉え続けることが困難であることが予想される。そのため、本実施形態では図20(a)(b)で説明した通り、被写体を検出する範囲を通常よりも広く設定することで、ユーザが意図した主被写体を適切に選択できるようにする。
<視線入力による被写体を検出する範囲の設定動作>
次に、本実施形態における被写体を検出する範囲の設定動作を説明する。本実施形態における視線入力による焦点検出領域の決定は図8のフローチャートと同じであり、ステップS104の詳細を図19のフローチャートを用いて説明する。
S1901においてシステム制御部50は、システムメモリ52に保存されているサーボ追従特性設定の現在の設定値を読み出す。
なお設定値は、あらかじめユーザが撮影状況に合わせて設定しておくことが可能である。また、読みだされる設定値は先の図20(a)で説明したとおり、−1、0、+1のいずれかが取得できる。
S1902においてシステム制御部50は、被写体を検出する範囲を算出する係数を選択する。このとき不揮発性メモリ56に保存されているユーザが選択・設定可能な追従特性Aの項目とその設定値に連動する被写体を検出する範囲の大きさを表す係数の関係をまとめたテーブル情報に基づき、被写体を検出する範囲を算出する係数を選択する。これは先の図20(a)で説明した設定値に応じて1/2、1、2のいずれかが選択される。
S1903においてシステム制御部50はS1902で選択された係数に基づき被写体を検出する範囲を設定する。被写体を検出する範囲の設定については先に図20(b)を用いて説明した通りである。
以上説明したように本実施形態では、継続的に焦点調整を行うサーボAFの追従特性に基づいて被写体を検出する範囲を設定することで、ユーザが意図した主被写体を適切に選択し焦点検出領域を設定することが可能となる。
(変形例)
なお、本実施形態では被写体を検出する範囲の大きさと連動するサーボAFの追従特性の項目は1つのみであったが、本発明はこれに限定されるものではない。
例えば、図20(c)に示すように新たに追従特性B加え、複数の設定項目に対応する被写体を検出する範囲の係数に基づき被写体を検出する範囲を算出する構成であってもよい。
例えば、本実施形態における追従特性Bとは、「被写体の切り替わりやすさ」であり、複数の被写体が混在するシーンにけるサーボAFの被写体切り替えの敏感度をユーザが設定できるものとする。この例では、追従特性Bを強く設定すること(設定値を+1に設定)は、すなわち複数の被写体が頻繁に切り替わるようシーンでの撮影を想定しており、ユーザが視線入力にて被写体を切り替えやすくすることが望ましい。そのため、本実施形態では図20(a)(b)で説明した通り、被写体を検出する範囲を通常よりも狭く設定することで、ユーザが意図した主被写体を適切に選択できるようにする。
このように複数の追従特性を設定可能な構成では、図19のフローチャートにおけるS1901において、追従特性AからBの設定値を取得し、S1902において、それぞれの設定項目に対応する係数を選択する。S1903にてS1902で選択した複数の被写体を検出する範囲の係数を乗算し最終的な係数とする。ただし、ライブビュー画像サイズより設定可能な最大サイズが限られること、また視線方向のばらつきにより最小サイズが限られることから、係数の上限、下限を設ける構成であってもよい。
また、本実施形態で示したサーボ追従特性設定の設定項目に関して、本発明は今回説明した項目に限定されるものではなく、継続的に実施される焦点調整動作において内部制御を切り替える要因であればよい。
100 本体
4 レンズシステム制御回路
22 撮像素子
50 システム制御部
24 画像処理部
28 表示部
32 メモリ
56 不揮発性メモリ
70 操作部

Claims (19)

  1. ユーザの視線に基づいて、画像中の注視点の位置を検出する第1の検出手段と、
    前記注視点の位置、および、撮影条件に基づき、被写体を検出する範囲を設定する第1の設定手段と、
    前記画像から特徴領域を検出する第2の検出手段と、
    前記被写体を検出する範囲に含まれる前記特徴領域の位置に応じて、焦点検出領域を設定する第2の設定手段と、を有することを特徴とする撮像装置。
  2. 前記撮影条件は、AFエリアモードであって、
    前記AFエリアモードには、少なくとも第1の大きさの焦点検出領域を画像中に配置する第1のモードと、前記第1の大きさよりも大きい第2の大きさの焦点検出領域を画像中に配置する第2のモードがあり、
    前記第1の設定手段は、前記第2のモードの場合に、前記第1のモードの場合よりも前記被写体を検出する範囲が広くなるように設定することを特徴とする請求項1に記載の撮像装置。
  3. 前記撮影条件は、ユーザの指定により設定された焦点検出領域の大きさと形状の少なくとも1つであることを特徴とする請求項1に記載の撮像装置。
  4. 前記第2の設定手段は、前記被写体を検出する範囲に前記特徴領域が所定量以上含まれない場合は、焦点検出領域を変更しないことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
  5. 前記第2の設定手段は、前記被写体を検出する範囲に前記特徴領域が所定量以上含まれない場合は、前記注視点の位置に基づき、焦点検出領域を設定することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
  6. 前記第1の検出手段によって、所定期間に検出された複数の注視点の位置に基づき、ノイズ低減処理を行うことで、注視点の位置を平滑化する平滑化手段を更に有し、
    前記平滑化手段は、前記焦点検出領域の大きさが小さいほど、ノイズ低減効果が大きくなるように前記ノイズ低減処理を行うことを特徴とする請求項2に記載の撮像装置。
  7. 前記第1の検出手段によって検出された複数の注視点の位置に基づいて、注視点の位置のばらつきを取得するキャリブレーション手段と、
    前記キャリブレーション手段によって検出された注視点の位置のばらつきを記憶する第1の記憶手段と、を更に有し、
    前記撮影条件は、前記第1の記憶手段に記憶された注視点の位置のばらつきであることを特徴とする請求項1に記載の撮像装置。
  8. 撮像装置の姿勢を検出する第3の検出手段と、
    前記第1の検出手段によって検出された複数の注視点の位置に基づいて、注視点の位置のばらつきを取得するキャリブレーション手段と、
    前記キャリブレーション手段によって検出された注視点の位置のばらつきと前記姿勢検出手段で検出された姿勢を対応付けて記憶する第2の記憶手段と、を更に有し、
    前記撮影条件は、前記第2の記憶手段に記憶された前記第3の検出手段によって検出された姿勢に対応する注視点の位置のばらつきであることを特徴とする請求項1に記載の撮像装置。
  9. 前記撮影条件は、前記第1の検出手段によって検出された注視点の位置の確からしさであって、
    前記第1の設定手段は、前記注視点の位置の確からしさが第1の確からしさの場合に、前記第1の確からしさよりも前記注視点の位置の確からしさが良い第2の確からしさの場合よりも前記被写体を検出する範囲が広くなるように設定することを特徴とする請求項1に記載の撮像装置。
  10. 前記撮影条件は、記録モードであり、
    前記第1の設定手段は、前記記録モードが動画記録モードの場合に、前記記録モードが静止画記録モードの場合に比べて、前記被写体を検出する範囲が広くなるように設定することを特徴とする請求項1に記載の撮像装置。
  11. 動画記録のフレームレートを設定する手段を更に有し、
    前記第1の設定手段は、前記動画記録のフレームレートに応じて被写体を検出する範囲を設定することを特徴とする請求項10に記載の撮像装置。
  12. 前記撮影条件は、動体判定手段により検出された被写体の動きであって、
    前記第1の設定手段は、被写体が動体である場合には、動体でない場合よりも前記被写体を検出する範囲が広くなるように設定することを特徴とする請求項1に記載の撮像装置。
  13. 被写体が動体である場合、前記第1の設定手段は、被写体を検出する範囲が動体の動き方向に広くなるように設定することを特徴とする請求項12に記載の撮像装置。
  14. 前記撮影条件は、撮像装置がパンニング中であるか否かであって、
    前記第1の設定手段は、撮像装置がパンニング中である場合には、パンニング中でない場合よりも被写体を検出する範囲が広くなるように設定することを特徴とする請求項1に記載の撮像装置。
  15. パンニング中である場合、前記第1の設定手段は、撮像装置のパンニング方向に前記被写体を検出する範囲が広くなるように設定することを特徴とする請求項14に記載の撮像装置。
  16. 前記撮影条件は、焦点調整動作における被写体の追従特性であって、
    前記第1の設定手段は、前記追従特性の強さの度合いに応じて被写体を検出する範囲の広さを決定することを特徴とする請求項1に記載の撮像装置。
  17. 前記追従特性は被写体の速度変化に対する追従敏感度であって、前記第1の設定手段は、前記被写体の速度変化に対する追従敏感度が第1の追従敏感度の場合には、前記第1の追従敏感度よりも低い第2の追従敏感度の場合よりも前記被写体を検出する範囲が広くなるように設定することを特徴とする請求項16に記載の撮像装置。
  18. 前記追従特性は被写体の切り替わりやすさであって、前記第1の設定手段は、前記被写体の切り替わりやすさが第1の切り替わりやすさの場合には、前記第1の切り替わりやすさよりも弱い第2の切り替わりやすさの場合よりも前記被写体を検出する範囲が狭くなるように設定することを特徴とする請求項16に記載の撮像装置。
  19. ユーザの視線に基づいて、画像中の注視点の位置を検出する第1の検出工程と、
    前記注視点の位置、および、撮影条件に基づき、被写体を検出する範囲を設定する第1の設定工程と、
    前記画像から特徴領域を検出する第2の検出工程と、
    前記被写体を検出する範囲に含まれる前記特徴領域の位置に応じて、焦点検出領域を設定する第2の設定工程と、を有することを特徴とする撮像装置の制御方法。
JP2019238006A 2019-12-27 2019-12-27 撮像装置およびその制御方法 Active JP7467114B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019238006A JP7467114B2 (ja) 2019-12-27 2019-12-27 撮像装置およびその制御方法
US17/132,686 US11729503B2 (en) 2019-12-27 2020-12-23 Image capturing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019238006A JP7467114B2 (ja) 2019-12-27 2019-12-27 撮像装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2021105694A true JP2021105694A (ja) 2021-07-26
JP2021105694A5 JP2021105694A5 (ja) 2022-12-22
JP7467114B2 JP7467114B2 (ja) 2024-04-15

Family

ID=76546838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019238006A Active JP7467114B2 (ja) 2019-12-27 2019-12-27 撮像装置およびその制御方法

Country Status (2)

Country Link
US (1) US11729503B2 (ja)
JP (1) JP7467114B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053557A1 (ja) * 2021-09-30 2023-04-06 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2023188939A1 (ja) * 2022-03-29 2023-10-05 富士フイルム株式会社 撮影方法、撮影装置、及びプログラム
WO2023243069A1 (ja) * 2022-06-17 2023-12-21 三菱電機株式会社 脇見判定装置および脇見判定方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021114731A (ja) * 2020-01-21 2021-08-05 キヤノン株式会社 撮像制御装置及びその制御方法
KR20210149542A (ko) * 2020-06-02 2021-12-09 삼성에스디에스 주식회사 이미지 촬영 및 판독 방법, 이를 위한 장치
US11381730B2 (en) * 2020-06-25 2022-07-05 Qualcomm Incorporated Feature-based image autofocus

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5333029A (en) * 1990-10-12 1994-07-26 Nikon Corporation Camera capable of detecting eye-gaze
US5614985A (en) * 1992-10-28 1997-03-25 Canon Kabushiki Kaisha Camera with device for detecting line of sight
US6456788B1 (en) * 2000-08-21 2002-09-24 Canon Kabushiki Kaisha Optical apparatus and camera provided with line-of-sight detecting device
JP2002058644A (ja) 2000-08-21 2002-02-26 Canon Inc 視線検出装置、光学装置及びカメラ
JP2002328294A (ja) 2001-04-27 2002-11-15 Canon Inc 視線検出装置、視線検出機能付き機器及びカメラ
JP2005249831A (ja) 2004-03-01 2005-09-15 Canon Inc 視線検出装置を有する光学機器
JP6257199B2 (ja) 2013-07-22 2018-01-10 キヤノン株式会社 光学機器、その制御方法、および制御プログラム
JP6027560B2 (ja) * 2014-02-18 2016-11-16 富士フイルム株式会社 自動追尾撮像装置
KR102429427B1 (ko) 2015-07-20 2022-08-04 삼성전자주식회사 촬영 장치 및 그 동작 방법
CN109478334B (zh) * 2016-07-20 2021-04-20 富士胶片株式会社 关注位置识别装置、摄像装置、显示装置、关注位置识别方法及非暂时性有形介质
JP6862202B2 (ja) * 2017-02-08 2021-04-21 キヤノン株式会社 画像処理装置、撮像装置および制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053557A1 (ja) * 2021-09-30 2023-04-06 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2023188939A1 (ja) * 2022-03-29 2023-10-05 富士フイルム株式会社 撮影方法、撮影装置、及びプログラム
WO2023243069A1 (ja) * 2022-06-17 2023-12-21 三菱電機株式会社 脇見判定装置および脇見判定方法

Also Published As

Publication number Publication date
US11729503B2 (en) 2023-08-15
JP7467114B2 (ja) 2024-04-15
US20210203856A1 (en) 2021-07-01

Similar Documents

Publication Publication Date Title
JP7467114B2 (ja) 撮像装置およびその制御方法
US9344634B2 (en) Imaging apparatus having subject detection function, method for controlling the imaging apparatus, and storage medium
JP5828070B2 (ja) 撮像装置および撮像方法
US11450131B2 (en) Electronic device
JP2018129659A (ja) 画像処理装置、撮像装置および制御方法
US11388331B2 (en) Image capture apparatus and control method thereof
US11812133B2 (en) Image processing apparatus and method for controlling image processing apparatus
US11662809B2 (en) Image pickup apparatus configured to use line of sight for imaging control and control method thereof
US20210258472A1 (en) Electronic device
US11523048B2 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
JP2023004678A (ja) 処理装置及びその制御方法
US11665438B2 (en) Electronic device capable of acquiring line-of-sight information
US20230142934A1 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
US20240028113A1 (en) Control apparatus, image pickup apparatus, control method, and storage medium
US11050923B2 (en) Imaging apparatus and control method
US11670112B2 (en) Image processing apparatus, image processing method, and image capture apparatus
US10951829B2 (en) Image capturing apparatus and method for controlling display
US20240040227A1 (en) Image capture apparatus, wearable device and control method
US20230076475A1 (en) Electronic apparatus and control method
JP2014062926A (ja) オートフォーカスシステム
JP2021180347A (ja) 制御装置、撮像装置、制御方法、およびプログラム
JP2021040183A (ja) 画像処理装置及び画像処理方法
JP2018056650A (ja) 光学装置、撮像装置および制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231213

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467114

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150