JP2023029458A - 撮像装置およびその制御方法 - Google Patents

撮像装置およびその制御方法 Download PDF

Info

Publication number
JP2023029458A
JP2023029458A JP2022208255A JP2022208255A JP2023029458A JP 2023029458 A JP2023029458 A JP 2023029458A JP 2022208255 A JP2022208255 A JP 2022208255A JP 2022208255 A JP2022208255 A JP 2022208255A JP 2023029458 A JP2023029458 A JP 2023029458A
Authority
JP
Japan
Prior art keywords
line
sight
user
subject
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022208255A
Other languages
English (en)
Other versions
JP7410629B2 (ja
Inventor
幸司 須藤
Koji Sudo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022208255A priority Critical patent/JP7410629B2/ja
Publication of JP2023029458A publication Critical patent/JP2023029458A/ja
Application granted granted Critical
Publication of JP7410629B2 publication Critical patent/JP7410629B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/12Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device a hand-actuated member moved from one position to another providing the energy to move the setting member, e.g. depression of shutter release button causes a stepped feeler to co-operate with the pointer of the light-sensitive device to set the diaphragm and thereafter release the shutter
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/38Releasing-devices separate from shutter
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/563Camera grips, handles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Diaphragms For Cameras (AREA)
  • Focusing (AREA)

Abstract

【課題】 視線によるAF位置の指定において操作性が良い撮像装置を提供することを目的とする。【解決手段】 第1のAFモードの場合は、特定の操作部材への所定の操作に応じて、所定の操作が行われた時点において視線検出手段により検出された視線位置に基づいて追尾対象の被写体及を決定し、追尾対象の被写体を追尾して当該追尾対象の被写体の移動に応じてAF位置を移動するように制御し、第2のAFモードの場合は、特定の操作部材への所定の操作に応じて、所定の操作が行われた時点において視線検出手段により検出された視線位置に基づいてAF位置を決定し、視線検出手段により検出された視線位置に基づくAF位置の変更を行わず、AF位置の被写体が移動したとしてもAF位置を移動しないように制御することを特徴とする。【選択図】 図3

Description

本発明は、ユーザーの視線による視線入力が可能な撮像装置、及び撮像装置の制御方法に関するものである。
従来、ユーザーである撮影者の視線方向を検出し、撮影者がファインダー視野内のどの領域(位置)を観察しているかを検出して、自動焦点調節等の撮影機能を制御するカメラが提案されている。特許文献1には、ユーザーがシャッターボタンを押したときに、シャッターボタンが押された時点での視線位置を検出してファインダー内に表示し、視線位置に応じた被写体に焦点を合わせるカメラが開示されている。特許文献2には、シャッターボタンの押下継続により連続撮影を行っている間は、1回の撮影毎にユーザーの視線位置を検出し、視線位置に焦点調節を行うことが開示されている。特許文献3には、ユーザーの視線を検出し、検出された視線位置にカーソル移動が可能であることが開示されている。また特許文献3では、ユーザーの視線位置にカーソルが追従するカーソル追従モードについて、ユーザーのジェスチャ、音声、視線、操作のいずれか1つによってカーソル追従モードのON/OFFが切り替え可能である。
特開昭61-61135号公報 特開平9-61700号公報 特開2001-100903号公報
しかし特許文献1では、最初にシャッターボタンを押した時点での視線位置に応じた被写体に合焦するため、ユーザーが連続撮影を行ったときに被写体が移動していると、被写体に合焦していない写真が撮影されてしまう。特許文献2では、ユーザーは、シャッターボタン操作中は合焦させたい位置を見続ける必要があった。例えば、ユーザーがシャッターボタン操作中に画像全体をチェックするために合焦させたい被写体から視線を離すと、視線に追従してユーザー所望の被写体ではない位置で合焦してしまい、使いづらく感じることがあった。特許文献3では、視線入力によるカーソル追従モードのON/OFFを切り替えてしまうため、ONの場合にはユーザーの意図しない視線移動にも常に視線位置にカーソルが追従し、カーソルを固定するには、モードをOFFに切り替える必要があった。固定したカーソルを視線位置に更新するためには、再度モードをOFFからONに切り替えなければならず、ユーザーが煩わしく感じる可能性が生じる。
そこで本発明は、視線によるAF位置の指定において操作性が良い撮像装置を提供することを目的とする。
上記目的を達成するために、本発明は、
撮像部と、ユーザーの視線によりAF位置を指定するために、ユーザーの視線位置を検出する視線検出手段と、特定の操作部材と、制御手段と、を有し、制御手段は、第1のAFモードの場合は、特定の操作部材への所定の操作に応じて、所定の操作が行われた時点において視線検出手段により検出された視線位置に基づいて追尾対象の被写体及を決定し、追尾対象の被写体を追尾して当該追尾対象の被写体の移動に応じてAF位置を移動するように制御し、第2のAFモードの場合は、特定の操作部材への所定の操作に応じて、所定の操作が行われた時点において視線検出手段により検出された視線位置に基づいてAF位置を決定し、視線検出手段により検出された視線位置に基づくAF位置の変更を行わず、AF位置の被写体が移動したとしてもAF位置を移動しないように制御する、ことを特徴とする。
本発明によれば、視線によるAF位置の指定において操作性が良い撮像装置を提供することができる。
本発明の実施形態である、デジタルカメラの外観図である。 本発明の実施形態である、デジタルカメラの構成を示すブロック図である。 本実施形態における、視線入力と操作部材によるAF枠の制御処理フローチャートである。 本実施形態における、視線入力と操作部材によるAF枠の表示例である。 本実施形態における、視線に関する設定画面の表示例である。
以下、図面を参照して本発明の好適な実施形態を説明する。
図1(a)、(b)に本発明を適用可能な装置の一例としてのデジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。図1において、表示部28は画像や各種情報を表示する、カメラ背面に設けられた表示部である。タッチパネル70aはタッチ操作可能な操作部材であり、表示部28の表示面(操作面)に対するタッチ操作を検出することができる。ファインダー外表示部43は、カメラのファインダー外に設けられた表示部であり、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための操作部である。端子カバー40は外部機器との接続ケーブルとデジタルカメラ100とを接続するコネクタ(不図示)を保護するカバーである。メイン電子ダイヤル71は操作部70に含まれる回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は操作部70に含まれる回転操作部材であり、選択枠の移動や画像送りなどを行える。十字キー74は操作部70に含まれ、4方向に押し込み可能な押しボタンを有する操作部材で、十字キー74の押下した方向に応じた操作が可能である。SETボタン75は操作部70に含まれ、押しボタンであり、主に選択項目の決定などに用いられる。動画ボタン76は、動画撮影(記録)の開始、停止の指示に用いられる。AF-ONボタン77は、操作部70に含まれ、押下することによりAF動作を開始する。AF動作は主にシャッターボタン61の押下によりAF動作が開始されるが、AF-ONボタン77を押下してもAF動作開始の指示を出すことができる。シャッターボタン61の押下によってAF動作を行わないように設定することができるデジタルカメラ100では、AF開始指示と撮影指示とを切り離すことができる。AF-ONボタン77を押下したあとにシャッターボタン61を押下すれば、AF位置を固定した撮影、または、AFができない状況下でも撮影を行うことができる。AEロックボタン78は操作部70に含まれ、撮影待機状態で押下することにより、露出状態を固定することができる。つまり、ユーザー所望の露出値で固定して撮影を行うことができる。再生ボタン79は操作部70に含まれ、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。絞り込みボタン84は、操作部70に含まれ、押下することにより、押下した時点で設定されている絞り数値でレンズの絞り込みが行われ、実際にピントの合う範囲(被写界深度)を確認することができる。メニューボタン81は、操作部70に含まれ、押下することにより各種の設定可能なメニュー画面が表示部28に表示される。拡大ボタン82は操作部70に含まれ、撮影モードのライブビュー表示において拡大モードのON/OFFを行うための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像の拡大、縮小を行える。再生モードにおいては再生画像を拡大し、拡大率を増加させるための拡大ボタンとして機能する。マルチコントローラー83は、8方向に操作可能な方向キーと押し込み可能な押しボタンを有する操作部材であり、マルチコントローラー83を倒した方向に応じた操作が可能である。ユーザーは、表示部28に表示されたメニュー画面において、十字キー74やSETボタン75、マルチコントローラー83を用いて直感的に各種設定を行うことができる。フレーミングアシストボタン(不図示)は後述するレンズユニット150やデジタルカメラ100とレンズユニット150を繋ぐレンズアダプタに配置された操作ボタンである。これは、ユーザーが右手でグリップ部90、左手でレンズユニット150を把持して撮影を行う際に、左手で押下可能な位置に配置された操作部材である。
操作部70は、ユーザーからの操作を受け付ける入力部としての各種操作部材である。操作部70には、押しボタン、回転ダイヤル、タッチセンサーなどが含まれ、少なくとも以下の操作部が含まれる。シャッターボタン61、タッチパネル70a、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、十字キー74、SETボタン75、動画ボタン76、AF-ONボタン77、AEロックボタン78、再生ボタン79。絞り込みボタン84、メニューボタン81、拡大ボタン82、マルチコントローラー83、フレーミングアシストボタン。後述する、AF枠を視線位置に基づく位置へ更新する視線更新機能について、当該機能を有した専用ボタンをデジタルカメラ100に搭載してもよいし、他の機能を有した操作部材に視線更新機能を割り当てられるようにしてもよい。視線更新機能を割り当て可能な操作部材として、AF-ONボタン77、AEロックボタン78、絞り込みボタン84、マルチコントローラー83の押し込み、フレーミングアシストボタンがある。AF-ONボタン77、AEロックボタン78、マルチコントローラー83はユーザーが右手人差し指でシャッターボタン61を操作しながら撮影に支障が生じないように操作できる位置に配置されている。具体的には、ユーザーがグリップ部90を右手で把持している際に、被写体と反対側にあたるデジタルカメラ100の背面部の中央位置より上側(シャッターボタン側)、かつ、EVF29の右側(グリップ部90側)に配置されているものとする。また、ユーザーがシャッターボタン61を操作しながら操作できるものであれば、デジタルカメラ100の背面部に限らない。例えば、絞り込みボタン84やフレーミングアシストボタンのような、前面部(被写体側)やレンズユニット150に配置される操作部材でもよい。この場合、操作部材の配置位置は上述したデジタルカメラ100の背面に限らず、ユーザーがシャッターボタン61を操作している右手の人差し指以外の指で操作できる位置に配置されていればよい。デジタルカメラ100の前面部に、視線更新機能割り当て可能な操作部材が配置されていても、グリップ部90を把持している右手の中指や薬指で操作できるものであれば、シャッターボタン61を操作しながら撮影に支障なく押下が可能である。ユーザーが視線更新機能を割り当て可能な、他の機能を有した操作部材は、シャッターボタン61への操作中に操作しても撮影モードから遷移しない機能を持ったボタンや、シャッターボタン61への操作による撮影機能実行を妨げない機能を持ったボタンである。また、様々な機能を割り当てられる、押下可能なボタンでもよい。押しボタンに限らず左右に操作可能な操作バーや回転操作可能なリング、後述する押圧力を検知可能なタッチパネル70aを強い押圧で押し込んだ場合に機能が発動するようにしてもよい。なお、本実施形態では、視線更新機能を有した専用ボタンを有していない場合は、ユーザーによる図5(b)のような設定メニュー画面での設定変更がない限りは、AF-ONボタン77に視線更新機能を割り当てるのをデフォルト(工場出荷時の初期状態)とする。ユーザーはシャッターボタン61を操作中には、右手でグリップ部90をしっかりと把持し、撮影を行う。グリップ部90はユーザーが把持しやすい形状で、かつ、しっかりと把持できる素材となっている。すなわち、グリップ部90はデジタルカメラ100の筐体の他の部分の素材とは異なった素材で形成されており、ラバー素材で握りやすく、かつ、すべりにくい凹凸があるもので作られている。そのため、グリップ部90をしっかりと把持しつつ操作ができる、右手の親指で押下しやすい無理のない位置である必要がある。これらの理由により、ユーザーによる設定変更がない限りは、AF-ONボタン77に視線更新機能を割り当てる。ただし、これは一般的なユーザーを想定したものであり、手の小さい女性などにとっては設定メニュー画面で設定内容の変更を行い、AF-ONボタン77ではない別の操作部材に割り当てを行ったほうが、使い勝手が良い場合もある。
通信端子10はデジタルカメラ100が後述するレンズユニット150(着脱可能)と通信を行う為の通信端子である。接眼部16は、接眼ファインダー(覗き込み型のファインダー)の接眼部であり、ユーザーは、接眼部16を介して内部のEVF(Electric View Finder)29に表示された映像を視認することができる。接眼検知部57は接眼部16に撮影者が接眼しているか否かを検知する接眼検知センサーである。蓋202は記録媒体200を格納したスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構えた際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラを保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61、メイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73が配置されている。
図2は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。図2において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がデジタルカメラ100と通信を行う為の通信端子である。レンズユニット150は、この通信端子6と前述の通信端子10を介してシステム制御部50と通信し、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。その後AF駆動回路3を介して、レンズ103を変位させることで焦点を合わせる。
シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。
撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
画像処理部24は、A/D変換器23からのデータ、または、後述するメモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理を行う。画像処理部24により得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
メモリ制御部15は、A/D変換器23、画像処理部24、メモリ32間のデータ送受を制御する。A/D変換器23からの出力データは、画像処理部24およびメモリ制御部15を介して、あるいは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28、EVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に書き込まれた表示用の画像データはメモリ制御部15を介して表示部28、EVF29により表示される。表示部28、EVF29は、LCDや有機EL等の表示器上に、メモリ制御部15からの信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデータを、表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV表示)を行える。以下、ライブビューで表示される画像をライブビュー画像(LV画像)と称する。
赤外発光ダイオード166は、ファインダー内の画面におけるユーザーの視線位置を検出するための発光素子であり、ユーザーの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発した赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。ダイクロイックミラー162は赤外光だけを反射して可視光を透過させる。光路を変更された赤外反射光は、結像レンズ163を介して視線検知センサー164の撮像面に結像する。結像レンズ163は視線検知光学系を構成する光学部材である。視線検知センサー164は、CCD型イメージセンサ等の撮像デバイスから成る。
視線検知センサー164は、入射された赤外反射光を電気信号に光電変換して視線検出回路165へ出力する。視線検出回路165は少なくとも1つのプロセッサーを含み、視線検知センサー164の出力信号に基づき、ユーザーの眼球(目)161の画像または動きからユーザーの視線位置を検出し、検出情報をシステム制御部50に出力する。このようにダイクロイックミラー162、結像レンズ163、視線検知センサー164、赤外発光ダイオード166、視線検出回路165により視線検出ブロック160が構成される。視線検出ブロック160は、視線入力を受け付ける受付手段のうちの1つである。
本発明では視線検出ブロック160を用いて、角膜反射法と呼ばれる方式で視線を検出する。角膜反射法とは、赤外発光ダイオード166から発した赤外光が眼球(目)161の、特に角膜で反射した反射光と、眼球(目)161の瞳孔との位置関係から、視線の向き・位置を検出する方式である。この他にも黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式など、様々な視線の向き・位置を検出する方式がある。なお、視線の向き・位置を検出できる方式であれば、上記以外の視線検出手段の方式を用いてもよい。
ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばFlash-ROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、例えばRAMが用いられ、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等が展開される。また、システム制御部50はメモリ32、表示部28等を制御することにより表示制御も行う。
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
モード切替スイッチ60は、操作部70に含まれる操作部材であり、システム制御部50の動作モードを静止画撮影モード、動画撮影モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)、がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60により、ユーザーは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り換えた後に、表示された複数のモードのいずれかを選択し、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから撮像された画像を画像ファイルとして記録媒体200に書き込むまでの一連の撮影処理の動作を開始する。第2シャッタースイッチのONが継続されると、デジタルカメラ100は、予め決められた連写可能速度に依存する速度で連写(連続撮影)を行う。
電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(ライブビュー画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像やその他の各種情報を受信することができる。
姿勢検知部55は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である、加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
接眼検知部57はファインダーの接眼部16に対する目(物体)161の接近(接眼)および離脱(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくともデジタルカメラ100が撮影待機状態、かつ、撮像部22で撮像されたライブビュー画像の表示先の切替設定が自動切替設定である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57は、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダーの接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(不図示)から投光した赤外線が反射して赤外線近接センサーの受光部(不図示)に受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。なお、本実施形態では接眼検知部57の投光部および受光部は前述の赤外発光ダイオード166および視線検知センサー164とは別体のデバイスであるものとする。ただし、接眼検知部57の投光部を赤外発光ダイオード166で兼ねてもよい。また、受光部を視線検知センサー164で兼ねてもよい。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。
システム制御部50は視線検出ブロック160からの出力に基づいて以下の操作、あるいは状態を検知できる。
・接眼部16に接眼したユーザーの視線入力がある状態であること。
・接眼部16に接眼したユーザーが注視している状態であること。
・接眼部16に接眼したユーザーが入力していた視線を外したこと。すなわち、視線入力の終了。
・接眼部16に接眼したユーザーが何も視線入力していない状態。
ここで述べた注視とは、ユーザーの視線位置が所定時間内に所定の移動量を超えなかった場合のことを指す。
タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示画面上の表示座標とを対応付ける。これにより、あたかもユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。システム制御部50はタッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
・タッチパネル70aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
本実施形態では、デジタルカメラ100において、シャッターボタン61への操作中は、視線入力によるAF枠の移動を行わないようにする。その後、特定の操作部材への操作が行われたこと応じて視線位置に基づく位置へAF枠を更新するように制御する例を説明する。図3は、シャッターボタン61操作中の視線入力によるAF枠の移動を、操作部材への操作により制御するフローチャートである。この制御処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。図3のフローチャートは、デジタルカメラ100を撮影モードで起動し、撮影待機状態においてユーザーがファインダーを覗いている場合、つまり接眼部16へ接眼状態で、視線入力に関する設定が有効であるときに開始される。図5(a)(b)はEVF29または表示部28に表示される撮影に関する設定メニュー画面である。図5(a)の設定メニュー画面には項目501~504が表示される。このうち項目503が視線入力に関する設定項目である。視線入力とは、ユーザーの視線による操作についての機能を指す。視線入力は有効と無効のいずれかに設定することができる。設定候補503aを選択すれば、視線入力に関する設定が有効になり、設定候補503bを選択すれば、視線入力に関する設定が無効になる。視線入力を有効に設定すると、例えば設定メニュー画面における視線によるカーソル移動や項目の選択が可能になる。視線入力を無効に設定すると、例えば視線によるカーソル移動が行えない。図5(a)は、視線入力の設定が有効であることを表している。視線入力の設定は、不揮発性メモリ56に保存される。また、図5(a)に示すような設定メニュー画面での設定でなくても、デジタルカメラ100が有する操作部材への操作、もしくは、レバーの切替によって、視線入力の有効/無効を切り替えられるようにしてもよい。
また、ユーザーによる視線入力があった場合に視線位置を決定する条件として、例えば注視がある。視線検出ブロック160において視線入力が検出されると、検出された時点からの時間をシステム制御部50が計時する。視線検出ブロック160において検出された視線位置について、例えば30ミリ秒毎に視線位置を検出し、システム制御部50へ送る。システム制御部50は、視線位置と計時した時間から、ユーザーが視線を大きく動かしているか(視線をきょろきょろと動かしているか)、ある位置を見つめているか(注視)を判定することができる。システム制御部50は視線位置と計時した時間から、所定時間内における視線位置の移動量が既定の閾値以下であるときに、注視があったと判定する。例えば、120ミリ秒のうちに視線位置の移動量が既定の閾値以下であった場合に、注視があったと判定する。注視の有無によって視線位置を決めるようにすれば、ユーザーが無意識的に行った意図しない視線移動にAF枠が追従することがないため、ユーザーが煩わしく感じることを低減することができる。ここでは、ユーザーの意図する視線位置と判定する条件として注視を取り上げたが、ユーザーのまばたきや音声による指示等を条件としてもよい。
S301では、システム制御部50は、不揮発性メモリ56を参照し、視線入力によるAF機能の設定が有効であるか否かを判定する。視線AF設定が有効である場合は、S302へ進み、そうでない場合は、S304へ進む。視線AF機能とは、視線検出ブロック160で検出した視線位置に焦点検出領域(以下、AF枠)を表示し、AFを実行する機能である。図5(a)の項目502に示すように、ユーザーがデジタルカメラ100の設定メニュー画面において視線AF機能の有効/無効のいずれかを設定することができる。視線AFに関する設定を有効にすると、視線に追従して指定位置であるAF枠が移動し、表示されたAF枠の位置でAFが実行される。視線AFに関する設定が無効にすると、視線に追従してAF枠は移動しない。たとえ視線入力が有効であっても、視線AFに関する設定が無効であれば、ユーザーの視線を検出していても視線に追従してAF枠は移動しない。図5(a)では設定候補502aが選択されていることから、視線AFの設定が有効であることを表している。視線AFの設定内容は、不揮発性メモリ56に保存される。
S302では、システム制御部50は、視線検出ブロック160において検出された視線位置にAF枠を表示し、AF枠位置でコンティニュアスAFを開始する。S301でYesと判定した場合、視線AF設定が有効であるため、視線位置に追従してAF枠を表示し、視線位置でAFを実行する。図4(a)~(h)にEVF29に表示される表示例を示す。図4(a)~(h)に示す表示例では、運動会での子供がゴールテープに向かって走っている場面がLVとして表示されている例を示している。図4(a)に示すように、EVF29に接眼しているユーザーの目161が見ている視線位置に枠421が表示される。枠421はAF枠である。図4(a)では、ユーザーの視線は被写体412にあるため枠421が図4(a)のように被写体412の顔に表示され、AFが実行される。仮にユーザーが視線位置を被写体412から被写体411へ移動した場合には、AF枠は視線に追従して被写体412から被写体411へ移動し、被写体411に対してAFを実行する。
S303では、システム制御部50は、第1シャッタースイッチ62がオンになったか否かを判定する。第1シャッタースイッチ62がオンになった場合は、S307へ進み、そうでない場合はS302へ戻る。第1シャッタースイッチ62がオンとは、前述したようにシャッターボタン61が半押しされている状態を示す。シャッターボタン61が半押しされているということは、ユーザーは撮影を行う前にAF(合焦)位置や測光値などの撮影に関する値の確認を行い、撮影準備を行っていることが想定される。そのため、撮影に関する値を確認するだけでなく、EVF29に表示されている画像全体を確認している可能性も高い。このような場合にはユーザーは画像全体をチェックするために視線を大きく動かすが、視線移動に追従してAF枠が移動してしまうと、ユーザーは煩わしく感じるだけでなく、画像全体をチェックしにくい。そのため、第1シャッタースイッチ62がオンになった場合は、S308で後述するように、視線AF設定が有効でも、視線位置にAF枠は追従しない。
S304では、システム制御部50は、不揮発性メモリ56を参照し、視線ポインターに関する設定がONであるか否かを判定する。設定がONであった場合は、S305へ進み、そうでない場合は、S306へ進む。S301において視線AF設定が無効である場合、視線位置に追従して表示されるものはなく、ユーザーは自身の視線位置を把握することができない。そのため、視線位置に視線ポインターを表示することで、視線位置を把握することができるようにする。視線ポインターの設定が有効であると、視線位置にポインターが表示されるため、ユーザーは自身の視線位置を把握することができる。これにより、視線AF設定が無効であったとしても、他の視線を用いる機能として、例えば、視線によるメニュー項目やアイコンの選択、視線の移動方向によって特定の機能の実行をする際に、自身の視線位置を把握したうえで視線による操作を行うことができる。視線ポインターの設定が無効であると、視線位置が移動したとしても視線位置にポインターが追従しないため、ユーザーの意図ではない視線移動があった場合でも、ユーザーがわずらわしく感じることがない。また、メニュー項目上にポインターが重畳して表示することがないため、メニュー項目の視認性が高まる。視線ポインターに関する設定は、図5(a)の項目504に示すように、ユーザーが任意に設定を行うことができる。なお、S301で述べたように、視線AF設定が有効の場合は、視線ポインターの設定内容にかかわらず、視線位置にポインターを表示しないようにする。これにより、視線AF設定が有効、かつ、視線ポインターの設定が有効であるときでも、視線位置にAF枠とポインターの両方が表示されることがなく、LV画像の視認性が低下することを低減することができる。
S305では、システム制御部50は、S304でYesと判定された場合、視線位置にポインターを表示する。S304で述べたように、ユーザーが自身の視線位置を把握することができればよいため、表示形態はポインターに限らず、ユーザーが自身の視線位置を把握できるような表示形態であればよい。例えば、視線位置にメニュー項目やアイコンがあった場合は、視線位置の項目をハイライト表示したり、点滅させたり、拡大表示するようにしてもよい。なお、視線ポインターに関する設定項目がなくてもよい。すなわち、S304、S305をなくして、S301からS306へと行くように制御してもよい。
S306では、S303と同様に、システム制御部50は、第1シャッタースイッチ62がオンになったか否かを判定する。第1シャッタースイッチ62がオンになった場合は、S307へ進み、そうでない場合は、S304へ戻る。
S307では、システム制御部50は、不揮発性メモリ56を参照し、AF動作の設定がサーボAFか否かを判定する。サーボAFである場合は、S308へ進み、そうでない場合S326へ進む。サーボAFとは、競技中のスポーツ選手や動いている子供、動物など、撮影距離が絶えず変化する(動いている)被写体の撮影に適した撮影モードであり、被写体の追尾とコンティニュアスAFが行われる。サーボAFに設定されている場合は、ユーザーがシャッターボタン61を操作している間は、第1シャッタースイッチ62がオン時点でのAF枠位置で追尾対象を決定し、追尾対象である被写体にAFを合わせ続ける(コンティニュアスAFを開始する)。これに対して、ワンショットAFとは、止まっている被写体の撮影に適したものであり、第1シャッタースイッチ62のオン時点でのAF枠位置で1度だけAFを実行する。AF動作の設定は、図5(a)の項目501に示すように、ユーザーがワンショットAFかサーボAFかを選択することができる。図5(a)では、設定候補501aが選択されていることから、AF動作の設定はサーボAFに設定されている。例えば、図4(a)~(h)に示す表示例では、デジタルカメラ100と被写体との距離は絶えず変化していることから、サーボAFで被写体を追尾し、追尾対象にAFを実行し続けるほうがユーザーは、ユーザーの意図通りにピントを合わせた画像の撮影を行える。一方で、花などの静止被写体を撮影する際には、サーボAFのように常に被写体を追尾していると、撮影を行った瞬間にユーザーの意図しない位置でAFを実行し、撮影してしまう可能性がある。そのため、ワンショットAFでAF位置を固定するほうがユーザーにとって操作性が良い可能性が高い。
S308では、システム制御部50は、S303もしくはS306において第1シャッタースイッチ62がオンになった時点での視線位置(注視位置)で追尾対象を決定して追尾を開始し、コンティニュアスAFを開始する。追尾対象の決定処理として、具体的には、その時点での視線位置にある被写体の特徴量(位置、色合い、形状、コントラストなど)を抽出して追尾条件に設定する。そして追尾を開始すると、次のフレームにおいて類似する特徴を持つ被写体を追尾する。図4(a)の状態で第1シャッタースイッチ62がオンになった場合は、AF枠421の位置、すなわち被写体412が追尾対象となり、追尾が開始され、被写体412に対してコンティニュアスAFが開始される。第1シャッタースイッチ62がオンされた後は、たとえ視線AF設定が有効であっても、視線位置に追従してAF枠は移動しない。シャッターボタン61への操作を行っている間は視線位置にAF枠が追従しないため、撮影している画像全体をチェックすることでシャッターチャンスをうかがっているユーザーにとっては、使い勝手がよい。一方で、S301において視線AF設定を有効にしたにも関わらず、シャッターボタン61への操作中は視線入力によるAF枠の移動が行えないと、追尾対象の意図しない乗り移りが生じると、視線入力によって直感的にAF枠を所望位置(被写体)に移動できない。例えば図4(a)に示すように、視線位置が被写体412にあり、AF枠である枠421が被写体412に表示されているときに第1シャッタースイッチ62がオンになると、被写体412で追尾を開始し、コンティニュアスAFを開始する。被写体412に追尾を開始しコンティニュアスAFを行っている際に、被写体411が被写体412に近い位置を通って被写体412よりもデジタルカメラ100に近づくこと(被写体411が被写体412に追い抜かれた)が生じる場合がある。このような場合、被写体411と被写体412が類似した色合いや形状であるために、図4(b)に示すように追尾対象が被写体412から被写体411へ乗り移るおそれがある。ユーザーは被写体412に合焦した写真が撮りたいにも関わらず、被写体411に意図せず追尾対象が乗り移ってしまい、ユーザー所望の被写体ではない被写体に追尾が開始してしまい使い勝手が悪い。図4(b)はユーザーがシャッターボタン61への操作中の追尾枠と視線位置の表示例について示している。上述したように、図4(a)においてユーザーは被写体412に合焦させたいと考えていたが、図4(b)のように被写体411に乗り移ってしまうことが生じる。
なお、S308では、追尾枠を示す枠422とは別に、ユーザーの視線位置を示す指標420をEVF29に表示する。指標420は図4(b)では円で示しているが、表示形態はこれに限らない。ユーザーが自身の視線位置を視認できる、かつ、追尾枠と混同しないような指標であればいい。追尾枠はコンティニュアスAFで追尾対象にAFを実行し続けていることを示す枠であり、追尾枠とAF枠とを混同しないように表示形態を異なるものとしている。AF動作の設定によって表示する枠を異ならせているだけで、枠が表示されている位置でAFを実行している点ではAF枠と同じである。これにより、シャッターボタン61への操作中はシャッターボタン61への操作開始時点でのAF枠位置で追尾対象を決定、追尾を開始し、コンティニュアスAFを実行し、視線位置を示す指標を表示する。シャッターボタン61への操作中は視線位置へのAF枠の移動は行わないため、ユーザーは視線移動に伴うAF枠の移動、AF実行位置は移動しないが、自身の視線位置を視認することができる。ユーザーが、後述する視線位置にAF枠を更新させたいと考えた場合にも、ユーザー所望のタイミングで視線位置にAF枠を更新させ、追尾対象を変更することができる。
S309では、システム制御部50は、視線更新ボタンの押下があったか否かを判定する。あった場合はS310へ進み、そうでない場合はS313へ進む。視線更新ボタンとは前述したように、視線更新機能を持つ専用ボタン、または、視線更新機能を割り当てたボタンのことを指す。視線更新機能とは、第1シャッタースイッチ62のオンより、視線移動への追従を一時的に制限したAF枠を、視線位置に更新する機能を指す。視線位置に追従しないように一時的に制限したAF枠の移動を、視線位置に更新することでAF枠をユーザー所望の位置へと移動させる。視線位置にAF枠を移動させることから、現在EVF29に表示されているAF枠位置とユーザー所望の位置(視線位置)とが遠い場合でも、素早く直感的に移動させることができる。上述した視線更新機能を割り当て可能な操作部材は、図5(b)の項目505に示すように、視線更新機能を割り当てられるボタンは、ユーザーが設定メニュー画面から任意に選択することができる。設定候補505aを選択すれば、視線更新機能はAF-ONボタン77に割り当てられる。設定候補505bを選択すれば、視線更新機能はいずれのボタンにも割り当てられず、いずれのボタンを押下しても、視線位置にAF枠は更新されない。図5(b)では、視線更新機能はAF-ONボタン77に割り当てられている。
S310では、システム制御部50は、ユーザーの視線位置と、EVF29に表示されているAF枠とが近傍にあるか否かを判定する。近傍にある場合は、S313へ進み、近傍に無い場合はS311へ進む。ユーザーの視線位置と、EVF29に表示されているAF枠とが近傍にあるとは、視線位置がAF枠を含む所定の範囲内にあることを指す。視線は人間の特性上、無意識的に視線が微動してしまうことや、視線検出のキャリブレーションの回数や環境などの様々な影響により、EVF29に表示される視線位置がユーザーが実際に見ている位置とずれてしまうことがある。図4(c)に、システム制御部50がライブビュー画像内から被写体を認識している場合の図を示す。認識している被写体を示す枠(実線)と、被写体を示す枠の周りの緩衝領域を示す枠(点線)、追尾枠(二重枠)を表す。図4(c)の被写体411について、追尾枠422と緩衝領域を示す枠411bを、被写体412について、認識している被写体を示す枠412aと緩衝領域を示す枠412bを示す。図4(c)でのユーザーの視線位置を指標419cとする。認識している被写体を示す411aは追尾枠422と一致している。認識した被写体を示す枠は、該当被写体の大きさによって枠の大きさが変化する。緩衝領域を示す枠は、認識した被写体より一回り大きい枠で示し、認識した被写体を含む所定の範囲とする。緩衝領域を示す枠は、認識した被写体を示す枠の、例えば面積を1.2倍した大きさの面積を示す枠とする。緩衝領域を示す枠の大きさは、ユーザーが設定メニュー画面で任意に設定するようにしてもよいし、キャリブレーションの回数や視線検出の精度によって変動するようにしてもよいし、予め決めてもよい。また後述するように、被写体の胴体を認識できる場合には、被写体の胴体全体が入るような枠の大きさにしてもよい。図4(c)に示すように、被写体412に追尾を行っているときに、ユーザーは指標419cの位置を見ている。指標419cは緩衝領域411b内(追尾枠422内)にあり、ユーザーは被写体412を見ていることが想定できる。このような場合、現在追尾している追尾対象とユーザーの視線位置とが一致しているため、視線更新ボタンが押下されても、視線位置に基づく追尾枠422の更新はせず引き続き被写体411に対して追尾、コンティニュアスAFを継続する。このように緩衝領域を設けることで、上述した検出された視線位置とユーザーが見ている位置とのズレが生じた場合でも、少しのズレであれば視線更新ボタンの押下に応じて、視線位置にAF枠を更新する。これにより、ユーザーは所望の被写体を見ているにもかかわらず、視線位置(ユーザーの所望位置)にAF枠が移動しないことを低減することができ、シャッターチャンスを逃しにくくすることができる。
S311では、システム制御部50は、ユーザーの視線位置の近傍に認識した被写体があるか否かを判定する。視線位置の近傍に認識した被写体がある場合は、S312へ進み、ない場合はS313へ進む。S310でNoと判定された場合、視線位置の近傍にAF枠が表示された追尾対象はない。そのため、ユーザーはEVF29に表示されたAF枠とは異なる位置を見ていることが想定できる。例えば、図4(d)に示すように、追尾対象として被写体411の顔に枠422が表示されているときに、視線位置が指標419dの位置にある場合を考える。指標419dは被写体411の緩衝領域である枠411b内には無いが、被写体412の緩衝領域である枠412b内にある。このことから、ユーザーは被写体412を見ていると判定する。S310で述べたように、視線位置が枠412a内に含まれていなくても、緩衝領域412b内に含まれていれば、被写体412を見ていると判定する。これにより、視線位置の多少のズレが生じても、視線更新ボタンの押下に応じて視線位置にAF枠を更新することができ、シャッターチャンスを逃すことなく撮影を行うことができる。
S312では、システム制御部50は、S311でYesと判定された場合、ユーザーの視線位置の近傍に被写体があることから、追尾対象を視線位置の近傍の被写体へと変更し、追尾を開始する。すなわち、視線位置に基づいて新たに追尾対象(指定位置、AF対象)の決定処理(S308で前述した処理)を行い、追尾対象を更新する。例えば、図4(d)に示す状態で視線更新ボタンが押下された場合は、ユーザーは被写体412を見ていると判定し、AF枠を視線位置である被写体412に移動する(追尾対象を被写体411から被写体412へ更新する)。この結果、図4(e)に示す通り、被写体412に対して追尾を開始し、コンティニュアスAFを実行する。これにより、シャッターボタン61の半押し継続中、つまりシャッターボタン61への操作中に、視線位置に基づく位置にAF枠の更新を、操作手段への操作により制御する。シャッターボタン61への操作中は視線位置にAF枠が追従して表示されないため、ユーザーの意図しないAF枠の移動やAFの実行が行われない。また、視線移動に追従してAF枠が移動しないため、ユーザーがわずらわしく感じることを低減できる。すなわち、ユーザーは視線位置へのAF枠の更新を所望のタイミングで切り替えられるため、わずらわしく感じることなく、かつ、シャッターチャンスを逃すことなく撮影をすることができる。
S313では、システム制御部50は、EVF29に表示のAF枠位置である追尾対象を変更せず、コンティニュアスAFを継続する。S310でYesもしくはS311でNoと判断された場合、視線位置の近傍に追尾対象がない、もしくは、視線位置近傍に被写体がない。例えば、図4(f)に示すように、ユーザーの視線位置が指標419fの位置にあった場合を考える。このような場合、枠411b、枠412bのいずれの枠内にも視線位置が含まれていない。したがって、ユーザーは被写体411、被写体412のいずれも見ていないと判定する。そのため、視線更新ボタンが押下されたとしても、視線位置に追尾対象を更新しない。S310、S311の判定を行うことで、図4(f)の指標419fの位置のような被写体がない部分へのAF枠の移動を避けることができ、例えば無限遠にAFが実行されてしまうことを低減できる。被写体のない位置にAFが実行されてしまうと、ユーザーは所望の被写体を再度選び、AFを実行しなければならず、シャッターチャンスを逃す可能性が生じる。そのため、S310~S312の判定を行うことで、上述したようなAF枠の移動を避けることができ、ユーザーにとっては操作性が良くなる可能性が高い。
S314では、システム制御部50は、第1シャッタースイッチ62がオフになったか否かを判定する。第1シャッタースイッチ62がオフ、すなわちシャッターボタン61の半押しが終わった場合は、S328へ進み、そうでない場合はS315へ進む。
S315では、システム制御部50は、第2シャッタースイッチ64がオンになったか否かを判定する。第2シャッタースイッチ64がオン、すなわちシャッターボタン61が全押しされた場合は、S316へ進み、そうでない場合はS309へ戻る。
S316では、システム制御部50は、前述した撮影処理の動作を開始する。
S317では、システム制御部50は、第2シャッタースイッチ64のオンが継続、すなわち、シャッターボタン61への全押しが継続されているか否かを判定する。継続されている場合はS318へ進み、連写中の処理を行い、そうでない場合はS314へ戻る。
S318では、システム制御部50は、S309と同様に、視線更新ボタンの押下があったか否かを判定する。あった場合はS319へ進み、そうでない場合はS320へ進む。
S319では、システム制御部50は、S310と同様に、ユーザーの視線位置と、現在表示されているAF枠とが近傍にあるか否かを判定する。近傍にある場合はS320へ進み、そうでない場合はS321へ進む。
S320では、システム制御部50は、S311と同様に、ユーザーの視線位置の近傍に認識された被写体があるか否かを判定する。認識された被写体がある場合は、S321へ進み、ない場合はS322へ進む。
S321では、システム制御部50は、S312と同様に、S321でYesと判定された場合、ユーザーの視線位置の近傍に被写体があることから、追尾対象を視線位置の近傍の被写体へと変更(更新)し、追尾を開始する。
S322では、システム制御部50は、S313と同様に、追尾対象を変更せずコンティニュアスAFを継続する。
S323では、S316と同様に、システム制御部50は、前述した撮影処理の動作を開始し、S317へ戻る。ここでの撮影は、連写による2枚目以降の撮影である。続いて、S317へ進む。
一方、S307でサーボAFでないと判定された場合、すなわちワンショットAFの場合、S324の処理を行う。
S324では、システム制御部50は、S303もしくはS308において第1シャッタースイッチ62がオンになった時点での視線位置(注視位置)にAF枠を表示し、AFを実行する。ワンショットAFでは、追尾は行わない。
S325では、システム制御部50は、S315と同様に、第2シャッタースイッチ64がオンになったか否かを判定する。第2シャッタースイッチ64がオン、すなわちシャッターボタン61が全押しされた場合は、S326へ進み、そうでない場合はS327へ進む。
S326では、S316、S323と同様に、システム制御部50は、前述した撮影処理の動作を開始し、S327へ進む。
S327では、S314と同様に、システム制御部50は、第1シャッタースイッチ62がオフになったか否かを判定する。第1シャッタースイッチ62がオフ、すなわちシャッターボタン61の半押しが終わった場合は、S328へ進み、そうでない場合は、S325へ戻る。
S328では、システム制御部50は、電源オフや再生モードへの移行などにより、撮影待機状態が終了したか否かを判定する。撮影待機状態が終了した場合は、本制御フローを終了し、撮影待機状態が終了していない場合は、S301へ戻る。
S316~S323の制御は、ユーザーが第2シャッタースイッチ64のオン継続中に行われる制御フローである。すなわち連写中に行われる制御であり、連写中であっても視線更新ボタンへの押下に応じて、視線位置と認識された被写体との位置関係によって、表示されているAF枠から視線位置へとAF枠を更新することができる。これにより、ユーザーは撮影を行っている間にも所望の被写体へとAF枠を素早く移動することができる。連写中は連写可能枚数や連写可能速度などの、撮影待機状態よりも、より厳しい制約の中で動きの速い被写体の撮影を行っていると想定されるため、撮影待機状態よりもシャッターチャンスをより逃したくない。このような状況下においても、ユーザーは視線位置へのAF枠の更新を所望のタイミングで切り替えられ、わずらわしく感じることなく、かつ、シャッターチャンスを逃すことなく撮影をすることができる。
また、S310、S311、S319、S320において被写体認識の、特に人物の顔を認識する技術を用いて被写体の有無を判定して本制御フローに活用したが、人物の顔に限らない。例えば、人物の胴体や動物(犬や猫)、乗り物(電車、飛行機、車)などを認識して本制御フローに活用してもよい。例えば、図4(g)に示すように、人物の胴体を認識できる場合は、緩衝領域を胴体にまで広げるような領域411c、領域412cとしてもよい。すなわち、S311、S320において、被写体411が追尾対象である場合にシャッターボタン61の操作中に視線位置が指標419の位置にあったとする。つまり、図4(g)に示すように、ユーザーが指標419gの位置である、被写体412の胴体を見ていると判定できた際に、視線更新ボタンが押下された場合は、追従対象を被写体411から被写体412へと追尾対象を変更するようにしてもよい(図4(h))。緩衝領域のみならず、S308において決定した追尾対象について、顔を検出することができなかった場合でも、胴体が検出できていれば胴体に追尾するように制御してもよい。胴体に追尾することで、顔の検出が可能になった場合にはユーザーは所望の被写体の顔を選択しやすくなる。同様に、人物に限らず、動物や乗り物を認識できた場合には、本制御フローを適用することができる。上述したいずれの被写体も認識できなかったとしても、LV画像からモノを追尾することもできる。
なお、図4(c)、(d)、(f)、(g)においてユーザーの視線位置をわかりやすく明示するために指標419を星形で示したが、星形のような指標ではなく図4(b)の指標420のように円で視線位置を表現してもよい。また、図4(c)、(d)のように視線位置が被写体にあると判定される場合は、視線位置を示す指標を出すことなく、ユーザーが見ているであろう被写体にインジケーターを表示してもよい。この場合のインジケーターは、追尾枠を示す枠422やAF枠を示す枠421と混同しないように、表示色を変えたり、枠内にマスクをかけたり、上記枠とは異なった表示形態にするとよい。
上述した本実施形態に対しても、タッチパネル70aへの押圧を検知可能なように構成し、タッチパネル70aへの押圧に応じて、前述の視線更新ボタンの押下に応じた処理を行うようにしてもよい。
また、タッチダウンに応じて第1シャッタースイッチ62のオンと同様に処理を行い、その後タッチパネル70aへの押圧があったことに応じて、前述の視線更新ボタンの押下に応じた処理を行うようにしてもよい。この場合、タッチダウンに応じて第2シャッタースイッチ64のオンと同様の処理を行ってもよい。すなわち、タッチパネル70aにタッチしたことに応じて追尾開始とともに撮影を行い、タッチオンが継続していれば連写を行い、押圧があれば追尾対象を更新する。また、タッチアップに応じて第2シャッタースイッチ64のオンと同様の処理を行ってもよい。
このように本実施形態では、シャッターボタン操作中に、視線入力によるAF枠の移動(追尾対象の更新)を、操作部材への操作により制御する。これにより、ユーザーは視線位置へのAF枠の追従について煩わしく感じることなく操作性良く切り替えることができる。また、シャッターボタンへの操作中に操作できる範囲に操作部材を配置するため、シャッターボタンへの操作に支障なく、視線位置へのAF枠の追従を切り替えられ、シャッターチャンスを逃すことなく、ユーザー所望の位置でAFさせて撮影を行うことができる。
なお、上述した本実施形態では、EVF29を有したデジタルカメラ100の例を説明したが、これに限るものではない。EVFを用いない撮像機能を有する機器にも適用可能である。具体的には、表示部にLV画像を表示し、表示部を見ているユーザーの視線位置を検出可能であれば、ユーザーが表示部に表示されているLV画像を見ながら撮影している場合にも適用可能である。すなわち、本発明はパーソナルコンピューターや携帯電話端末、携帯型の画像ビューワ、ディスプレイを備える音楽プレーヤーやゲーム機、ヘッドマウントディスプレイ等のウェアラブル機器などに適用可能である。
以上のように、視線入力がある場合に、シャッターボタンへの操作中は、視線入力によるAF枠である指定位置の移動は行わず、所定の操作部材への操作があったことに応じて視線位置に指定位置の移動を行う。これにより、シャッターボタン操作中に、視線位置に基づく指定位置の更新を、ユーザー所望のタイミングで操作感良く行うことができる。
なお、システム制御部50が行うものとして説明した上述の各種制御は、1つのハードウエアが行ってもよいし、複数のハードウエア(例えば複数のプロセッサーや回路)が処理を分担することで装置全体の制御を行ってもよい。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピューター(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。

Claims (1)

  1. 撮像部と、
    ユーザーの視線によりAF位置を指定するために、ユーザーの視線位置を検出する視線検出手段と、
    特定の操作部材と、
    制御手段と、を有し、
    前記制御手段は、
    第1のAFモードの場合は、
    前記特定の操作部材への所定の操作に応じて、前記所定の操作が行われた時点において前記視線検出手段により検出された視線位置に基づいて追尾対象の被写体及を決定し、前記追尾対象の被写体を追尾して当該追尾対象の被写体の移動に応じて前記AF位置を移動するように制御し、
    第2のAFモードの場合は、
    前記特定の操作部材への前記所定の操作に応じて、前記所定の操作が行われた時点において前記視線検出手段により検出された視線位置に基づいて前記AF位置を決定し、前記視線検出手段により検出された視線位置に基づく前記AF位置の変更を行わず、前記AF位置の被写体が移動したとしても前記AF位置を移動しないように制御する、
    ことを特徴とする撮像装置。
JP2022208255A 2019-10-24 2022-12-26 撮像装置およびその制御方法 Active JP7410629B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022208255A JP7410629B2 (ja) 2019-10-24 2022-12-26 撮像装置およびその制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019193889A JP7208128B2 (ja) 2019-10-24 2019-10-24 撮像装置およびその制御方法
JP2022208255A JP7410629B2 (ja) 2019-10-24 2022-12-26 撮像装置およびその制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019193889A Division JP7208128B2 (ja) 2019-10-24 2019-10-24 撮像装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2023029458A true JP2023029458A (ja) 2023-03-03
JP7410629B2 JP7410629B2 (ja) 2024-01-10

Family

ID=75542864

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019193889A Active JP7208128B2 (ja) 2019-10-24 2019-10-24 撮像装置およびその制御方法
JP2022208255A Active JP7410629B2 (ja) 2019-10-24 2022-12-26 撮像装置およびその制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019193889A Active JP7208128B2 (ja) 2019-10-24 2019-10-24 撮像装置およびその制御方法

Country Status (3)

Country Link
US (2) US11609481B2 (ja)
JP (2) JP7208128B2 (ja)
CN (1) CN112714247B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021156919A (ja) * 2020-03-25 2021-10-07 キヤノン株式会社 撮像装置
JP2022171084A (ja) * 2021-04-30 2022-11-11 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
CN114339037A (zh) * 2021-12-23 2022-04-12 臻迪科技股份有限公司 一种自动对焦的方法、装置、设备和存储介质
WO2024095888A1 (ja) * 2022-11-01 2024-05-10 キヤノン株式会社 撮像装置、制御方法およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184089A (ja) * 1993-12-21 1995-07-21 Canon Inc ビデオカメラ
JPH08191797A (ja) * 1995-01-13 1996-07-30 Canon Inc 視線検出機能付き観察装置
JPH10191132A (ja) * 1996-12-26 1998-07-21 Canon Inc 画像記録方法及び装置並びに記憶媒体
JPH11338041A (ja) * 1998-05-26 1999-12-10 Canon Inc 光学装置及び視線検出機能付きカメラ
JP2000028899A (ja) * 1998-07-14 2000-01-28 Canon Inc 自動焦点調節装置、カメラ及び視線検出機能付き装置
JP2016142925A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 撮像装置およびその制御方法、プログラム、記憶媒体
JP2018129659A (ja) * 2017-02-08 2018-08-16 キヤノン株式会社 画像処理装置、撮像装置および制御方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6161135A (ja) 1984-09-03 1986-03-28 Omron Tateisi Electronics Co 自動焦点調整カメラ
JPH07199046A (ja) * 1993-12-28 1995-08-04 Canon Inc 視線検出機能付装置
JP3647088B2 (ja) 1995-08-21 2005-05-11 キヤノン株式会社 視線検出手段を有するカメラ
JP2001100903A (ja) 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 視線検出機能搭載装置
US20040174434A1 (en) * 2002-12-18 2004-09-09 Walker Jay S. Systems and methods for suggesting meta-information to a camera user
US7259785B2 (en) * 2003-04-28 2007-08-21 Hewlett-Packard Development Company, L.P. Digital imaging method and apparatus using eye-tracking control
US20060038144A1 (en) * 2004-08-23 2006-02-23 Maddison John R Method and apparatus for providing optimal images of a microscope specimen
US7529772B2 (en) * 2005-09-27 2009-05-05 Scenera Technologies, Llc Method and system for associating user comments to a scene captured by a digital imaging device
JP5361522B2 (ja) * 2009-05-08 2013-12-04 キヤノン株式会社 眼底カメラ
KR101692398B1 (ko) * 2010-08-30 2017-01-03 삼성전자주식회사 디지털 촬영 장치 및 디지털 촬영 장치의 제어 방법
US8493390B2 (en) * 2010-12-08 2013-07-23 Sony Computer Entertainment America, Inc. Adaptive displays using gaze tracking
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US20130155309A1 (en) * 2011-12-20 2013-06-20 Research In Motion Limited Method and Apparatus for Controlling Camera Functions Using Facial Recognition and Eye Tracking
US20150003819A1 (en) * 2013-06-28 2015-01-01 Nathan Ackerman Camera auto-focus based on eye gaze
JP6257198B2 (ja) * 2013-07-22 2018-01-10 キヤノン株式会社 光学機器、その制御方法、および制御プログラム
JP6249825B2 (ja) * 2014-03-05 2017-12-20 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
US10216267B2 (en) * 2014-05-08 2019-02-26 Sony Corporation Portable electronic equipment and method of controlling a portable electronic equipment
US10911656B2 (en) * 2017-11-21 2021-02-02 Microsoft Technology Licensing, Llc Optical isolation systems for displays

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184089A (ja) * 1993-12-21 1995-07-21 Canon Inc ビデオカメラ
JPH08191797A (ja) * 1995-01-13 1996-07-30 Canon Inc 視線検出機能付き観察装置
JPH10191132A (ja) * 1996-12-26 1998-07-21 Canon Inc 画像記録方法及び装置並びに記憶媒体
JPH11338041A (ja) * 1998-05-26 1999-12-10 Canon Inc 光学装置及び視線検出機能付きカメラ
JP2000028899A (ja) * 1998-07-14 2000-01-28 Canon Inc 自動焦点調節装置、カメラ及び視線検出機能付き装置
JP2016142925A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 撮像装置およびその制御方法、プログラム、記憶媒体
JP2018129659A (ja) * 2017-02-08 2018-08-16 キヤノン株式会社 画像処理装置、撮像装置および制御方法

Also Published As

Publication number Publication date
JP7208128B2 (ja) 2023-01-18
JP7410629B2 (ja) 2024-01-10
US11966155B2 (en) 2024-04-23
US20230194956A1 (en) 2023-06-22
US11609481B2 (en) 2023-03-21
CN112714247A (zh) 2021-04-27
US20210124239A1 (en) 2021-04-29
CN112714247B (zh) 2023-07-14
JP2021067853A (ja) 2021-04-30

Similar Documents

Publication Publication Date Title
JP7208128B2 (ja) 撮像装置およびその制御方法
JP7321786B2 (ja) 電子機器およびその制御方法
JP7442331B2 (ja) 音声入力装置およびその制御方法ならびにプログラム
JP7467071B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
WO2020255675A1 (ja) 電子機器およびその制御方法
JP7301615B2 (ja) 電子機器およびその制御方法
JP7346375B2 (ja) 電子機器及びその制御方法及びプログラム及び記録媒体
CN113364945A (zh) 电子装置、控制方法和计算机可读介质
JP2022018244A (ja) 電子機器およびその制御方法
JP2021069008A (ja) 電子機器、電子機器の制御方法、プログラム及び記憶媒体
CN112040095B (zh) 电子装置、电子装置的控制方法及存储介质
JP2021156919A (ja) 撮像装置
JP2021124613A (ja) 音声入力装置およびその制御方法ならびにプログラム
JP2021184123A (ja) 電子機器、電子機器の制御方法、プログラム
JP2021097356A (ja) 撮像制御装置
JP2021022897A (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
WO2022131252A1 (ja) 電子機器及びその制御方法及びプログラム及び記録媒体
JP7451255B2 (ja) 電子機器及びその制御方法
JP7286469B2 (ja) 撮像制御装置、撮像制御装置の制御方法、プログラム、記憶媒体
JP2022129065A (ja) 表示制御装置及びその制御方法及びプログラム及び記録媒体
JP2022067578A (ja) 撮像装置及びその制御方法及びプログラム及び記録媒体
JP2022095306A (ja) 表示制御装置及びその制御方法
JP2022095264A (ja) 表示制御装置及びその制御方法
JP2022170347A (ja) 電子機器、電子機器の制御方法、プログラム及び記録媒体
JP2022172840A (ja) 電子機器、電子機器の制御方法、プログラム、及び記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R151 Written notification of patent or utility model registration

Ref document number: 7410629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151