JP7541850B2 - 電子機器、制御方法、プログラム - Google Patents

電子機器、制御方法、プログラム Download PDF

Info

Publication number
JP7541850B2
JP7541850B2 JP2020085890A JP2020085890A JP7541850B2 JP 7541850 B2 JP7541850 B2 JP 7541850B2 JP 2020085890 A JP2020085890 A JP 2020085890A JP 2020085890 A JP2020085890 A JP 2020085890A JP 7541850 B2 JP7541850 B2 JP 7541850B2
Authority
JP
Japan
Prior art keywords
distance
mode
image
viewpoint area
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020085890A
Other languages
English (en)
Other versions
JP2021180446A (ja
JP2021180446A5 (ja
Inventor
友貴 植草
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020085890A priority Critical patent/JP7541850B2/ja
Priority to US17/318,835 priority patent/US11553128B2/en
Publication of JP2021180446A publication Critical patent/JP2021180446A/ja
Priority to US18/067,610 priority patent/US12041352B2/en
Publication of JP2021180446A5 publication Critical patent/JP2021180446A5/ja
Application granted granted Critical
Publication of JP7541850B2 publication Critical patent/JP7541850B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、電子機器に関し、特に焦点制御に関する。
近年、カメラの自動化・インテリジェント化が進んでいる。特許文献1では、被写体の位置をユーザが入力せずとも、ファインダを覗くユーザの視線を検出して、検出した視線に基づいてユーザが意図する被写体に対する焦点制御(合焦)を行う撮像装置が開示されている。
また、特許文献2では、ユーザの視点(見ている位置)の軌跡と表示された動画における被写体の軌跡とが一致する場合に、当該被写体に継続的に焦点を合わせ続けるコンティニュアスAF(オートフォーカス)モードに設定する技術が開示されている。
特開2004-8323号公報 特開2017-34569号公報
しかしながら、上述の技術では、動画の撮影中に、ユーザが意図する被写体に対して障害物が被ってしまうと、障害物に合焦されてしまい、不要な焦点変化が発生して、記録される動画の質が悪化する。一方、静止画の撮影中では、障害物が被ってしまった後に、ユーザが意図した被写体が再度現れた際の、当該被写体に対する焦点制御に長い時間を要して、撮影機会を逃してしまう可能性がある。
また、被写体ぬけや障害物の入り込みなどに対応するため、視線検出からAFを実行するまでの時間(AFレスポンス)の設定を適宜行うことも考えられるが、AFレスポンスは、動的には変更できない。このため、同一被写体へのAF追従の維持とAF対象の被写体の切り替え時のAF追従性との両立は難しい。つまり、従来では、ユーザの意図した被写体に対して、視線入力によって継続的に合焦し続けることができなかった。
そこで、本発明は、ユーザの意図した被写体に対して、視線入力によって継続的に合焦し続ける技術を提供することを目的とする。
本発明の第1の態様は、
撮像画像を取得する第1の取得手段と、
ユーザが見ている領域である視点領域に表示された被写体が選択される第1のモードと、前記被写体が選択されない第2のモードとを、前記視点領域と、前記撮像画像に関する特徴量とに基づき切り替える制御手段と、
を有し、
前記特徴量は、前記視点領域に表示される被写体と、前記撮像画像を撮像する撮像手段との距離を含み、
前記制御手段は、所定の期間における前記視点領域の動きベクトルの変化量が第1の閾値以下であり、かつ、前記所定の期間における前記距離の変化量が第2の閾値以下である場合であって、前記第2のモードとして動作している場合に、前記第2のモードとして継続して動作する、
ことを特徴とする電子機器である。
本発明の第2の態様は、
撮像画像を取得する第1の取得手段を有する電子機器の制御方法であって
ユーザが見ている領域である視点領域に表示された被写体が選択される第1のモードと、前記被写体が選択されない第2のモードとを、前記視点領域と、前記撮像画像に関する特徴量とに基づき切り替える制御工程をし、
前記特徴量は、前記視点領域に表示される被写体と、前記撮像画像を撮像する撮像手段との距離を含み、
前記制御工程では、所定の期間における前記視点領域の動きベクトルの変化量が第1の閾値以下であり、かつ、前記所定の期間における前記距離の変化量が第2の閾値以下である場合であって、前記電子機器が前記第2のモードとして動作している場合に、前記電子機器を前記第2のモードとして継続して動作させる、
ことを特徴とする制御方法である。
本発明によれば、ユーザの意図した被写体に対して、視線入力によって継続的に合焦し続けることができる。
実施形態1に係るデジタルカメラの構成図である。 実施形態1に係るデジタルカメラの断面図である。 実施形態1に係る視線検出を行うための光学系の概略図である。 実施形態1に係る視点検出方法を説明する図である。 実施形態1に係る視点検出処理のフローチャートである。 実施形態1に係る焦点制御処理のフローチャートである。 従来および実施形態1に係る焦点制御を説明する図である。 実施形態2に係る焦点制御処理のフローチャートである。 実施形態2に係る距離と視線領域の動きベクトルを示す図である。 実施形態2に係る焦点制御を説明する図である。 実施形態2に係る距離と視線領域の動きベクトルを示す図である。 実施形態2に係る焦点制御を説明する図である。 実施形態2に係る距離と視線領域の動きベクトルを示す図である。 実施形態3に係るデジタルカメラの構成図である。 実施形態4に係るデジタルカメラの構成図である。 実施形態4に係る焦点制御処理のフローチャートである。 実施形態4に係る焦点制御を説明する図である。
以下、添付図面を参照して、本発明の実施形態を説明する。
<実施形態1>
[デジタルカメラの構成]
図1を参照して、実施形態1に係る撮像装置(電子機器)であるデジタルカメラ100の構成について説明する。図1は、デジタルカメラ100の主な機能部を示す構成図である。デジタルカメラ100は、結像光学部101、撮像素子102、A/D変換部103、画像処理部104、データ転送部105を有する。デジタルカメラ100は、メモリ制御部106、DRAM107、不揮発性メモリ制御部108、ROM109、記録メディア制御部110、記録メディア111、表示制御部112、表示部113、CPU114、操作部115を有する。デジタルカメラ100は、視線検出部120、眼球用撮像素子121、焦点検出部122、照明光源123、照明光源駆動部124、視線ベクトル検出部125を有する。
結像光学部101は、撮像素子102に光学像を結像する。結像光学部101は、焦点レンズや防振レンズを含む複数のレンズ群および絞りを有する。また、結像光学部101は、焦点調整を実行する焦点制御部118と、露出調節やブレ補正等を実行する絞り制御
部119とを有する。
撮像素子102は、光学像を電気信号(アナログ画像信号)に変換する光電変換を行うことによって、被写体を撮像する。撮像素子102は、CCDやCMOSセンサ等を含む。また、撮像素子102は、像面位相差AF(像面(撮像面、センサー面)で行う位相差AF)を行うために、専用画素や各画素内において複数の独立したフォトダイオードを備えている。
A/D変換部103は、撮像素子102から取得したアナログ画像信号をデジタル画像信号(画像データ;画像)に変換する。変換後の画像(画像データ)は、画像処理部104に出力される。
画像処理部104は、画像(画像データ;デジタル画像信号)に対して、倍率色収差補正、現像処理、ノイズリダクション処理、幾何変形、拡縮といったリサイズなどの処理を行う。また、画像処理部104は、バッファメモリを有する。さらに、画像処理部104は、A/D変換部103により変換された画像に対して、画素補正、黒レベル補正、シェーディング補正、傷補正などを行う撮像補正部を有する。
データ転送部105は、複数のDMAC(Direct Memory Access
Controller)を有しており、画像処理部104が処理した画像などのデータ転送を行う。
メモリ制御部106は、CPU114またはデータ転送部105に制御されることにより、データ書き込みおよびデータ読み出しをDRAM107に行う。
DRAM107は、データを記憶するメモリ(記憶媒体)である。DRAM107は、所定枚数の静止画像や所定時間の動画像、音声等のデータやCPU114の動作用の定数、プログラム等を記憶する。このために、DRAM107は、このようなデータを格納するために十分な記憶容量を備える。
不揮発性メモリ制御部108は、CPU114に制御されることによって、ROM109に対するデータの書き込みおよび読み出しを行う。
ROM109は、電気的に消去・記録可能なメモリ(不揮発性メモリ)であり、EEPROM等であり得る。ROM109は、CPU114が用いる動作用の定数、プログラム等を記憶する。
記録メディア制御部110は、記録メディア111に対して、画像の記録や記録されたデータの読み出しを行う。記録メディア111は、データを記録するSDカード等の記録媒体である。
表示制御部112は、表示部113の表示を制御する。表示部113は、液晶ディスプレイや電子ビューファインダである。表示部113は、画像処理部104から取得した画像やメニュー画面などを表示する。また、表示部113は、静止画撮影の撮影前や動画撮影時には、表示制御部112の制御によって、リアルタイムの被写体の画像(ライブビュー画像;撮像画像)をA/D変換部103から取得して表示する。
CPU114は、デジタルカメラ100の全体の制御を行うマイクロコンピュータなどの制御部である。CPU114は、各機能部を制御する。また、CPU114は、制御の際に必要な演算を行う。CPU114は、バス116を介して画像処理部104、データ
転送部105、メモリ制御部106、不揮発性メモリ制御部108、記録メディア制御部110、表示制御部112、操作部115、撮像素子102などを制御する。CPU114は、例えば、ROM109に記録されたプログラムを実行することにより、各制御を実現する。さらに、CPU114は、結像光学部101のレンズ、絞りの制御や、焦点距離などの情報の取得を行う。
操作部115は、ユーザにより操作されるスイッチやボタン、タッチパネルなどの操作部材を含む。例えば、操作部115は、電源のON/OFF、シャッターのON/OFFの操作に使用される。
バス116は、主にCPU114などから各ブロックの制御信号を伝送するためのシステムバスである。バス117は、主に画像を転送するためのデータバスである。
視線検出部120は、眼球用撮像素子121から入力された眼球の画像(眼画像)に基づき、ユーザの視線方向を検出する。視線検出動作の詳細については後述する。また、視線検出部120は、表示部113においてユーザが見ている領域である視点領域を取得する。
眼球用撮像素子121は、ビューファインダを覗くユーザの眼球の光学像を結像して、眼球の画像(眼画像)を取得する。眼球用撮像素子121は、視線検出部120に眼画像を出力する。
焦点検出部122は、焦点を制御するためにレンズ駆動量を算出する。なお、焦点を合わせる領域は、視線検出部120や画像処理部104が決定する。そして、焦点検出部122は、焦点制御部118に対して焦点レンズを駆動制御する。なお、レンズ駆動量の算出には、例えば、撮像素子102が取得する画像(焦点検出用画像)に基づく像面位相差方式を用いることができる。
照明光源123は、視線検出のために赤外光をユーザに照射する光源である。照明光源123から照射された赤外光は、ユーザの眼球に照射されて、眼球における反射光(反射像)が眼球用撮像素子121において結像する。照明光源駆動部124は、照明光源123を制御する駆動部である。
視線ベクトル検出部125は、視線検出部120が検出したユーザの視線方向のデータから、視点位置の時系列的な移動を算出して、視線ベクトルとして検出する。
図2は、実施形態1に係るデジタルカメラ100の筐体を切った断面図(説明図)である。図2において、図1と同一の部位には、同一の番号が付されている。図2に示すように、デジタルカメラ100は、図1に示すような各機能部以外にも、部材や部品(ハードウェア)を有する。
撮影レンズ100Aは、レンズ交換式カメラにおける撮影レンズである。図2では、撮影レンズ100Aは、焦点レンズ205とレンズ206の二枚のレンズを内部に有するように図示しているが、さらに多数のレンズを有している。
筐体部100Bは、デジタルカメラ100本体の筐体部である。筐体部100Bは、撮像素子102、光源123a,123b、受光レンズ201、接眼レンズ203を内部に有する。
撮像素子102は、撮影レンズ100Aの結像面に配置されている。接眼レンズ203
は、表示部113に表示された被写体像をユーザが観察するためのレンズである。
光源123a,123bは、光源の角膜反射による反射像と瞳孔との関係から視線方向を検出するために用いる光源であって、ユーザの眼球204を照明する。光源123a,123bは、赤外発光ダイオードを有し、接眼レンズ203の周りに配置されている。照明された眼球像と光源123a,123bの角膜反射による像とは、接眼レンズ203を透過して、光分割器202において反射する。反射した像は、受光レンズ201によってCCD等の光電素子列を2次元的に配した眼球用撮像素子121において結像される。
受光レンズ201は、ユーザの眼球204の瞳孔と眼球用撮像素子121を共役な結像関係に位置付ける。視線検出部120は、眼球用撮像素子121に結像された眼球と光源123a,123bの角膜反射による像の位置関係から、後述する所定のアルゴリズムを用いて、視線方向を検出する。
絞り207は、撮影レンズ100Aに設けられた絞りである。絞り207は、絞り制御部119によって制御される。レンズ駆動部材210は、駆動ギアなどを有する。レンズ駆動用モータ211は、焦点レンズ205を移動させるためのモータである。フォトカプラ209は、レンズ駆動部材210に連動するパルス板208の回転を検知して、焦点制御部118に検知した回転の情報を出力する。
焦点制御部118は、パルス板208の回転の情報とレンズ駆動量の情報とに基づき、レンズ駆動用モータ211を駆動させ、焦点レンズ205を合焦点の位置に移動させる。マウント接点212は、公知のカメラとレンズとのインターフェイスである。
また、図2では、操作部115として、タッチパネル対応液晶、ボタン式十字キーなどの操作部材が配置されている。
[視線検出方法]
以下、図3、図4(A)、図4(B)、図5を参照して、視線検出方法を説明する。図3は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。
図3において、光源123a,123bは、発光ダイオードなどの光源であり、ユーザに赤外光を照射する。光源123a,123bはそれぞれ、受光レンズ201の光軸に対して略対称に配置されており、ユーザの眼球204を照らしている。眼球204において反射した照明光の一部は、受光レンズ201によって、眼球用撮像素子121に結像される。図3では、視線検出方法の原理が理解しやすいように、光源123a,123b、受光レンズ201、眼球用撮像素子121の位置が調整されている。
図4(A)は、眼球用撮像素子121で撮像された眼画像(眼球用撮像素子121に投影された眼球像)の概略図である。図4(B)は、眼球用撮像素子121(例えば、CCD)の出力強度を示す図である。
図5は、視線検出処理を示すフローチャートである。図5のフローチャートは、CPU114がROM109に格納されたプログラムを実行して、各ステップにおいて各機能部を制御することによって実現される。
ステップS501において、光源123a,123bは、照明光源駆動部124によって駆動されて、ユーザの眼球204に向けて赤外光を放射する。赤外光によって照明されたユーザの眼球像は、眼球用撮像素子121上に受光レンズ201を通して結像して、眼
球用撮像素子121により光電変換がされる。光電変換によって、眼球像は、眼画像(画像信号;電気信号)として扱うことができる。
ステップS502において、眼球用撮像素子121は、取得した眼画像を視線検出部120に出力する。
ステップS503において、視線検出部120は、光源123a,123bの角膜反射像Pd,Peおよび瞳孔中心cに対応する点の座標を、眼画像から算出する。
ここで、図3に示すように、光源123a,123bより放射された赤外光は、ユーザの眼球204の角膜301を照明する。このとき、角膜301の表面において反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ201により集光され、眼球用撮像素子121上に結像して、眼画像における角膜反射像Pd’,Pe’となる。なお、同様に瞳孔302の端部a,bからの光も眼球用撮像素子121上に結像して、眼画像における瞳孔端像a’,b’となる。
図4(A)は、眼球用撮像素子121から得られる反射像(眼画像)の例を示す。図4(B)は、図4(A)に示す眼画像の領域αにおける、眼球用撮像素子121から得られる輝度情報(輝度分布)を示す。図4(B)では、眼画像の水平方向をX軸、垂直方向をY軸として、X軸方向の輝度分布が示されている。本実施形態では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとする。また、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。
図4(B)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に強いレベルの輝度が得られる。瞳孔302の領域(座標XaからXbの間の領域)では、座標Xd,Xeの位置を除いて、極端に低いレベルの輝度が得られる。これに対して、瞳孔302の外側の彩401の領域(虹彩143からの光が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種の輝度レベルの中間の値が得られる。
このように、輝度レベルに注目することによって、図4(B)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa、Xbを得ることができる。
また、受光レンズ201の光軸に対する眼球204の光軸の回転角θx(図3参照)が小さい場合には、瞳孔中心cからの光が眼球用撮像素子121上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表せる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’のX座標である座標Xcを見積もることができる。このように、瞳孔中心像c’の座標Xc、および角膜反射像Pd’,Pe’の座標を見積もることができる。
ステップS504において、視線検出部120は、眼球像の結像倍率βを算出する。結像倍率βは受光レンズ201に対する眼球204の位置により決まる倍率であり、角膜反射像Pd’、Pe’の間隔であるXd-Xeの関数を用いて求めることができる。
ステップS505において、視線検出部120は、受光レンズ201の光軸に対する眼球204の光軸の回転角を算出する。ここで、角膜反射像Pdと角膜反射像Peの中点のX座標と角膜301の曲率中心OのX座標とはほぼ一致する。このため、角膜301の曲率中心Oから瞳孔302の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球204の回転角θxは、式1から算出することができる。なお、Z-Y平面(X軸に垂直な平面)内での眼球204の回転角θyも、回転角θxの算出
方法と同様の方法で算出できる。
β×Oc×sinθx≒{(Xd+Xe)/2}-Xc ・・・式1
ステップS506において、視線検出部120は、メモリ107に予め記憶された補正係数データ(係数m,Ax,Bx,Ay,By)を読み出す。係数mは、デジタルカメラ100のファインダ光学系の構成で定まる定数であり、回転角θx,θyをファインダ内の視野像(視認用画像)において瞳孔中心cに対応する座標に変換する変換係数である。また、係数Ax,Bx,Ay,Byは、視線の個人差を補正する視線補正係数であり、キャリブレーション作業を行うことで取得され、視線検出処理が開始する前にメモリ107に記憶されている。
ステップS507において、視線検出部120は、ユーザの眼球204の回転角θx,θyを用いて、表示部113上に表示された視認用画像におけるユーザの視点(注視している点の位置;視点位置)を求める。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2および式3から算出できる。
Hx=m×(Ax×θx+Bx) ・・・式2
Hy=m×(Ay×θy+By) ・・・式3
ステップS508において、視線検出部120は、視点の座標(Hx,Hy)をメモリ107に記憶する。また、視線検出部120は、視線の位置が一定の領域に留まっていた時間を計測して、計測した時間を注視時間としてメモリ107に記憶する。
なお、光源123a,123bの角膜反射像を利用した表示素子上での視点の座標の取得手法を示したが、それに限られるものではない。撮像された眼球画像から、公知の任意の方法によって視点の座標(眼球回転角度)が取得されてもよい。
[焦点制御処理]
以下、図6を用いて、デジタルカメラ100の焦点制御処理(デジタルカメラ100の制御方法)について説明する。図6は、デジタルカメラ100の焦点制御処理のフローチャートである。図6のフローチャートは、CPU114がROM109に格納されたプログラムを実行して、各ステップにおいて各機能部を制御することによって実現される。ユーザによるAF制御を指示する操作が行われると、焦点制御処理が開始する。
ステップS601において、眼球用撮像素子121は、照明光源123が照射されたユーザの眼画像(画像データ)を取得し、視線検出部120に眼画像を出力する。
ステップS602において、視線検出部120は、図5のフローチャートを用いて説明した視線検出処理によって、ユーザの視線(視点)を検出する。視線検出部120は、ファインダ内の表示部113に表示されるライブビュー画像における視点位置(注視点)を算出して、視線ベクトル検出部125に出力する。また、視線検出部120は、ユーザの視点位置を中心とした所定サイズの矩形領域である視点領域701(表示部113においてユーザが見ている領域)を取得して、視点領域701を画像処理部104に出力する。なお、視点領域701は、矩形である必要はなく、例えば、楕円形、円形、多角形などの形状であってもよい。
ステップS603において、視線ベクトル検出部125は、前フレームの視点位置と現フレームの視点位置との差分からユーザの視点領域701の動きベクトル(視点の移動ベクトル)を算出(取得)して、CPU114に出力する。なお、この差分は、連続する2フレーム間の差分である必要はなく、3フレーム以上のフレーム間などの所定の期間にお
ける差分であってもよい。
ステップS604において、撮像素子102は、被写体を撮像した撮像画像(撮影領域画像;ライブビュー画像)を取得して、A/D変換部103を介して画像処理部104に出力する。つまり、本ステップでは、画像処理部104が、撮像素子102から撮像画像を取得しているともいえる。
ステップS605において、画像処理部104は、現フレームにおいて視点領域701に表示された画像(視点領域画像)の、前フレームからの動きベクトルを、視点領域画像の動きベクトルとして取得する。つまり、画像処理部104は、現フレームにおける視点領域701の範囲での、前フレームから現フレームの画像の動きベクトルを、視点領域画像の動きベクトルとして取得する。ここで、画像処理部104は、ユーザが意図する被写体に障害物が重なったか否かを判定するための撮像画像における特徴量として、視点領域701における画像(視点領域画像)の動きベクトルを算出している。視点領域画像の動きベクトルを取得するための、前フレームと現フレームの比較(対応位置探索)は、例えばテンプレートマッチング手法などで行う。また、画像処理部104は、視点領域画像の動きベクトルをCPU114に出力する。
ステップS606において、CPU114は、視点領域701の動きベクトルと視点領域画像の動きベクトルが一致するか否かを判定する。つまり、ステップS606では、1フレームの間において、視点領域701に表示された被写体が変化していないか否かが判定されている。なお、それぞれの動きベクトルは、ファインダ内の表示部113が表示する撮像画像(ライブビュー画像)の座標基準で算出される。そして、2つの動きベクトルの大きさの差分と方向の差分とのいずれもが予め設定された差分範囲の場合に、2つの動きベクトルが一致していると判定される。視点領域701の動きベクトルと視点領域画像の動きベクトルが一致すると判定された場合にはステップS607に進み、一致しないと判定された場合にはステップS608に進む。
ステップS607において、CPU114は、第1のモードとして、焦点検出部122を制御して、焦点制御部118の焦点レンズの駆動制御により、視点領域701に表示された被写体に合焦するように焦点制御(AF;焦点の移動)を実行する。
ステップS608において、CPU114は、第2のモードとして、視点領域701に表示された被写体に対する焦点制御を行わず、ピント(焦点)を前フレームから変更せずに固定する。
ステップS609において、CPU114は、撮像(撮影)を終了するための操作をユーザが行ったか否かを判定する。例えば、ユーザによりデジタルカメラ100の電源をOFFにする操作がされた場合、または、AFを指示する操作が解除された場合には、焦点制御処理が終了する。そうでない場合には、撮像が継続して、ステップS601に戻る。
以下では、図7(A)~図7(H)を用いて、本実施形態に係る焦点制御処理の適用有無によるピント(焦点位置)の違いを説明する。図7(A)~図7(H)は、表示部113に表示されるライブビュー画像(撮像画像)のフレームを示している。図7(A)~図7(D)は、ユーザの視線に常に基づいて、AF制御をした場合のライブビュー画像のフレームを示す。図7(E)~図7(H)は、本実施形態の焦点制御処理を適用した場合のライブビュー画像のフレームを示す。
また、図7(A)および図7(E)は、ライブビュー画像のフレームf1を示し、図7(B)および図7(F)は、フレームf1の次のフレームのフレームf2を示す。図7(
C)および図7(G)は、フレームf2の次のフレームのフレームf3を示し、図7(D)および図7(H)は、フレームf3の次のフレームのフレームf4を示す。
ここで、本実施形態に係る焦点制御処理を適用せずに、視点領域701に対して常に焦点制御をする例を説明する。この場合には、ユーザが意図してピントを合わせようとする主要被写体702の前面に障害物703が重なってしまった場合に、一時的に障害物703にピント(焦点)が合ってしまう。つまり、図7(A)に示すように主要被写体702にピントが合っている状態から、障害物703が主要被写体702に被ると、図7(B)および図7(C)に示すように障害物703にピントが合っている状態に変化してしまう。
このため、動画の撮影を行っている場合には、不必要なピント位置で撮像されたフレームが記録されてしまって、記録する動画の質の低下が生じてしまう。また、静止画の撮影では、図7(D)に示すように、主要被写体702が障害物703の後ろから再度現れた際に、焦点制御に要する時間が長くなってしまい、レリーズタイムラグの増加が懸念される。
これに対して、本実施形態に係る焦点制御処理をライブビュー画像に適用する例を説明する。図7(E)に示すフレームf1のように主要被写体702に焦点制御がされている状態から、図7(F)に示すフレームf2のように主要被写体702の前に障害物703が重なると、視点領域画像における主要被写体702について動きベクトルが取得できない。このため、ユーザの視点領域701の動きベクトルと視点領域画像の動きベクトルとは一致しない。従って、図7(F)において、視点領域704に対する焦点制御が行われずに、主要被写体702の存在していた(存在する)位置にピント(焦点)が固定されている。同様に、図7(G)に示すフレームf3においてもピントは固定される。その後、図7(H)に示すように、主要被写体702が再度現れると、主要被写体702に対する焦点制御が再開される。
このように、本実施形態では、デジタルカメラは、視点領域と視点領域画像との動きベクトルが一致する場合には、視点領域に表示された被写体が継続してユーザが意図する被写体であると判定し、第1のモードとして動作し、当該被写体に合焦させる。一方、2つの動きベクトルが一致しない場合には、デジタルカメラは、視点領域に表示された被写体がユーザの意図した被写体から他の被写体に変化したと判定して、第2のモードとして動作し、ピント(焦点)を変更しないようにする。つまり、本実施形態では、デジタルカメラは、視点領域の動きベクトルと視点領域画像の動きベクトル(撮像画像に基づく特徴量)とに基づき、第1のモードと第2のモードとを切り替えていると捉えることができる。
従って、本実施形態では、ユーザが意図する被写体の前に他の被写体が重なっている場合でも、他の被写体にピントが合わないようにすることができる。つまり、不要なピント変化がなく、動画の質の低下やレリーズタイムラグの増加といった課題を解決すること、または、このような課題が発生する可能性を低減することができる。つまり、本実施形態によれば、ユーザが意図しない被写体に対する不要な焦点制御を減らし、ユーザが意図した被写体に対するコンティニュアスAFができる。このため、見えのよい動画の記録ができ、また、静止画撮影のレスポンス向上による撮影機会の損失を低減できる。
また、ユーザの視線が追いかける被写体が切り替わった場合にも、切り替え後の視点領域の動きベクトルと視点画像領域の動きベクトルが一致すれば、切り替え後の被写体に対する焦点制御がされる。このため、AF追従性も向上することができる。
なお、視線検出方法として、ユーザがファインダを覗くことを前提とした検出方法を説
明したが、この限りではない。例えば、ユーザが背面パネルの表示を見ている場合の視線を検出してもよい。また、上述したフローチャートの各ステップの処理は、CPU114など上述した機能部ではなく、専用のハードウェアが実行してもよい。
<実施形態2>
実施形態2に係るデジタルカメラ100について説明する。実施形態2では、デジタルカメラ100は、視点領域画像の動きベクトルの代わりに、デジタルカメラ100(撮像素子102)と被写体との距離情報を、撮像画像の特徴量として使用して焦点制御処理を行う。
本実施形態に係るデジタルカメラ100の構成は、実施形態1に係るデジタルカメラ100の構成と同一である。また、本実施形態に係るデジタルカメラ100の焦点制御処理の一部は、実施形態1に係る焦点制御処理と同一であるため、異なる部分のみ説明し、同一の部分についての説明は省略する。
図8は、本実施形態に係るデジタルカメラ100の焦点制御処理のフローチャートである。図8のフローチャートは、CPU114がROM109に格納されたプログラムを実行して、各ステップにおいて各機能部を制御することによって実現される。ユーザによるAF制御を指示する操作が行われ、焦点制御処理が開始すると、図6を用いて説明したようなステップS601~ステップS604の処理が行われる。
ステップS801において、画像処理部104は、撮像素子102が取得した撮像画像(画像データ)から位相差AF用画像(像面位相差画像)を生成する。例えば、画像処理部104は、位相差AF用の専用画素のデータのみを抽出して位相差AF用画像を生成してもよいし、各画素内で分割されたフォトダイオードのそれぞれのデータのみで構成された位相差AF用画像を生成してもよい。
ステップS802において、画像処理部104は、位相差AF用画像に基づき、視点領域内の距離情報(デジタルカメラ100と被写体との距離Dの情報)を、特徴量として取得する。ここで、本実施形態では、デジタルカメラ100と被写体との距離Dとは、撮像素子102と被写体との光学的距離である。距離情報の算出には、例えば、位相差AF用画像の各画素に左右2つの分割画素がある場合には、画像処理部104は、水平方向に同一のライン内に備えられた左の分割画素の値と右の分割画素との値の相関値演算を行う。次に、画像処理部104は、相関値が最も高くなる分割画素間の視差と撮像素子102の画素ピッチなどの情報に基づき、デジタルカメラ100と被写体との実空間での距離Dを算出する。
ステップS803において、CPU114は、視点領域の動きベクトルの情報と視点領域内の距離Dの情報とを時系列データとして管理して、時系列データ(視点領域の動きベクトルおよび距離D)の前フレームから現フレームにおける変化量を取得する。
ステップS804において、CPU114は、視点領域の動きベクトルの変化量が予め設定された閾値TH1以下であり、かつ、視点領域内の距離Dの変化量が予め設定された閾値TH2以下であるか否かを判定する。2つの変化量の両方が閾値以下であると判定された場合にはステップS805に進み、いずれか一方でも予め設定された閾値よりも大きいと判定された場合にはステップS806に進む。
ステップS805において、CPU114は、前フレームにおいて視点領域に対する焦点制御を行っているか否か(前フレームにおいてステップS607の処理が行われたか否か)を判定する。前フレームにおいて視点領域に対する焦点制御を行っている場合には、
継続して主要被写体を追尾している状態と判定できるため、ステップS607に進む。前フレームにおいて視点領域に対する焦点制御を行っていない場合には、主要被写体の前に障害物が重複している状態が継続していると判定できるため、ステップS608に進む。
ステップS806において、CPU114は、視点領域内の距離Dの変化量のみが閾値より大きいか否かを判定する。つまり、視点領域の動きベクトルの変化量が閾値TH1以下であるか否かが判定される。視点領域内の距離Dの変化量のみが閾値より大きい場合(視点領域の動きベクトルの変化量が閾値TH1以下である場合)には、ステップS807に進む。そうでない場合には、ステップS808に進む。
ステップS807において、CPU114は、視点領域内の距離Dが、閾値TH2よりも大きな値に変化する直前の視点領域内の被写体とデジタルカメラ100との距離Df(直前の第1のモードでの距離D)戻ったか否かを判定する。例えば、視点領域内の距離Dと距離Dfとの差分が所定値以内である場合には、視点領域内の距離Dが距離Dfの値に戻ったと判定できる。視点領域内の距離Dが距離Dfの値に戻ったと判定された場合にはステップS607に進む。そうでない場合にはステップS608に進む。
ステップS808において、CPU114は、視点領域の動きベクトルの変化量のみが閾値より大きいか否かを判定する。つまり、視点領域内の距離Dが閾値TH2以下であるか否かが判定される。視点領域の動きベクトルの変化量のみが閾値より大きい場合(距離Dの変化量が閾値TH2以下である場合)には、ユーザが追尾する被写体を切り替えた、もしくは動きの不規則な被写体を追尾している状態と判定できるため、ステップS607に進む。そうでない場合には、ユーザが一時的に周囲の状況やファインダ内に表示される情報を確認する等の状況が発生したと判定できるため、ステップS608に進む。
ステップS607~ステップS609との処理は、実施形態1にて説明した処理と同様である。
このように、本実施形態では、以下の(1)~(3)の場合には、CPU114は、ユーザがピントを合わせようと意図する被写体が視点領域に表示されていないと判定して、焦点制御をしないようにする(第2のモードで動作する)。なお、(1)~(3)における、「連続する2フレーム間」の代わりに、「複数のフレーム間などの所定の期間」が用いられてもよい。
(1)連続する2フレーム間における、視点領域の動きベクトルの変化量が閾値TH1以下であり、かつ、距離Dの変化量が閾値TH2以下である場合であって、前のフレームで焦点制御を行っていない(第2のモードで動作している)場合。つまり、ステップS804YESかつステップS805NOの場合。
(2)連続する2フレーム間における、視点領域の動きベクトルの変化量が閾値TH1以下であり、かつ、距離Dの変化量が閾値TH2よりも大きい場合であって、変化後の距離Dが距離Dfに戻っていないと判定される場合。つまり、ステップS804NOかつステップS806YESかつステップS807NOの場合。
(3)連続する2フレームにおける、視点領域の動きベクトルの変化量が閾値TH1よりも大きく、かつ、距離Dの変化量が閾値TH2よりも大きい場合。つまり、ステップS804NOかつステップS806NOかつステップS808NOの場合。
一方で、以下の(4)~(6)の場合には、CPU114は、ユーザの意図する被写体が視点領域に表示されていると判定して、視点領域の被写体に対して合焦するように焦点制御を行う(第1のモードで動作する)。なお、(4)~(6)における、「連続する2フレーム間」の代わりに、「複数のフレーム間などの所定の期間」が用いられてもよい。(4)連続する2フレーム間における、視点領域の動きベクトルの変化量が閾値TH1以
下であり、かつ、距離Dの変化量が閾値TH2以下である場合であって、前のフレームで焦点制御を行っている(第1のモードで動作している)場合。つまり、ステップS804YESかつステップS805YESの場合。
(5)連続する2フレーム間における、視点領域の動きベクトルの変化量が閾値TH1以下であり、かつ、距離Dの変化量が閾値TH2よりも大きい場合であって、変化後の距離Dが距離Dfに戻ったと判定される場合。つまり、ステップS804NOかつステップS806YESかつステップS807YESの場合。
(6)連続する2フレーム間における、視点領域の動きベクトルの変化量が閾値TH1よりも大きく、かつ、距離Dの変化量が閾値TH2以下である場合。つまり、ステップS804NOかつステップS806NOかつステップS808YESの場合。
ここで、本実施形態においても、実施形態1と同様に、図7(E)~図7(H)に示すようにライブビュー画像において焦点制御がされる。このときの視点領域内の距離Dと視点領域701の動きベクトルを、図9(A)および図9(B)に示す。
図9(B)に示すように、主要被写体702の前に障害物703が重なっている期間においても、ユーザの視線は主要被写体702を追い続ける。このため、ユーザの視点領域701の動きベクトルは、主要被写体702の移動に合わせて大きな変化をせずに、ほぼ一定である。
これに対して、図9(A)に示すように、視点領域内の距離Dは、障害物703が主要被写体702の前に重複したフレームf2(図7(F)参照)で大きな変化を示す。
このように、視点領域701の動きベクトルには大きな変化はないが、視点領域内の距離Dが大きな変化した場合(ステップS806YESかつステップS807NO)に、デジタルカメラ100は、主要被写体702の前に障害物703が重なったと判定する。このため、デジタルカメラ100は、焦点制御を行わない。図7(G)に示すフレームf3では、障害物703が重なった状態から変化がないため、継続してピントを固定する。図7(H)に示すフレームf4では、視点領域内の距離Dにのみ大きな変化が発生し、かつ、前回の変化前のフレームf1での距離近傍に変化したため(ステップS807YES)、障害物703の重なりが解消したと判定できる。このため、デジタルカメラ100は、視点領域701に対する焦点制御を再開する。
[その他のライブビュー画像の撮像を行う場合について]
また、図10(A)~図10(D)は、時刻経過に伴って、主要被写体702が光軸方向にも移動する場合のライブビュー画像(撮像画像)の各フレームを示す。図10(A)~図10(D)は、それぞれフレームf1~f4を示す。図11(A)、図11(B)は、視点領域内の距離Dと視点領域701の動きベクトルを示す。
図11(B)に示すように、ユーザの視線は、主要被写体702の前に障害物703が重なっている間も主要被写体702を追い続ける。このため、ユーザの視点領域701の動きベクトルは、主要被写体702の移動に合わせて大きな変化を示さず、ほぼ一定である。これに対して、視点領域内の距離Dは、図11(A)に示すように、障害物703が入り込んだフレームf2(図10(B)参照)で大きく変化する。このように、視点領域701の動きベクトルに大きな変化はなく、かつ、視点領域内の距離Dが大きく変化した場合には、デジタルカメラ100は、主要被写体702に障害物703が重なったと判定して、焦点制御を行わない(ピントを固定する)。
また、図10(C)に示すフレームf3では、デジタルカメラ100は、障害物703が重なった状態から変化がないため、継続してピントを固定する。図10(D)に示すフ
レームf4では、再度、視点領域内の距離Dにのみ大きな変化が発生し、かつ、直前に焦点制御した際の距離Dfに基づく予測値(予測距離)の近傍に距離Dが変化した。このため、デジタルカメラ100は、障害物703の重複がなくなったと判定して視点領域701に対する焦点制御を再開する。このように、焦点制御を再開するための条件は、距離Dfに距離Dが戻るといった条件だけではなく、直前に焦点制御した際の距離Dに基づき推定された予測距離から所定値以内に距離Dが変化するという条件であってもよい。例えば、図11(A)に示すように、フレームf1での距離Dからフレームf4での距離Dまでの変化率が、フレームf1の1つ前のフレームf0での距離Dからフレームf1での距離Dまでの変化率から所定の範囲以内であれば条件を満たすといえる。
[その他のライブビュー画像の撮像を行う場合について]
また、図12(A)~図12(E)は、入り込んだ障害物703を、ユーザが焦点制御の対象にする切り替えを行う場合のライブビュー画像の各フレームを示す。図12(A)~図12(E)は、それぞれフレームf1~f5を示す。図13(A)、図13(B)は、視点領域内の距離Dと視点領域701の動きベクトルを示す。
図13(B)に示すように、ユーザの視線は、主要被写体702の前に障害物703が重なるフレームf3(図12(C)参照)まで主要被写体702を追い続ける。このため、フレームf3までは、ユーザの視点領域701の動きベクトルは、主要被写体702の移動に合わせて大きな変化を示さず、ほぼ一定である。これに対して、図13(A)に示すように、視点領域内の距離Dは障害物703が主要被写体702に重なったフレームf3で大きな変化を示す。このように視点領域701の動きベクトルに大きな変化はなく、かつ、視点領域内の距離に大きな変化が発生した場合(ステップS806YESかつステップS807NO)には、デジタルカメラ100は、主要被写体702に障害物703が重なったと判定する。そして、デジタルカメラ100は、焦点制御を行わない(ピントを固定する)。
ここで、ユーザの視線が障害物703を追いかけるように変化すると、これまでとは異なる動きをする被写体の位置に視点領域701が移動する。このため、フレームf4(図12(D)参照)において、視点領域内の距離Dは大きな変化を伴わずに、視点領域701の動きベクトルに大きな変化が発生する。このように視点領域内の距離Dに大きな変化はなく、視点領域701の動きベクトルにのみ大きな変化が発生した場合(ステップS806YESかつステップS808YES)には、障害物703に焦点制御の対象が切り替えられたと判定する。このため、デジタルカメ100は、視点領域701に対する焦点制御を再開する。
以上、説明したように、視点領域の動きベクトルと視点領域内の距離情報の時系列変化に基づいて視点領域に焦点制御を行う。このことによって、実施形態1と同様に主要被写体に障害物が重なった場合でも、ピント位置の変化が不要に生じない。よって、動画像の質の低下やレリーズタイムラグの増加を低減できる。また、ユーザが焦点制御の対象を急遽切り替えた場合においても、すぐに視点領域に対する焦点制御を再開でき、ユーザの意図した被写体にピントを合わせることができる。
また、視点領域の動きベクトルと視点領域内の距離情報の時系列データに基づいて焦点制御を行う例を説明したが、この限りではない。例えば、視点領域内の距離情報の代わりに、色情報やテクスチャ情報を使用して、ライブビュー画像における被写体の重複を検出してもよい。この場合には、本実施形態での「視点領域内の距離Dの変化」を、「視点領域内の色の変化またはテクスチャの変化」と読み替えることによって、本実施形態と同様の効果を得ることができる。また、本実施形態における「変化量」の記載を「変化率」と読み替えても、本実施形態と同様の効果を得ることができる。一定の加速度で加速または
減速する被写体をユーザの視線が追い続ける場合には、視線領域の動きベクトルや距離Dの変化率はほぼ一定あるため、「変化率」の読み替えは好適である。
<実施形態3>
図14を参照して、実施形態3に係るデジタルカメラ1400を説明する。実施形態3では、デジタルカメラ1400は、視点領域内の距離情報を撮像画像(位相差画像)から取得せずに、その他の測距方法によって取得する。
本実施形態に係るデジタルカメラ1400の構成および焦点制御処理は、実施形態2に係るデジタルカメラ100の構成および焦点制御処理の一部と同一である。このため、以下では、実施形態2と異なる部分のみ説明して、同一の部分についての説明は省略する。
図14は、本実施形態に係るデジタルカメラ1400の構成図である。デジタルカメラ1400は、実施形態1に係るデジタルカメラ100の機能部に加えて、測距部1401を有する。
測距部1401は、撮像画像に写った被写体とデジタルカメラ100との距離Dを取得(測定)する。つまり、測距部1401は、撮像画像を撮像するための撮像範囲に存在する被写体とデジタルカメラ100との距離Dを取得する。例えば、測距部1401は、Time-of-flight(飛行時間式)の測距に必要な投光用のLEDと受光用のフォトダイオードの組み合わせ、または、パターン照射方式の測距に必要なプロジェクターとカメラの組み合わせを含む距離センサである。
本実施形態では、焦点制御処理(図8の処理)において、画像処理部104が行うステップS801およびステップS802の処理の代わりに、測距部1401が視点領域内の距離情報を取得する。なお、本実施形態に係る焦点制御処理におけるその他の処理は、実施形態2に係る焦点制御処理と同様の処理である。
以上説明したように、位相差AF用画像(位相差画像)から距離情報を取得する代わりに別の測距方法を使用しても実施形態2と同様の効果を得ることができる。
<実施形態4>
以下では、実施形態4に係るデジタルカメラ1500を説明する。実施形態4では、デジタルカメラ1500は、視点領域と撮像画像における被写体領域の位置関係に基づいて、視点領域に対する焦点制御を行う。本実施形態に係るデジタルカメラ1500の構成と焦点制御処理との一部は、実施形態1に係るデジタルカメラ100の構成と焦点制御処理と同一である。このため、以下では、実施形態1と異なる部分のみ説明して、同一の部分についての説明は省略する。
[デジタルカメラの構成]
図15は、本実施形態に係るデジタルカメラ1500の構成図である。デジタルカメラ1500は、画像処理部104の内部に、被写体検出部1501を有する。一方、デジタルカメラ1500は、実施形態1とは異なり、視線ベクトル検出部125を有しない。
被写体検出部1501は、撮像画像に基づき、主要被写体(特定の被写体)を検出する。本実施形態では、主要被写体とは、ユーザがAFの対象とすることが想定される人、動物、乗り物などであり得る。また、被写体検出部1501は、撮像画像における特徴量として、撮像画像における主要被写体の領域(被写体領域)を取得する。被写体の検出には、例えば、顔検出や人体検出、ディープラーニングなどの既知の技術を用いることができる。
[焦点制御処理]
次に、図16を参照して焦点制御処理について説明する。図16は、本実施形態における焦点制御処理のフローチャートである。図16のフローチャートは、CPU114がROM109に格納されたプログラムを実行して、各ステップにおいて各機能部を制御することによって実現される。ユーザによるAF制御を指示する操作が行われ、焦点制御処理が開始すると、ステップS601とステップS602とステップS604の処理が行われる。
ステップS1601において、被写体検出部1501は、撮影領域画像(撮像画像)から、上述したような既知の技術を使用して、撮像画像における主要被写体の領域である被写体領域1701を検出する。被写体検出部1501は、被写体領域1701の情報をCPU114に出力する。
ステップS1602において、CPU114は、ステップS602にて検出された視点領域701と、被写体領域1701とを比較して、2つの領域の一致度を判定する。2つの領域の一致度は、例えば、2つの領域の重なりの割合(視点領域701の全体の大きさに対する2つの領域が重複している領域の大きさの割合)、2つの領域の中心位置の距離の逆数などである。
ステップS1603において、CPU114は、視点領域701と被写体領域1701の一致度が予め設定された所定の閾値以上であるか否かを判定する。2つの領域の一致度が所定の閾値以上の場合には、ステップS607に進み、2つの領域の一致度が所定の閾値未満の場合にはステップS608に進む。
例えば、図17(A)~図17(D)は、視点領域701と被写体領域1701の位置関係を示す。図17(A)~図17(D)は、ユーザの視線に基づいてAF制御をした場合のライブビュー画像の各フレームを示す。
図17(A)では、検出された視点領域701が被写体領域1701に包含されているため、2つの領域の一致度が所定の閾値以上と判定されて、視点領域701に対する焦点制御が行われる。図17(B)では、検出された視点領域701と被写体領域1701が重ならずに独立した位置関係にあるため、2つの領域の一致度が所定の閾値未満と判定されて、視点領域701に対する焦点制御は行われない(ピントは固定される)。図17(C)では、障害物703の影響により被写体領域1701が検出されないため、視点領域701に対する焦点制御は行われない(ピントは固定される)。図17(D)では、視点領域701が被写体領域1701に包含されているため、2つの領域の一致度が所定の閾値以上と判定されて、視点領域701に対する焦点制御が行われる。
以上説明したように、視点領域と被写体領域の位置関係に基づいて焦点制御を行っても実施形態1と同様の効果を得ることができる。
なお、視点領域や被写体領域は、実際に表示部113に矩形の枠として表示されてもよいし、表示されずにデジタルカメラ100の内部情報として扱われてもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置(撮像制御装置)にも本発明を適用可能である。つまり、本実施形態に係る撮像素子(撮像部)と表示部とを制御するような撮像制御装置であってもよい。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。
なお、上記の各実施形態の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ASIC、FPGA、DSPなどのハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリ(記憶媒体)とを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。
(その他の実施形態)
本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:デジタルカメラ(撮像装置)、104:画像処理部(取得部)、
120:視線検出部、113:表示部、114:制御部

Claims (22)

  1. 撮像画像を取得する第1の取得手段と、
    ユーザが見ている領域である視点領域に表示された被写体が選択される第1のモードと、前記被写体が選択されない第2のモードとを、前記視点領域と、前記撮像画像に関する特徴量とに基づき切り替える制御手段と、
    を有し、
    前記特徴量は、前記視点領域に表示される被写体と、前記撮像画像を撮像する撮像手段との距離を含み、
    前記制御手段は、所定の期間における前記視点領域の動きベクトルの変化量が第1の閾値以下であり、かつ、前記所定の期間における前記距離の変化量が第2の閾値以下である場合であって、前記第2のモードとして動作している場合に、前記第2のモードとして継続して動作する、
    ことを特徴とする電子機器
  2. 前記制御手段は、前記視点領域と前記特徴量に基づき、
    前記視点領域に表示された被写体が継続して第1の被写体であると判定する場合には、前記第1のモードとして動作し、
    前記視点領域に表示された被写体が前記第1の被写体から第2の被写体に変化したと判定する場合には、前記第2のモードとして動作する、
    ことを特徴とする請求項1に記載の電子機器
  3. 前記特徴量は、前記撮像画像のうち前記視点領域に表示される画像の動きベクトルを含む、
    ことを特徴とする請求項1または2に記載の電子機器
  4. 前記制御手段は、前記視点領域の動きベクトルと、前記撮像画像のうち前記視点領域に表示される画像の動きベクトルとが一致しないと判定する場合に、前記第2のモードとして動作する、
    ことを特徴とする請求項3に記載の電子機器
  5. 前記制御手段は、前記視点領域の動きベクトルと、前記撮像画像のうち前記視点領域に表示される画像の動きベクトルとが一致すると判定する場合に、前記第1のモードとして動作する、
    ことを特徴とする請求項4に記載の電子機器
  6. 前記制御手段は、所定の期間における前記視点領域の動きベクトルの変化量が第1の閾値以下であり、かつ、前記所定の期間における前記距離の変化量が第2の閾値以下である場合であって、前記第1のモードとして動作している場合に、前記1のモードとして継続して動作する、
    ことを特徴とする請求項1から5のいずれか1項に記載の電子機器
  7. 前記制御手段は、所定の期間における前記視点領域の動きベクトルの変化量が第1の閾値以下であり、かつ、前記所定の期間における前記距離の変化量が第2の閾値よりも大きい場合であって、変化後の前記距離が直前の前記第1のモードでの前記距離に基づく値でないと判定する場合に、前記第2のモードとして動作する、
    ことを特徴とする請求項1から6のいずれか1項に記載の電子機器
  8. 前記制御手段は、所定の期間における前記視点領域の動きベクトルの変化量が第1の閾値以下であり、かつ、前記所定の期間における前記距離の変化量が第2の閾値よりも大きい場合であって、変化後の前記距離が直前の前記第1のモードでの前記距離に基づく値であると判定する場合に、前記第1のモードとして動作する、
    ことを特徴とする請求項1から7のいずれか1項に記載の電子機器
  9. 前記制御手段は、前記変化後の前記距離と直前の前記第1のモードでの前記距離との差分が第1の所定値以内である場合、または、前記変化後の前記距離と直前の前記第1のモードでの前記距離から推定される値との差分が第2の所定値以内である場合に、前記変化後の前記距離が直前の前記第1のモードでの前記距離に基づく値であると判定する、
    ことを特徴とする請求項7または8に記載の電子機器
  10. 前記制御手段は、所定の期間における前記視点領域の動きベクトルの変化量が第1の閾値よりも大きく、かつ、前記所定の期間における前記距離の変化量が第2の閾値以下である場合に、前記第1のモードとして動作する、
    ことを特徴とする請求項1から9のいずれか1項に記載の電子機器
  11. 前記制御手段は、所定の期間における前記視点領域の動きベクトルの変化量が第1の閾値よりも大きく、かつ、前記所定の期間における前記距離の変化量が第2の閾値よりも大きい場合に、前記第2のモードとして動作する、
    ことを特徴とする請求項1から10のいずれか1項に記載の電子機器
  12. 前記撮像画像は、位相差画像を含み、
    前記位相差画像に基づき、前記距離が取得される、
    ことを特徴とする請求項1から11のいずれか1項に記載の電子機器
  13. 前記距離を測定する距離センサをさらに有する、
    ことを特徴とする請求項1から11のいずれか1項に記載の電子機器
  14. 前記特徴量は、前記撮像画像のうち前記視点領域に表示される画像の色情報とテクスチャ情報の少なくともいずれかを含む、
    ことを特徴とする請求項1から13のいずれか1項に記載の電子機器
  15. 前記撮像画像を表示手段に表示する表示制御手段をさらに有する、
    ことを特徴とする請求項1から14のいずれか1項に記載の電子機器
  16. 前記撮像画像は、撮像手段により撮像された画像である、
    ことを特徴とする請求項1から15のいずれか1項に記載の電子機器
  17. 前記第1のモードは、前記視点領域に表示された前記被写体に合焦するように前記撮像手段の焦点を制御するモードであり、
    前記第2のモードは、前記視点領域に表示された前記被写体に合焦しないモードである、
    ことを特徴とする請求項16に記載の電子機器
  18. 前記視点領域を検出する検出手段をさらに有する、
    ことを特徴とする請求項1から17のいずれか1項に記載の電子機器
  19. 前記特徴量を取得する第2の取得手段をさらに有する、
    ことを特徴とする請求項1から18のいずれか1項に記載の電子機器
  20. 記撮像画像を表示する表示手段をさらに有し
    写体を撮像することにより前記撮像画像を取得する撮像装置である
    ことを特徴とする請求項1から19のいずれか1項に記載の電子機器
  21. 撮像画像を取得する第1の取得手段を有する電子機器の制御方法であって
    ユーザが見ている領域である視点領域に表示された被写体が選択される第1のモードと、前記被写体が選択されない第2のモードとを、前記視点領域と、前記撮像画像に関する特徴量とに基づき切り替える制御工程をし、
    前記特徴量は、前記視点領域に表示される被写体と、前記撮像画像を撮像する撮像手段との距離を含み、
    前記制御工程では、所定の期間における前記視点領域の動きベクトルの変化量が第1の閾値以下であり、かつ、前記所定の期間における前記距離の変化量が第2の閾値以下である場合であって、前記電子機器が前記第2のモードとして動作している場合に、前記電子機器を前記第2のモードとして継続して動作させる、
    ことを特徴とする制御方法。
  22. コンピュータを、請求項1から20のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
JP2020085890A 2020-05-15 2020-05-15 電子機器、制御方法、プログラム Active JP7541850B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020085890A JP7541850B2 (ja) 2020-05-15 2020-05-15 電子機器、制御方法、プログラム
US17/318,835 US11553128B2 (en) 2020-05-15 2021-05-12 Image pickup control device, image pickup device, control method for image pickup device, non-transitory computer-readable storage medium
US18/067,610 US12041352B2 (en) 2020-05-15 2022-12-16 Image pickup control device, image pickup device, control method for image pickup device, non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020085890A JP7541850B2 (ja) 2020-05-15 2020-05-15 電子機器、制御方法、プログラム

Publications (3)

Publication Number Publication Date
JP2021180446A JP2021180446A (ja) 2021-11-18
JP2021180446A5 JP2021180446A5 (ja) 2023-05-24
JP7541850B2 true JP7541850B2 (ja) 2024-08-29

Family

ID=78510531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020085890A Active JP7541850B2 (ja) 2020-05-15 2020-05-15 電子機器、制御方法、プログラム

Country Status (2)

Country Link
US (2) US11553128B2 (ja)
JP (1) JP7541850B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023156539A (ja) * 2020-09-01 2023-10-25 ソニーセミコンダクタソリューションズ株式会社 電子機器
JP7830101B2 (ja) * 2021-12-13 2026-03-16 キヤノン株式会社 電子機器
JP2024078297A (ja) * 2022-11-29 2024-06-10 キヤノン株式会社 撮像装置及びその制御方法
JP2024080512A (ja) 2022-12-02 2024-06-13 株式会社タムロン レンズ制御装置、レンズシステム、及びプログラム
JP2025112038A (ja) * 2024-01-18 2025-07-31 キヤノン株式会社 制御装置、撮像装置、制御システム、移動装置、制御方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013131996A (ja) 2011-12-22 2013-07-04 Olympus Imaging Corp 撮像装置
JP2017085340A (ja) 2015-10-28 2017-05-18 日本放送協会 多視点ロボットカメラ制御装置及びそのプログラム
JP2019129461A (ja) 2018-01-26 2019-08-01 キヤノン株式会社 被写体認識装置

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07184089A (ja) * 1993-12-21 1995-07-21 Canon Inc ビデオカメラ
JPH0846852A (ja) * 1994-07-29 1996-02-16 Canon Inc 撮像装置および撮像方法
US6812968B1 (en) * 1998-12-31 2004-11-02 Lucent Technologies Inc. Camera with configurable focus area
JP2004008323A (ja) 2002-06-04 2004-01-15 Canon Inc 視線機能付光学装置
US8945197B1 (en) * 2005-10-24 2015-02-03 Lockheed Martin Corporation Sight-restoring visual prosthetic and method using infrared nerve-stimulation light
EP1909229B1 (en) * 2006-10-03 2014-02-19 Nikon Corporation Tracking device and image-capturing apparatus
KR101446772B1 (ko) * 2008-02-04 2014-10-01 삼성전자주식회사 디지털 영상 처리 장치 및 그 제어 방법
JP2010124120A (ja) * 2008-11-18 2010-06-03 Fujinon Corp オートフォーカスシステム
JP5279522B2 (ja) * 2009-01-21 2013-09-04 キヤノン株式会社 画像処理装置および方法
JP5395911B2 (ja) * 2009-12-28 2014-01-22 パナソニック株式会社 ステレオ画像符号化装置、方法
US8659697B2 (en) * 2010-11-11 2014-02-25 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
JP5914364B2 (ja) * 2011-01-18 2016-05-11 富士フイルム株式会社 オートフォーカスシステム
US20130155309A1 (en) * 2011-12-20 2013-06-20 Research In Motion Limited Method and Apparatus for Controlling Camera Functions Using Facial Recognition and Eye Tracking
US20130258167A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Method and apparatus for autofocusing an imaging device
JP5988790B2 (ja) * 2012-09-12 2016-09-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム
JP6305053B2 (ja) * 2013-01-15 2018-04-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6103526B2 (ja) * 2013-03-15 2017-03-29 オリンパス株式会社 撮影機器,画像表示機器,及び画像表示機器の表示制御方法
JP5810136B2 (ja) * 2013-07-04 2015-11-11 オリンパス株式会社 追尾装置、追尾方法及び追尾プログラム
JP5608803B1 (ja) * 2013-10-03 2014-10-15 オリンパス株式会社 撮影機器、撮影方法及び撮影制御プログラム
US20150194128A1 (en) * 2014-01-07 2015-07-09 Nvidia Corporation Generating a low-latency transparency effect
CN105992546B (zh) * 2015-01-21 2018-08-28 Hoya株式会社 内窥镜系统
JP6552235B2 (ja) * 2015-03-23 2019-07-31 キヤノン株式会社 撮像装置、その制御方法及びプログラム
US9716834B2 (en) * 2015-05-20 2017-07-25 Panasonic Intellectual Property Management Co., Ltd. Image display device and image processing device
US9973681B2 (en) * 2015-06-24 2018-05-15 Samsung Electronics Co., Ltd. Method and electronic device for automatically focusing on moving object
KR102403065B1 (ko) * 2015-07-14 2022-05-27 삼성전자주식회사 영상 촬영 장치 및 그 동작 방법
KR102429427B1 (ko) * 2015-07-20 2022-08-04 삼성전자주식회사 촬영 장치 및 그 동작 방법
JP2017034569A (ja) 2015-08-05 2017-02-09 キヤノン株式会社 撮像装置及びその制御方法
US20170054897A1 (en) * 2015-08-21 2017-02-23 Samsung Electronics Co., Ltd. Method of automatically focusing on region of interest by an electronic device
JP6668942B2 (ja) * 2016-05-23 2020-03-18 富士通株式会社 撮影制御装置、プログラム及び方法
CN109478334B (zh) * 2016-07-20 2021-04-20 富士胶片株式会社 关注位置识别装置、摄像装置、显示装置、关注位置识别方法及非暂时性有形介质
KR102790834B1 (ko) * 2016-08-22 2025-04-02 매직 립, 인코포레이티드 가상, 증강, 및 혼합 현실 시스템들 및 방법들
CN216083276U (zh) * 2016-12-30 2022-03-18 高途乐公司 可穿戴成像设备
KR20180092621A (ko) * 2017-02-10 2018-08-20 엘지전자 주식회사 단말기 및 그 제어 방법
JP2018207309A (ja) * 2017-06-05 2018-12-27 オリンパス株式会社 撮像装置、撮像方法およびプログラム
US10863079B2 (en) * 2017-07-13 2020-12-08 Canon Kabushiki Kaisha Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium
WO2019087928A1 (ja) * 2017-10-30 2019-05-09 富士フイルム株式会社 撮像装置、ファインダ装置、撮像装置の制御方法、ファインダ装置の制御方法、撮像装置の制御プログラム及びファインダ装置の制御プログラム
US10798455B2 (en) * 2017-12-22 2020-10-06 Comcast Cable Communications, Llc Video delivery
JP2019125928A (ja) * 2018-01-17 2019-07-25 キヤノン株式会社 撮像装置、撮像方法およびプログラム
US11172222B2 (en) * 2018-06-26 2021-11-09 Ostendo Technologies, Inc. Random access in encoded full parallax light field images
WO2020017937A1 (en) * 2018-07-20 2020-01-23 Samsung Electronics Co., Ltd. Method and electronic device for recommending image capture mode
US11212537B2 (en) * 2019-03-28 2021-12-28 Advanced Micro Devices, Inc. Side information for video data transmission

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013131996A (ja) 2011-12-22 2013-07-04 Olympus Imaging Corp 撮像装置
JP2017085340A (ja) 2015-10-28 2017-05-18 日本放送協会 多視点ロボットカメラ制御装置及びそのプログラム
JP2019129461A (ja) 2018-01-26 2019-08-01 キヤノン株式会社 被写体認識装置

Also Published As

Publication number Publication date
US11553128B2 (en) 2023-01-10
US20230121972A1 (en) 2023-04-20
JP2021180446A (ja) 2021-11-18
US12041352B2 (en) 2024-07-16
US20210360167A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
JP7541850B2 (ja) 電子機器、制御方法、プログラム
US11835702B2 (en) Medical image processing apparatus, medical image processing method, and medical observation system
US11509816B2 (en) Image processing apparatus, image pickup apparatus, and control method of image processing apparatus
JP7156352B2 (ja) 撮像装置、撮像方法、及びプログラム
US11457148B2 (en) Image processing apparatus, imaging apparatus, and control method
JP7567012B2 (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP7645612B2 (ja) 撮像装置およびその制御方法、プログラム、記憶媒体
JP2017037103A (ja) 撮像装置
JPH07151950A (ja) カメラ
JP2023157200A (ja) 電子機器、制御方法およびプログラム
US12483780B2 (en) Apparatus, method for apparatus, image capturing apparatus, and storage medium for providing a notification of blur of a subject in a captured image
JP7580935B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP2024003432A (ja) 電子機器
KR20120068696A (ko) 촬상 장치 및 촬상 방법
JP7822741B2 (ja) 電子機器及び電子機器の制御方法
JP7615262B1 (ja) 情報処理装置
US20240397190A1 (en) Electronic device, and control method of electronic device
JP7358130B2 (ja) 電子機器およびその制御方法
JP2024173037A (ja) 電子機器、その制御方法、及びプログラム
US20150365599A1 (en) Information processing apparatus, image capturing apparatus, and control method
JP6714434B2 (ja) 撮像装置およびその制御方法、プログラム、記憶媒体
JP2017224909A (ja) 制御装置、光学機器、撮像装置および制御方法
JP2026026725A (ja) 電子機器および電子機器の制御方法
JP2021057693A (ja) 撮像装置、制御方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240819

R150 Certificate of patent or registration of utility model

Ref document number: 7541850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150