JP7309451B2 - 撮像装置および制御方法 - Google Patents

撮像装置および制御方法 Download PDF

Info

Publication number
JP7309451B2
JP7309451B2 JP2019097285A JP2019097285A JP7309451B2 JP 7309451 B2 JP7309451 B2 JP 7309451B2 JP 2019097285 A JP2019097285 A JP 2019097285A JP 2019097285 A JP2019097285 A JP 2019097285A JP 7309451 B2 JP7309451 B2 JP 7309451B2
Authority
JP
Japan
Prior art keywords
image data
frame
image
display
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019097285A
Other languages
English (en)
Other versions
JP2020191606A5 (ja
JP2020191606A (ja
Inventor
隼 亀田
卓磨 ▲柳▼澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019097285A priority Critical patent/JP7309451B2/ja
Priority to US16/880,658 priority patent/US11202015B2/en
Publication of JP2020191606A publication Critical patent/JP2020191606A/ja
Publication of JP2020191606A5 publication Critical patent/JP2020191606A5/ja
Application granted granted Critical
Publication of JP7309451B2 publication Critical patent/JP7309451B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、複数の撮像動作が可能な撮像素子を有し、ライブビュー撮影時の追尾枠制御を行う撮像装置に関する。
従来、ライブビュー画面の表示に用いる画像信号と、追尾枠領域の検出に用いる画像信号とで同じ撮像結果を用いる撮像装置が知られている。このような構成において、表示画像は読出しを行いながら順次更新すること可能である。しかし、枠表示は、画像信号の読出し結果を用いて検出を行うため、読出しが完了するまで枠の更新を行うことができない。その結果、画面表示と枠表示にズレや遅延が生じてしまう。
特許文献1には、記録映像用の撮像素子とは別に追尾用の撮像素子を設けてそれぞれ同一撮影範囲の被写体画像を撮像し、追尾用の撮像素子の映像信号を用いて追尾対象となる被写体を検出しながら追尾枠を表示するオートフォーカスシステムが開示されている。
特開2005-338352号公報
しかしながら、特許文献1には、ライブビュー画面の表示に用いる画像信号の撮像と検出用の画像信号の撮像との時間的な関係について言及されていない。実際には、映像信号の蓄積や読出、または被写体検出の処理時間が律速となり、遅延やずれが発生する可能性がある。
そこで本発明は、ライブビュー画像の表示に対して遅延量やズレの少ない追尾領域表示が可能な撮像装置および制御方法を提供することを目的とする。
本発明の一側面としての撮像装置は、撮像素子と、前記撮像素子の第1の読出し動作によって読み出された画像データに基づく画像に、被写体の領域を示す情報を重ねた画像を、ディスプレイに表示させる制御手段と、前記撮像素子の第2の読出し動作によって読み出された画像データから、前記被写体を検出する検出手段と、を有し、前記撮像素子は、前記第1の読出し動作で読み出される第1のフレームの画像データのための蓄積を行う間に、前記第2の読出し動作で読み出される2以上のフレームの画像データのための蓄積を行い、前記制御手段は、前記第1のフレームの画像データに基づく画像に、前記2以上のフレームの画像データのいずれか1つである第2のフレームの画像データから、前記検出手段で検出された前記被写体の領域を示す情報を重ねた画像を生成するものであって、前記第2のフレームの画像データは、前記第1のフレームの画像データに基づく画像が前記ディスプレイに表示される前に、前記検出手段が前記被写体を検出することができるフレームの画像データのうち、前記第1のフレームの画像データの露光重心タイミングにもっとも近いタイミングで蓄積が行われたフレームの画像データである。
本発明の他の側面としての撮像装置は、撮像素子と、前記撮像素子の第1の読出し動作によって読み出された画像データに基づく画像に、被写体の領域を示す情報を重ねた画像を、ディスプレイに表示させる制御手段と、前記撮像素子の第2の読出し動作によって読み出された画像データから、第1の方法と第2の方法で前記被写体を検出する検出手段と、を有し、前記撮像素子は、前記第1の読出し動作で読み出される第1のフレームの画像データのための蓄積を行う間に、前記第2の読出し動作で読み出される2以上のフレームの画像データのための蓄積を行い、前記制御手段は、前記第1のフレームの画像データに基づく画像に、前記2以上のフレームの画像データのいずれか1つである第2のフレームの画像データから、前記検出手段で検出された前記被写体の領域を示す情報を重ねた画像を生成するものであって、前記第2のフレームの画像データは、前記第1のフレームの画像データに基づく画像のうち、前記2以上のフレームの画像データのいずれかにおいて前記第1の方法で検出された前記被写体に対応する領域が前記ディスプレイに表示される前に、前記検出手段が前記第2の方法で前記被写体を検出することができるフレームの画像データのうち、前記第1のフレームの画像データの露光重心タイミングにもっとも近いタイミングで蓄積が行われたフレームの画像データである。
本発明の他の側面としての制御方法は、第1の読出し動作と第2の読出し動作とを行う撮像素子と、ディスプレイと、を有する撮像装置の制御方法であって、前記第2の読出し動作によって読み出された画像データから、被写体を検出する検出ステップと、前記第1の読出し動作によって読み出された画像データに基づく画像に、前記被写体の領域を示す情報を重ねた画像を、前記ディスプレイに表示させる制御ステップと、を有し、前記撮像素子は、前記第1の読出し動作で読み出される第1のフレームの画像データのための蓄積を行う間に、前記第2の読出し動作で読み出される2以上のフレームの画像データのための蓄積を行い、前記制御ステップは、前記第1のフレームの画像データに基づく画像に、前記2以上のフレームの画像データのいずれか1つである第2のフレームの画像データから、前記検出ステップで検出された前記被写体の領域を示す情報を重ねた画像を生成するステップであって、前記第2のフレームの画像データは、前記第1のフレームの画像データに基づく画像が前記ディスプレイに表示される前に、前記検出ステップが前記被写体を検出することができるフレームの画像データのうち、前記第1のフレームの画像データの露光重心タイミングにもっとも近いタイミングで蓄積が行われたフレームの画像データである。
また、本発明の他の側面としての制御方法は、第1の読出し動作と第2の読出し動作とを行う撮像素子と、と、ディスプレイと、を有する撮像装置の制御方法であって、前記第2の読出し動作によって読み出された画像データから、第1の方法と第2の方法で被写体を検出する検出ステップと、前記第1の読出し動作によって読み出された画像データに基づく画像に、前記被写体の領域を示す情報を重ねた画像を、前記ディスプレイに表示させる制御ステップと、を有し、前記撮像素子は、前記第1の読出し動作で読み出される第1のフレームの画像データのための蓄積を行う間に、前記第2の読出し動作で読み出される2以上のフレームの画像データのための蓄積を行い、前記制御ステップは、前記第1のフレームの画像データに基づく画像に、前記2以上のフレームの画像データのいずれか1つである第2のフレームの画像データから、前記検出ステップで検出された前記被写体の領域を示す情報を重ねた画像を生成するステップであって、前記第2のフレームの画像データは、前記第1のフレームの画像データに基づく画像のうち、前記2以上のフレームの画像データのいずれかにおいて前記第1の方法で検出された前記被写体に対応する領域が前記ディスプレイに表示される前に、前記検出ステップが前記第2の方法で前記被写体を検出することができるフレームの画像データのうち、前記第1のフレームの画像データの露光重心タイミングにもっとも近いタイミングで蓄積が行われたフレームの画像データである。
本発明の他の目的及び特徴は、以下の実施例において説明される。
本発明によれば、ライブビュー画像の表示に対して遅延量やズレの少ない追尾領域表示が可能な撮像装置および制御方法を提供することができる。
各実施例における撮像素子の構成図である。 各実施例における撮像素子の画素配列図である。 各実施例における撮像装置の構成図である。 各実施例における撮像装置の表示画像の説明図である。 比較例としての画像表示の制御処理の概念図である。 実施例1における画像表示の制御処理を示すフローチャートである。 実施例1における画像表示の制御処理の概念図である。 実施例1において使用する検出用画像信号を選択し直した場合の画像表示の概念図である。 実施例2における画像表示の制御処理を示すフローチャートである。 実施例2における画像表示の制御処理の概念図である。 実施例2における画像表示の制御処理の概念図である。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。
まず、図1を参照して、本発明の実施例1における撮像装置の撮像素子の構成について説明する。図1は、本実施例における撮像素子(撮像手段)100の構成図である。
撮像素子100は、マトリクス状に配列された複数の画素101を有し、水平方向(行方向)において転送信号線103、リセット信号線104、および、行選択信号線105に接続され、垂直方向(列方向)において垂直出力線102に接続されている。なお、垂直出力線102の各々は読み出し行単位に応じて接続先が異なる。
撮像素子100は、カラムADCブロック111、行走査回路112、列走査回路113、タイミング制御回路(画素駆動回路)114、切り替スイッチ116、フレームメモリ117、素子内演算部118、リサイズ変換部119、P/S変換部120を有する。切り替スイッチ116は、チャンネル毎の水平信号線115-a、115-bから出力される画像信号をフレームメモリ117に選択的に出力するためのスイッチである。フレームメモリ117は、出力された画像信号を画像データとして一時的に記憶する。素子内演算部118は、駆動モードに応じてリサイズや圧縮の演算を行う。リサイズ変換部119は、素子内演算部118にて算出された結果を基にフレームメモリ117に保存された画像データを必要な画角にリサイズする。リサイズ変換部119においてリサイズされた画像データは、P/S変換部120にてパラレル・シリアル変換を行い、撮像素子100外の撮像信号処理回路307へ送られる。タイミング制御回路114およびフレームメモリ117は、撮像素子100の外部の全体制御演算部(選択手段)309により制御される。
撮像素子100と撮像信号処理回路307とは、複数のレーンで接続されており、駆動モードに応じた異なる画素の信号や同一の画素の信号が、メインストリーム121およびサブストリーム122に振り分けて、またはメインストリームのみから転送される。リサイズや圧縮の処理が不要な場合には、切り替スイッチ116から直接P/S変換部120への転送が行われる。また、駆動モードとして、全画素の読出駆動、垂直方向を1/3や1/9に間引いた読出駆動、水平方向を加算した読出駆動、垂直間引き水平加算の読出駆動などを選択することが可能である。
本実施例では、表示用画像をメインストリームとして垂直方向1/3間引きの読出駆動を、検出用画像をサブストリームとして垂直1/9間引き水平加算の読出駆動を使用する。また、メインストリーム121の読み出し行とサブストリーム122の読み出し行はそれぞれ異なり、メインストリーム121とサブストリーム122はそれぞれが異なる撮像設定で独立した動作を行うことができる。
次に、図2を参照して、撮像素子100の画素配列について説明する。図2は、撮像素子100の画素配列図である。カラーフィルタにはベイヤー配列が適用され、奇数行の画素には、左から順に赤(R)と緑(Gr)のカラーフィルタが交互に設けられる。偶数行の画素には、左から順に緑(Gb)と青(B)のカラーフィルタが交互に設けられる。また、オンチップマイクロレンズ201がカラーフィルタ202の上に構成されている。
次に、図3を参照して、本実施例における撮像装置の構成について説明する。図3は、本実施例における撮像装置300の構成図である。撮像装置300は、撮像素子100を有する。
レンズ部(撮像光学系)301は、レンズ駆動部302によってズームやフォーカス等が駆動制御される。メカシャッタ303および絞り304は、シャッタ・絞り駆動部305によって駆動制御される。レンズ部301を通った被写体像(光学像)は、メカシャッタ303や絞り304にて適切な光量に調整され、撮像素子100上の撮像面に結像される。撮像素子100は、その撮像面に結像した被写体像を光電変換し、さらにゲイン調整、アナログ信号からデジタル信号へのA/D変換を行い、R、Gr、Gb、Bの画像信号を撮像信号処理回路307へ出力する。なお本実施例において、レンズ部301は、撮像素子100を備えた撮像装置(カメラ本体)300と一体的に構成されている。ただし本発明は、これに限定されるものではなく、カメラ本体と、カメラ本体に対して着脱可能なレンズ部(交換レンズ)とを備えて構成された撮像装置にも適用可能である。
撮像信号処理回路307は、撮像した画像信号を用いて所定の演算処理を行う。全体制御演算部309は、撮像信号処理回路307による演算結果に基づいて、AE(自動露光制御)やAF(自動焦点調整制御)を行う。また撮像信号処理回路307は、撮像された画像信号を用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。また撮像信号処理回路307は、ノイズを軽減するローパスフィルタ処理やシェーディング処理、WB処理などの各種の撮像信号処理、さらに各種の補正、画像信号の圧縮等を行う。メモリ部I308は、撮像信号処理回路307で処理された画像信号を一時的に記憶する。全体制御演算部309は、撮像装置300の全体の制御と各種演算を行う。被写体検出部(検出手段)310は、全体制御演算部309を介して、メモリ部I308に記録された検出用画像信号から被写体の検出を行う。検出された被写体の情報は、メモリ部II315に保存される。
記録媒体制御インターフェース部311は、記録媒体313に画像信号の記録または読み出しを行う。表示部(画像表示手段および領域表示手段)312は、出力用のデータをライン毎に順次読み出し、画像信号や検出領域の表示を行う。記録媒体313は、半導体メモリ等の着脱可能記憶媒体であり、画像信号の記録または読み出しを行う。外部インターフェース部314は、外部コンピュータ等と通信を行うために為のインターフェースである。メモリ部II315は、全体制御演算部309での演算結果を記憶する。
操作部(操作検知手段)316にてユーザが設定した撮像装置300の駆動条件に関する情報は、全体制御演算部309に送られる。全体制御演算部309は、これらの情報に基づいて撮像装置300の全体の制御を行う。また操作部316は、シャッタスイッチを含む。シャッタスイッチの半押し状態で信号SW1が、全押し状態で信号SW2がそれぞれ全体制御演算部309に通知される。
次に、図4を参照して、撮像装置300の表示部312に表示される画面(表示画像)について説明する。図4は、撮像装置300の表示画像の説明図である。図4において、401は表示用映像信号を示し、402は被写体検出部(検出手段)310が検出した被写体に対して枠表示した例を示している。
被写体を検出するための手法には、いくつもの公知技術がある。例えば、顔検出のような画像認識技術を用いて個々の画像から被写体として検出する技術や、動体検出のような被写体領域として指定された領域の動きを検出(追尾)する技術など、多数提案されている。一般的には、これらの手法を複数組み合わせることで顔検出の精度を向上させることができる。本実施例では、顔領域の検出を行う。検出された顔領域の情報は、メモリ部II315に保存される。全体制御演算部309は、メモリ部II315に保存された顔領域の情報に基づいて、ユーザが検出領域を視認可能な表示情報に変換する。本実施例では、検出された領域を囲うような枠を表示用画像信号に重ねて表示する。この他にも座標情報を表示する例などが挙げられる。
次に、図5を参照して、比較例としての画像表示の制御処理について説明する。図5は、比較例としての画像表示の制御処理の概念図である。 蓄積501にて蓄積された画像信号は、読出502で示されるように読出処理が行われる。読出された画像は、被写体検出部310に入力されて顔検出513が行われる。
表示開始T509以降、表示503で示されるように表示処理が行われる。このとき、表示部312には表示画像504が出力され、表示画像504の被写体に対して枠511が遅延やずれが発生することなく表示される。しかしながら、次のフレームでは被写体の位置が変化し、表示部312には表示画像508が出力されたとする。表示画像508は、前述と同様に、蓄積505、読出506、および、標示開始T510以降の表示507の一連の処理が行われて出力されるが、枠512の位置は、顔検出513で検出した被写体の情報を基に算出される。このため、表示画像508の被写体に対して、枠512は1フレームの遅延やずれが発生する。
次に、図6および図7を参照して、本実施例における撮像装置300による画像表示の制御処理について説明する。図6は、本実施例における画像表示の制御処理を示すフローチャートである。図6の各ステップは、主に、全体制御演算部309により実行され、例えば全体制御演算部309がコンピュータプログラムである画像表示の制御プログラムに従って実行される。図7は、本実施例における画像表示の概念図であり、表示画像、表示用画像の読出駆動、および、検出用画像の読出駆動の関係を示している。
まず、図6のステップS601において、全体制御演算部309は、1フレーム分の画像が表示されるまでの表示制御を開始する。図7において、1フレーム分の表示とは、蓄積A701、読出しA702、および、表示A703によって表示更新開始タイミングT721から表示画像704および枠705を表示することを指す。全体制御演算部309は、枠705において、読出駆動Bの読出しから得られた画像信号を用いて検出処理および枠更新処理を行う。
この表示制御はステップS620まで行われ、2フレーム以降の画面表示に関しては同様にステップS601からステップS620が繰り返し行われる。図7において、2フレーム目の表示は、蓄積A706、読出しA707、および、表示A708によって表示更新開始タイミングT722から表示画像709および枠710が表示されることを指す。全体制御演算部309は、枠710において、読出駆動Bの読出しから得られた画像信号を用いて検出処理および枠更新処理を行う。
続いて、図6のステップS602において、全体制御演算部309は、表示用画像の読出しを読出駆動A、検出用画像の読出しを読出駆動Bとし、マルチストリーム駆動を設定する。より具体的には、全体制御演算部309は、読出駆動A、Bの蓄積設定および読出し設定を行う。本実施例において、全体制御演算部309は、検出用画像の読出しのフレームレートとして、表示用画像の読出しよりも高速なフレームレートを設定する。
続いてステップS603において、全体制御演算部309は、表示用画像の露光重心(露光重心タイミングTa)を算出する。露光重心タイミングTaは、図7においてT718で示される。続いてステップS604において、全体制御演算部(選択手段)309は、ステップS603にて算出した露光重心タイミングTaに最も近いタイミングで撮像を行った検出用駆動のフレームを選択する。選択されたフレームはFBとする。本実施例において、全体制御演算部309は、露光重心に最も近いタイミングで蓄積を行った検出用駆動のフレームFBを選択する。選択されたフレームFBは、図7において蓄積B713および読出しB714から得られる画像信号である。
続いてステップS605において、全体制御演算部309は、ステップS604にて選択したフレームFBを用いた枠の更新処理が枠更新期限までに完了するかを判定する。更新処理が枠更新期限までに完了する場合、分岐処理ステップS607および分岐処理ステップS613へ進む。一方、更新処理が枠更新期限までに完了しない場合、ステップS606へ進む。本実施例において、全体制御演算部309は、図7に示されるように、選択されたフレームFBの読出しB712によって得られた画像信号を用いて画像内の顔領域を検出し、その検出結果に基づいて枠を更新する。選択されたフレームFBの読出し完了タイミングT719から、検出処理時間および枠更新処理時間が経過したタイミングが枠更新完了タイミングT720である。枠更新期限は、表示更新開始タイミングT721と同じタイミングである。全体制御演算部309は、枠更新完了タイミングT720が表示更新開始タイミングT721までに完了するか否かを判定する。図7の例では完了するため、分岐処理ステップS607および分岐処理ステップS713へ進む。ステップS606において、全体制御演算部309は、ステップS604にて選択されたフレームFBよりも1フレーム前に撮像されたフレームを選択し直す。なお、この詳細は、図8を参照して後述する。
以降、読出駆動Aおよび読出駆動Bは、並列処理としてステップS607とステップS613に分岐する。読出駆動AのフレームはFa(n)で表され、ステップS601からステップS620までの1フレーム分の画像の表示制御に対して、n=1であるとする。読出駆動Bのフレームは、ステップS601からステップS620までの1フレーム分の画像の表示制御に対して、n=1~N(Nはフレームレートに依存する2以上の自然数)であるとする。本実施例では、読出駆動Aを30fps、読出駆動Bを90fpsとして、n=1~3とする。
ステップS607において、全体制御演算部309は、表示用画像のフレームFa(n)に関する処理を開始する。図7において、制御開始タイミングT717で示される。続いてステップS608において、全体制御演算部309は、フレームFa(n)の蓄積処理を行う。この処理は、図7において蓄積A701で表される。n=2の場合、この処理は、図7において蓄積A706で表される。続いてステップS609にて、全体制御演算部309は、フレームFa(n)の読出処理を行う。この処理は、図7において読出A702で表される。続いてステップS610において、全体制御演算部309は、フレームFa(n)の表示処理を開始する。この処理は、図7において表示A703で表される。続いてステップS611において、全体制御演算部309は、フレームFa(n)の表示処理を終了する。この処理は、図7において表示A703、表示更新開始タイミングT722で表される。続いてステップS612において、全体制御演算部309は、フレームFa(n)に関する処理を終了する。
ステップS613において、全体制御演算部309は、検出用画像のフレームFb(n)に関する処理を開始する。図7において、この処理は制御開始タイミングT717で表される。続いてステップS614において、全体制御演算部309は、フレームFb(n)の蓄積処理を行う。この処理は、図7において蓄積B711で表される。n=2、3の場合、この処理はそれぞれ、図7において蓄積B713、B715で表される。続いてステップS615において、全体制御演算部309は、フレームFb(n)の読出処理を行う。この処理は、図7において読出B712で表される。n=2、3の場合、この処理はそれぞれ、図7において読出B714、B716で表される。
続いてステップS616において、全体制御演算部309は、フレームFb(n)がステップ604にて選択されたフレームFBであるか否かを判定する。図7において、n=1の場合、読出B712で得られる画像信号はフレームFBではない。n=2の場合、読出B712で得られる画像信号はフレームFBである。画像信号がフレームFBである場合、ステップS617に進む。一方、画像信号がフレームFBでない場合、ステップS618に進む。
ステップS617において、全体制御演算部309は、フレームFBを用いた検出処理および枠更新処理を開始する。更新した枠情報は、図7において表示更新開始タイミングT717で表示される。ステップS618において、全体制御演算部309は、フレームFb(n)がフレームFb(N)であるか否かを判定する。フレームFb(n)がフレームFb(N)である場合、ステップS619へ進む。一方、フレームFb(n)がフレームFb(N)でない場合、ステップS614へ進む。ステップS614において、全体制御演算部309は、n+1フレームFb(n+1)の処理を行う。ステップS619において、全体制御演算部309は、フレームFb(n)に関する処理を終了する。
ステップS620において、全体制御演算部309は、1フレーム分の画像が表示されるまでの表示制御を終了する。
次に、図8を参照して、使用する検出用画像信号を選択し直した場合の画像表示について説明する。図8は、使用する検出用画像信号を選択し直した場合の画像表示の概念図であり、表示画像、表示用画像の読出駆動、および、検出用画像の読出駆動の関係を示している。なお、全体制御演算部309によるフローチャートは、図6と同様である。
まず、ステップS601、S602において、全体制御演算部309は、前述と同様の制御を行う。続いてステップS603において、全体制御演算部309は、表示用画像の露光重心タイミングTaを算出する。露光重心タイミングTaは、図8においてT818で示される。続いてステップS604において、全体制御演算部309は、ステップS603にて算出した露光重心タイミングTaに最も近いタイミングで、撮像を行った検出用駆動のフレームFBを選択する。選択されたフレームはFBとする。本実施例において、全体制御演算部309は、露光重心に最も近いタイミングで蓄積を行った検出用駆動のフレームを選択する。選択されたフレームFBは、図8において蓄積B808および読出し809から得られる画像信号である。
続いてステップS605において、全体制御演算部309は、ステップS604にて選択したフレームFBを用いた枠の更新処理が枠更新期限までに完了するか否かを判定する。枠更新期限は、表示更新開始タイミングT813と同じタイミングである。図8の例では、更新処理が枠更新期限までに完了しない判定がなされ、ステップS606へ進む。
ステップS606において、全体制御演算部309は、ステップS604にて選択されたフレームFBよりも1フレーム前に撮像されたフレームを選択し直す。図8において、読出しB807によって得られる画像信号が選択し直されている。全体制御演算部309が画像信号を選択し直すと、ステップS605に戻る。図8の例では、ステップS606でフレームが選択し直されたことで、ステップS605にて枠更新完了タイミングT812が表示更新開始タイミングT813までに間に合うようになった例を示している。このため、分岐処理ステップS607および分岐処理ステップS613へ進む。
ステップS607~S620は、前述と同様の制御である。図8の例では、ステップS617にて検出処理および枠更新行処理を行うための画像信号には読み出し807を用いており、表示画像804に表示される枠805は読出B807を受けたものである。
このように本実施例において、制御装置は、検出手段(被写体検出部310)および選択手段(全体制御演算部309)を有する。検出手段は、第一の撮像動作(S608、S609)および第二の撮像動作(S614、S615)が可能な撮像手段(撮像素子100)により撮像された信号(画像信号)に基づいて、特定の領域を検出する。選択手段は、撮像手段の第一の撮像動作に基づいて、第二の撮像動作の撮像タイミング(B713)を選択する。また検出手段は、選択手段により選択された撮像タイミングで撮像された信号を用いて、特定の領域を検出する。
好ましくは、選択手段は、第一の撮像動作の蓄積タイミング(A701)と検出手段による検出結果を使用するタイミング(T719)とに基づいて、第二の撮像動作の撮像タイミング(B713)を選択する。また好ましくは、選択手段は、第一の撮影動作の露光重心(T718)に基づいて、第二の撮像手段の撮像タイミングを選択する。また好ましくは、第二の撮像動作のフレームレートは、第一の撮像動作のフレームレートよりも速い。また好ましくは、制御装置は、検出手段により検出された特定の領域を表示する領域表示手段(全体制御演算部309)を有する。より好ましくは、選択手段は、領域表示手段が検出手段による検出結果を使用するタイミング(T721)に基づいて、第二の撮像動作の撮像タイミング(B713)を選択する。また好ましくは、特定の領域は、被写体領域である。
本実施例によれば、表示用画像信号の撮像設定と検出用画像信号の利用タイミングに応じて、検出に用いる画像信号を切り替えることにより、ライブビュー画像の表示に対して遅延量やズレの少ない追尾領域表示が可能になる。
次に、図9乃至図11を参照して、本発明の実施例2における画像表示の制御処理について説明する。図9は、本実施例における画像表示の制御処理を示すフローチャートである。図9の各ステップは、主に、全体制御演算部309により実行され、例えば全体制御演算部309がコンピュータプログラムである画像表示の制御プログラムに従って実行される。図10および図11は、本実施例における画像表示の概念図であり、表示画像、表示用画像の読出駆動、および、検出用画像の読出駆動の関係を示している。なお本実施例において、撮像装置の基本構成は、実施例1の撮像装置300と同様であるため、その説明は省略する。
本実施例の前提として、顔検出は顔を構成する複数の部位をそれぞれ認識する必要があり、検出精度が高い反面、演算が複雑で処理に時間を要するため、検出速度において動体検出に劣る。一方、動体検出は複数のフレーム画像間の差分演算によって被写体を検出するため、検出速度が速い反面、被写体の輝度が変化した場合に検出が困難になるなど、検出精度において顔検出に劣る。ただし、検出手段の精度や速度の優劣は、その検出の対象や環境、内容などに依存するため、前述の前提に限定されるものではない。
本実施例では、被写体の検出手段として、前述の顔検出および動体検出を用いる。その意図は、顔検出は動体検出よりも検出精度が高く検出速度が遅いという前提に基づく。ただし、動体検出と同等に検出速度が速ければ顔検出のみを用いてもよく、顔検出と同等に検出精度が高ければ動体検出だけを用いてもよい。また本実施例において、便宜上、これらの検出手段のうち顔検出によるものを「顔検出」、動体検出によるものを「追尾検出」と呼ぶ。それぞれにより検出された被写体の情報には、少なくとも、被写体の位置と範囲(大きさ)が含まれる。
まず、図9のステップS901において、全体制御演算部309は、1フレーム分の画像が表示されるまでの表示制御を開始する。この表示制御はステップS927まで行われ、2フレーム以降の画像表示に関しても同様に、ステップS901~S927の処理の繰り返しとなる。
続いてステップS902において、全体制御演算部309は、表示用画像の読出駆動Aと、検出用画像の読出駆動Bの2系統の撮像設定を行う。本実施例において、読出駆動Bのフレームレートは、読出駆動Aのフレームレートよりも速い。続いてステップS903において、全体制御演算部309は、読出駆動Aの露光重心Taを算出する。この露光重心Taは、図10においてT1015、図11においてT1115で表される。続いてステップS904において、全体制御演算部309は、読出駆動Aの露光重心Taに最も近い読出駆動BのフレームFb(G)を算出する。フレームFb(G)は、図10において蓄積B1011(読出B1012)、図11において蓄積B1111(読出B1112)で表される。
以降、読出駆動Aおよび読出駆動Bは並列処理として、ステップS905とステップS911に分岐する。読出駆動AのフレームはFa(n)で表され、ステップS901~S927の1フレーム分の画像の表示制御に対して、n=1であるとする。読出駆動BのフレームはFb(n)で表され、ステップS901~S927の1フレーム分の画像の表示制御に対して、n=1~N(Nはフレームレートに依存する2以上の自然数)であるとする。説明が重複するが、前述した読出駆動Aの露光重心Taに最も近い読出駆動BのフレームはFb(G)で表される。
ステップS905において、全体制御演算部309は、フレームFa(n)に関する処理を開始する。続いてステップS906において、全体制御演算部309は、フレームFa(n)の蓄積処理を行う。この処理は、図10において蓄積A1001、A1005、図11において蓄積A1101で表される。続いてステップS907において、全体制御演算部309は、フレームFa(n)の読出処理を行う。この処理は、図10において読出A1002、A1006、図11において読出A1102で表される。続いてステップS908において、全体制御演算部309は、フレームFa(n)の表示処理を開始する。この処理は、図10において表示A1003(T1017)、A1007(T1019)、図11において表示A1103(T1117)で表される。続いてステップS909において、全体制御演算部309は、フレームFa(n)の表示処理を終了する。この処理は、図10において表示A1003、A1007、図11において表示A1103で表される。続いてステップS910において、全体制御演算部309は、フレームFa(n)に関する処理を終了する。
ステップS911において、全体制御演算部309は、フレームFb(n)に関する処理を開始する。続いてステップS912において、全体制御演算部309は、フレームFb(n)の蓄積処理を行う。この処理は、図10において蓄積B1009、B1011、B1013、図11において蓄積B1109、B1111、B1113で表される。続いてステップS913において、全体制御演算部309は、フレームFb(n)の読出処理を行う。この処理は、図10において蓄積B1010、B1012、B1014、図11において蓄積B1110、B1112、B1114で表される。続いてステップS914において、全体制御演算部309は、被写体に対する追尾枠が更新済であるか否かを判定する。追尾枠の更新は、後述するステップS920、S924、S925にて行われる。追尾枠が更新済の場合、ステップS921へ進む。一方、追尾枠が更新済でない場合、ステップS915へ進む。
ステップS915において、全体制御演算部309は、フレームFb(n)の追尾検出および顔検出を開始する。この処理は、図10において追尾検出1020、1022、1024、顔検出1021、1023、1025、図11において追尾検出1120、1122、1124、顔検出1121、1123、1125で表される。本実施例において、全体制御演算部309は、複数の顔検出を同時に動作させている。ただし、複数の顔検出を同時に動作させることができない場合、既に動作している顔検出を停止させた上で新たに顔検出を開始することで対応可能である。
続いてステップS916において、全体制御演算部309は、ステップS915にて行った追尾検出による被写体の情報を用いて、追尾対象の被写体が表示される時点Tdを算出する。時点Tdは、図10においてT1018、図11においてT1118で表される。被写体の情報には、表示画像の座標系における被写体の位置に相当する情報を含むため、表示を開始してから被写体が表示される時点Tdまでの時間が算出可能である。すなわち、時点Tdの値は、表示画像上の被写体の位置に依存し、被写体が下部に位置するほど大きく、同一ライン上では右部に位置するほど大きい。
続いてステップS917において、全体制御演算部309は、被写体の顔検出時間がステップS916にて算出した時点Tdを超えないか否かを判定する。顔検出時間は、前回のフレームに対する処理の実績値を用いる。また、時点Tdは、図10における顔検出1021、1023、1025それぞれとT1018、図11における顔検出1121、1123、1125それぞれとの時間的な関係により導き出される。その結果、図10において顔検出1021、1023は時点Tdを超えないと判定され、顔検出1025は時点Tdを超えると判定される。また、図11において、顔検出1121、1123、1125は時点Tdを超えると判定される。時点Tdを超えない場合、ステップS918へ進む。一方、時点tdを超える場合、ステップS922へ進む。図11は、顔検出時間が長い場合の概念図を示しており、いずれの顔検出も枠1116の更新に間に合わない。そのような場合の対応として、ステップS922以降の処理が行われる。
ステップS918において、全体制御演算部309は、フレームFb(n)がFb(G)であるか否かを判定する。フレームFb(n)がFb(G)である場合、ステップS920へ進む。一方、フレームFb(n)がFb(G)でない場合、ステップS919へ進む。ステップS919において、全体制御演算部309は、フレームFb(n+1)の被写体の顔検出時間がステップS915にて算出した時点Tdを超えるか否かを判定する。顔検出時間が時点Tdを超える場合、ステップS920へ進む。一方、顔検出時間が時点Tdを超えない場合、ステップS912へ進み、全体制御演算部309はフレームFb(n+1)の処理を行う。
ステップS920において、全体制御演算部309は、ステップS915にて行った顔検出による被写体の情報を用いて、追尾対象の被写体に対する追尾枠を更新する。この処理の結果は、図10における枠1016で表される。続いてステップS921において、全体制御演算部309は、フレームFb(n)がFb(N)であるか否かを判定する。フレームFb(n)がFb(N)の場合、ステップS926へ進む。一方、フレームFb(n)がFb(N)でない場合、ステップS912へ進み、全体制御演算部309はフレームFb(n+1)の処理を行う。
ステップS922にて、全体制御演算部309は、SW1またはSW2中であるか否かを判定する。SW1またはSW2中である場合、ステップS923へ進む。一方、SW1またはSW2中のいずれでもない場合、ステップS925へ進む。ステップS922を通過する場合、ステップS917にて説明したように、顔検出時間が律速となって枠1116の更新に間に合わない場合である。この場合、本実施例において、全体制御演算部309は、SW1またはSW2中であれば追尾速度を重視する目的で、追尾検出による被写体の情報を用いて追尾枠を更新する。一方、SW1またはSW2中でない場合、全体制御演算部309は、前回のフレームでの顔検出による被写体の情報を用いて追尾枠を更新する。これらは、以降のステップS923~S925で説明する。
ステップS923において、全体制御演算部309は、フレームFb(n)がFb(G)であるか否かを判定する。フレームFb(n)がFb(G)である場合、ステップS924へ進む。一方、フレームFb(n)がFb(G)でない場合、ステップS912へ進み、全体制御演算部309はフレームFb(n+1)の処理を行う。
ステップS924において、全体制御演算部309は、ステップS915にて行った追尾検出による被写体の情報を用いて、追尾対象の被写体に対する追尾枠を更新する。この処理の結果は、図11における枠1116で表される。ステップS925において、全体制御演算部309は、前回のフレームでのステップS915にて行った顔検出による被写体の情報を用いて、追尾対象の被写体に対する追尾枠を更新する。この処理の結果は、図11における枠1116で表される。
ステップS926において、全体制御演算部309は、フレームFb(n)に関する処理を終了する。続いてステップS927において、全体制御演算部309は、1フレーム分の画像が表示されるまでの表示制御を終了する。
このように本実施例において、制御装置は、検出手段(被写体検出部310)、画像表示手段(表示部312)、および、領域表示手段(表示部312)を有する。検出手段は、第一の撮像動作(S906~S907)および第二の撮像動作(S912~S913)が可能な撮像手段(100)により撮像された信号に基づいて、画像内の被写体を検出する。画像表示手段は、第一の撮像動作による画像を表示する(S908~S909)。領域表示手段は、検出手段により検出された被写体領域を表示する。検出手段は、第二の撮像動作により撮像された画像を用いて被写体を検出する(S920)。領域表示手段は、画像表示手段により追尾対象の被写体が表示される時点(Td:S915)までに検出手段による検出が完了する(S917)画像から選択された特定の画像を用いて検出された被写体領域を表示する。特定の画像は、第一の撮像動作における露光時点(Ta)に最も近い(S904、S918)蓄積による画像である(S920、S921)。
好ましくは、露光時点は、露光重心である。また好ましくは、第二の撮像動作のフレームレートは、第一の撮像動作のフレームレートよりも速い。また好ましくは、検出手段は、第一の検出処理と、第一の検出処理よりも速い第二の検出処理が可能であり、追尾対象の被写体が表示される時点は、第二の検出処理により検出された被写体の情報に基づいて算出される(S915)。より好ましくは、第一の検出処理は顔検出処理であり、第二の検出処理は追尾検出処理である。また好ましくは、制御装置は、特定の操作を検知する操作検知手段(操作部316)を有する。追尾対象の被写体が表示される時点までに第一の検出処理が完了する画像が存在しない場合(S917でNo)、領域表示手段は、操作検知手段による検知内容に応じて(S923)、特定の画像を用いて検出された被写体領域を表示する。特定の画像は、前記時点までに第二の検出処理が完了する画像から選択された画像である。特定の画像は、第一の撮像動作における露光時点に最も近い(S904、S924)蓄積による画像である(S914、S925)。より好ましくは、特定の操作は、シャッターボタンの半押し、全押し、または、追尾対象の指定の少なくとも一つである。
本実施形態によれば、追尾対象の被写体が表示される時点までに、最適な被写体検出用の画像を用いて、その追尾枠の更新を終えるようにすることで、被写体に対する追尾枠を遅延やずれが発生することなく表示することができる。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、ライブビュー画像の表示に対して遅延量やズレの少ない追尾領域表示が可能な制御装置、撮像装置、制御方法、および、プログラムを提供することができる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。上述の実施例の一部を適宜組み合わせることも可能である。
309 全体制御演算部(選択手段)
310 被写体検出部(検出手段)

Claims (7)

  1. 撮像素子と、
    前記撮像素子の第1の読出し動作によって読み出された画像データに基づく画像に、被写体の領域を示す情報を重ねた画像を、ディスプレイに表示させる制御手段と、
    前記撮像素子の第2の読出し動作によって読み出された画像データから、前記被写体を検出する検出手段と、を有し、
    前記撮像素子は、前記第1の読出し動作で読み出される第1のフレームの画像データのための蓄積を行う間に、前記第2の読出し動作で読み出される2以上のフレームの画像データのための蓄積を行い、
    前記制御手段は、前記第1のフレームの画像データに基づく画像に、前記2以上のフレームの画像データのいずれか1つである第2のフレームの画像データから、前記検出手段で検出された前記被写体の領域を示す情報を重ねた画像を生成するものであって、
    前記第2のフレームの画像データは、前記第1のフレームの画像データに基づく画像が前記ディスプレイに表示される前に、前記検出手段が前記被写体を検出することができるフレームの画像データのうち、前記第1のフレームの画像データの露光重心タイミングにもっとも近いタイミングで蓄積が行われたフレームの画像データである
    ことを特徴とする撮像装置。
  2. 前記撮像素子は、前記第1の読出し動作によって読み出された画像データを出力する第1のレーンと、前記第2の読出し動作によって読み出された画像データを出力する第2のレーンを有することを特徴とする請求項1に記載の撮像装置。
  3. 前記撮像素子は、第1のラインにおける画素に対して前記第1の読出し動作を行い、第2のラインにおける画素に対して前記第2の読出し動作を行うことを特徴とする請求項2に記載の撮像装置。
  4. 撮像素子と、
    前記撮像素子の第1の読出し動作によって読み出された画像データに基づく画像に、被写体の領域を示す情報を重ねた画像を、ディスプレイに表示させる制御手段と、
    前記撮像素子の第2の読出し動作によって読み出された画像データから、第1の方法と第2の方法で前記被写体を検出する検出手段と、を有し、
    前記撮像素子は、前記第1の読出し動作で読み出される第1のフレームの画像データのための蓄積を行う間に、前記第2の読出し動作で読み出される2以上のフレームの画像データのための蓄積を行い、
    前記制御手段は、前記第1のフレームの画像データに基づく画像に、前記2以上のフレームの画像データのいずれか1つである第2のフレームの画像データから、前記検出手段で検出された前記被写体の領域を示す情報を重ねた画像を生成するものであって、
    前記第2のフレームの画像データは、
    前記第1のフレームの画像データに基づく画像のうち、前記2以上のフレームの画像データのいずれかにおいて前記第1の方法で検出された前記被写体に対応する領域が前記ディスプレイに表示される前に、前記検出手段が前記第2の方法で前記被写体を検出することができるフレームの画像データのうち、前記第1のフレームの画像データの露光重心タイミングにもっとも近いタイミングで蓄積が行われたフレームの画像データである
    ことを特徴とする撮像装置。
  5. 前記第1の方法は追尾であり、前記第2の方法は顔検出であることを特徴とする請求項4に記載の撮像装置。
  6. 第1の読出し動作と第2の読出し動作とを行う撮像素子と、ディスプレイと、を有する撮像装置の制御方法であって、
    前記第2の読出し動作によって読み出された画像データから、被写体を検出する検出ステップと、
    前記第1の読出し動作によって読み出された画像データに基づく画像に、前記被写体の領域を示す情報を重ねた画像を、前記ディスプレイに表示させる制御ステップと、を有し、
    前記撮像素子は、前記第1の読出し動作で読み出される第1のフレームの画像データのための蓄積を行う間に、前記第2の読出し動作で読み出される2以上のフレームの画像データのための蓄積を行い、
    前記制御ステップは、前記第1のフレームの画像データに基づく画像に、前記2以上のフレームの画像データのいずれか1つである第2のフレームの画像データから、前記検出ステップで検出された前記被写体の領域を示す情報を重ねた画像を生成するステップであって、
    前記第2のフレームの画像データは、前記第1のフレームの画像データに基づく画像が前記ディスプレイに表示される前に、前記検出ステップが前記被写体を検出することができるフレームの画像データのうち、前記第1のフレームの画像データの露光重心タイミングにもっとも近いタイミングで蓄積が行われたフレームの画像データである
    ことを特徴とする制御方法。
  7. 第1の読出し動作と第2の読出し動作とを行う撮像素子と、ディスプレイと、を有する撮像装置の制御方法であって、
    前記第2の読出し動作によって読み出された画像データから、第1の方法と第2の方法で被写体を検出する検出ステップと、
    前記第1の読出し動作によって読み出された画像データに基づく画像に、前記被写体の領域を示す情報を重ねた画像を、前記ディスプレイに表示させる制御ステップと、を有し、
    前記撮像素子は、前記第1の読出し動作で読み出される第1のフレームの画像データのための蓄積を行う間に、前記第2の読出し動作で読み出される2以上のフレームの画像データのための蓄積を行い、
    前記制御ステップは、前記第1のフレームの画像データに基づく画像に、前記2以上のフレームの画像データのいずれか1つである第2のフレームの画像データから、前記検出ステップで検出された前記被写体の領域を示す情報を重ねた画像を生成するステップであって、
    前記第2のフレームの画像データは、
    前記第1のフレームの画像データに基づく画像のうち、前記2以上のフレームの画像データのいずれかにおいて前記第1の方法で検出された前記被写体に対応する領域が前記ディスプレイに表示される前に、前記検出ステップが前記第2の方法で前記被写体を検出することができるフレームの画像データのうち、前記第1のフレームの画像データの露光重心タイミングにもっとも近いタイミングで蓄積が行われたフレームの画像データである
    ことを特徴とする制御方法。
JP2019097285A 2019-05-24 2019-05-24 撮像装置および制御方法 Active JP7309451B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019097285A JP7309451B2 (ja) 2019-05-24 2019-05-24 撮像装置および制御方法
US16/880,658 US11202015B2 (en) 2019-05-24 2020-05-21 Control apparatus and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019097285A JP7309451B2 (ja) 2019-05-24 2019-05-24 撮像装置および制御方法

Publications (3)

Publication Number Publication Date
JP2020191606A JP2020191606A (ja) 2020-11-26
JP2020191606A5 JP2020191606A5 (ja) 2022-05-31
JP7309451B2 true JP7309451B2 (ja) 2023-07-18

Family

ID=73454798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019097285A Active JP7309451B2 (ja) 2019-05-24 2019-05-24 撮像装置および制御方法

Country Status (2)

Country Link
US (1) US11202015B2 (ja)
JP (1) JP7309451B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338352A (ja) 2004-05-26 2005-12-08 Fujinon Corp オートフォーカスシステム
JP2007295525A (ja) 2006-03-27 2007-11-08 Seiko Epson Corp 撮像装置、撮像システム及び撮像方法
JP2012124797A (ja) 2010-12-10 2012-06-28 Canon Inc 撮影装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105324985B (zh) * 2013-07-04 2018-11-23 株式会社尼康 电子设备及摄像元件
KR102121531B1 (ko) * 2013-12-10 2020-06-10 삼성전자주식회사 초점검출 가능한 이미지 센서 제어장치 및 방법.
US20200084387A1 (en) * 2018-09-07 2020-03-12 Qualcomm Incorporated Low power mode for one or more cameras of a multiple camera system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338352A (ja) 2004-05-26 2005-12-08 Fujinon Corp オートフォーカスシステム
JP2007295525A (ja) 2006-03-27 2007-11-08 Seiko Epson Corp 撮像装置、撮像システム及び撮像方法
JP2012124797A (ja) 2010-12-10 2012-06-28 Canon Inc 撮影装置

Also Published As

Publication number Publication date
US20200374467A1 (en) 2020-11-26
US11202015B2 (en) 2021-12-14
JP2020191606A (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
EP3217647B1 (en) Imaging device, imaging method and processing program
KR101062502B1 (ko) 패닝화상을 촬상하기 위한 패닝모드를 구비한 촬상장치
US7859582B2 (en) Solid-state imaging apparatus and imaging apparatus system using the same
JP5108802B2 (ja) 撮像装置及びそのスルー画像表示方法
US9654681B2 (en) Electronic apparatus and method of controlling the same
JP2007150643A (ja) 固体撮像素子、固体撮像素子の駆動方法および撮像装置
CN108156365B (zh) 摄像装置、摄像方法以及记录介质
JP2009225072A (ja) 撮像装置
US20090167917A1 (en) Imaging device
JP2017017585A (ja) 撮像装置、画像処理方法
KR20140014288A (ko) 촬상 장치
US10511779B1 (en) Image capturing apparatus, method of controlling same, and storage medium
JP2020036128A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6595797B2 (ja) 撮像装置およびその制御方法
JP7309451B2 (ja) 撮像装置および制御方法
JP5446955B2 (ja) 撮像装置
US20100182460A1 (en) Image processing apparatus
JP5915720B2 (ja) 撮像装置
JP7292961B2 (ja) 撮像装置およびその制御方法
JP5415208B2 (ja) 撮像装置
JP5417920B2 (ja) 画像処理装置、画像処理方法、電子カメラおよび画像処理プログラム
JP6862225B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP5239250B2 (ja) 電子カメラ
JP7307837B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6489876B2 (ja) 撮像装置及びその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220523

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230530

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R151 Written notification of patent or utility model registration

Ref document number: 7309451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151