WO2018179695A1 - 制御装置、撮像装置、制御方法及びプログラム - Google Patents

制御装置、撮像装置、制御方法及びプログラム Download PDF

Info

Publication number
WO2018179695A1
WO2018179695A1 PCT/JP2018/001304 JP2018001304W WO2018179695A1 WO 2018179695 A1 WO2018179695 A1 WO 2018179695A1 JP 2018001304 W JP2018001304 W JP 2018001304W WO 2018179695 A1 WO2018179695 A1 WO 2018179695A1
Authority
WO
WIPO (PCT)
Prior art keywords
main subject
distance
image
area
unit
Prior art date
Application number
PCT/JP2018/001304
Other languages
English (en)
French (fr)
Inventor
裕 君島
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/493,599 priority Critical patent/US10999488B2/en
Priority to JP2019508602A priority patent/JP7103346B2/ja
Priority to EP18774522.9A priority patent/EP3606039A1/en
Publication of WO2018179695A1 publication Critical patent/WO2018179695A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/12Reflex cameras with single objective and a movable reflector or a partly-transmitting mirror
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/616Noise processing, e.g. detecting, correcting, reducing or removing noise involving a correlated sampling function, e.g. correlated double sampling [CDS] or triple sampling

Abstract

第1画像に含まれる被写体のうちの第1主要被写体を検出し、当該第1主要被写体を示す主要被写体情報を取得する主要被写体検出部と、第1画像に含まれる被写体の距離を検出し、当該距離を示す第1距離情報を取得する距離情報算出部と、主要被写体情報及び第1距離情報に基づいて、第1主要被写体が含まれる距離を検出し、第1主要被写体が含まれる距離を示す主要被写体距離情報を取得する検出部とを有する制御装置である。 図4

Description

制御装置、撮像装置、制御方法及びプログラム
 本開示は、制御装置、撮像装置、制御方法及びプログラムに関する。
 従来から自動的に焦点を検出する様々な方式(AF(Auto Focus)の方式)が提案されている(例えば、下記特許文献1を参照のこと)。
特開2007-233034号公報
 このような分野では、オートフォーカスの対象を的確に検出することが望まれている。
 本開示は、オートフォーカスの対象を的確に検出することができる制御装置、撮像装置、制御方法及びプログラムを提供することを目的の一つとする。
 本開示は、例えば、
 第1画像に含まれる被写体のうちの第1主要被写体を検出し、当該第1主要被写体を示す主要被写体情報を取得する主要被写体検出部と、
 第1画像に含まれる被写体の距離を検出し、当該距離を示す第1距離情報を取得する距離情報算出部と、
 主要被写体情報及び第1距離情報に基づいて、第1主要被写体が含まれる距離を検出し、第1主要被写体が含まれる距離を示す主要被写体距離情報を取得する検出部と
 を有する制御装置である。
 本開示は、例えば、
 上述した制御装置と、
 撮像部と
 を有する撮像装置である。
 本開示は、例えば、
 主要被写体検出部が、第1画像に含まれる被写体のうちの第1主要被写体を検出し、当該第1主要被写体を示す主要被写体情報を取得し、
 距離情報算出部が、第1画像に含まれる被写体の距離を検出し、当該距離を示す第1距離情報を取得し、
 検出部が、主要被写体情報及び第1距離情報に基づいて、第1主要被写体が含まれる距離を検出し、第1主要被写体が含まれる距離を示す主要被写体距離情報を取得する
 制御方法である。
 本開示は、例えば、
 主要被写体検出部が、第1画像に含まれる被写体のうちの第1主要被写体を検出し、当該第1主要被写体を示す主要被写体情報を取得し、
 距離情報算出部が、第1画像に含まれる被写体の距離を検出し、当該距離を示す第1距離情報を取得し、
 検出部が、主要被写体情報及び第1距離情報に基づいて、第1主要被写体が含まれる距離を検出し、第1主要被写体が含まれる距離を示す主要被写体距離情報を取得する
制御方法をコンピュータに実行させるプログラムである。
 本開示の少なくとも実施形態によれば、オートフォーカスの対象を的確に検出することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果であっても良い。また、例示された効果により本開示の内容が限定して解釈されるものではない。
図1は、本開示の一実施形態に係る撮像装置の概略構成を示す図である。 図2は、本開示の一実施形態に係る撮像装置の構成例を示すブロック図である。 図3は、オートフォーカスを行う上で考慮すべき問題を説明するための図である。 図4は、制御部における各機能ブロックが行う処理を説明するための図である。 図5A~図5Cは、本開示の一実施形態に係る撮像装置において行われる処理を説明するうえで参考する図である。 図6A及び図6Bは、本開示の一実施形態に係る撮像装置において行われる処理を説明するうえで参考する図である。 図7は、本開示の一実施形態に係る撮像装置において行われる処理を説明するうえで参考する図である。 図8は、本開示の一実施形態に係る撮像装置において行われる処理を説明するうえで参考する図である。 図9は、本開示の一実施形態に係る撮像装置において行われる処理の流れを示すフローチャートである。 図10は、本開示の一実施形態に係る撮像装置において行われる第1の制御を説明するうえで参考する図である。 図11は、本開示の一実施形態に係る撮像装置において行われる第1の制御の処理の流れを示すフローチャートである。 図12は、本開示の一実施形態に係る撮像装置において行われる第1の制御を説明するうえで参考する図である。 図13は、本開示の一実施形態に係る撮像装置において行われる第2の制御の処理の流れを示すフローチャートである。 図14は、本開示の一実施形態に係る撮像装置において行われる第2の制御を説明するうえで参考する図である。 図15は、本開示の一実施形態に係る撮像装置において行われる第3の制御の処理の流れを示すフローチャートである。 図16は、車両制御システムの概略的な構成の一例を示すブロック図である。 図17は、車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示の実施形態等について図面を参照しながら説明する。なお、説明は以下の順序で行う。
<1.一実施形態>
<2.変形例>
<3.応用例>
 以下に説明する実施形態等は本開示の好適な具体例であり、本開示の内容がこれらの実施形態等に限定されるものではない。
<1.一実施形態>
[撮像装置の構成例]
 始めに、本開示の一実施形態に係る撮像装置の構成例について説明する。図1は、本開示の一実施形態に係る撮像装置1の概略構成を示す断面模式図である。
 撮像装置1は、筐体(ボディ)10、撮影レンズ22を備える光学撮像系20、半透過ミラー11、撮像素子12A、像面位相差AFセンサ12B、専用位相差AFセンサ13、電子ビューファインダ14、ディスプレイ15を備えている。例えば、撮像素子12Aと光学撮像系20とを含む構成により撮像部が構成される。
 図1に示されるように、筐体10に対して光学撮像系20が設けられている。光学撮像系20は、例えば交換可能ないわゆるレンズ部であり、鏡筒21内に撮影レンズ22、絞り等が設けられている。撮影レンズ22は、フォーカス駆動系(図示しない)によって駆動され、AF(Auto Focus)動作が可能とされている。なお、光学撮像系20は、筐体10と一体ものとして構成しても良いし、光学撮像系20が所定のアダプタを介して筐体10に着脱可能としても良い。
 半透過ミラー11は、筐体10内において、撮影レンズ22と筐体10内の撮像素子12Aとの間に設けられている。半透過ミラー11には、撮影レンズ22を介して被写体光が入射する。半透過ミラー11は、撮影レンズ22を介して入射する被写体光の一部を上方の専用位相差AFセンサ13の方向に反射させ、また、被写体光の一部を撮像素子12Aへと透過させる。なお、半透過ミラー11の透過度、反射率等は任意に設定することが可能である。
 筐体10内には撮影画像生成用の撮像素子12Aが設けられている。撮像素子12Aとしては、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などが用いられる。撮像素子12Aは、撮影レンズ22を介して入射する被写体光を光電変換して電荷量に変換し、画像を生成する。画像信号は、ホワイトバランス調整処理、ガンマ補正処理などの所定の信号処理が施されて最終的に画像データとして、撮像装置1内の記憶媒体や撮像装置1に着脱可能とされる可搬型のメモリ等に保存される。
 撮像素子12Aは、通常の撮像画素である例えば、R(Red)画素、G(Green)画素、B(Blue)画素を有するとともに、位相差焦点検出を行う像面位相差AFセンサ12Bを有している。すなわち、撮像素子12Aの一部に像面位相差画素が配置されることにより像面位相差AFセンサ12Bが構成されている。撮像素子を構成する各画素は被写体からの入射光を光電変換して電荷量に変換して、画素信号を出力する。
 専用位相差AFセンサ13は、例えば、筐体10内において半透過ミラー11の上方に、且つ、撮像素子12Aの前方に位置するように設けられている。専用位相差AFセンサ13は、例えば、位相差検出方式のAF専用モジュールである。撮影レンズ22により集光された被写体光は半透過ミラー11で反射することによって専用位相差AFセンサ13に入射する。専用位相差AFセンサ13により検出された焦点検出信号は撮像装置1内においてデフォーカス量の算出を行う処理部などに供給される。このように、一実施形態に係る撮像装置1は、専用位相差AFセンサ13と像面位相差AFセンサ12Bとを用いてAFを行う。但し、これに限定されるものではなく、撮像装置1が行うAFの方式は、専用位相差AFセンサ13及び像面位相差AFセンサ12Bの一方を用いたAF方式でも良いし、別の公知のAF方式を用いたものであっても良い。複数のAF方式のハイブリッドによるAF方式を用いたものであっても良い。なお、撮像装置1が専用位相差AFセンサ13を備えない場合には、像面位相差AFセンサ12Bを用いてAFを行う。
 筐体10には電子ビューファインダ(EVF:Electronic View Finder)14が設けられている。電子ビューファインダ14は、例えば、液晶ディスプレイ(Liquid Crystal Display(LCD))、有機EL(Electroluminescence:電界発光) ディスプレイなどを備える。電子ビューファインダ14には、撮像素子12Aから取り出された画像信号を信号処理部(図示しない)で処理することにより得られる画像データが供給される。電子ビューファインダ14は、それらの画像データに対応する画像をリアルタイム画像(スルー画像)として表示する。
 筐体10には、ディスプレイ15が設けられている。ディスプレイ15は、液晶ディスプレイ、有機EL等のフラットディスプレイなどである。ディスプレイ15には、撮像素子12Aから取り出された画像信号を信号処理部(図示しない)で処理して得られる画像データが供給され、ディスプレイ15はそれらをリアルタイム画像(いわゆるスルー画像)として表示する。図1においては、ディスプレイ15は、筺体の背面側に設けられているが、これに限られず、筺体上面などに設けても良く、可動式や取り外し式としても良い。ディスプレイ15は筐体10になくても良く、この場合、撮像装置1に接続されたテレビジョン装置等がディスプレイ15として機能しても良い。また、ディスプレイ15には、モードに応じたAFが行われるエリア(以下、AFエリアと適宜、称する)がリアルタイム画像に重畳されて表示される。
[撮像装置の内部構成例]
 次に、図2のブロック図を参照して、撮像装置1の内部構成例(主に信号処理に係る構成例)について説明する。撮像装置1は、上述した光学撮像系20、専用位相差AFセンサ13、撮像素子12A、像面位相差AFセンサ12B、ディスプレイ15の他に、例えば、前処理回路31、カメラ処理回路32、画像メモリ33、制御部34、グラフィックI/F(Interface)35、入力部36、R/W(リーダ/ライタ)37および記憶媒体38を備えている。
 光学撮像系20は、被写体からの光を撮像素子12Aに集光するための撮影レンズ22(フォーカスレンズ、ズームレンズなどを含む)、フォーカスレンズを移動させてフォーカス調整を行うレンズ駆動機構22A、シャッタ機構、アイリス機構などから構成されている。これらは制御部34からの制御信号に基づいて駆動される。レンズ駆動機構22Aは、撮影レンズ22を制御部34(例えば、後述するAF制御部34D)から供給された制御信号に応じて光軸方向に沿って移動させることにより、AF動作を実現する。光学撮像系20を介して得られた被写体の光画像は、撮像デバイスとしての撮像素子12A上に結像される。
 専用位相差AFセンサ13は、例えば、位相差検出方式のオートフォーカス専用センサである。撮影レンズ22により集光された被写体光は、半透過ミラー11で反射されることによって専用位相差AFセンサ13に入射する。専用位相差AFセンサ13により検出された焦点検出信号は制御部34に供給される。
 撮像素子12Aは、上述したように、通常の撮像画素と位相差検出用画素とを有するものである。像面位相差AFセンサ12Bは、複数の位相差検出用画素からなるオートフォーカス用センサである。像面位相差AFセンサ12Bにより検出された焦点検出信号は制御部34に供給される。
 前処理回路31は、撮像素子12Aから出力された撮像信号に対して、CDS(Correlated Double Sampling)処理によりS/N(Signal/Noise)比を良好に保つようにサンプルホールドなどを行う。さらに、AGC(Auto Gain Control)処理により利得を制御し、A/D(Analog/Digital)変換を行ってデジタル画像信号を出力する。
 カメラ処理回路32は、前処理回路31からの画像信号に対して、ホワイトバランス調整処理や色補正処理、ガンマ補正処理、Y/C変換処理、AE(Auto Exposure)処理などの信号処理を施す。
 画像メモリ33は、揮発性メモリ、例えば、DRAM(Dynamic Random Access Memory)で構成されるバッファメモリであり、前処理回路31およびカメラ処理回路32によって所定の処理が施された画像データを一時的に蓄えておくものである。
 制御部34は、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)などから構成されている。ROMには、CPUにより読み込まれ実行されるプログラムなどが記憶されている。RAMは、CPUのワークメモリとして用いられる。CPUは、ROMに記憶されたプログラムに従い様々な処理を実行してコマンドの発行を行うことによって撮像装置1全体の制御を行う。
 また、制御部34は、機能ブロックとして、例えば、主要被写体検出部34Aと、距離情報算出部の一例であるDepth検出部34Bと、検出部の一例である前景Depth範囲検出部34Cと、AF制御部34Dとを有している。これらの各機能ブロックが行う処理については後述する。なお、本明細書では、主要被写体を前景と称し、主要被写体ではない被写体を背景と称する。主要被写体とは、複数の被写体のうちユーザにとって重要と考えられる被写体であり、より具体的には、ユーザがピントを合わせたいと考える部分を含む被写体である。
 グラフィックI/F35は、制御部34から供給された画像信号から、ディスプレイ15に表示させるための画像信号を生成して、この信号をディスプレイ15に供給することにより画像を表示させる。ディスプレイ15には、撮像中のスルー画、記憶媒体38に記録された画像などが表示される。
 入力部36は、例えば、電源オン/オフ切り替えのための電源ボタン、撮像画像の記録の開始を指示するためのレリーズボタン、ズーム調整用の操作子、ディスプレイ15と一体に構成されたタッチスクリーンなどからなる。入力部36に対して入力がなされると、当該入力に応じた制御信号が生成されて制御部34に出力される。そして、制御部34は当該制御信号に対応した演算処理や制御を行う。
 R/W37には、撮像により生成された画像データなどを記録する記憶媒体38が接続されるインターフェースである。R/W37は、制御部34から供給されたデータを記憶媒体38に書き込み、また、記憶媒体38から読み出したデータを制御部34に出力する。記憶媒体38は、例えば、ハードディスク、メモリースティック(ソニー株式会社の登録商標)、SDメモリーカードなどの大容量記憶媒体である。画像は例えばJPEGなどの規格に基づいて圧縮された状態で保存される。また、保存された画像に関する情報、撮像日時などの付加情報を含むEXIF(Exchangeable Image File Format)データもその画像に対応付けられて保存される。
[撮像装置の基本的な動作例]
 ここで、上述した撮像装置1における基本的な動作について説明する。画像の撮像前には、撮像素子12Aによって受光されて光電変換された信号が、順次、前処理回路31に供給される。前処理回路31では、入力信号に対してCDS処理、AGC処理などが施され、さらに画像信号に変換される。
 カメラ処理回路32は、前処理回路31から供給された画像信号を画質補正処理し、スルー画像の信号として、制御部34を介してグラフィックI/F35に供給する。これにより、スルー画像がディスプレイ15に表示される。ユーザはディスプレイ15に表示されるスルー画像を見て画角合わせを行うことができる。
 この状態で、入力部36のシャッタボタンが押下されると、制御部34は、光学撮像系20に制御信号を出力して、光学撮像系20を構成するシャッタを動作させる。これにより撮像素子12Aからは、1フレーム分の画像信号が出力される。
 カメラ処理回路32は、撮像素子12Aから前処理回路31を介して供給された1フレーム分の画像信号に画質補正処理を施し、処理後の画像信号を制御部34に供給する。制御部34は、入力された画像信号を圧縮符号化し、生成した符号化データを、R/W37に供給する。これにより、撮像された静止画像のデータファイルがR/W37を介して記憶媒体38に記憶される。なお、動画の撮影時には、動画撮影の指示に応じて上述した処理がリアルタイムに行われる。動画撮影中にシャッタボタンを押すことにより、動画撮影中に静止画を撮影することも可能である。
 一方、記憶媒体38に記憶された画像ファイルを再生する場合には、制御部34は、入力部36からの操作入力に応じて、選択された静止画像ファイルを記憶媒体38からR/W37を介して読み込む。読み込まれた画像ファイルに対して伸張復号化処理が施される。そして、復号化された画像信号が制御部34を介してグラフィックI/F35に供給される。これにより、記憶媒体38に記憶された静止画像がディスプレイ15に表示される。
[オートフォーカスについて考慮すべき問題]
 ここで、オートフォーカスについて考慮すべき問題について説明する。種々の画像処理技術を用いて主要被写体検出処理を行うことにより主要被写体を認識し、当該主要被写体に優先的にピントを合わせる技術が提案されている。しかしながら、主要被写体検出処理によって検出された主要被写体は必ずしもユーザが意図する主要被写体と一致しない場合がある。特にプロカメラマンのようなハイエンドユーザにとって、自身の意図する被写体が主要被写体と認識されずに、他の被写体にピントが合ってしまうことは好ましくなく、決定的なシーンを逃してしまうことさえあり得る。ハイエンドユーザは自ら設定したAFエリア内でAFを行うことを望むことが多いが、一方で限定されたAFエリア内に被写体を置き続けることはプロのカメラマンにとっても困難である。
 また、主要被写体検出処理はAF用の距離情報検出処理(測距演算)に比べてより長い計算時間を必要とすることが多く、その場合は最新の測距結果に対してタイムラグ(遅延)が生じる。最新の測距結果を用いてAFを行おうとする場合、主要被写体の認識結果は時間的に前(古い)結果しか存在しないため、遅延が生じる時間での被写体の動きは考慮されないことになってしまう。反対に、主要被写体検出処理の演算が終了した後にAFを行うと、時間的に前となる測距結果によってピント合わせが行われるため、被写体のZ軸方向(奥行き方向)への動きに対してAFの追従性が悪くなる。
 この点について、図3を参照して説明する。ある時刻Taで入力画像として画像IMaが取得(入力)されたとする。画像IMaに対して主要被写体検出処理が行われ、例えば、中央付近に位置するアメリカンフットボールのプレーヤHAの顔FAが主要被写体として検出されたとする。一方で、画像IMaに対する距離情報検出処理が行われ、画像IMa内の被写体に対する距離情報が測距結果として得られる。図3では、プレーヤHAの測距結果として距離情報D1が得られ、他のプレーヤであるプレーヤHBの測距結果として距離情報D2が得られた例が示されている。
 次の(時間的に後の)時刻Tbにおいて、入力画像として画像IMbが取得されたとする。画像IMbは、画像IMaに対して例えば1フレーム後の画像である。画像IMbは、画像IMaに対して数フレーム後の画像であっても良い。画像IMbには、上述したプレーヤHA、HBの他にプレーヤHCが含まれている。画像IMbに対して距離情報検出処理が行われ、画像IMb内の被写体に対する距離情報が測距結果として得られる。図3では、プレーヤHAの測距結果として距離情報D1が得られ、プレーヤHBの測距結果として距離情報D2が得られ、プレーヤHCの測距結果として距離情報D3が得られた例が示されている。
 上述したように、主要被写体検出処理は距離情報検出処理に比べてより長い計算時間を必要とする。このため、距離情報検出処理が終了し測距結果が得られた段階では主要被写体検出処理が終了していないため、時刻Tbにおける測距結果を用いてAFを行う場合には、上述したように、時刻Ta、Tb間における被写体の動きが考慮されないことになる。一方で、主要被写体検出処理が終了するまで処理を待つとその間にプレーヤHAが被写体のZ軸方向(奥行き方向)に動き、実際の距離と測距結果との間にズレが生じてしまい、被写体のZ軸方向への動きに対してAFの追従性が悪くなる。以下、これらの点を踏まえ、本開示の一実施形態について詳細に説明する。
[撮像装置の動作例]
(前景Depth範囲を検出する動作)
 撮像装置1の動作例について説明する。始めに、図4~図8を参照して、前景Depth範囲を検出する動作例について説明する。前景Depth範囲とは、主要被写体が含まれる距離であり、本実施形態では主要被写体が含まれる所定の距離範囲として説明するが、距離そのものであっても良い。図4では、制御部34を構成する機能ブロックである主要被写体検出部34A、Depth検出部34B、前景Depth範囲検出部34C及びAF制御部34Dがそれぞれ示されている。
 ある時刻T1に、入力画像として画像IM1(第1画像の一例)が撮像装置1により取得されたとする。図5Aには、画像IM1の一例が示されている。画像IM1は、前側に草が存在し、その奥側に画面の右から左に走る人物H1が存在し、背景に森(図5Aでは3本の木により示されている)が存在する画像である。
 画像IM1が主要被写体検出部34A、Depth検出部34Bのそれぞれに入力される。主要被写体検出部34Aは、画像IM1に含まれる被写体のうち主要被写体(第1主要被写体)を検出する主要被写体検出処理を行う。主要被写体検出部34Aは、例えば、フレーム間の差分に基づいて動きを検出し、動きが検出された被写体を主要被写体とみなす。主要被写体検出部34Aは、主要被写体検出処理を行うことにより主要被写体を検出し、当該主要被写体を示す主要被写体マップMA1(主要被写体情報の一例)を取得する。すなわち、この主要被写体マップMA1は、主要被写体が存在する領域を示す情報である。主要被写体マップMA1の一例が図5Bに示されている。主要被写体マップMA1における白い箇所が、動きのある主要被写体として識別されている。なお、図5Bに示す主要被写体マップMA1ではノイズの影響により、人物H1に対応する箇所以外にも白い箇所が局所的に存在している。主要被写体マップMA1が前景Depth範囲検出部34Cに供給される。
 Depth検出部34Bは、距離情報検出処理を行うことにより、画像IM1に含まれる被写体の距離を検出する。Depth検出部34Bは、例えば、像面位相差AFセンサ12B及び専用位相差AFセンサ13から得られるセンサ情報を利用して、距離情報検出処理を行う。なお、距離情報を検出するエリアに応じて、像面位相差AFセンサ12B及び専用位相差AFセンサ13の一方から得られるセンサ情報を利用して距離情報検出処理が行われても良い。Depth検出部34Bは、画像IM1に含まれる被写体の距離を検出し、DepthマップDMA1(第1距離情報の一例)を取得する。DepthマップDMA1の一例が図5Cに示されている。図5Cに示されるDepthマップDMA1では、距離の遠近が白黒の濃淡で表されており、距離が近いほど白になり距離が遠くなるほど黒になるように表されている。DepthマップDMA1が前景Depth範囲検出部34Cに供給される。
 前景Depth範囲検出部34Cは、主要被写体マップMA1及びDepthマップDMA1に基づいて、前景Depth範囲を検出する。前景Depth範囲検出部34Cにより行われる、前景Depth範囲を検出する処理の一例について説明する。前景Depth範囲検出部34Cは、DepthマップDMA1を有限のクラスタに分解するクラスタリング(クラスタ分析やクラスタ分類とも称される)を行う。クラスタリングの方法としては、例えば、k-means法と称される方法を適用することができる。
 クラスタリングがなされたDepthマップの一例が、DepthマップCDMA1として図6Aに示されている。前景Depth範囲検出部34Cのクラスタリングにより、DepthマップDMA1により示される距離情報が6個のクラスタ(クラスタCL1~CL6)に分類される。
 クラスタCLに対応する距離情報の一例が図7に示されている。例えば、クラスタCL1が0~3m(メートル)に対応しており、クラスタCL2が3~6mに対応しており、クラスタCL3が6~9mに対応しており、クラスタCL4が9~12mに対応しており、クラスタCL5が12~15mに対応しており、クラスタCL6が15~∞mに対応している。なお、各クラスタCLの境界値は、何れかのクラスタCLに含まれていれば良い。例えば、クラスタCL1とクラスタCL2との境界値である3mは、クラスタCL1に含まれていても良いし、クラスタCL2に含まれていても良い。
 次に、前景Depth範囲検出部34Cは、クラスタリング後のDepthマップCDMA1と主要被写体マップMA1とを照合する照合処理を行う。照合処理の結果が図6Bに示されている。そして、前景Depth範囲検出部34Cは、各クラスタCLに含まれる主要被写体の割合を求める。この割合は、例えば、各クラスタCLを構成する面積(画素数)に対して主要被写体の面積(画素数)が占める割合により示される。なお、各クラスタCLの面積に対して主要被写体の面積が占める割合を求める際に、主要被写体の面積に対して、主要被写体の画面(マップ)上の位置に応じた重み付けや、主要被写体らしさに応じた重み付けを行うこともできる。このとき、位置に応じた重み付けの例としては、例えば画面の中央に近いほど、より大きな(強い)重み付けを行うことができる。また、主要被写体らしさに応じた重み付けの例としては、公知の認識技術等に基づき主要被写体らしさを示す評価値を取得し、当該評価値が大きいほどより主要被写体らしいものとしてより大きな(強い)重み付けを行うことができる。
 各クラスタCLに含まれる主要被写体の割合の一例が図7に示されている。前景Depth範囲検出部34Cは、主要被写体の割合がある閾値以上のクラスタを前景Depth範囲として検出する。すなわち、前景Depth範囲は、検出されたクラスタの領域を示す情報である。図7に示すように、例えば、クラスタCL1に含まれる主要被写体の割合が6%であり、クラスタCL2に含まれる主要被写体の割合が0%であり、クラスタCL3に含まれる主要被写体の割合が42%であり、クラスタCL4に含まれる主要被写体の割合が0%であり、クラスタCL5に含まれる主要被写体の割合が3%であり、クラスタCL6に含まれる主要被写体の割合が0%であるとする。このとき、例えば、閾値を6mと設定している場合、前景Depth範囲検出部34Cは、クラスタCL3に対応する距離の範囲(6~9m)を前景Depth範囲として検出する。なお、前景Depth範囲検出部34Cは、主要被写体の割合が最も大きいクラスタを前景Depth範囲として検出することもできる。前景Depth範囲検出部34Cは、検出した前景Depth範囲を示す情報である前景Depth範囲情報MD(主要被写体距離情報の一例)を取得する。そして、前景Depth範囲検出部34Cは、前景Depth範囲情報MDをAF制御部34Dに供給する。AF制御部34Dに供給された前景Depth範囲情報MDは、制御部34が有するメモリ等に保持される。なお、前景Depth範囲を検出する処理は、周期的、例えば、フレーム周期に応じて行われる。
 次に、時刻T1より時間的に後の時刻T2に、入力画像として画像IM2(第2画像の一例)が撮像装置1により取得されたとする。画像IM2は、例えば、画像IM1の1フレーム後の画像であり、時間的に最も後に取得された画像である。画像IM2の一例が図8Aに示されている。
 Depth検出部34Bは、距離情報検出処理を行うことにより、画像IM2に含まれる被写体毎の距離を検出し、DepthマップDMA2(第2距離情報の一例)を取得する。DepthマップDMA2の一例が図8Bに示されている。図8Bに示されるDepthマップDMA2では、DepthマップDMA1と同様に、距離の遠近が白黒の濃淡で表されており、距離が近いほど白になり距離が遠くなるほど黒になるように表されている。DepthマップDMA2がAF制御部34Dに供給される。
 AF制御部34Dは、前フレームを用いて検出された前景Depth範囲情報MDに基づいて、DepthマップDMA2に含まれる主要被写体、すなわち、画像IM2に含まれる主要被写体(第2主要被写体)を検出する。AF制御部34Dは、DepthマップDMA2を有限のクラスタに分解するクラスタリングを行う。クラスタリングの方法としては、例えば、Depth検出部34Bと同様のk-means法と称される方法を適用することができる。
 クラスタリングがなされたDepthマップの一例が、DepthマップCDMA2として図8Cに示されている。動く被写体であっても、1フレーム間の時刻及び距離情報検出処理が行われる間におけるZ軸方向の動きは僅かである。したがって、DepthマップCDMA2は、DepthマップCDMA1と略同様のクラスタ(例えば、6個のクラスタCL1~CL6)に分類される。
 AF制御部34Dは、例えば、上述したように前景Depth範囲が6~9mの場合には、DepthマップDMA2における6~9mの範囲、すなわちクラスタCL3に対応する領域に主要被写体が存在すると検出する。主要被写体が存在すると検出された範囲の一例が図8Cにおいて太線で囲まれている。
 このように、時刻T2において主要被写体検出処理が終了しておらず主要被写体マップが存在しなくても、過去のフレーム(例えば、前のフレーム)を使用して得られた前景Depth範囲を使用して、最新フレームのどこに主要被写体が存在するかを検出することができる。
 図9は、前景Depth範囲を検出する処理の流れを示すフローチャートである。ステップST11では、時刻T1における入力画像である画像IM1に対して、主要被写体検出部34Aが主要被写体検出処理を行い、画像IM1における主要被写体を検出する。検出結果である主要被写体マップMA1が前景Depth範囲検出部34Cに供給される。そして、処理がステップST12に進む。
 ステップST12では、Depth検出部34Bが、画像IM1に対して距離情報検出処理を行い、画像IM1における各被写体の距離情報を検出する。検出結果であるDepthマップDMA1が前景Depth範囲検出部34Cに供給される。そして、処理がステップST13に進む。
 ステップST13では、前景Depth範囲検出部34Cが、主要被写体マップMA1及びDepthマップDMA1を用いて前景Depth範囲を検出する。前景Depth範囲検出部34Cが前景Depth範囲を検出する処理の内容は上述してあるので、重複した説明を省略する。前景Depth範囲を示す前景Depth範囲情報MDがAF制御部34Dに供給される。そして、処理がステップST14に進む。
 ステップST14では、時刻T1より時間的に後の時刻T2における入力画像として画像IM2が入力される。Depth検出部34Bが、画像IM2に対して距離情報検出処理を行い、画像IM2における各被写体の距離情報を検出する。検出結果であるDepthマップDMA2がAF制御部に供給される。そして、処理がステップST15に進む。以降は、主要被写体検出部34Aによる主要被写体検出処理が行われるタイミングごとに、当該主要被写体検出処理により得られる最新の主要被写体情報に基づき、ステップST11から続く同様の処理が行われる。
 AF制御部34Dは、前景Depth範囲情報MDに基づいて、DepthマップDMA2に含まれる主要被写体を検出し、画像IM2に含まれる主要被写体を検出する。AF制御部34Dが、前景Depth範囲情報MDに基づいて主要被写体を検出する処理は上述してあるので重複した説明を省略する。以上の処理により、画像IM2に対する主要被写体検出部34Aによる主要被写体検出処理が終了していない場合でも、現フレームにおける主要被写体を検出することができる。
(第1の制御例)
 前景Depth範囲情報MDは、撮像装置1の様々な処理、例えば、AF制御における処理に用いることができる。具体的には、AF制御部34Dが時間的に最も後の画像に含まれる主要被写体(例えば、上述した画像IM2に含まれる第2主要被写体)の検出結果に基づいてレンズの移動を制御する処理に、前景Depth範囲情報MDを用いることができる。以下、前景Depth範囲情報MDを使用したAF制御の例(第1~第3の制御例)について説明する。なお、以下の説明では、前景Depth範囲の検出処理で説明した内容と同一、同質の構成に関しては同一の参照符号を付し、重複した説明を適宜、省略する。
 以下の制御は、UI(User Interface)として提示される複数のAFエリアのうち、AFエリアが局所的に選択されるモードで行われる制御である。AFエリアは、例えば、色が付された矩形の枠によりディスプレイ15に表示されることにより、ユーザに提示される。ユーザは、複数のAFエリアのうちAFを行うエリアとして、例えば1個のAFエリアを選択する。このようなAFモードは、スポット等と称される。以下では、AFモードの例としてスポットが選択された例を説明するが、スポットと異なるAFモードにおいて以下に説明する処理が行われても良い。
 図10Aは、時刻T3でディスプレイ15に表示される画像IM3の一例を示している。時刻T3は、上述した時刻T2と同じ時刻でも良い。ディスプレイ15には、ユーザが設定したAFエリアAR1が示されている。AFエリアAR1で指定された範囲でAFが行われる。なお、AFエリアAR1はUIとして提示される領域であり、AFエリアAR1で行われるAFに使用されるセンサ情報は必ずしも、AFエリアAR1内のセンサ(例えば、像面位相差AFセンサ12B)から出力されるセンサ情報とは限らない。すなわち、UIとして使用されるAFエリアAR1と、AFを信号処理的に行う際に用いられるAFセンサの範囲とは必ずしも一致していなくても良い。
 ここで、ユーザとしては例えばプロのカメラマンを想定する。このようなユーザは、局所的であり狭い範囲である1個のAFエリアAR1に、動きのある主要被写体(例えば、人物H1の顔)を合わせるようなカメラワークを行うことができる。しかしながら、プロとカメラマンと言えども人為的な操作には限界があることから、図10に示すように、主要被写体(例えば、人物H1の顔)がAFエリアAR1から抜けてしまい、背景にAFが行われてしまう場合がある。このように、意図しないでピントが背景に合ってしまう現象は、背景抜けなどとも称される。特に、人物H1がアメリカンフットボール、サッカー等の動きの激しいスポーツのプレーヤである場合には、背景抜けが生じるおそれが高くなる。
 そこで、第1の制御例では、AF操作中に、AFエリアAR1内に背景しか存在しない場合には、有効なAFエリアを周辺まで拡大して、拡大後のAFエリアに主要被写体が存在するか否かを判断する。拡大後のAFエリアに主要被写体が存在すれば、当該AFエリアでAFを行う。これにより、背景にAFがなされてしまうことを防止する。
 図11及び図12を参照して、第1の制御例について具体的に説明する。図11は、第1の制御の処理の流れを示すフローチャートであり、図12は、時間的に最も後に取得された画像IM3のDepthマップであるDepthマップDMA3を示している。なお、前景Depth範囲は、画像IM3より時間的に前に取得された画像を用いて上述した制御により取得することができ、本例では、クラスタCL3(例えば、6~9m)とする。以下の処理は、制御部34(例えば、AF制御部34D)が行う。
 図11のフローチャートにおけるステップST21では、設定されたAFエリアAR1に主要被写体が存在するか否かが判断される。例えば、図12に示すように、DepthマップDMA3を使用して、AFエリアAR1内にクラスタCL3が含まれているか否かが判断される。ここで、AFエリアAR1内にクラスタCL3が含まれている場合には、AFエリアAR1内に主要被写体があるものとして処理がステップST22に進む。
 ステップST22では、AFエリアAR1でAFが行われ、AFエリアAR1に対応する領域にピント(焦点)が合うように、レンズの位置が制御される。レンズの位置は、AF制御部34Dがレンズ駆動機構22Aを制御することにより行われる。
 本例では図12に示すように、AFエリアAR1内にクラスタCL3が含まれていない。すなわち、ステップST21における判断が否定判断となるので、処理がステップST23に進む。
 ステップST23では、AFの探索範囲を広げる処理が行われ、AFエリアを変更する処理が行われる。図12では、変更後のAFエリアであるAFエリアAR2が点線により示されている。AFエリアAR2の大きさは適宜、設定することができる。例えば、AFエリアAR2の大きさはAFエリアAR1の数個分の大きさである。そして、処理がステップST24に進む。
 ステップST24では、変更後のAFエリアAR2に主要被写体が存在するか否かが判断される。本例では、AFエリアAR2にクラスタCL3が含まれている、すなわち、AFエリアAR2に主要被写体が存在することから、処理がステップST25に進む。
 ステップST25では、AFエリアAR2でAFが行われ、AFエリアAR2に対応する領域にピントが合うように、レンズの位置が制御される。
 ステップST24の判断において、変更後のAFエリアAR2にクラスタCL3が含まれてない、すなわち、AFエリアAR2に主要被写体が存在しないことから、処理がステップST26に進む。
 ステップST26では、設定されているAFエリアAR1の周囲にも主要被写体が存在しないことから、元々設定されていたAFエリアであるAFエリアAR1でAFが行われ、AFエリアAR1に対応する領域にピントが合うように、レンズの位置が制御される。
 第1の制御例では、ユーザが設定したAFエリアに主要被写体がない場合でも、当該AFエリア周辺に主要被写体が存在することが多い点を考慮し、AFエリアの範囲を拡大する。拡大後のAFエリアに主要被写体が存在すれば拡大後のAFエリアでAFを行う。これにより、ユーザが設定したAFエリアに主要被写体がない場合に、背景にAFが行われてしまうことを防止することができる。
 なお、変更後のAFエリアAR2は、ユーザの意図(設定したAFエリアがAFエリアAR1である意図)を尊重してディスプレイ15に表示されないことが好ましいが、表示されても良い。表示させる場合には、AFエリアの範囲を拡大したことをユーザに認識させるために一時的に表示させ、その後通常の範囲のAFエリアを表示させることができる。また、AFエリアを拡大する際に、複数のステップで徐々にAFエリアを拡大していき、各ステップにおいて変更後のAFエリア内に主要被写体が存在するか否かが判断されるようにしても良い。
(第2の制御例)
 次に、第2の制御について説明する。例えば、主要被写体を切り替える等の際に、撮像装置1を大きく振る操作がなされたとする。操作終了後のタイミングで、ユーザにより設定されているAFエリアAR1には背景のみが存在し、当該背景にピントが合った場合を考える。この後、ユーザが、AFエリアAR1内に主要被写体が含まれるように素早く撮像装置1を移動する。
 ところで、撮像装置では、一度ピントが合った箇所の前を人物等が一時的に横切った場合等を考慮して、1回AFした箇所をロックし、横切った人物等にAFしないようにレンズ位置を固定したりレンズ移動の反応性を調整する、いわゆる安定化処理と称される処理が行われることが一般的である。この安定化処理のため、ユーザが、AFエリアAR1内に主要被写体が含まれるように素早く撮像装置1を移動しても主要被写体にAFが行われない場合がある。一方で、安定化処理を行わずに常に前側にAFしてしまうと、主要被写体の前を横切ったものにAFしてしまいAFの安定性が損なわれる問題がある。第2の制御例は、前景Depth範囲情報MDを使用してこれらの問題を回避する制御である。
 図13及び図14を参照して、第2の制御例について詳細に説明する。図13は、第2の制御における処理の流れを示すフローチャートである。図14Aは、ある時刻T5で取得される画像IM5のDepthマップDMA5を示し、図14Bは、時間的に最も後の時刻T6で取得される画像IM6のDepthマップDMA6を示している。なお、前景Depth範囲は、画像IM5、IM6よりも時間的に前に取得された画像を用いて上述した処理と同様にして取得することができ、本例では、クラスタCL3(例えば、6~9m)とする。以下の処理は、制御部34(例えば、AF制御部34D)が行う。
 図13のフローチャートにおけるステップST31では、時刻T5におけるAFエリアAR1に背景が存在していると判断される。例えば、図14Aに示すように、ユーザにより設定されたAFエリアAR1内にはクラスタCL3の領域は含まれないことから、AFエリアAR1には主要被写体が存在せず背景が存在していると判断される。そして、処理がステップST32に進む。
 ステップST32では、時刻T5より時間的に後の時刻T6に撮像装置1を移動させる操作がなされる。そして、時刻T6において、AFエリアAR1内に主要被写体が存在するか否かが判断される。例えば、図14Bに示すように、DepthマップDMA6において、AFエリアAR1に対応する領域にクラスタCL3が含まれている場合には、AFエリアAR1内に主要被写体が存在すると判断される。そして、処理がステップST33に進む。
 ステップST33では、安定化処理を無効化する処理が行われ、安定化処理が行われないようにする制御がなされる。そして、AFエリアAR1でAFが行われ、主要被写体である人物H1の顔にピントが合わせられる。これにより、主要被写体ではない背景等にAFが行われてしまっている状態から、AFエリアAR1を主要被写体に合わせた状態に遷移した場合に、AFが背景等に抜けてしまった状態からの復帰を高速化することができる。
 ステップST32において、AFエリアAR1内に主要被写体が存在しないと判断された場合には、処理がステップST34に進む。ステップST34では、必要に応じて安定化処理が行われる。撮像装置1の移動操作後、AFエリアAR1に含まれるものがクラスタCL5やCL6に相当する距離の場合は、安定化処理を行う必要はない。一方で、撮像装置1の移動操作後、ユーザの意図がAFエリアAR1内に主要被写体を含めたつもりだったとしても、主要被写体の前側に意図しない人物が存在したり通り過ぎる場合もある。但し、撮像装置1により近い箇所に存在する人物は、AFエリアAR1内でクラスタCL1やCL2として検出されるはずである。したがって、このような場合には安定化処理を行うことにより、AFの安定性が損なわれてしまうことを防止することができる。そして、処理がステップST31に戻り、上述した処理が繰り返される。
(第3の制御例)
 次に、第3の制御について説明する。第3の制御は、主要被写体の動きに追従している場合には、安定化処理を行う例である。
 図15は、第3の制御における処理の流れを示すフローチャートである。ステップST41では、ユーザにより設定されたAFエリアAR1に主要被写体が存在することが検出される。例えば、AFエリアAR1内にはクラスタCL3の領域が含まれている場合に、AFエリアAR1内に主要被写体が存在すると判断される。そして、処理がステップST42に進む。
 ステップST42では、時間的に最も後に取得された画像におけるAFエリアAR1から主要被写体がなくなったか否かが判断される。AFエリアAR1から主要被写体が存在し続ける場合には、処理がステップST41に戻る。また、AFエリアAR1から主要被写体がなくなった場合は、処理がステップST43に進む。
 ステップST43では、主要被写体からフレーミングを外した場合でも、ピントが背景に合ってしまわないように安定化処理が行われる。例えば、制御部34によりレンズ駆動機構22Aが制御され、レンズの位置が固定される。なお、安定化処理が開始された後、例えば数フレームにわたって、AFエリアAR1に主要被写体が存在しない場合には、当該AFエリアAR1に対応する領域にピントを合わせるようにしても良い。
 以上説明したように、第3の制御によれば、AF操作中に、AFエリアAR1に前景Depth範囲が存在していたら、換言すれば、主要被写体が存在すれば、AFが主要被写体にあっている状態と判断し、ピント位置が大きく動かなくなるようにロックする。これにより、撮像装置1で主要被写体を追い続けている途中で、AFエリアAR1から主要被写体が一時的に外れてしまった場合でもピントが背景に合わないようにすることができる。
 このように、前景Depth範囲情報MDを利用して最新フレームにおける主要被写体を検出できるとともに、AFの様々な制御を実現することができる。
<2.変形例>
 上述した一実施形態における第1~第3の制御は独立した制御でなく、関連する制御であっても良い。例えば、第1の制御において、拡張されたAFエリアAR1内に主要被写体が存在しないと判断された後に、第2の制御が行われるようにしても良い。また、撮像装置1に設定されるモードに応じて、行われる制御が異なるようにしても良い
 上述した一実施形態では、主要被写体検出部34Aがフレーム間の差分に基づいて動きを検出し、動きのなる被写体を主要被写体とみなす例について説明したが、これに限定されるものではない。例えば、主要被写体検出部34Aは、オプティカルフローにより動きを検出するものであっても良い。また、顔認識や人物認識等の被写体認識を利用したり、被写体追尾を利用したりして、その結果に基づいて、主要被写体を特定しても良い。ユーザにより指定された領域に存在する被写体や、ユーザの指定した特定の色範囲を主要被写体とみなしても良い。主要被写体らしさを学習し、その結果得られるものを主要被写体とみなしても良い。画面上の顕著な領域を抽出する技術であるセイレンシーを用いて主要被写体を特定するようにしても良い。また、これらの方法を組み合わせて主要被写体を特定するようにしても良い。
 上述した一実施形態では、Depth検出部34Bが、像面位相差AFセンサ12B及び専用位相差AFセンサ13により取得されるセンサ情報を利用して距離情報を得るようにしたが、これに限定されるものではない。例えば、Depth検出部34Bが、多眼カメラによるステレオ視の結果に基づいて距離情報を取得しても良いし、ライトフィールドカメラを使用して距離情報を取得しても良いし、三角測量センサを利用して距離情報を取得するようにしても良い。また、複数フレームの画像を利用して(動体視差を利用して)距離情報を取得するようにしても良いし、ボケの程度を利用して距離情報を取得するようにしても良い。ボケの程度を利用して距離情報を取得する方法は、DFD(Depth from defocus)と称される。
 上述した一実施形態におけるクラスタリングの方法は、k-means法に限定されるものではなく、公知の方法を適用することができる。
 上述した一実施形態において、最新のフレームにおいて主要被写体が存在する距離の範囲を着色したり、枠で囲む等してユーザにUIとして提示しても良い。例えば、ディスプレイ15を提示部として機能させ、最新のフレームにおいて主要被写体が存在する距離の範囲を他の箇所と区別してディスプレイ15に表示しても良い。ディスプレイ15は、撮像装置1と別体とされていても良い。
 上述した第1~第3の制御における処理の順序が変更されても良いし、並列的に行われても良い。例えば、図9に示す処理の流れにおいて、ステップST11、ST12の処理が並列的に行われても良い。
 上述した一実施形態では、安定化処理の一例としてレンズの位置を固定する処理を説明したが、ピントが大きくずれない範囲でレンズの多少の動きがあってもよい。レンズの位置を固定するとは、レンズ位置の動きが0の他、ピントが大きくずれない範囲での多少の動きを許容する意味である。また、安定化処理に対する感度を設定できるようにしても良い。例えば、設定された感度に応じて、レンズの位置が固定または所定の範囲で可変とされても良い。
 上述した実施形態における撮像装置は、顕微鏡等の医療用の機器やスマートフォン、コンピュータ装置、ゲーム機器、ロボット、防犯カメラ、移動体(車両、電車、飛行機、ヘリコプター、小型飛行体、工事用車両、農業用車両等)に組み込まれていても良い。
 本開示は、制御部34を有する制御装置(例えば、1チップのマイクロコンピュータ)により実現することも可能であるし、複数の装置からなる撮像システムとして実現することも可能である他、方法、プログラム等により実現することもできる。例えば、一実施形態で説明した制御を行うプログラムをダウンロード可能とし、一実施形態で説明した制御機能を有しない撮像装置(例えば、スマートフォンに備えられる撮像装置)が当該プログラムをダウンロードしてインストールすることにより、当該撮像装置において一実施形態で説明した制御を行うことが可能となる。
 <3.応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。本開示の測距結果を、例えば、センシングにおける注目領域の設定・維持、危険運転等の自動運転アシストなどに利用することができる。
 図16は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図16に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図16の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図17は、撮像部12031の設置位置の例を示す図である。
 図17では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図17には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、図2の撮像装置1を、撮像部12031に適用することができる。例えば、自動車に本開示に係る技術を適用することにより、車外の障害物までの距離を適切に検出できるので、自動運転制御システムや自動ブレーキシステムが適切に動作し、安全で快適な運転を可能にする。なお、測距結果を、例えば、センシングにおける注目領域の設定・維持、危険運転等の自動運転アシストなどに利用した場合は、制御部34により実行される制御は測距結果に応じたレンズ制御に限定されるものではない。
 本開示は、以下の構成も採ることができる。
(1)
 第1画像に含まれる被写体のうちの第1主要被写体を検出し、当該第1主要被写体を示す主要被写体情報を取得する主要被写体検出部と、
 前記第1画像に含まれる前記被写体の距離を検出し、当該距離を示す第1距離情報を取得する距離情報算出部と、
 前記主要被写体情報及び前記第1距離情報に基づいて、前記第1主要被写体が含まれる距離を検出し、前記第1主要被写体が含まれる距離を示す主要被写体距離情報を取得する検出部と
 を有する制御装置。
(2)
 前記距離情報算出部は、前記第1画像よりも時間的に後に取得される第2画像に含まれる被写体の距離を検出し、当該距離を示す第2距離情報を取得し、
 前記主要被写体距離情報及び前記第2距離情報に基づいて、前記第2画像に含まれる前記被写体のうちの第2主要被写体を検出する制御部を有する
 (1)に記載の制御装置。
(3)
 前記制御部は、前記第2主要被写体の検出結果に基づいてレンズの移動を制御する
 (2)に記載の制御装置。
(4)
 前記制御部は、撮像部の撮影範囲において設定される第1領域に前記第2主要被写体が存在する場合には、前記第1領域に焦点が合うようにレンズの移動を制御し、前記第1領域に前記第2主要被写体が存在しない場合には、前記第1領域を拡大した第2領域を設定する制御を行う
 (2)または(3)に記載の制御装置。
(5)
 前記制御部は、前記第2領域に前記第2主要被写体が存在する場合には、前記第2領域に焦点が合うように前記レンズの移動を制御し、前記第2領域に前記第2主要被写体が存在しない場合には、前記第1領域に焦点が合うように前記レンズの移動を制御する
 (4)に記載の制御装置。
(6)
 前記制御部は、撮像部の撮影範囲において設定される第1領域に前記第1主要被写体が存在せず、前記第1領域に前記第2主要被写体が存在する場合には、安定化処理を無効にする制御を行う
 (2)または(3)に記載の制御装置。
(7)
 前記制御部は、撮像部の撮影範囲において設定される第1領域に前記第1主要被写体が存在し、前記第1領域に前記第2主要被写体が存在しない場合には、安定化処理を有効にする制御を行う
 (2)または(3)に記載の制御装置。
(8)
 前記検出部は、前記第1距離情報をクラスタ分類し、前記主要被写体情報を参照することにより、前記第1主要被写体が含まれる割合が所定の閾値以上のクラスタを示す情報を前記主要被写体距離情報として取得する
 (1)~(7)の何れかに記載の制御装置。
(9)
 前記検出部は、前記第1距離情報をクラスタ分類し、前記主要被写体情報を参照することにより、前記第1主要被写体が含まれる割合が最も大きいクラスタを示す情報を前記主要被写体距離情報として取得する
 (1)~(7)の何れかに記載の制御装置。
(10)
 前記距離は、所定の距離範囲を示す
 (1)~(9)の何れかに記載の制御装置。
(11)
 前記第1領域は、表示部に表示され、選択可能な複数のオートフォーカス領域のうち、ユーザにより選択された1個の領域である
 (4)、(5)、(9)の何れかに記載の制御装置。
(12)
 前記第2領域は、前記表示部に表示されない領域である
 (4)、(7)、(8)、(9)の何れかに記載の制御装置。
(13)
 前記第2領域は、前記表示部に一時的に表示される領域である
 (4)、(7)、(8)、(9)の何れかに記載の制御装置。
(14)
 前記安定化処理は、レンズの位置を固定する処理である
 (4)、(7)、(8)、(9)に記載の制御装置。
(15)
 前記第2画像は、時間的に最も後に取得された画像である
 (2)~(14)の何れかに記載の制御装置。
(16)
 (1)~(15)の何れかに記載の制御装置と、
 撮像部と
 を有する撮像装置。
(17)
 前記第2主要被写体の範囲を提示する提示部を有する
 (16)に記載の撮像装置。
(18)
 レンズ駆動部を有し、
 前記制御装置により前記レンズ駆動部が制御されることにより、レンズの移動が制御される
 (16)に記載の撮像装置。
(19)
 主要被写体検出部が、第1画像に含まれる被写体のうちの第1主要被写体を検出し、当該第1主要被写体を示す主要被写体情報を取得し、
 距離情報算出部が、前記第1画像に含まれる前記被写体の距離を検出し、当該距離を示す第1距離情報を取得し、
 検出部が、前記主要被写体情報及び前記第1距離情報に基づいて、前記第1主要被写体が含まれる距離を検出し、前記第1主要被写体が含まれる距離を示す主要被写体距離情報を取得する
 制御方法。
(20)
 主要被写体検出部が、第1画像に含まれる被写体のうちの第1主要被写体を検出し、当該第1主要被写体を示す主要被写体情報を取得し、
 距離情報算出部が、前記第1画像に含まれる前記被写体の距離を検出し、当該距離を示す第1距離情報を取得し、
 検出部が、前記主要被写体情報及び前記第1距離情報に基づいて、前記第1主要被写体が含まれる距離を検出し、前記第1主要被写体が含まれる距離を示す主要被写体距離情報を取得する
制御方法をコンピュータに実行させるプログラム。
1・・・撮像装置、15・・・ディスプレイ、34・・・制御部、34A・・・主要被写体検出部、34B・・・Depth検出部、34C・・・前景Depth範囲検出部、34D・・・AF制御部、IM1・・・第1画像、IM2・・・第2画像、MA1・・・主要被写体マップ、DMA1・・・Depthマップ、MD・・・前景Depth範囲情報、CL・・・クラスタ、AR・・・AFエリア

Claims (20)

  1.  第1画像に含まれる被写体のうちの第1主要被写体を検出し、当該第1主要被写体を示す主要被写体情報を取得する主要被写体検出部と、
     前記第1画像に含まれる前記被写体の距離を検出し、当該距離を示す第1距離情報を取得する距離情報算出部と、
     前記主要被写体情報及び前記第1距離情報に基づいて、前記第1主要被写体が含まれる距離を検出し、前記第1主要被写体が含まれる距離を示す主要被写体距離情報を取得する検出部と
     を有する制御装置。
  2.  前記距離情報算出部は、前記第1画像よりも時間的に後に取得される第2画像に含まれる被写体の距離を検出し、当該距離を示す第2距離情報を取得し、
     前記主要被写体距離情報及び前記第2距離情報に基づいて、前記第2画像に含まれる前記被写体のうちの第2主要被写体を検出する制御部を有する
     請求項1に記載の制御装置。
  3.  前記制御部は、前記第2主要被写体の検出結果に基づいてレンズの移動を制御する
     請求項2に記載の制御装置。
  4.  前記制御部は、撮像部の撮影範囲において設定される第1領域に前記第2主要被写体が存在する場合には、前記第1領域に焦点が合うようにレンズの移動を制御し、前記第1領域に前記第2主要被写体が存在しない場合には、前記第1領域を拡大した第2領域を設定する制御を行う
     請求項2に記載の制御装置。
  5.  前記制御部は、前記第2領域に前記第2主要被写体が存在する場合には、前記第2領域に焦点が合うように前記レンズの移動を制御し、前記第2領域に前記第2主要被写体が存在しない場合には、前記第1領域に焦点が合うように前記レンズの移動を制御する
     請求項4に記載の制御装置。
  6.  前記制御部は、撮像部の撮影範囲において設定される第1領域に前記第1主要被写体が存在せず、前記第1領域に前記第2主要被写体が存在する場合には、安定化処理を無効にする制御を行う
     請求項2に記載の制御装置。
  7.  前記制御部は、撮像部の撮影範囲において設定される第1領域に前記第1主要被写体が存在し、前記第1領域に前記第2主要被写体が存在しない場合には、安定化処理を有効にする制御を行う
     請求項2に記載の制御装置。
  8.  前記検出部は、前記第1距離情報をクラスタ分類し、前記主要被写体情報を参照することにより、前記第1主要被写体が含まれる割合が所定の閾値以上のクラスタを示す情報を前記主要被写体距離情報として取得する
     請求項1に記載の制御装置。
  9.  前記検出部は、前記第1距離情報をクラスタ分類し、前記主要被写体情報を参照することにより、前記第1主要被写体が含まれる割合が最も大きいクラスタを示す情報を前記主要被写体距離情報として取得する
     請求項1に記載の制御装置。
  10.  前記距離は、所定の距離範囲を示す
     請求項1に記載の制御装置。
  11.  前記第1領域は、表示部に表示され、選択可能な複数のオートフォーカス領域のうち、ユーザにより選択された1個の領域である
     請求項4に記載の制御装置。
  12.  前記第2領域は、前記表示部に表示されない領域である
     請求項11に記載の制御装置。
  13.  前記第2領域は、前記表示部に一時的に表示される領域である
     請求項11に記載の制御装置。
  14.  前記安定化処理は、レンズの位置を固定する処理である
     請求項6に記載の制御装置。
  15.  前記第2画像は、時間的に最も後に取得された画像である
     請求項2に記載の制御装置。
  16.  請求項1に記載の制御装置と、
     撮像部と
     を有する撮像装置。
  17.  前記第2主要被写体の範囲を提示する提示部を有する
     請求項16に記載の撮像装置。
  18.  レンズ駆動部を有し、
     前記制御装置により前記レンズ駆動部が制御されることにより、レンズの移動が制御される
     請求項16に記載の撮像装置。
  19.  主要被写体検出部が、第1画像に含まれる被写体のうちの第1主要被写体を検出し、当該第1主要被写体を示す主要被写体情報を取得し、
     距離情報算出部が、前記第1画像に含まれる前記被写体の距離を検出し、当該距離を示す第1距離情報を取得し、
     検出部が、前記主要被写体情報及び前記第1距離情報に基づいて、前記第1主要被写体が含まれる距離を検出し、前記第1主要被写体が含まれる距離を示す主要被写体距離情報を取得する
     制御方法。
  20.  主要被写体検出部が、第1画像に含まれる被写体のうちの第1主要被写体を検出し、当該第1主要被写体を示す主要被写体情報を取得し、
     距離情報算出部が、前記第1画像に含まれる前記被写体の距離を検出し、当該距離を示す第1距離情報を取得し、
     検出部が、前記主要被写体情報及び前記第1距離情報に基づいて、前記第1主要被写体が含まれる距離を検出し、前記第1主要被写体が含まれる距離を示す主要被写体距離情報を取得する
    制御方法をコンピュータに実行させるプログラム。
PCT/JP2018/001304 2017-03-31 2018-01-18 制御装置、撮像装置、制御方法及びプログラム WO2018179695A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/493,599 US10999488B2 (en) 2017-03-31 2018-01-18 Control device, imaging device, and control method
JP2019508602A JP7103346B2 (ja) 2017-03-31 2018-01-18 制御装置、撮像装置、制御方法及びプログラム
EP18774522.9A EP3606039A1 (en) 2017-03-31 2018-01-18 Control device, imaging device, control method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017072821 2017-03-31
JP2017-072821 2017-03-31

Publications (1)

Publication Number Publication Date
WO2018179695A1 true WO2018179695A1 (ja) 2018-10-04

Family

ID=63674600

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/001304 WO2018179695A1 (ja) 2017-03-31 2018-01-18 制御装置、撮像装置、制御方法及びプログラム

Country Status (4)

Country Link
US (1) US10999488B2 (ja)
EP (1) EP3606039A1 (ja)
JP (1) JP7103346B2 (ja)
WO (1) WO2018179695A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021197623A (ja) * 2020-06-12 2021-12-27 キヤノン株式会社 撮像装置及びその制御方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233034A (ja) 2006-03-01 2007-09-13 Nikon Corp 撮像装置
JP2012124712A (ja) * 2010-12-08 2012-06-28 Sharp Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2017038245A (ja) * 2015-08-11 2017-02-16 キヤノン株式会社 画像処理装置及び画像処理方法
JP2017163412A (ja) * 2016-03-10 2017-09-14 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0664225B2 (ja) * 1985-08-27 1994-08-22 ミノルタカメラ株式会社 焦点調節装置
JP3897087B2 (ja) 1999-11-16 2007-03-22 富士フイルム株式会社 画像処理装置、画像処理方法、および記録媒体
JP5038283B2 (ja) 2008-11-05 2012-10-03 キヤノン株式会社 撮影システム及びレンズ装置
JP5229371B2 (ja) 2011-10-03 2013-07-03 株式会社ニコン 撮像装置
US9196027B2 (en) * 2014-03-31 2015-11-24 International Business Machines Corporation Automatic focus stacking of captured images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233034A (ja) 2006-03-01 2007-09-13 Nikon Corp 撮像装置
JP2012124712A (ja) * 2010-12-08 2012-06-28 Sharp Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2017038245A (ja) * 2015-08-11 2017-02-16 キヤノン株式会社 画像処理装置及び画像処理方法
JP2017163412A (ja) * 2016-03-10 2017-09-14 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム

Also Published As

Publication number Publication date
JPWO2018179695A1 (ja) 2020-02-06
JP7103346B2 (ja) 2022-07-20
US20200084369A1 (en) 2020-03-12
EP3606039A1 (en) 2020-02-05
US10999488B2 (en) 2021-05-04

Similar Documents

Publication Publication Date Title
JP7105754B2 (ja) 撮像装置、及び、撮像装置の制御方法
US20200344421A1 (en) Image pickup apparatus, image pickup control method, and program
JP7014218B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7059522B2 (ja) 制御装置、制御方法、プログラム及び撮像システム
TWI757419B (zh) 攝像裝置、攝像模組及攝像裝置之控制方法
JP6977722B2 (ja) 撮像装置、および画像処理システム
JP7020434B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2017175492A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び電子機器
JP6816768B2 (ja) 画像処理装置と画像処理方法
JP6816769B2 (ja) 画像処理装置と画像処理方法
US11889177B2 (en) Electronic device and solid-state imaging device
US11025828B2 (en) Imaging control apparatus, imaging control method, and electronic device
WO2017122396A1 (ja) 制御装置、制御方法及びプログラム
JP7144926B2 (ja) 撮像制御装置、撮像装置、および、撮像制御装置の制御方法
WO2017149964A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び電子機器
JP7103346B2 (ja) 制御装置、撮像装置、制御方法及びプログラム
CN110012215B (zh) 图像处理装置和图像处理方法
TWI794207B (zh) 攝像裝置、相機模組、攝像系統、及攝像裝置之控制方法
WO2018220993A1 (ja) 信号処理装置、信号処理方法及びコンピュータプログラム
WO2023210197A1 (ja) 撮像装置および信号処理方法
CN114697562A (zh) 摄像装置
US20190306444A1 (en) Imaging control apparatus and method, and vehicle
KR20200119790A (ko) 인식 장치와 인식 방법 그리고 프로그램

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18774522

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019508602

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2018774522

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2018774522

Country of ref document: EP

Effective date: 20191031