JP6729583B2 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JP6729583B2
JP6729583B2 JP2017527170A JP2017527170A JP6729583B2 JP 6729583 B2 JP6729583 B2 JP 6729583B2 JP 2017527170 A JP2017527170 A JP 2017527170A JP 2017527170 A JP2017527170 A JP 2017527170A JP 6729583 B2 JP6729583 B2 JP 6729583B2
Authority
JP
Japan
Prior art keywords
image
image processing
designated
focus
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017527170A
Other languages
English (en)
Other versions
JPWO2017006772A1 (ja
Inventor
靖二郎 稲葉
靖二郎 稲葉
楽公 孫
楽公 孫
洋一郎 佐藤
洋一郎 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017006772A1 publication Critical patent/JPWO2017006772A1/ja
Application granted granted Critical
Publication of JP6729583B2 publication Critical patent/JP6729583B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本開示は、画像処理装置および方法に関し、特に、オートフォーカスの際に、主要被写体領域を正しく求めることができるようにした画像処理装置および方法に関する。
カメラのフォーカスを自動で合わせる(オートフォーカス(AF)機能)技術について、合焦評価値に基づいてフォーカスブラケット撮影を行う技術がある(特許文献1参照)。
特開2009−86030号公報
しかしながら、より多様な撮像条件においても、撮影者の意図する被写体に正しくフォーカスを合わせる技術が望まれている。
本開示は、このような状況に鑑みてなされたものであり、より正しく、オートフォーカスができるようにするものである。
本開示の一側面の画像処理装置は、画像内の複数の被写体についての領域を示す被写体領域情報と前記画像内の合焦指定位置を示す合焦指定位置情報に基づいて、合焦に関する制御を行う制御部を備え、前記画像処理部は、前記合焦に関する処理として、前記合焦指定位置が背景の領域であった場合、前記合焦指定位置を、前記複数の被写体のうちの主要被写体の領域に修正する。
前記複数の被写体は、主要被写体と背景を含むことができる。
前記複数の被写体は、少なくとも類似する2つ以上の被写体を含むことができる。
前記画像処理部は、前記合焦に関する処理として、背景の領域を推定する処理を行うことができる。
前記画像処理部は、前記合焦に関する処理として、前記合焦指定位置を特定することができる。
前記画像処理部は、前記合焦に関する処理として、前記合焦指定位置の領域を囲む被写体枠を生成させることができる。
色の境界に基づいて、入力画像を複数の被写体についての領域に分割する領域分割部をさらに備えることができる。
前記被写体領域情報は、色の境界で分割された前記画像内の複数の被写体についての領域を示す情報である。
前記合焦指定位置情報は、前記画像内において選択された局所フォーカスエリアに含まれる点の位置を示す情報である。
本開示の一側面の画像処理方法は、画像内の複数の被写体についての領域を示す被写体領域情報と前記画像内の合焦指定位置を示す合焦指定位置情報に基づいて、合焦に関する制御を行い、前記合焦に関する処理として、前記合焦指定位置が背景の領域であった場合、前記合焦指定位置を、前記複数の被写体のうちの主要被写体の領域に修正する。
本開示の一側面においては、画像内の複数の被写体についての領域を示す被写体領域情報と前記画像内の合焦指定位置を示す合焦指定位置情報に基づいて、合焦に関する制御が行われる。そして、前記合焦に関する処理として、前記合焦指定位置が背景の領域であった場合、前記合焦指定位置が、前記複数の被写体のうちの主要被写体の領域に修正される。
本開示の一側面によれば、特に、オートフォーカスの際に、主要被写体領域を正しく求めることができる。
なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。
本技術を適用した撮像装置の構成例を示すブロック図である。 画像処理部により実行される機能ブロックの構成例を示すブロック図である。 被写体枠生成部の構成例を示すブロック図である。 SuperPixel生成部の処理について説明する図である。 被写体枠生成部の処理について説明する図である。 開始指示点の修正について説明する図である。 修正先の被写体信頼度について説明する図である。 本技術を適用した撮像装置の撮像処理について説明するフローチャートである。 1番目のフレームに対する処理について説明するフローチャートである。 被写体枠生成処理について説明するフローチャートである。 2番目以降のフレームに対する処理について説明するフローチャートである。 本技術の効果を示す図である。 本技術の効果を説明するための従来の方法で生成された被写体枠画像を示す図である。 本技術の効果を示す図である。 本技術の効果を説明するための従来の方法で生成された被写体枠画像を示す図である。 パーソナルコンピュータの主な構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。
[本技術の撮像装置]
図1は、本技術を適用した撮像装置の構成例を示すブロック図である。
図1の撮像装置10は、レンズユニット100、撮像素子101、画像処理部102、制御部103、表示部104、メモリ105、記録デバイス106、操作部107、センサ部108、およびバス109を含むように構成されている。
レンズユニット100は、被写体の光画像を集光する。レンズユニット100は、制御部103からの指示に従い、適切な画像を得られるように、フォーカスレンズ、絞りなどを調整する機構を有する。
撮像素子101は、レンズユニット100で集光された光画像を光電変換して電気信号に変換する。具体的には、撮像素子101は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどにより実現される。
画像処理部102、制御部103、表示部104、メモリ105、記録デバイス106、操作部107、およびセンサ部108は、バス109を介して相互に接続されている。
画像処理部102は、撮像素子101からの電気信号をサンプリングするサンプリング回路、アナログ信号をデジタル信号に変換するA/D変換回路、デジタル信号に所定の画像処理を施す画像処理回路などから構成される。画像処理部102は、専用のハードウェア回路のみではなく、CPU(Central Processing Unit)やDSP(Digital Signal Processor)を備え、柔軟な画像処理に対応するためにソフトウェア処理を行うことができる。
特に、画像処理部102は、画像を領域分割し、制御部103からの局所フォーカスエリアの情報に基づいて、合焦に関する処理(背景推定、開始指示点修正、領域結合、被写体枠生成などの処理)を行う。なお、画像処理部102により実行される処理の詳細については後述する。
制御部103は、CPU(Central Processing Unit)及び制御プログラムからなり画像処理装置の各部の制御を行う。制御プログラム自体は実際にはメモリ105に格納され、CPUによって実行される。特に、制御部103は、撮像された画像情報から局所フォーカスエリアを選択し、選択した局所フォーカスエリアにおけるフォーカス対象位置(奥行き)と、レンズユニット100の合焦位置(奥行き)に基づいて、レンズユニット100のフォーカスレンズを駆動する。また、制御部103は、選択した局所フォーカスエリアを示す情報である合焦指定位置情報を画像処理部102に供給する。
表示部104は、画像処理部102によって処理された、メモリ105に格納されている画像信号をアナログ化するD/A変換回路と、アナログ化された画像信号を後段の表示装置に適合する形式のビデオ信号にエンコードするビデオエンコーダと、入力されるビデオ信号に対応する画像を表示する表示装置とから構成される。表示装置は、例えば、LCD(Liquid Crystal Display)等により実現され、ファインダとしての機能も有する。
メモリ105は、DRAM(Dynamic Random Access Memory)などの半導体メモリから構成され、画像処理部102で処理された画像データ、制御部103における制御プログラム及び各種データなどが一時記録される。
記録デバイス106は、FLASHメモリなどの半導体メモリ、磁気ディスク、光ディスク、光磁気ディスクなどで構成される。撮影時には画像処理部102でJPEG形式にエンコードされ、メモリ105に格納されたJPEG画像データを記録メディアに記録する。再生時には、記録メディアに保存されたJPEG画像データをメモリ105に読み込み、画像処理部102でデコード処理を行う。
操作部107は、シャッタボタンなどのハードウェアキー、操作ダイアル、タッチパネルなどの入力デバイスで構成され、撮影者の入力操作を検出し、制御部103の制御によって画像処理装置の動作が決定される。
センサ部108は、ジャイロセンサ、加速度センサ、地磁気センサ、GPS(Global Positioning System)センサなどで構成され、各種情報の検出を行う。これらの情報は、撮影された画像データに対して、メタデータとして付加されるほか、各種画像処理、制御処理にも利用される。
図2は、画像処理部102により実行される機能ブロックの構成例を示すブロック図である。
図2に示される機能ブロックは、SuperPixel生成部121および被写体枠生成部122を含むように構成されている。図2の例における指と星のアイコンは、制御部103からの局所フォーカスエリアを示す合焦指定位置情報として入力される、局所フォーカスエリアに含まれる初期点(開始指示点)Sを表している。初期点とは、例えば、局所フォーカスエリアの略中心の点などからなる。なお、局所フォーカスエリアは、フォーカスポイントであってもよい。したがって、合焦指定位置情報は、局所フォーカスエリアの位置情報であってもよいし、その初期点の位置情報であってもよい。
SuperPixel生成部121には、撮像素子101からの入力画像131が入力される。SuperPixel生成部121は、SuperPixel生成処理を行う。すなわち、SuperPixel生成部121は、SuperPixel生成技術を利用して、入力される入力画像131を色の境界で明示的に領域を分割し、領域分割された中間処理画像(SuperPixel画像)132を生成する。SuperPixel生成部121は、生成された中間処理画像132を被写体枠生成部122に出力する。
ここで、一般的に、被写体の境界では、色が異なることが多い。したがって、色で画素(ピクセル)をグルーピングするSuperPixel生成処理により生成された中間処理画像132において、主要被写体についての色の領域は、主要被写体についての色の類似色の領域とは、異なる被写体の領域とすることができる。すなわち、中間処理画像132は、SuperPixel生成処理により複数の被写体についての領域に分割されており、複数の被写体についての領域を示す被写体領域情報を有しているといえる。
被写体枠生成部122には、制御部103から、局所フォーカスエリアに含まれる初期点(開始指示点)Sを示す合焦指定位置情報が入力される。被写体枠生成部122は、被写体領域情報を有する中間処理画像132を入力し、開始指示点Sを示す合焦指定位置情報と被写体領域情報に基づいて、合焦に関する処理(背景推定、開始指示点修正、領域結合、被写体枠生成などの処理)を行い、被写体枠Fが示される画像(被写体枠画像と称する)133を、例えば、表示部104に出力する。これに対応して、表示部104は、被写体枠Fが示される画像133を表示する。
また、被写体枠生成部122は、修正された開始指示点の情報、あるいは、修正が必要なかった開始指示点の情報を、合焦指定位置情報として、制御部103に供給するようにしてもよい。その際、制御部103は、被写体枠生成部122からの合焦指定位置情報に基づくフォーカス対象位置(奥行き)により、レンズユニット100のフォーカスレンズを駆動する。
図3は、被写体枠生成部の構成例を示すブロック図である。
図3の例において、被写体枠生成部122は、背景推定部141、開始指示点修正部142、SuperPixel結合部143、および候補枠生成部144により構成される。
上述したように、背景推定画像151においては、複数の被写体の領域に分割されている。複数の被写体は、類似する2つ以上の被写体を含んでいる場合がある。また、複数の被写体は、フォーカス対象の被写体である主要被写体と背景を含む。背景推定部141は、中間処理画像132の複数の被写体の領域から、背景領域を推定し、背景領域が推定された画像である背景推定画像151(チェックのハッチ部分が背景部分)を、開始指示点修正部142に供給する。
開始点指示修正部142は、背景推定画像151において、開始指示点Sが位置する領域を特定し、特定した領域が背景領域であるならば、その開始指示点Sの位置を被写体信頼度において、主要被写体上に修正する。開始点指示修正部142は、開始指示点修正の終了した画像である開始指示点修正画像152を、Superpixel結合部143に供給する。
SuperPixel結合部143は、色距離や空間距離の近いSuperPixel同士を結合させ、SuperPixelが結合された画像を、候補枠生成部144に供給する。候補枠生成部144は、開始指示点Sが位置する、すなわち、主要被写体のSuperPixelが含まれる領域を囲む候補枠を生成し、被写体枠Fとして出力する。
図4は、SuperPixel生成部の処理について説明する図である。
SuperPixel生成部121は、入力画像131に対して、閾値を用いて、似たような色をグルーピングすることで、SuperPixel(画素群)を生成し、複数のSuperPixelが生成された画像、すなわち、領域分割された中間処理画像132を被写体生成部122に出力する。
図5は、被写体枠生成部の処理について説明する図である。
背景推定部141は、中間処理画像132において、SuperPixelの画像端画素数をチェックし、SuperPixelのサイズ・形状をチェックすることで、複数の被写体領域から、背景領域を推定し、背景が推定された画像である背景推定画像151を開始指示点修正部142に出力する。
開始指示点修正部142は、背景推定画像151において開始指示点Sが位置する領域が背景である場合、SuperPixel毎に、被写体である信頼度の高さを表す被写体信頼度を求め、求めた被写体信頼度に応じて開始指示点Sの修正を行う。
SuperPixel結合部143は、必要に応じて開始指示点Sの修正が行われた背景推定画像151において、色距離や空間距離の近いSuperPixel同士を結合させ、SuperPixelが結合された画像を、候補枠生成部144に供給する。
図6は、開始指示点の修正について説明する図である。
図6に示されるように、開始指示点修正部142は、開始指示点S(図中星マーク)が背景と推定されたSuperPixelにあるとき、背景以外のSuperPixelに開始指示点Sをジャンプさせて修正する。
例えば、背景推定画像151Aにおいては、背景(チェックのハッチ)と推定されたSuperPixelに開始指示点Sが存在するため、背景推定画像151B乃至151Dに示されるように、背景以外のSuperPixel(1,2,3)に移動させる。この移動は、次に説明される被写体信頼度に応じてなされる。
図7は、修正先の被写体信頼度について説明する図である。図7の例においては、Sが開始指示点を示し、修正先が被写体枠Fで示されている。なお、図7のAにおいては、中央の犬とお墓以外は、背景領域とされている。図7のBにおいては、中央の犬と犬の上にある窓の柵以外は、背景領域とされている。図7のCにおいては、犬と車以外は、背景領域とされている。図7のDにおいては、犬以外は背景領域とされている。
開始指示点が背景領域のSuperPixel内部のときに、開始指示点修正部142は、修正先のSuperPixelを以下の観点から選択する。
A:図7のAに示されるように、開始指示点からの空間距離が近いSuperPixelを主要被写体信頼度が高いとみなす。
B:図7のBに示されるように、フォーカスエリア中央(ここでは画像中央)からの空間距離が近いSuperPixelを主要被写体信頼度が高いとみなす。
C:図7のCに示されるように、背景から色距離が離れたSuperPixelがよい。
C−1:開始指示点の存在するSuperPixel(背景とみなされた)から色距離が離れたSuper-pixelを主要被写体信頼度が高いとみなす。
C−2:背景領域の中で最大サイズのSuperPixelから色距離が離れたSuperPixelを主要被写体信頼度が高いとみなす。
D:図7のDに示されるように、大きな面積のSuper-pixelを主要被写体信頼度が高いとみなす。
以上のうちの少なくともいずれか1つを基に、あるいは、それらの組み合わせを基に、修正先のSuperPixelが選択される。
次に、図8のフローチャートを参照して、図1の撮像装置10の撮像処理について説明する。
撮像装置10の制御部103は、ステップS11において、操作部107を構成するシャッタボタンが半押しされるまで待機しており、シャッタボタンが半押しされたと判定した場合、処理は、ステップS12に進む。
ステップS12において、画像処理部102および制御部103は、1番目のフレームに対する処理を行う。この処理は、局所フォーカスエリアに応じて被写体を捕捉する処理であり、図9を参照して後述される。
ステップS13において、画像処理部102および制御部103は、2番目以降のフレームに対する処理を行う。この処理は、被写体を追尾する処理であり、図11を参照して後述される。
ステップS12およびS13の処理により、被写体枠Fが表示され、シャッタボタンが深押しされるので、制御部103は、ステップS14において、撮像素子101を制御し、写真を撮像させる。撮像素子101は、レンズユニット100で集光された光画像を光電変換して電気信号に変換する。画像処理部102は、撮像素子101からの電気信号をサンプリングし、デジタルの画像データに変換し、所定の画像処理を行う。
ステップS15において、画像処理部102は、画像データを、メモリ105に保存する。
次に、図9のフローチャートを参照して、図8のステップS12の1番目のフレームに対する処理について説明する。なお、図9の例においては、被写体の捕捉処理が行われる。
図8のステップS11において、シャッタボタンが半押しされた際、その情報が、操作部107から、制御部103と画像処理部102に入力される。また、撮像素子101より、そのときの入力画像131が制御部103と画像処理部102に入力される。
ステップS31において、制御部103は、入力画像131から局所フォーカスエリアを選択する。選択された局所フォーカスエリアを示す合焦指定位置情報は、被写体枠生成部122に供給される。
ステップS32において、制御部103は、合焦指定位置情報に基づいて、局所フォーカスエリアにおけるフォーカス対象位置(奥行き)とレンズ合焦位置(奥行き)のズレを計算する。ステップS33において、制御部103は、ステップS32により計算されたズレに基づいて、レンズユニット100のフォーカスレンズを駆動する。
一方、ステップS34において、SuperPixel生成部121は、入力画像131から、SuperPixel生成技術を利用して、入力される入力画像131を色の境界で明示的に領域を分割し、(複数の被写体について)領域分割された中間処理画像(SuperPixel画像)132を生成する。SuperPixel生成部121は、生成された中間処理画像132を被写体枠生成部122に出力する。
ステップS35において、被写体枠生成部122は、SuperPixel生成部121からの被写体領域情報を有する中間処理画像132と制御部103からの局所フォーカスエリア(開始指示点)Sの合焦指定位置情報に基づいて、被写体枠Fを生成する。この被写体枠生成処理は、図10を参照して後述される。ステップS35により生成された被写体枠画像133が、表示部104に表示される。
ステップS36において、画像処理部102の特徴量取得部(図示せぬ)は、被写体の特徴量を取得する。ここで、取得された被写体の特徴量や開始指示点の合焦指定位置情報は、2番目以降フレームに対する処理において使用される。
以上により、局所フォーカスエリアに応じて被写体が捕捉されて、被写体枠が生成され、生成された被写体枠が表示部104に表示される。
次に、図10のフローチャートを参照して、図9のステップS35の被写体枠生成処理について説明する。
ステップS71において、背景推定部141は、中間処理画像132の複数の被写体の領域から、背景領域を推定し、背景領域が推定された画像である背景推定画像151(チェックのハッチ部分が背景部分)を、開始指示点修正部142に供給する。
ステップS72において、開始指示点修正部142は、合焦指定位置情報に基づいて、開始指示点Sが位置する領域を特定し、背景推定画像151において、開始指示点Sが位置する領域が背景であるか否かを判定する。ステップS72において、開始指示点Sが位置する領域が背景であると判定された場合、処理は、ステップS73に進む。
ステップS73において、開始点指示修正部142は、開始指示点Sを、図7を参照して上述した主要被写体信頼度において修正する。開始点指示修正部142は、開始指示点修正の終了した画像である開始指示点修正画像152を、Superpixel結合部143に供給する。なお、被写体枠生成部122は、修正された開始指示点の情報、あるいは、修正が必要なかった開始指示点の情報を、合焦指定位置情報として、制御部103に供給するようにしてもよい。その際、制御部103は、被写体枠生成部122からの合焦指定位置情報に基づくフォーカス対象位置(奥行き)により、レンズユニット100のフォーカスレンズを駆動する。その後、処理は、ステップS74に進む。
また、ステップS72において、開始指示点Sが位置する領域が背景ではないと判定された場合、ステップS73の処理はスキップされ、ステップS74に進む。
ステップS74において、SuperPixel結合部143は、色距離や空間距離の近いSuperPixel同士を結合させ、SuperPixelが結合された画像を、候補枠生成部144に供給する。
ステップS75において、候補枠生成部144は、開始指示点Sが位置する、すなわち、主要被写体のSuperPixelが含まれる領域を囲む候補枠を生成し、生成した候補枠を、被写体枠Fとして出力する。
以上のように、SuperPixel(領域分割)を用いて色の境界で領域を分離するようにしたので、類似色の物体でも別物としてみることができ、これにより、被写体枠を正しく求めることができる。また、領域毎に背景であるか否かの判定が行われるので、局所フォーカスエリアの修正を行うことができる。
次に、図11のフローチャートを参照して、図8のステップS13の2番目以降のフレームに対する処理について説明する。なお、図11の例においては、被写体の追尾処理が行われる。
ステップS91において、画像処理部102の移動位置推定部(図示せず)は、被写体の移動位置を推定する。
ステップS92において、制御部103は、ステップS91により推定された被写体の移動位置に基づいて、局所フォーカスエリアを選択する。ステップS93において、制御部103は、局所フォーカスエリアを示す合焦指定位置情報に基づいて、局所フォーカスエリアにおけるフォーカス対象位置(奥行き)とレンズ合焦位置(奥行き)のズレを計算する。ステップS94において、制御部103は、ステップS93により計算されたズレに基づいて、レンズユニット100のフォーカスレンズを駆動する。
ステップS95において、制御部103は、シャッタボタンが深押しされたか否かを判定する。ユーザがシャッタボタンを深押しすると、操作部107は、その情報を制御部103に供給する。制御部103は、ステップS95において、シャッタボタンが深押しされたと判定して、2番目以降のフレームに対する処理を終了する。
一方、ステップS95において、シャッタボタンが深押しされていないと判定された場合、処理は、ステップS91に戻り、それ以降の処理が繰り返される。
[本技術の効果]
次に、図12乃至図15を参照して、本技術の効果について説明する。
本技術においては、領域分割技術(SuperPixel生成)を用いて、色の境界(被写体の境界)で明示的に領域を分離できるようにしたので、類似色の物体でも、別物と扱うことが可能となり、被写体を正しく求めることができる。
図12に示されるように、図中上の鳥だけにフォーカスエリア(開始指示点)Sを指示すると、領域分割技術により生成される中間処理画像132において領域が複数の被写体に分離されるので、被写体枠画像133に示されるように、図中上の鳥だけを囲むように被写体枠Fを表示させることができる。したがって、例えば、図13 の例のように、図中上の鳥だけにフォーカスエリア(開始指示点)Sを指示したとしても、その結果、被写体枠画像133に示されるように、2匹の鳥を囲むように被写体枠Fが表示されてしまうことを抑制する事ができる。
また、領域毎に背景であるか否かの判定を行い、局所フォーカスエリア選択において開始指示点Sが背景になってしまう場合、フォーカスエリアが修正されるので、フォーカスエリアが誤って背景にずれたとしても、撮影者のねらう被写体をとらえることができる。
図14に示されるように、入力画像131において、背景に開始指示点Sが設定されてしまったとしても、背景推定画像151のように背景が示され、開始指示点修正画像152のように、開始指示点Sが修正される。したがって、被写体枠画像133においては、撮影者のねらった犬を囲むように被写体枠Fを表示させることができる。例えば、図15に示されるように、背景に開始指示点Sが設定されても、背景に被写体枠Fが出てしまうことを抑制することができる。
以上のように、本技術によれば、SuperPixel(領域分割)を用いて色の境界で領域を分離するようにしたので、類似色の物体でも別物としてみることができ、これにより、撮影者が狙った被写体にフォーカスが合うようになる。また、被写体枠を正しく求めることができる。
また、手ブレ・被写体動きによって、撮影者が狙った被写体と合焦指示ポイントがずれても、狙った被写体にフォーカスが合うようになる。
なお、上記説明においては、撮像された画像情報から局所フォーカスエリアの初期点(開始指示点)を決定するオートフォーカスの場合について説明したが、ユーザが表示部104に表示されるライブビュー画像の所望の点または領域に対してボタン操作やタッチパネル操作をすることにより合焦位置を指定することで、開始指示点を決定する場合についても本技術は適用することができる。
また、ユーザの操作に関しては、ボタン操作やタッチパネル操作だけに限らず、例えば、通信部を介して、他の外部操作機器(例えば、多機能ポータブル端末や多機能携帯電話機)などから操作を受けるようにしてもよい。
なお、上記説明においては、被写体枠の生成までを説明したが、被写体枠の生成には限定されない。被写体枠は表示されない場合にも本技術を適用することができる。例えば、監視カメラなどにおいて、後から主要被写体を特定するための領域を取り出すときなどにも、本技術を適用することができる。
また、本発明は、画像処理装置、撮像装置、監視カメラ、車載用カメラなどや、それらを含む映像システムなどに適用することが可能である。
[パーソナルコンピュータ]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどが含まれる。
図16は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータのハードウエアの構成例を示すブロック図である。
パーソナルコンピュータ500において、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロホンなどよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
以上のように構成されるパーソナルコンピュータ500では、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行する。これにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、リムーバブルメディア511に記録して提供することができる。リムーバブルメディア511は、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディア等である。また、あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータにおいて、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要な段階で処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1)画像内の複数の被写体についての領域を示す被写体領域情報と前記画像内の合焦指定位置を示す合焦指定位置情報に基づいて、合焦に関する処理を行う画像処理部
を備える画像処理装置。
(2) 前記複数の被写体は、主要被写体と背景を含む
前記(1)に記載の画像処理装置。
(3) 前記複数の被写体は、少なくとも類似する2つ以上の被写体を含む
前記(1)に記載の画像処理装置。
(4) 前記画像処理部は、前記合焦に関する処理として、背景の領域を推定する処理を行う
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5) 前記画像処理部は、前記合焦に関する処理として、前記合焦指定位置を特定する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記画像処理部は、前記合焦に関する処理として、前記合焦指定位置が背景の領域であった場合、前記合焦指定位置を、前記複数の被写体のうちの主要被写体の領域に修正する
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7) 前記画像処理部は、前記合焦に関する処理として、前記合焦指定位置の領域を囲む被写体枠を生成させる
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8) 色の境界に基づいて、入力画像を複数の被写体についての領域に分割する領域分割部を
さらに備える前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9) 前記被写体領域情報は、色の境界で分割された前記画像内の複数の被写体についての領域を示す情報である
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10) 前記合焦指定位置情報は、前記画像内において選択された局所フォーカスエリアに含まれる点の位置を示す情報である
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(11) 画像処理装置が、
画像内の複数の被写体についての領域を示す被写体領域情報と前記画像内の合焦指定位置を示す合焦指定位置情報に基づいて、合焦に関する処理を行う
画像処理方法。
10 撮像装置, 100 レンズユニット, 101 撮像素子, 102 画像処理部, 103 制御部, 104 表示部, 106 記録デバイス, 107 操作部, 121 SuperPixel生成部, 122 被写体枠生成部, 131 入力画像, 132 中間処理画像, 133 被写体枠画像, 141 背景推定部, 142 開始指示点修正部, 143 SuperPixel結合部, 144 候補枠生成部, 151 背景推定画像, 152 開始指示点修正画像

Claims (10)

  1. 画像内の複数の被写体についての領域を示す被写体領域情報と前記画像内の合焦指定位置を示す合焦指定位置情報に基づいて、合焦に関する処理を行う画像処理部
    を備え
    前記画像処理部は、前記合焦に関する処理として、前記合焦指定位置が背景の領域であった場合、前記合焦指定位置を、前記複数の被写体のうちの主要被写体の領域に修正する
    画像処理装置。
  2. 前記複数の被写体は、主要被写体と背景を含む
    請求項1に記載の画像処理装置。
  3. 前記複数の被写体は、少なくとも類似する2つ以上の被写体を含む
    請求項1に記載の画像処理装置。
  4. 前記画像処理部は、前記合焦に関する処理として、背景の領域を推定する処理を行う
    請求項1乃至3のいずれかに記載の画像処理装置。
  5. 前記画像処理部は、前記合焦に関する処理として、前記合焦指定位置を特定する
    請求項1乃至4のいずれかに記載の画像処理装置。
  6. 前記画像処理部は、前記合焦に関する処理として、前記合焦指定位置の領域を囲む被写体枠を生成させる
    請求項1乃至5のいずれかに記載の画像処理装置。
  7. 色の境界に基づいて、入力画像を複数の被写体についての領域に分割する領域分割部を
    さらに備える請求項1乃至6のいずれかに記載の画像処理装置。
  8. 前記被写体領域情報は、色の境界で分割された前記画像内の複数の被写体についての領域を示す情報である
    請求項1乃至7のいずれかに記載の画像処理装置。
  9. 前記合焦指定位置情報は、前記画像内において選択された局所フォーカスエリアに含まれる点の位置を示す情報である
    請求項1乃至8のいずれかに記載の画像処理装置。
  10. 画像処理装置が、
    画像内の複数の被写体についての領域を示す被写体領域情報と前記画像内の合焦指定位置を示す合焦指定位置情報に基づいて、合焦に関する処理を行い
    前記合焦に関する処理として、前記合焦指定位置が背景の領域であった場合、前記合焦指定位置を、前記複数の被写体のうちの主要被写体の領域に修正する
    画像処理方法。
JP2017527170A 2015-07-07 2016-06-23 画像処理装置および方法 Active JP6729583B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015135848 2015-07-07
JP2015135848 2015-07-07
PCT/JP2016/068676 WO2017006772A1 (ja) 2015-07-07 2016-06-23 画像処理装置および方法

Publications (2)

Publication Number Publication Date
JPWO2017006772A1 JPWO2017006772A1 (ja) 2018-04-19
JP6729583B2 true JP6729583B2 (ja) 2020-07-22

Family

ID=57685600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017527170A Active JP6729583B2 (ja) 2015-07-07 2016-06-23 画像処理装置および方法

Country Status (3)

Country Link
US (1) US10798284B2 (ja)
JP (1) JP6729583B2 (ja)
WO (1) WO2017006772A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
JP4997043B2 (ja) 2007-09-27 2012-08-08 富士フイルム株式会社 撮像装置、方法およびプログラム
JP2011015244A (ja) * 2009-07-03 2011-01-20 Sanyo Electric Co Ltd ビデオカメラ
JP2011044838A (ja) 2009-08-20 2011-03-03 Sony Corp 撮影装置および方法、並びにプログラム
JP5713885B2 (ja) * 2011-12-26 2015-05-07 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
WO2014186213A2 (en) * 2013-05-14 2014-11-20 Google Inc. Providing visual effects for images
JP6555857B2 (ja) * 2013-10-11 2019-08-07 キヤノン株式会社 撮像装置およびその制御方法
US9299004B2 (en) * 2013-10-24 2016-03-29 Adobe Systems Incorporated Image foreground detection

Also Published As

Publication number Publication date
US10798284B2 (en) 2020-10-06
US20180146129A1 (en) 2018-05-24
JPWO2017006772A1 (ja) 2018-04-19
WO2017006772A1 (ja) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6271990B2 (ja) 画像処理装置、画像処理方法
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
US9648238B2 (en) Image processing device that synthesizes a plurality of images, method of controlling the same, storage medium, and image pickup apparatus
US10027909B2 (en) Imaging device, imaging method, and image processing device
US11184524B2 (en) Focus control device, focus control method, program, and imaging device
JP6495122B2 (ja) 撮像装置、画像処理方法
US20140334681A1 (en) Image processing apparatus, image processing method, and program
JP2015148532A (ja) 距離計測装置、撮像装置、距離計測方法、およびプログラム
JP2018107526A (ja) 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム
JP6261205B2 (ja) 画像処理装置
US8547454B2 (en) Digital image photographing apparatuses and methods of controlling the same to provide location information
US11513315B2 (en) Focus control device, focus control method, program, and imaging device
JP4807582B2 (ja) 画像処理装置、撮像装置及びそのプログラム
JP2019008706A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
JP4807623B2 (ja) 撮像装置、撮像方法及び撮像プログラム
JP5278483B2 (ja) 撮像装置、撮像方法及び撮像プログラム
JP6729583B2 (ja) 画像処理装置および方法
JP2015041865A (ja) 画像処理装置及び画像処理方法
JP7475846B2 (ja) 情報処理装置、撮像装置、情報処理方法および撮像装置の制御方法
JP2009159356A (ja) 被写対象追跡装置、被写対象追跡プログラム及び被写対象追跡方法
JP6300547B2 (ja) 撮像装置
JP2013118471A (ja) 映像処理装置およびその制御方法
JP2021097350A (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R151 Written notification of patent or utility model registration

Ref document number: 6729583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151