JP6223059B2 - 撮像装置、その制御方法およびプログラム - Google Patents

撮像装置、その制御方法およびプログラム Download PDF

Info

Publication number
JP6223059B2
JP6223059B2 JP2013171255A JP2013171255A JP6223059B2 JP 6223059 B2 JP6223059 B2 JP 6223059B2 JP 2013171255 A JP2013171255 A JP 2013171255A JP 2013171255 A JP2013171255 A JP 2013171255A JP 6223059 B2 JP6223059 B2 JP 6223059B2
Authority
JP
Japan
Prior art keywords
focus detection
area
region
image data
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013171255A
Other languages
English (en)
Other versions
JP2015040941A (ja
JP2015040941A5 (ja
Inventor
玄志郎 芝上
玄志郎 芝上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013171255A priority Critical patent/JP6223059B2/ja
Priority to US14/463,722 priority patent/US9300867B2/en
Publication of JP2015040941A publication Critical patent/JP2015040941A/ja
Publication of JP2015040941A5 publication Critical patent/JP2015040941A5/ja
Application granted granted Critical
Publication of JP6223059B2 publication Critical patent/JP6223059B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、静止画像や動画像を撮像、記録、表示する撮像装置及びその制御方法に関する。
近年、数多くのデジタルカメラやデジタルビデオカメラ等の撮像装置には、被写体以外の領域に対して画像処理を行う機能が搭載されている。例えば、その機能の一つとして、撮影された画像データの背景領域に対して、疑似的にぼかし効果を与える機能等がある。一般に、一眼レフカメラのように撮像素子が大きい撮像装置であれば、絞りを開いて焦点距離を長くすることで被写界深度が浅くなり、上記のような合焦している被写体以外の背景をぼかした画像データを撮影することが比較的容易である。一方、コンパクトデジタルカメラ等の撮像素子が小さい撮像装置では、上記の方法を用いたとしても、被写界深度が深くなる傾向にあるため、背景をぼかした画像データを撮影することが困難である。
これに鑑みて、撮影された画像データの被写体領域と背景領域とを判別し、背景領域に対してフィルタリング処理を施すことにより、コンパクトデジタルカメラ等の撮像素子の小さい撮像装置でも、背景がぼけた画像データを取得できることが知られている。特許文献1には、被写体領域と背景領域との領域を判別するため、撮影された画像データから空間周波数成分を取得することが開示されている。即ち、特許文献1に開示される技術では、被写体が被写界深度の後端に位置するようにフォーカスレンズの位置を調整し、撮影された画像データにおける背景側のぼけ量を大きくする。そして、複数に分割されたブロック毎の空間周波数成分量を算出し、この値が閾値以上かどうかでブロックを被写体領域として判別している。
特開2007−124398号公報
しかしながら、特許文献1に開示された技術では、1画像の画像データの空間周波数成分量から領域の判別を行うため、背景領域側のぼけ量が乏しい場合に十分な精度が得られない問題がある。特に、近年普及しているコンパクトデジタルカメラのような撮像素子が小さい撮像装置では、上記処理を行っても十分なぼけ量が得られない傾向があるため、1枚の画像データの空間周波数成分量から領域の判別を行うことは困難である。
本発明は上述した課題に鑑みてなされたものであり、画像内にて背景とする領域を正しく判定し、被写体を含む領域と背景領域とを正確に判別することが可能な機能を有する撮像装置を提供することを目的とする。
実施形態の一観点によれば、撮像画面内に複数の焦点検出領域を設定し、各々の前記焦点検出領域の焦点検出を行う焦点検出手段と、前記焦点検出の結果に基づいて、前記複数の焦点検出領域のうちから、主被写体領域の候補となる領域である第1の領域と、処理すべき領域である背景領域の候補となる領域である第2の領域とを選択する選択手段と、前記第1の領域に合焦する第1の焦点位置において撮像光学系で形成される第1の光学像を撮像して第1の画像データを生成し、前記第2の領域に合焦する第2の焦点位置において前記撮像光学系で形成される第2の光学像を撮像して第2の画像データを生成する撮像手段と、前記第1の画像データと前記第2の画像データとに基づいて、前記処理すべき領域を判別する判別手段と、前記判別手段による前記処理すべき領域の判別の結果に基づいて、少なくとも前記第1の画像データに所定の処理を行う処理手段とを備え、前記選択手段は、前記第1の領域に対して所定の深度差の範囲内の前記焦点検出領域のうち、前記焦点検出の結果が所定の条件を満たす前記焦点検出領域の数に基づいて前記第2の領域を選択し、前記所定の深度差の範囲内の前記焦点検出領域のうち、前記所定の深度差の範囲内の無限遠側にピントの合う前記焦点検出領域に対して第1の所定深度の範囲内にある前記焦点検出領域の数が第1の所定数より大きくかつ最大である場合、前記無限遠側にピントの合う前記焦点検出領域を前記第2の領域の第1の候補として選択し、前記第1の候補が選択されない場合は、前記所定の深度差の範囲内の前記焦点検出領域のうち、前記無限遠側にピントの合う前記焦点検出領域に対して、前記焦点検出の結果が第2の所定深度の範囲内にあり、かつ隣接する領域が第2の所定数以上ある場合、前記無限遠側にピントの合う前記焦点検出領域を前記第2の領域の第2の候補として選択することを特徴とする撮像装置が提供される。
本発明によれば、画面内にて背景とする領域を正しく判定することが出来るため、背景領域を適切にぼかした画像を得ることが可能こととなる。
本発明の実施例に係わる撮像装置の構成図 本発明の実施例に係る撮像装置の画像処理部のブロック図 本発明の実施例に係る撮像装置の領域判別部の部ブロック図 本発明の実施例に係る撮像装置の背景ぼかしモードでの撮像動作のフローチャートを示す図 本発明の実施例に係る撮像装置の背景選択処理動作のフローチャートを示す図 本発明の実施例に係る撮像装置の背景候補選択動作のフローチャートを示す図 本発明の実施例に係る撮像装置の領域判別処理動作のフローチャートを示す図 本発明の実施例に係る撮像装置の背景ぼかしモードで設定される焦点検出領域を示す図
以下、図面を参照しながら本発明の実施例を詳細に説明する。
実施例
(撮像装置)
図1から図3を用いて、本実施例に係る撮像装置の説明を行う。
図1は、本発明の実施例を適用した、デジタルカメラ、携帯電話などの撮像装置の構成を示すブロック図である。図において、101はズーム機構を含む撮影レンズ、102は光量を制御する絞り及びシャッター、103はAE処理部、104は後述の撮像素子上に焦点をあわせるためのフォーカスレンズ、105はフォーカスレンズを駆動するモータ、106はAF処理部である。101、102および104は被写体の光学像を形成する撮影光学系を構成する。107は撮影光学系で形成された被写体の光学像を電気信号に変換する受光手段又は光電変換手段としての撮像素子、108は撮像素子107の出力ノイズを除去するCDS部やA/D変換前に行う非線形増幅部を含むA/D変換部である。109はA/D変換部108から出力された画像データを処理する画像処理部、110はフォーマット変換部、111は高速な内蔵メモリ(例えばランダムアクセスメモリなど、以下DRAMと記す)である。112はメモリーカードなどの記録媒体とそのインターフェースからなる画像記録部、113は撮影シーケンスなどシステムを制御するシステム制御部(以下、CPUと記す)である。CPU113は不図示のメモリに記憶されたプログラムをロードして実行することで,撮像装置の各部を制御する。
さらに、114は画像表示用メモリ(以下VRAMと記す)、115は画像表示の他、操作補助のための表示、カメラ状態の表示、撮影時における撮影画面と焦点検出領域の表示を行う画像表示部、116はカメラを外部から操作するための操作部である。117は、マクロモード、遠景モード、スポーツモードなどの撮影モードを選択するための撮影モードスイッチ、118はシステムに電源を投入するためのメインスイッチである。また、119はAFやAE等の撮影スタンバイ動作を行うための第1の指示を出すスイッチ(以下SW1と記す)である。さらに、120はSW1の操作後、撮影を行うための第2の指示を出す撮影スイッチ(以下SW2と記す)である。
前記111のDRAMは、一時的な画像記憶手段としての高速バッファ、あるいは画像の圧縮伸張における作業用メモリなどに使用される。前記116の操作部は、例えば次のようなものが含まれる。撮像装置の撮影機能や画像再生時の設定などの各種設定を行うメニュースイッチ、撮影レンズのズーム動作を指示するズームレバー、撮影モードと再生モードの動作モード切換えスイッチなどである。前記117の撮影モードスイッチは、ユーザーが選択した撮影モードに応じて焦点検出距離範囲やAF動作などを変更するようになっている。
画像処理部109では、画像データを用いて、エッジ成分を用いた領域判別や、ピントを合わせるべき被写体領域(例えば人物の顔など)の検出などを行うためのデータ処理機能を有すること。なお、領域判別を行う領域判別部については、図2、図3を用いて後述する。
AF処理部106では、画像のコントラストから、AF評価値を算出することが可能である。コントラストが強いときは、AF評価値が高くなり、コントラストが弱いときは、AF評価値が低くなる。
ここで、図2を用いて、本実施例に係る領域判別部を有する画像処理部109の構成について説明する。
図2は、本実施例に係る領域判別部を有する画像処理部109の構成を示す図である。本構成は、CPU113が実行するプログラムとして構成してもよいし、一部をハードウエアで構成してもよい。
図2において、色変換マトリックス部201は、撮影された画像データが最適な色で再現されるように色ゲインをかけて色差信号R−Y、B−Yに変換する。ローパスフィルタ(LPF)部202は、色差信号R−Y、B−Yの帯域を制限するためのフィルター処理を行う。CSUP(Chroma Supress)部203は、LPF部202で帯域制限された画像データのうち、飽和部分の偽色信号を抑圧するためのデータ処理を行う。一方、撮影された画像データは、輝度信号生成部204にも出力される。輝度信号生成部204は、入力された画像データから輝度信号Yを生成する。エッジ強調部205は、生成された輝度信号Yに対してエッジ強調処理を施す。
RGB変換部206は、CSUP部203から出力される色差信号R−Y、B−Yと、エッジ強調部205から出力される輝度信号YとをRGB信号に変換する。ガンマ補正部207は、変換されたRGB信号に対して階調補正を施す。その後、色輝度変換部208は、階調補正されたRGB信号をYUV信号に変換する。
領域判別部209は、YUV信号に変換された画像データに対して被写体領域と背景領域との判別を行う。領域判別部209の詳細な構成については図3を用いて後述する。
図3は、領域判別部209の構成の一例を示す。同図に示すように、領域判別部209は、エッジ検出部301、エッジ減算部302、エッジ積分値算出部303、エッジ積分値評価部304、及び領域マップ生成部305を備える。
(背景ぼかしモード処理)
図4を用いて、本実施例に係る撮像装置における背景ぼかし撮影動作について説明する。本動作は、撮像装置に、例えばメニュースイッチなどにより背景ぼかしモードが設定されている場合に、スイッチSW1、SW2がオンされたときに実行される処理動作である。なお、撮像装置の動作は、CPU113が、プログラムを実行することによって画像処理部109およびその他の関連する部分を必要に応じて制御することで達成する。まず、S401にてCPU113は、スイッチSW1が押されたかどうかの判定を行う。S401にてスイッチSW1が押されていると判定された場合は、CPU113はAF処理部106を制御して、S402にて焦点検出処理を行う。この焦点検出処理では、CPU113は画面内に予め設定されている焦点検出領域を配置し、各焦点検出領域について焦点検出動作を行う。本実施例では、画面内に配置する焦点検出領域を図8に示す5行6列の格子状に配列された30の領域とする。
焦点検出処理が完了したら、S403にてCPU113は画像処理部を109を制御して、S402での焦点検出動作の結果に基づいて、背景となる焦点検出領域の選択処理を行う。背景となる焦点検出領域の選択処理については、図5を用いて後述する。
次に、S404にて、CPU113はスイッチSW2が押されたかどうかの判定を行う。スイッチSW2が押されていると判定された場合は、撮影を行なう。撮影の具体的な動作(S405以降の動作)は後述する。スイッチSW2が押されていないと判定された場合は、S404に戻り、スイッチSW2が押されたかどうかの判定を繰り返す。
スイッチSW2が押されたと判定された場合は、S405にて、ぼかし処理(所定の処理)可能な背景領域が有るかどうかの判定を行う。この判定は、後述する背景選択フラグの設定内容に従って行う。ぼかし処理可能な背景領域が有ると判定された場合は、S406にて背景ぼかし撮影処理を行い、背景ぼかし処理を完了する。背景ぼかし撮影処理に関しては、図7を用いて後述する。ぼかし処理可能な背景領域が無いと判定された場合は、1画像撮影処理、つまり通常撮影処理(S407)を行い、背景ぼかし処理を完了する。
(背景選択処理)
次に、図5を用いて本実施例に係る背景選択処理動作について説明する。
まず、S501にて画面内に設定した5行6列の30の焦点検出領域から被写体領域とする焦点検出領域を選択する。本実施例では、図8(a)の斜線の領域801が、被写体領域として選択された焦点検出領域とする。なお、被写体領域とする焦点検出領域の選択方法例を下記に示すが、これに限るものではない。
画像処理部109により人の顔などの被写体が検出されていない場合は、画面中央付近に配置されている焦点検出領域から被写体領域とする焦点検出領域を選択する。例えば、画面に5行6列で30の焦点検出領域を設定している場合は、その5行6列のうち画面中央付近に配置した3行4列の焦点検出領域の焦点検出結果に基づいて次のように選択する。
最初に、合焦していて一番距離が近い至近にピントが合う焦点検出結果を持つ焦点検出領域、その次に合焦していて近側にピントが合う焦点検出結果を持つ焦点検出領域へと順に、焦点検出結果が所定深度(第5の所定深度)の範囲内でかつ隣接した焦点検出領域があるかを判定していく。これにより、所定深度の範囲内でかつ隣接した焦点検出領域がある場合は、その焦点検出領域の焦点検出結果と第5の所定深度の範囲内にある焦点検出領域とを、被写体領域とその焦点検出結果として選択する。なお、第5の所定深度は、本実施例では1深度とする。
他方、被写体が画像処理部109により検出されている場合は、検出した被写体領域と重なる焦点検出領域において、合焦していてかつ焦点検出結果が第4の所定深度の範囲内である隣接する焦点検出領域を被写体領域として選択する。その被写体領域の焦点検出結果としては、選択された焦点検出領域の焦点検出結果の中で一番近側にピントが合う焦点検出結果を採用することとする。この場合も、本実施例においては、第4の所定深度を1深度とする。
本実施例では、第4の所定深度、第5の所定深度、共に1深度としているが、もちろん異なる深度でも良い。
被写体が検出されている場合の他の選択方法としては、検出された被写体領域に焦点検出領域を配置し、焦点検出を行って第3の所定深度の範囲内の焦点検出結果となる焦点検出領域を選択しても良い。この場合の被写体領域の焦点検出結果も、選択された焦点検出領域の中で一番近側にピントが合う焦点検出結果を採用することとしても良い。
次に、S502にてCPU113は、S501で被写体とする焦点検出領域が選択出来たかどうかの判定を行う。被写体領域が無いと判定された場合は、S516にて背景選択フラグをクリアして処理を完了する。背景選択フラグとは、背景領域の候補が選択出来たことを示すフラグである。被写体領域が選択されない場合は、被写体から所定範囲の深度差がある背景領域を選択することが出来ないので、S516において背景選択フラグをクリアする。
次に、S503にて、背景候補領域となる焦点検出領域を選択する。本実施例では、「背景候補領域となる焦点検出領域」とは、信頼できる焦点検出結果を有する焦点検出領域であり、かつ被写体領域の焦点検出結果と比較して所定の深度差の範囲内である焦点検出結果を持つ焦点検出領域のことである。また、「所定深度差の範囲内である」とは、被写体領域の焦点検出結果より遠側にピークが合い、かつ深度差が第1の深度差よりも大きく、第2の深度差よりも小さい範囲であるということである。
背景候補領域とする焦点検出領域と被写体領域の焦点検出領域との深度差が第1の深度差よりも少ない場合、被写体にピントが合うフォーカスレンズ位置で撮影しても、背景とする領域にもピントが合ってしまう。その為、画像のエッジ成分の差を見て被写体と背景の領域分割が出来ない。また、背景候補領域とする焦点検出領域と被写体領域の焦点検出領域との深度差が第2の深度差よりも大きい場合、被写体にピントが合うフォーカスレンズ位置で撮影した時に、すでに光学的に充分にボケている領域となる。これらの理由により、所定深度差の範囲内の焦点検出領域を背景領域として選択している。なお、本実施例では、所定の深度差の範囲の下限の深度差である第1の深度差を5深度、上限の深度差である第2の深度差を20深度とする。
次に、S504にて、CPU113は、S503で背景候補領域が選択出来たかどうかの判定を行う。背景候補領域となる焦点検出領域が無いと判定された場合は、S516にて背景選択フラグをクリアして処理を完了する。背景候補領域となる焦点検出領域が有ると判定された場合は、S505にて背景候補領域の焦点検出領域の焦点検出結果の中で、最も遠い距離(遠側)にピントが合う焦点検出結果を、最初の比較基データと設定する。
次にS506にて、設定された比較基データの次に遠い距離にピントが合う焦点検出結果を比較対象データとして設定する。次にS507にて、比較基データと比較対象データが第1の所定深度の範囲内であるかの判定を行う。本実施例では、この第1の所定深度を1深度とする。
この比較を背景候補領域全ての合焦している焦点検出結果に対して行う。比較は遠側にピントが合うデータから近側にピントが合うデータに向けて順番に行っていく。遠側から近側に向けて比較を行っていくので、最終比較の比較対象データは、背景候補領域の中で最も近側にピントが合う焦点検出結果となる。
比較基データと比較対象データが1深度の範囲の範囲内であれば、S508で深度内カウンタをカウントアップする。「深度内カウンタ」は、比較基データに対して付与するものとする。深度内カウンタとは、比較基データと同一深度の範囲内の焦点検出結果を持つ焦点検出範囲がいくつあるかを数える為のカウンタである。この数が大きいほど、比較基データと同一深度の範囲内の焦点検出結果を持つ焦点検出範囲が多い、つまり、その比較基データの焦点検出結果でピントを合わせると、画面内の広い範囲においてピントが合うことになる。
次に、S509にて比較対象データが背景候補領域の最終データかを確認する。比較対象データが最終データであると判定された場合は、S510において、S508でカウントアップされた深度内カウンタの数に基づいて、所定の条件を満たす焦点検出領域から背景領域の候補を選択する背景候補選択処理を行う。背景候補選択処理に関しては、図6を用いて後述する。比較対象データが最終データで無いと判定された場合は、S506に戻り、S507にて使用した比較対象データの次に撮像装置から見て近い距離にピントが合う焦点検出結果を比較対象データとして設定する。
S507にて比較基データと比較対象データが1深度の範囲内でない場合は、S511にて背景候補選択処理を行う。背景候補選択処理に関しては、図6を用いて後述する。
次にS512にて比較対象データが最終データかの判定を行う。比較対象データが最終データでは無いと判定された場合は、次にS513にて比較対象データを比較基データとして設定した後に、S506に戻る。次いで、S507にて使用した比較対象データの次に撮像装置から見て近い距離にピントが合う焦点検出結果を比較対象データとして設定する。
比較対象が最終データと判定された場合は、S514にて背景候補が設定されているかどうかの判定を行う。「背景候補」とは、背景候補選択処理にて設定される背景とする焦点検出領域である。背景候補が設定されていると判定された場合は、S515にて背景選択フラグを設定する。背景候補が設定されていないと判定された場合は、S516にて背景選択フラグをクリアする。
この背景選択フラグが設定されている場合は、ぼかし処理可能な背景領域が有ると判定され、背景ぼかし撮影処理が行われる。背景選択フラグがクリアされている場合は、ぼかし可能な背景領域が無いと判定され1画像撮影が行われる。
本実施例においては、背景画像を1画像しか撮影しないので、背景候補1として深度内カウンタが最大である領域を選択している。しかし、背景画像を複数枚撮影する場合は、背景候補を複数設定する必要があるので、深度内カウンタの上位から複数選択し背景候補1とすれば良い。
(背景候補選択処理)
次に、図6及び図8を用いて、背景候補選択処理の説明を行う。
まず、S601にて前述した深度内カウンタが第1の所定数以上であるかどうかの判定を行う。深度内カウンタが第1の所定数以上であると判定された場合は、S602にて深度内カウンタが第2の所定数以上であるかどうかの判定を行う。深度内カウンタが第2の所定数以上であると判定された場合は、S603にて第1の背景候補がすでに設定されているかの判定を行う。なお、本実施例においては、第1の所定数を第2の所定数より小さい数値とし、第1の所定数は3、第2の所定数は6とする。
第1の背景候補がすでに設定されていると判定された場合は、S604にて深度内カウンタが、比較した今までの深度内カウンタ中で最大であるかどうかの判定を行う。これは深度内カウンタと最大カウンタ値を比較することにより判定する。
深度内カウンタが最大であると判定された場合は、S605にて前述した比較基データである焦点検出結果の焦点検出領域を第1の背景候補とし、その深度内カウンタを最大カウンタ値として設定する。
第1の背景候補が設定されていないと判定された場合は、S605にて前述した比較基データである焦点検出結果の焦点検出領域を背景候補の第1の候補とし、その深度内カウンタを最大カウンタ値として設定する。
第1の背景候補の焦点検出結果でピントを合わせられる領域とは、本実施例では図8(a)の803で示す領域とする。このように、画面内で一番広い領域にピントを合わせられる背景領域を選択することが可能となる。画面内で一番広い領域にピントが合うように背景候補を選択するので、画像内で一番遠い距離にピントが合う焦点検出結果を持つ焦点検出領域(802)であっても、画面内に占める範囲が狭いので、選択されないようにしている。
S601にて深度内カウンタが第1の所定数以上でないと判定された場合は、背景候補選択処理を終了する。S602にて深度内カウンタが第2の所定数以上でないと判定された場合は、S607にて第2の所定深度内データで所定数以上の塊りデータが有るかどうかの判定を行う。本実施例では第2の所定深度を1とし、第3の所定数を2とする。
ここで、「所定深度内データ」とは、図5を用いて説明した背景選択処理での、遠側にピントが合う焦点検出結果から近側にピントが合う焦点検出結果まで所定深度内であるかどうかの判定にて、所定深度の範囲内であると判定された焦点検出結果を持つ焦点検出領域であるとする。また、「塊りデータ」とは、この所定深度の範囲内データの焦点検出領域の中で、互いに隣接していると判定された焦点検出領域ことを示す。この塊りデータであるかどうかを判定することにより、誤焦点検出の結果、一つだけ遠側にピントが合うような焦点検出結果になっている焦点検出領域が背景として選択されることを防ぐことが可能である。
第2の所定深度の範囲内のデータで所定数以上の塊りデータがあると判定された場合は、S608にて背景領域の第2の候補がすでに設定されているかどうかの判定を行う。すでに設定されていると判定された場合は、背景候補選択処理を完了する。設定されていないと判定された場合は、S609にて比較基データである焦点検出結果の焦点検出領域を背景領域の第2の候補として設定する。
このようにして、遠側にピントが合うデータから判定を行っていき、かつ第2の背景候補が設定されている場合は、この第2の背景候補の再設定(更新)を行わない。これにより、第1の背景候補が再設定されたことで被写体領域との距離が近くなった場合でも、より遠い距離にピントが合う所定深度の範囲内の焦点検出領域を選択することが可能となる。
図8(b)に示す領域設定例では、第2の背景候補としてピントが合わせられる領域とは、806で示す領域である。805で示す画面内で一番広い領域にピントを合わせられる領域(第1の背景候補)と804で示す被写体領域との距離が近い場合、画像データのエッジ成分により領域マップを正しく作成することが出来ない。そのような場合は、第2の背景候補として画面内の遠い距離にピントが合い、かつ、その焦点検出結果は信頼出来るという背景候補として、第2の背景候補を選択しておく。この選択の情報は、例えばS515で設定される背景選択フラグ(複数ビット)に持たせることが可能である。これにより、S405でのぼかし処理可能な背景領域の有無の判定において、第1または第2の背景候補を選択することができる。
S607にて所定深度の範囲内データで所定数以上の塊りデータが無いと判定された場合は、背景候補選択処理を完了する。
(背景ぼかし撮影処理)
次に、撮像装置100の領域判別処理の動作について、図4及び図7を用いて説明する。
図7は、背景ぼかし撮影処理における領域判別処理動作のフローチャートを示す図である。
まずS701にて、CPU113は、撮像装置100の各部を制御して被写体領域とする焦点検出領域の焦点検出結果に基づくフォーカスレンズ位置および背景とする焦点検出領域の焦点検出結果に基づくフォーカスレンズ位置に従ってそれぞれ撮影を行う。
S702において、エッジ検出部301は、S701にて取得された、被写体側に合焦した画像データ(第1の画像データ)と背景側に合焦した画像データ(第2の画像データ)とに対してバンドパスフィルタリング処理を施す。次いで、バンドパスフィルタリング処理の結果の絶対値をとり、それぞれの画像データのエッジを取得する。
S703において、エッジ減算部302は、被写体側に合焦した画像データのエッジ情報から背景側に合焦した画像データのエッジを画素毎に減算し、エッジの差分をとった画像データ(以下、エッジ差分画像データと称す)を生成する。S704において、エッジ積分値算出部303は、S703で生成されたエッジ差分画像データを複数の領域に分割し、各領域のエッジ量を積分する。
S705において、エッジ積分値評価部304は、S704で算出された各領域のエッジ量の積分値と所定の閾値とを比較する。エッジ量の積分値が所定の閾値以上である場合、エッジ積分値評価部304は、当該領域を被写体領域と判定する。一方、エッジ積分値評価部304は、エッジ量の積分値が所定の閾値未満である場合、当該領域を背景領域と判定する。なお、上記所定の閾値は予め決められた固定値でもよいし、画像データのエッジのヒストグラム分布から適応的に求めてもよい。
S706において、領域マップ生成部305は、S705における判定結果に基づいて、被写体領域と背景領域とを判別することができる領域マップを生成する。上記領域マップにおいては、例えば合成比率が画像データ自体の画素値で表されている。なお、領域マップに対して、境界の段差を目立たなくさせるために被写体領域と背景領域との境界にローパスフィルタをかけてもよい。
次に、本実施例における背景領域のぼかし処理について説明する。画像処理部109は、撮影された画像データに特殊フィルタ処理を施してぼけ画像データIMG2を生成する。ここで特殊フィルタ処理を施す対象となる画像データは、S701で撮影された画像データである。上記特殊フィルタ処理では、指定されたフィルタ形状に基づき、撮影された画像データに対してフィルタリング処理が行われる。このフィルタリング処理では、所定の輝度値を持った画素に任意で設定したゲイン値Kを乗算し、飽和画素の輝度値の補間が行われる。
次に画像処理部109は、上記領域マップに基づいて、S701で取得された被写体側に合焦した画像データIMG1とぼけ画像データIMG2とを合成する。ここで、画像データの合成処理の一例について説明する。画像処理部109は、上記領域マップの画素値から求められるα(0≦α≦1)に基づいて、被写体側に合焦した画像データIMG1とぼけ画像データIMG2とを合成し、合成画像データBを生成する。即ち、画像処理部109は、合成画像データBの各画素B[i,j]を次の式を用いて算出する。
上記の処理によって得られた合成画像データBは、背景ぼかし画像データとして取得される。また、本実施例における背景ぼかし画像データの生成処理は、上記実施例に限定されるものではない。
例えば、領域マップに基づき、被写体側に合焦した画像データの背景領域にのみ特殊フィルタ処理を施して、背景ぼかし画像データを取得するようにしてもよい。また、撮影された画像データを縮小し、縮小した画像データを拡大して元の大きさに戻すことでぼけ画像データIMG2を生成にしてもよい。また、撮影された画像データに対してローパスフィルタをかけることでぼけ画像データIMG2を生成してもよい。ここでいう「撮影された画像データ」も、S701で撮影された画像データである。
以上の処理により、切り分けられた背景領域に特殊な画像処理を施すことが可能となる。
また、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、背景側に合焦した画像データ、被写体に合焦した画像データ又は被写体側に合焦した画像データの撮影の順序は入れ替わってもよい。
このように、本発明では、背景領域とする焦点検出領域の選択において、まず画面内の広い領域にピントが合う焦点検出結果を背景として採用する。これにより、被写体とする領域以外の焦点検出領域にて背景となりうる領域が複数あるような場合でも、画面内の広い領域を背景として選択出来、その領域にぼかし処理を行うことが出来るので、人の感覚に近い感覚での背景領域をぼかすことが出来る。
また、被写体とする領域と画面の広い領域の背景との距離差が少ない場合は、遠い距離にピントが合う焦点検出結果が塊りで存在しているかを判定し、それらを背景として選択している。これにより、誤焦点検出した結果を背景として選択することを防ぎ、画像にぼかし処理を行うことが可能である。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
例えば、上述の実施形態の一部を適宜組み合わせてもよい。また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータ読み取り可能なプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータはがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。

Claims (10)

  1. 撮像画面内に複数の焦点検出領域を設定し、各々の前記焦点検出領域の焦点検出を行う焦点検出手段と、
    前記焦点検出の結果に基づいて、前記複数の焦点検出領域のうちから、主被写体領域の候補となる領域である第1の領域と、処理すべき領域である背景領域の候補となる領域である第2の領域とを選択する選択手段と、
    前記第1の領域に合焦する第1の焦点位置において撮像光学系で形成される第1の光学像を撮像して第1の画像データを生成し、前記第2の領域に合焦する第2の焦点位置において前記撮像光学系で形成される第2の光学像を撮像して第2の画像データを生成する撮像手段と、
    前記第1の画像データと前記第2の画像データとに基づいて、前記処理すべき領域を判別する判別手段と、
    前記判別手段による前記処理すべき領域の判別の結果に基づいて、少なくとも前記第1の画像データに所定の処理を行う処理手段とを備え、
    前記選択手段は、前記第1の領域に対して所定の深度差の範囲内の前記焦点検出領域のうち、前記焦点検出の結果が所定の条件を満たす前記焦点検出領域の数に基づいて前記第2の領域を選択し、前記所定の深度差の範囲内の前記焦点検出領域のうち、前記所定の深度差の範囲内の無限遠側にピントの合う前記焦点検出領域に対して第1の所定深度の範囲内にある前記焦点検出領域の数が第1の所定数より大きくかつ最大である場合、前記無限遠側にピントの合う前記焦点検出領域を前記第2の領域の第1の候補として選択し、前記第1の候補が選択されない場合は、前記所定の深度差の範囲内の前記焦点検出領域のうち、前記無限遠側にピントの合う前記焦点検出領域に対して、前記焦点検出の結果が第2の所定深度の範囲内にあり、かつ隣接する領域が第2の所定数以上ある場合、前記無限遠側にピントの合う前記焦点検出領域を前記第2の領域の第2の候補として選択することを特徴とする撮像装置。
  2. 前記撮像手段による被写体の撮像を行うための第1の指示及び第2の指示を受ける指示手段を更に有し、
    前記焦点検出手段は、前記第1の指示に応じて、前記焦点検出を行い、
    前記撮像手段は、前記第2の指示に応じて、前記第1の画像データと前記第2の画像データとを生成することを特徴とする請求項1に記載の撮像装置。
  3. 前記第1の所定数は、前記第2の所定数よりも大きいことを特徴とする請求項に記載の撮像装置。
  4. 被写体を検出する被写体検出手段を更に有し、
    前記選択手段は、前記検出された被写体に対応する前記焦点検出領域の前記焦点検出の結果との深度差が、第3の所定深度の範囲内にある前記焦点検出領域を前記第1の領域として設定することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
  5. 被写体を検出する被写体検出手段を更に有し、
    前記選択手段は、前記複数の焦点検出領域のうち、前記検出された被写体と重なり、第4の所定深度の範囲内で隣接する前記焦点検出領域を前記第1の領域として設定することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
  6. 前記選択手段は、前記複数の焦点検出領域のうち、撮像画面の中央付近に位置する至近側の前記焦点検出領域に対して、第5の所定深度の範囲内で、隣接する前記焦点検出領域を、前記第1の領域として設定することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
  7. 前記判別手段は、前記第1の画像データ及び前記第2の画像データにおけるエッジ情報に基づいて前記処理すべき領域を判別し、
    前記処理手段は、前記判別手段によって判別された前記処理すべき領域に対し、前記所定の処理としてぼかし処理を行うことを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
  8. 前記複数の焦点検出領域において、前記第1の領域として設定された前記焦点検出領域に対して前記所定の深度差の範囲内の前記焦点検出領域がない場合は、前記処理手段は、前記所定の処理を行わないことを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
  9. 撮像画面内に複数の焦点検出領域を設定し、各々の前記焦点検出領域の焦点検出を行うステップと、
    前記焦点検出の結果に基づいて、前記複数の焦点検出領域のうちから、主被写体領域の候補となる領域である第1の領域と、処理すべき領域である背景領域の候補となる領域である第2の領域とを選択するステップと、
    前記第1の領域に合焦する第1の焦点位置において撮像光学系で形成される第1の光学像を撮像して第1の画像データを生成し、前記第2の領域に合焦する第2の焦点位置において前記撮像光学系で形成される第2の光学像を撮像して第2の画像データを生成するステップと、
    前記第1の画像データと前記第2の画像データとに基づいて、前記処理すべき領域を判別するステップと、
    前記処理すべき領域の判別の結果に基づいて、少なくとも前記第1の画像データに所定の処理を行うステップとを備え、
    前記第1の領域と前記第2の領域とを選択するステップでは、前記第1の領域に対して所定の深度差の範囲内の前記焦点検出領域のうち、焦点検出結果が所定の条件を満たす前記焦点検出領域の数に基づいて前記第2の領域を選択し、前記所定の深度差の範囲内の前記焦点検出領域のうち、前記所定の深度差の範囲内の無限遠側にピントの合う前記焦点検出領域に対して第1の所定深度の範囲内にある前記焦点検出領域の数が第1の所定数より大きくかつ最大である場合、前記無限遠側にピントの合う前記焦点検出領域を前記第2の領域の第1の候補として選択し、前記第1の候補が選択されない場合は、前記所定の深度差の範囲内の前記焦点検出領域のうち、前記無限遠側にピントの合う前記焦点検出領域に対して、前記焦点検出の結果が第2の所定深度の範囲内にあり、かつ隣接する領域が第2の所定数以上ある場合、前記無限遠側にピントの合う前記焦点検出領域を前記第2の領域の第2の候補として選択する
    ことを特徴とする撮像装置の制御方法。
  10. コンピュータに、
    撮像画面内に複数の焦点検出領域を設定し、各々の前記焦点検出領域の焦点検出を行うステップと、
    前記焦点検出の結果に基づいて、前記複数の焦点検出領域のうちから、主被写体領域の候補となる領域である第1の領域と、処理すべき領域である背景領域の候補となる領域である第2の領域とを選択するステップと、
    前記第1の領域に合焦する第1の焦点位置において撮像光学系で形成される第1の光学像を撮像して第1の画像データを生成し、前記第2の領域に合焦する第2の焦点位置において前記撮像光学系で形成される第2の光学像を撮像して第2の画像データを生成するステップと、
    前記第1の画像データと前記第2の画像データとに基づいて、前記処理すべき領域を判別するステップと、
    前記処理すべき領域の判別の結果に基づいて、少なくとも前記第1の画像データに所定の処理を行うステップとを実行させるためのプログラムであって、
    前記第1の領域と前記第2の領域とを選択するステップでは、前記第1の領域に対して所定の深度差の範囲内の前記焦点検出領域のうち、焦点検出結果が所定の条件を満たす前記焦点検出領域の数に基づいて前記第2の領域を選択し、前記所定の深度差の範囲内の前記焦点検出領域のうち、前記所定の深度差の範囲内の無限遠側にピントの合う前記焦点検出領域に対して第1の所定深度の範囲内にある前記焦点検出領域の数が第1の所定数より大きくかつ最大である場合、前記無限遠側にピントの合う前記焦点検出領域を前記第2の領域の第1の候補として選択し、前記第1の候補が選択されない場合は、前記所定の深度差の範囲内の前記焦点検出領域のうち、前記無限遠側にピントの合う前記焦点検出領域に対して、前記焦点検出の結果が第2の所定深度の範囲内にあり、かつ隣接する領域が第2の所定数以上ある場合、前記無限遠側にピントの合う前記焦点検出領域を前記第2の領域の第2の候補として選択する
    ことを特徴とするプログラム。
JP2013171255A 2013-08-21 2013-08-21 撮像装置、その制御方法およびプログラム Expired - Fee Related JP6223059B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013171255A JP6223059B2 (ja) 2013-08-21 2013-08-21 撮像装置、その制御方法およびプログラム
US14/463,722 US9300867B2 (en) 2013-08-21 2014-08-20 Imaging apparatus, its control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013171255A JP6223059B2 (ja) 2013-08-21 2013-08-21 撮像装置、その制御方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2015040941A JP2015040941A (ja) 2015-03-02
JP2015040941A5 JP2015040941A5 (ja) 2016-09-29
JP6223059B2 true JP6223059B2 (ja) 2017-11-01

Family

ID=52480025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013171255A Expired - Fee Related JP6223059B2 (ja) 2013-08-21 2013-08-21 撮像装置、その制御方法およびプログラム

Country Status (2)

Country Link
US (1) US9300867B2 (ja)
JP (1) JP6223059B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6249825B2 (ja) * 2014-03-05 2017-12-20 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
KR102269598B1 (ko) * 2014-12-08 2021-06-25 삼성전자주식회사 배경화면의 내용에 대응하여 객체를 배열하는 방법 및 장치
KR102328098B1 (ko) * 2015-02-13 2021-11-17 삼성전자주식회사 전자장치의 초점 검출 장치 및 방법
CN108965686B (zh) * 2017-05-17 2021-11-02 中兴通讯股份有限公司 拍照的方法及装置
JP6828587B2 (ja) * 2017-05-22 2021-02-10 トヨタ自動車株式会社 画像処理システム、画像処理方法、情報処理装置及び記録媒体
WO2019060023A1 (en) * 2017-09-22 2019-03-28 Visa International Service Association METHOD FOR FACIAL ANTI-USURPATION USING DIFFERENCES IN IMAGE PROPERTIES
JP7154858B2 (ja) 2018-07-26 2022-10-18 キヤノン株式会社 撮像装置
US11516429B2 (en) * 2020-04-22 2022-11-29 Grass Valley Limited System and method for image format conversion using 3D lookup table approximation
US11381729B1 (en) * 2021-01-08 2022-07-05 Hand Held Products, Inc. Systems, methods, and apparatuses for focus selection using image disparity

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089316A (ja) * 1998-09-14 2000-03-31 Minolta Co Ltd カメラ
JP2001249266A (ja) * 2000-03-02 2001-09-14 Olympus Optical Co Ltd カメラの測距装置
JP2001352440A (ja) * 2000-06-07 2001-12-21 Olympus Optical Co Ltd 画像処理装置
JP4665718B2 (ja) * 2005-10-28 2011-04-06 株式会社ニコン 撮影装置
CN101297545B (zh) * 2005-10-28 2012-05-02 株式会社尼康 摄影装置、图像处理装置
JP2008294785A (ja) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd 画像処理装置、撮像装置、画像ファイル及び画像処理方法
JP2009027298A (ja) * 2007-07-18 2009-02-05 Ricoh Co Ltd 撮像装置および撮像装置の制御方法
JP4866317B2 (ja) * 2007-08-23 2012-02-01 株式会社リコー 撮像装置及び撮像装置の制御方法
JP2011043633A (ja) * 2009-08-20 2011-03-03 Canon Inc 焦点調節装置、及び焦点調節方法
JP5657343B2 (ja) * 2010-10-28 2015-01-21 株式会社ザクティ 電子機器
JP5831033B2 (ja) * 2011-08-16 2015-12-09 リコーイメージング株式会社 撮像装置および距離情報取得方法
JP5871590B2 (ja) * 2011-11-30 2016-03-01 キヤノン株式会社 撮像装置、及びその制御方法

Also Published As

Publication number Publication date
US9300867B2 (en) 2016-03-29
JP2015040941A (ja) 2015-03-02
US20150054978A1 (en) 2015-02-26

Similar Documents

Publication Publication Date Title
JP6223059B2 (ja) 撮像装置、その制御方法およびプログラム
KR101521441B1 (ko) 촬상장치, 촬상장치의 제어 방법, 및 기억매체
US10291854B2 (en) Image capture apparatus and method of controlling the same
JP4582423B2 (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP6267502B2 (ja) 撮像装置、撮像装置の制御方法、及び、プログラム
JP7285791B2 (ja) 画像処理装置、および出力情報制御方法、並びにプログラム
JP2012044564A (ja) 撮像装置
JPWO2013047405A1 (ja) 画像処理装置及び方法
US9071766B2 (en) Image capturing apparatus and control method thereof
JP6261205B2 (ja) 画像処理装置
JP2010279054A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP6471222B2 (ja) 画像処理装置、画像処理方法およびプログラム
US10104323B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP2010154306A (ja) 撮像制御装置、撮像制御プログラム及び撮像制御方法
JP7246894B2 (ja) 撮像装置およびその制御方法
JP6450107B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2023033355A (ja) 画像処理装置およびその制御方法
JP5871590B2 (ja) 撮像装置、及びその制御方法
JP7475846B2 (ja) 情報処理装置、撮像装置、情報処理方法および撮像装置の制御方法
JP2018054815A (ja) 領域判別装置、その制御方法、および制御プログラム、並びに撮像装置
JP2014138378A (ja) 撮像装置、その制御方法、および制御プログラム
JP7458723B2 (ja) 画像処理装置、撮像装置、制御方法、およびプログラム
US20150156408A1 (en) Imaging apparatus, method for controlling the same, and recording medium
JP5854801B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2019067268A (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160812

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171003

R151 Written notification of patent or utility model registration

Ref document number: 6223059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees