JP6611531B2 - 画像処理装置、画像処理装置の制御方法、およびプログラム - Google Patents

画像処理装置、画像処理装置の制御方法、およびプログラム Download PDF

Info

Publication number
JP6611531B2
JP6611531B2 JP2015183365A JP2015183365A JP6611531B2 JP 6611531 B2 JP6611531 B2 JP 6611531B2 JP 2015183365 A JP2015183365 A JP 2015183365A JP 2015183365 A JP2015183365 A JP 2015183365A JP 6611531 B2 JP6611531 B2 JP 6611531B2
Authority
JP
Japan
Prior art keywords
image
display
image processing
processing apparatus
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015183365A
Other languages
English (en)
Other versions
JP2017060010A5 (ja
JP2017060010A (ja
Inventor
信彦 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015183365A priority Critical patent/JP6611531B2/ja
Priority to US15/264,714 priority patent/US10148862B2/en
Publication of JP2017060010A publication Critical patent/JP2017060010A/ja
Publication of JP2017060010A5 publication Critical patent/JP2017060010A5/ja
Application granted granted Critical
Publication of JP6611531B2 publication Critical patent/JP6611531B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、プレノプティック方式の撮像装置における合焦領域の表示制御に関する。
近年、撮像光学系に新たな光学素子を追加し、複数視点からの画像を取得し、取得した画像に対して画像処理を施すことにより、撮像後にピント位置を調節するライトフィールドフォトグラフィ(非特許文献1)という技術が発展している。
ライトフィールドフォトグラフィは、リフォーカスと呼ばれる機能を備える。ライトフィールドフォトグラフィは、リフォーカスによる撮像後のピント調整が可能なので、撮像時のピント調整の失敗を、撮像後の画像処理で補うことができる利点がある。さらに、1枚の撮像画像から、撮像装置が捕捉したさまざまな被写体にピントを合わせた画像を撮像後に取得することができるため、撮像回数を減らす事ができるという利点もある。
ライトフィールドフォトグラフィで用いられる撮像装置として、メインレンズの後ろにマイクロレンズアレイを配置したプレノプティックカメラ(Plenoptic Camera)が知られている。プレノプティックカメラでは、通常の撮像装置において撮像素子(センサ)が配置される位置に、マイクロレンズアレイが配置される。このような光学素子の配置により、メインレンズの右部を通過してきた光は撮像素子の左側に、メインレンズの左部を通過してきた光は撮像素子の右側に当たることになる。すなわち、通常の撮像装置ではメインレンズを通過してきた光は撮像素子に1点で集光されるが、プレノプティックカメラではメインレンズを通過してきた光を、マイクロレンズで右側からの光と左側からの光とに分離する。その結果、上記のプレノプティックカメラは、被写体を左側から見た画像と、被写体を右側から見た画像のように、多視点画像を取得することができる。
ところで、プレノプティックカメラのような、リフォーカス機能を備えるライトフィールドフォトグラフィにおいても、撮像時に被写体にピントを合わせることは依然として重要である。これは、リフォーカスが、複数視点で撮像された複数画像における画素値を積算して行われることに起因する。撮像レンズの被写界深度外の被写体はボケて撮像されるので、ボケて撮像された画像の画素値を積算しても、リフォーカスした画像を撮像後に取得することが困難になるためである。
プレノプティックカメラにおけるピント確認方法が、特許文献1に開示されている。特許文献1の手法によれば、プレノプティック方式の撮像装置によって撮像された複数の画像から、1つの画像が選択される。選択された画像はカメラ背面液晶などに表示され、ユーザは目視によりピントが合った被写体を確認することができる。
特開2012−142918号公報
Ren.Ng、他7名,"Light Field Photography with a Hand-Held Plenoptic Camera",Stanford Tech Report CTSR 2005-02
プレノプティック方式の撮像装置に限らず、撮像装置におけるピント位置の確認は、図1に示されるようにファインダー中央部に表示される焦点検出枠を目視することにより行われるものがある。例えば、図1に示されるファインダー表示画像において、ユーザは、太枠などで強調表示されている焦点検出枠を目視することにより、被写体のピント位置を確認することができる。
しかしながら、焦点検出枠の合焦状態を確認しても、焦点検出枠群でカバーされない領域の合焦状態は、直感的に分かり難いという課題がある。例えば、図1のファインダー表示画像の例では、人物の顔位置に対応する焦点検出枠が強調表示されているため、「顔にピントが合っているならばだいたい人物にピントが合っているだろう」などの解釈を行う必要があり、ユーザの負担となっていた。
また、焦点検出枠群をファインダー表示画像全体に拡張し、合焦状態にある被写体と重畳する焦点検出枠を強調表示することにより、ユーザに被写体のピント位置を提示する方法も考えられる。
しかしながら、撮像画像のコントラスト情報を解析し、コントラストが高い被写体の領域に対応する焦点検出枠を強調表示する撮像装置では、コントラストを解析する対象となる画像領域が拡大されてしまい、合焦状態の被写体検出の精度が低下してしまう。
本発明に係る画像処理装置は、視点の異なる多視点画像を取得可能な撮像手段から得られた画像を示手段に表示する画像処理装置であって、記多視点画像に基づいて、画素ごと差量を示す視差マップを導出する出手段と、前記導出された視差マップに基づいて、前記前多視点画像において合焦している被写体の領域を合焦領域として、前記合焦領域と当該合焦領域以外の領域とが区別可能な表示画像を生成し、前記表示手段に前記表示画像を表示させる表示制御手段と、を有する。
本発明の撮像装置よれば、写体の合焦領域を直感的に分かりやすく確認することができる。
従来技術におけるファインダー表示画像の一例を示す図である。 実施形態における撮像装置の構成の一例を示す図である。 実施形態における撮像光学系の構成の一例を示す図である。 実施形態における光線分離の一例を示す図である。 実施形態における画像処理部の機能ブロックの一例を示す図である。 実施形態における表示画像生成処理フローの一例を示す図である。 実施形態における多視点の画像の一例を示す図である。 実施形態における画像の組み合わせを定義した情報の概念図である。 実施形態における視差マップの一例を示す図である。 実施形態における領域画像の一例を示す図である。 実施形態における境界線画像の一例を示す図である。 実施形態における表示画像の一例を示す図である。 実施形態における表示画像の一例を示す図である。 別実施形態における表示画像の一例を示す図である。
以下、本発明を実施するための形態について図面を参照して説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。
図2は、本実施形態に係るプレノプティック方式の撮像装置(カメラ)1の主要な構成要素を示す図である。
撮像部101は、ズームレンズ、マイクロレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、Rカットフィルタ、カラーフィルタ、及び、CMOSやCCDといったセンサなどから構成され、被写体の光量を検知する。撮像部101では視点の異なる多視点画像を得ることができるが、詳細は後述する。なお、光学ローパスフィルタはカラーフィルタを採用する撮像系において偽色の原因である高周波パターンを低減するために配設されており、偽色の原因となる周波数付近の入力パターンの振幅を低減する。
A/D変換部102は、検知された被写体の光量をデジタル値に変換する。
画像処理部103は、変換されたデジタル値に対し各種の画像処理を行って、デジタル画像を生成する。画像処理部103の詳細については後述する。
D/A変換部104は、生成されたデジタル画像に対しアナログ変換を行う。
エンコーダ部105は、生成されたデジタル画像をjpegやmpegなどのファイルフォーマットに変換する。
メディアI/F106は、PCその他メディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)につなぐためのインターフェースである。
CPU107は、各部を統括的に制御するプロセッサである。なお、本実施形態のCPU107は、画像処理部103から出力される表示画像を、表示部113に表示させる表示制御手段として機能する。また、本実施形態のCPU107は、画像処理部103から出力され、表示手段113において表示される画像、および当該画像の生成に用いられる各種データを、記録メディアに記録させる記録手段として機能する。
ROM108は、CPU107で実行される制御プラグラム等を格納している。
RAM109は、CPU107の主メモリ、ワーク領域等として機能する。
撮像系制御部110は、フォーカスを合わせる、シャッターを開く、絞りを調節するなどの、CPU107からの指示に基づいた撮像系の制御を行う。
操作部111は、ボタンやモードダイヤルなどが該当し、これらを介してユーザ指示が入力される。
キャラクタジェネレーション部112は、文字やグラフィックなどを生成する。
表示部113は、キャラクタジェネレーション部112やD/A変換部104から受信した撮像画像や文字の表示を行う。表示部113には一般的に液晶ディスプレイが広く用いられる。また、表示部113は、タッチスクリーン機能を有していても良く、該タッチスクリーンを用いたユーザ指示を操作部111の入力として扱うことも可能である。
次に、本実施形態における撮像部101の詳細について図3を参照して説明する。図3に示される撮像部101の模式図は、撮像部101を上部から見た模式図である。撮像部101は、メインレンズ201と、マイクロレンズアレイ202と、センサ203をと含むプレノプティック方式の撮像光学系により構成される。合焦被写体204から出射した光は、メインレンズ201により結像面206に結像する。図3に示される通り、合焦被写体204の左右から出射しメインレンズ201を通過する光線207と、光線208とが、結像面206において一点に結像している事が分かる。通常のカメラでは、センサ203を結像面206の位置に配置して被写体像を記録する。その場合、合焦被写体204の像は光線207の光量と、光線208の光量との和により表される。
一方、本実施形態における撮像部101の構成では、結像面206にセンサ203ではなくマイクロレンズアレイ202を配置する。1つのマイクロレンズは結像面206に結像した光線を2方向に分離する機能を有する。つまりマイクロレンズアレイ202は視点分離素子と言える。分離された光線は、マイクロレンズアレイ202の後部に配置されるセンサ203により記録される。図3に示される通り、光線207は画素209に、光線208は画素210にそれぞれ受光される。センサ203における画素209、210以外の画素においても、同様に被写体から出射した光はマイクロレンズの働きにより左右に分離して受光される。
合焦被写体204から照射された左側からの光線を受光する画素群211、及び合焦被写体204から照射された右側からの光線を受光する画素群212から別々に画像を生成すると、合焦被写体204を左右から見た2つの多視点画像が得られる。このとき、左側から見た画像および右側から見た画像に対応する視点は、それぞれ点213および点214となる。実際にはセンサ203と、マイクロレンズアレイ202とは、縦方向および横方向に二次元に配列されているため、図4に示されるように、被写体からの光線は例えば4方向に分離して記録される。従って1度の撮像で被写体を右上、左上、右下、左下の4方向から見た多視点画像を記録することができる。以上が、視点の異なる多視点画像を取得可能なプレノプティック方式の撮像部101の構成と、これら構成によってもたらされる機能である。
次に、本実施形態における画像処理部103の詳細について図5を参照して説明する。図5は、画像処理部103の内部構成のうち、表示画像の生成に関する構成を示す図である。本実施形態の画像処理部103は、画像取得部301と、視差量導出部302と、合焦領域特定部303と、表示画像生成部304とで構成される。その他画像処理部103における不図示の構成要素として、ノイズ低減部、エッジ強調部、色変換部、ガンマ変換部などが存在するが、本実施形態では簡略化のために説明を省略する。本実施形態の画像処理部103は、図5に示される各部によって、A/D変換部102からの入力信号(デジタル画像データ)に対して所定の処理を施し、表示部113で表示される表示画像データ(スルー画像データ)を生成する。生成された表示画像データはまた、メディアI/F106を介して各種メディアに記録される。
また、本実施形態においては、画像処理部103が、撮像装置1内の一構成要素となる実施例を説明しているが、別実施例ではこの画像処理部103の機能をPCやマイクロチップ等の外部装置で実現してもよい。すなわち、本実施形態における画像処理部103は、撮像装置の一機能としても、又は独立した画像処理装置としても実現し得るものである。
次に、画像処理部103によって実行される、表示画像の生成処理フローを、図6を参照して説明する。このフローはROM108に記憶されるプログラムコードが、RAM109に展開されCPU107によって実行される。
S401において、画像取得部301は、撮像部101からA/D変換部102を介して多視点画像を取得する。本実施形態において、画像取得部301が取得する多視点画像の一例を図7に示す。図7に示される多視点画像例では、被写体を右上、左上、右下、左下の4方向から見た複数の画像が示される。
S402において、視差量導出部302は、S401で取得した視点の異なる多視点画像から、多視点画像における被写体についての視差量を導出する。なお、本実施形態において、視差量とは、多視点画像における被写体についてのシフト量に相当する。図7に示される4つの画像に対応する画像データを、それぞれI1(x,y)、I2(x,y)、I3(x,y)、I4(x,y)と表す。ここでIi(x,y)は、i番目の画像データにおける、2次元座標の画素位置x,yの画素値を示す。視差量導出部302は、多視点画像における画素ごとの標準偏差を求めることにより、視差量Id(x,y)を導出する。
式(1)で導出される視差量Id(x,y)において、視差量Id(x,y)の値が小さい場合は、当該画素位置(x,y)に映っている被写体は合焦状態にあることを意味する。
この事は以下の説明により理解される。図3に示される通り、合焦被写体204からの光は結像面206に位置するマイクロレンズアレイ202により、画素209と、画素210とに分離して記録される。画素209と、画素210とから読み出される値は同一の画素位置(x,y)に対応し、それら画素値は同一の被写体から出射した光を記録したものであるため、それぞれの画素値は同じになるか、差異が小さくなる。この特徴は画素209、210以外の画素についても同様である。従って合焦状態にある被写体において、視差量Id(x,y)はゼロになるか、小さな値となる。
なお、視差量は少なくとも2つの視点の画像データ間の画素値の差異を示せばよく、標準偏差により視差量Id(x,y)を導出する態様に必ずしも限定されない。例えば、多視点画像の中から2以上の異なる画像を有する組み合わせを選択し、選択された2つの画像データに対して公知のブロックマッチング手法により画素値を比較し、当該比較結果から視差量Id(x,y)を導出してもよい。あるいはまた、表示画像の生成を高速化するため、4つの異なる多視点画像の中から2以上の異なる画像を有する組み合わせを選択し、選択された2つの画像データにおける画素値の差分を算出して演算量を低減してもよい。その他、4つの異なる多視点画像のうち、左上画像および右上画像の差分と、左下画像および右下画像の差分とを平均することにより視差量Id(x,y)を導出してもよい。
あるいはまた、撮像部101の光学特性に応じて、視差画像生成の演算方法を以下のように変更してもよい。図3に示される撮像部101は、合焦被写体204から出射した光がメインレンズ201により屈折され結像面206で一点に集光されている。図3に示される撮像部101は、いわば理想的なレンズの光学特性を想定しているものといえる。しかしながら、メインレンズ201の光学特性は、実際には理想的なレンズの光学特性とは異なり、例えば左側からの光線の光量と、右側からの光線の光量との間で若干の差異が発生し、撮像素子を介して取得される画像にも若干の差異が発生する場合がある。そのような差異があるにも関わらず、式(1)により視差量Id(x,y)を生成すると、合焦状態にある被写体でも視差量Id(x,y)は大きな値となってしまう可能性がある。そのため、視差量Id(x,y)生成の際、視差量導出に用いるべき2以上の異なる画像の組み合わせを定義した情報を予めROM108に保持させ、視差量導出部302は、当該情報を参照して視差量を導出してもよい。
図8は、ROM108に保持される、視差量導出に用いる2以上の画像を有する組み合わせを定義した情報の概念図である。図8の定義情報において、2以上の画像を有する組み合わせは、それぞれの分割領域ごとの画像の撮像特性(明るさ、色など)に基づいて定義されている。例えば、本実施例におけるメインレンズ201の光学特性は、下側からの光線の光量と、上側からの光線の光量とで若干の差異を発生させてしまうものとする。この場合、画像処理部103が取得する多視点画像において、左上画像と右上画像との撮像特性は類似するものの、左上画像と左下画像との撮像特性は類似しない現象が発生する可能性がある。そのため、上記のような光学特性を備える撮像部101から得られる多視点画像については、多視点画像における中央上部の分割領域が、左上画像と右上画像の2つの画像の組み合わせに基づいて視差量が導出されることが望ましい。多視点画像におけるそれぞれの撮像特性は、撮像部101の設計データに基づいて好適に導出することができる。また、図8に示される定義情報はあくまでも一例であり、適宜設定され得る。
次に、図9に本実施形態における視差マップ500の一例を示す。図9に示される視差マップ500は、S402で導出された視差量に基づくものであり、多視点画像間における視差の大きさを明度で表現した画像である。本実施形態の視差マップ500において、暗く表示されている領域501は、式(1)の演算結果が小さい値であること、すなわち多視点画像間の差異が小さい事を示す。一方、明るく表示されている領域502は、式(1)の演算結果が大きい値であること、すなわち多視点画像間の差異が大きい事を示す。図9に示される視差マップ500の例では、人物が合焦状態にあるため、人物の領域における差分値が小さい。そのため、撮像装置1が捕捉している人物の領域は、視差マップ500において暗く表示される。
再び図6のフローチャートに戻り、S403において、合焦領域特定部303は、S402で導出された視差量から合焦状態の被写体の領域である合焦領域を特定する。具体的には、合焦領域特定部303は、合焦状態にある被写体の領域を示す合焦領域データを生成する。合焦領域データは、視差量Id(x,y)に対して所定の閾値処理が行われることにより得られ、具体的には次式の閾値処理が視差量Id(x,y)に対して施されることにより得ることができる。
式2に示される通り、視差量が閾値(threshold)以下の値に対しては「1」が、それ以外の値に対しては「0」が割り当てられる。本実施形態の閾値thresholdは、多視点画像が撮像部101によって撮像される際に、画像に混入が予測されるノイズ量に基づき設定されることが好適である。これは撮像装置1への入力画像にはノイズが混入するため、たとえ被写体の合焦領域であっても式1により導出される値はゼロにならない。そのため、視差量を導出する場合、予め測定などにより取得したノイズの標準偏差をthresholdに設定し、式1により導出される値と比較する事が好適である。さらに、入力画像に混入するショットノイズ量は、入力画像の輝度が大きいほど多くなる傾向がある。そのため、多視点画像(図7)の画素値が大きい領域ではthresholdは大きく、画素値が小さい領域ではthresholdは小さく設定されることが好適である。
図10は、S403で生成された合焦領域データに基づいて生成された領域画像600である。図10に示される領域画像600において、白く示されている領域は、Ia(x,y)=1となる合焦領域601を示す。一方、黒く示されている領域は、Ia(x,y)=0となる非合焦領域602を示す。なお、上記式2において、視差量が閾値以下の値に対しては「255」を、それ以外の値に対しては「0」などのように、8bit階調に量子化された画素値に対応する値を割り当ててもよい。このように構成することにより、合焦領域データから容易に領域画像600を生成することができる。
再び図6のフローチャートに戻り、S404において、表示画像生成部304は、撮像部101から得られた入力画像と、S403で生成された合焦領域データとから、表示部113において表示される表示画像を生成する。本実施形態において、表示画像生成部304は、例えば領域画像600から合焦領域601と非合焦領域との境界を示す境界線画像を生成し、生成した境界線画像を入力画像にオーバーレイすることにより表示画像データを生成する。領域画像600から境界線画像を生成する方法として、S403で生成された領域画像600に対して、ラプラシアンフィルタなどのエッジ検出フィルタを適用することにより、図11に示される境界線画像700を得る方法が例示される。図11に示される境界線画像700は、合焦領域601と非合焦領域との境界を示す境界線701を含み、境界線701は人物輪郭を示す境界線となっている。
次いで、CPU107は、境界線画像700を入力画像にオーバーレイして、表示部113に表示させる。CPU107は、S403で特定された合焦領域を、当該合焦領域とは異なる態様で、表示部113に表示させる。図12は、本実施形態における、表示部113に表示される表示画像800の一例を示す図である。撮像部101に捕捉されている被写体のうち、ピントの合っている合焦状態の被写体が境界線で囲われて強調表示される。本実施形態では、S404で生成される表示画像800は、表示部113にライブビュー表示される他、不図示のファインダーに表示され、ユーザは各被写体の合焦状態を確認することができる。ユーザは、図12の表示画像800を視認することにより、被写体の合焦領域は人物を捕捉している部分であることを直感的に分かりやすく確認することができる。
このような表示画像800は、例えば、撮像装置1の不図示のシャッターが半押しされることに応じて、焦点検出枠と同時にファインダーに表示されてもよい。あるいはまた、ユーザによるタッチスクリーン(表示部113)への操作が検出されることに応じて、表示画像800が表示部113に表示される構成であってもよい。
図13は、中心に捕捉される被写体が人物から建物にシフトされた後、シャッターへの半押しまたはタッチスクリーン(表示部113)への操作がされた場合に、表示部113に表示される表示画像の一例を示したものである。このとき、建物を捕捉する合焦検出枠が強調表示されるだけでなく、CPU107は、建物全体が合焦状態であることを示すために、建物の輪郭を表示する境界線画像をオーバーレイして、表示部113に表示する。さらに、合焦検出枠群と重複していなくとも、多視点画像間で視差量が所定の閾値以下の合焦領域であれば、当該合焦領域以外の領域とは異なる態様で表示される。例えば、表示画像900のように、合焦検出枠群と重複しない建物の全部または一部も、境界線で囲われた強調表示がされ得る。
また、変形例においては、シャッターへの半押しなどのトリガ操作を必要とすることなく、表示画像生成部304によって表示画像が生成され、CPU107が表示画像をファインダーなどの表示部113に表示させる態様でもよい。このように構成することにより、ユーザは、例えば人物にピントを合わせて撮像したい場合、表示画像900(図13)を視認することにより、現在合焦状態にある被写体は人物ではなく建物であることを直感的に確認することができる。そのため、ユーザは人物にピントを合わせて撮像するために、必要な指示を迅速に撮像装置1に入力することができる。
さらに、別実施形態において、CPU107は、S403で生成された合焦領域データに基づいて、合焦領域と合焦領域以外とで輝度を異ならせて、表示部113に表示画像を表示させてもよい。例えば、表示画像生成部304は、撮像部101から得られた入力画像と、領域画像600との、それぞれ対応する画素位置の画素値を平均することにより、合焦状態の被写体が明るく表示される表示画像を生成することができる。
このとき、撮像部101から得られる入力画像は、S401で取得される多視点画像(図7)のうち任意の視点の画像であればよい。あるいはまた、入力画像は、S401で取得される多視点画像からそれぞれの画素値を平均することにより取得するなど、多視点画像を合成して得られた合成画像であってもよい。
さらに、表示手段113において表示される表示画像、および当該画像の生成に用いられる各種データ(多視点画像データ、視差マップ画像データ、領域画像データ、境界線画像データなど)を、記録メディアに記録することができる。かかる構成により、視差マップ画像データや領域画像データなどを、撮像後の画像編集に容易に活用することができる。
以上説明した通り、本実施形態におけるプレノプティック方式の撮像装置1は、被写体の合焦領域を、当該合焦領域とは異なる態様で、表示部113において表示することができる。表示部113などに表示される表示画像から、ユーザは撮像装置1が捕捉している被写体の合焦領域を直感的に分かりやすく確認することができる。
[その他の実施例]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1・・・・撮像装置
101・・撮像部
103・・画像処理部
301・・画像取得部
302・・視差量導出部
303・・合焦領域特定部
304・・表示画像生成部

Claims (19)

  1. 視点の異なる多視点画像を取得可能な撮像手段から得られた画像を示手段に表示する画像処理装置であって、
    記多視点画像に基づいて、画素ごとに視差量を示す視差マップを導出する出手段と、
    前記導出された視差マップに基づいて、前記多視点画像において合焦している被写体の領域を合焦領域として、前記合焦領域と当該合焦領域以外の領域とが区別可能な表示画像を生成し、前記表示手段に前記表示画像を表示させる表示制御手段と、
    を有する画像処理装置。
  2. 前記表示制御手段は、前記視差マップのうち前記視差量が閾値以下である被写体の領域を前記合焦領域として、前記視差量が閾値より大きい前記合焦領域以外の領域と区別可能なように、前記表示画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記表示制御手段は、前記視差マップに基づいて、前記合焦領域と前記合焦領域以外の領域との境界がわかるように前記表示画像を生成することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記表示手段で表示される画像は、前記多視点画像のうち任意の視点の画像である
    ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記表示手段で表示される画像は、前記多視点画像を合成して得られた合成画像である
    ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  6. 前記出手段は、
    前記多視点画像における画素ごとの標準偏差を求めることにより前記視差量を示す前記視差マップを導出する
    ことを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  7. 前記出手段は、
    前記多視点画像の中から2以上の異なる画像を有する組み合わせを選択し、前記選択された2以上の画像における被写体についての前記視差量を示す前記視差マップを導出する
    ことを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  8. 前記2以上の画像を有する組み合わせは、前記多視点画像における分割領域ごとの撮像特性に応じて選択される
    ことを特徴とする請求項に記載の画像処理装置。
  9. 前記値は、前記多視点画像が前記撮像手段によって画像処理される際に、混入が予測されるノイズ量に基づいて設定される
    ことを特徴とする請求項に記載の画像処理装置。
  10. 前記表示制御手段は、
    前記生成された合焦領域を、前記合焦領域の境界を示す境界線画像をオーバーレイして、前記表示手段において表示する
    ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 前記表示制御手段は、
    前記生成された合焦領域を、当該合焦領域以外の領域とは輝度を異ならせて、前記表示手段において表示する
    ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12. 前記表示制御手段は、
    前記視差マップに対して閾値以下か否かにより、前記合焦領域か否かを示す合焦領域データを生成し、
    前記合焦領域データに対してエッジ検出フィルタを適用し、
    前記エッジ検出フィルタを適用した結果から前記表示画像を生成する
    ことを特徴とする請求項11に記載の画像処理装置。
  13. 前記表示手段において表示される画像、および当該画像の生成に用いられるデータを、記録メディアに記録する記録手段をさらに備える
    ことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
  14. 前記視差量は、前記多視点画像における領域に含まれる複数の画素の画素値に基づいて算出されることを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。
  15. 前記視差マップは、前記多視点画像と同じ画素数であることを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。
  16. 前記表示制御手段は、前記撮像手段のシャッターが半押しされることに応じて、前記表示手段に前記表示画像を表示させる
    ことを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
  17. 前記表示手段は、ユーザによるタッチ操作を検知可能であり、
    前記表示制御手段は、前記表示手段に対するタッチ操作に応じて、前記表示画像を前記表示手段に表示させる
    ことを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
  18. 視点の異なる多視点画像を取得可能な撮像手段から得られた画像を示手段に表示する画像処理装置の制御方法であって、
    記多視点画像に基づいて、画素ごとに視差量を示す視差マップを導出する出ステップと、
    前記導出された視差マップに基づいて、前記多視点画像において合焦している被写体の領域を合焦領域として、前記合焦領域と当該合焦領域以外の領域とが区別可能な表示画像を生成し、前記表示手段に前記表示画像を表示させる表示ステップと、
    を有する画像処理装置の制御方法。
  19. コンピュータを、請求項1から17のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2015183365A 2015-09-16 2015-09-16 画像処理装置、画像処理装置の制御方法、およびプログラム Active JP6611531B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015183365A JP6611531B2 (ja) 2015-09-16 2015-09-16 画像処理装置、画像処理装置の制御方法、およびプログラム
US15/264,714 US10148862B2 (en) 2015-09-16 2016-09-14 Image capturing apparatus, method for controlling image capturing apparatus focus area display, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015183365A JP6611531B2 (ja) 2015-09-16 2015-09-16 画像処理装置、画像処理装置の制御方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2017060010A JP2017060010A (ja) 2017-03-23
JP2017060010A5 JP2017060010A5 (ja) 2018-09-13
JP6611531B2 true JP6611531B2 (ja) 2019-11-27

Family

ID=58237541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015183365A Active JP6611531B2 (ja) 2015-09-16 2015-09-16 画像処理装置、画像処理装置の制御方法、およびプログラム

Country Status (2)

Country Link
US (1) US10148862B2 (ja)
JP (1) JP6611531B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2016046642A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
CN110866874B (zh) * 2019-10-21 2021-07-30 南京大学 基于频域的去除光场重建图像中的周期噪声的方法
JP7431609B2 (ja) * 2020-02-18 2024-02-15 キヤノン株式会社 制御装置及びその制御方法及びプログラム
CN113115000B (zh) * 2021-04-12 2022-06-17 浙江商汤科技开发有限公司 地图生成方法及装置、电子设备和存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02296107A (ja) * 1989-05-10 1990-12-06 Olympus Optical Co Ltd 測距装置
JPH0926615A (ja) * 1995-07-13 1997-01-28 Olympus Optical Co Ltd ファインダ装置
JPH09204523A (ja) * 1996-01-26 1997-08-05 Hitachi Ltd 画像ずれ補正方法
JP3907891B2 (ja) * 1999-11-11 2007-04-18 富士フイルム株式会社 画像撮像装置及び画像処理装置
JP2004361809A (ja) * 2003-06-06 2004-12-24 Nikon Corp オートフォーカスカメラ
JP2011029905A (ja) * 2009-07-24 2011-02-10 Fujifilm Corp 撮像装置、方法およびプログラム
WO2011036761A1 (ja) * 2009-09-25 2011-03-31 株式会社東芝 多視点画像生成方法および装置
US20100283868A1 (en) * 2010-03-27 2010-11-11 Lloyd Douglas Clark Apparatus and Method for Application of Selective Digital Photomontage to Motion Pictures
JP5484577B2 (ja) * 2010-06-30 2014-05-07 富士フイルム株式会社 画像処理装置、撮像装置及び画像処理方法
JP5906062B2 (ja) 2010-12-17 2016-04-20 キヤノン株式会社 撮像装置およびその制御方法
EP2574065B1 (en) * 2011-01-26 2016-09-07 FUJIFILM Corporation Image processing device, image-capturing device, reproduction device, and image processing method
JP5956808B2 (ja) * 2011-05-09 2016-07-27 キヤノン株式会社 画像処理装置およびその方法
WO2012176431A1 (ja) * 2011-06-20 2012-12-27 パナソニック株式会社 多視点画像生成装置、多視点画像生成方法
JP5968107B2 (ja) * 2011-09-01 2016-08-10 キヤノン株式会社 画像処理方法、画像処理装置およびプログラム
WO2013047415A1 (ja) * 2011-09-29 2013-04-04 富士フイルム株式会社 画像処理装置、撮像装置及び視差量調整方法
JP5943785B2 (ja) * 2012-09-12 2016-07-05 キヤノン株式会社 撮像装置、撮像システム、画像処理装置、および、撮像装置の制御方法
JP6162971B2 (ja) * 2013-02-06 2017-07-12 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置及びその制御方法
JP6214236B2 (ja) * 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6028928B2 (ja) * 2013-04-16 2016-11-24 オリンパス株式会社 撮像装置及び撮像方法
JP2014236340A (ja) * 2013-05-31 2014-12-15 株式会社東芝 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置
JP6056702B2 (ja) * 2013-08-08 2017-01-11 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP6157290B2 (ja) * 2013-09-10 2017-07-05 キヤノン株式会社 再生装置、再生装置の制御方法およびプログラム
US10122994B2 (en) * 2016-11-11 2018-11-06 Disney Enterprises, Inc. Object reconstruction from dense light fields via depth from gradients

Also Published As

Publication number Publication date
US10148862B2 (en) 2018-12-04
US20170078558A1 (en) 2017-03-16
JP2017060010A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP5640143B2 (ja) 撮像装置及び撮像方法
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6029380B2 (ja) 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
JP6611531B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
US9208569B2 (en) Image processing apparatus and control method thereof capable of performing refocus calculation processing for light field data
JP5469258B2 (ja) 撮像装置および撮像方法
JP6918485B2 (ja) 画像処理装置および画像処理方法、プログラム、記憶媒体
KR102621115B1 (ko) 촬영 장치 및 촬영 장치를 이용한 초점 검출 방법
JP5882789B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN103039066A (zh) 成像装置、图像处理装置以及图像处理方法
JP6095266B2 (ja) 画像処理装置及びその制御方法
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP2017060010A5 (ja)
EP2911383B1 (en) Image processing apparatus, control method, program, and recording medium
US8537266B2 (en) Apparatus for processing digital image and method of controlling the same
JP5743769B2 (ja) 画像処理装置および画像処理方法
US11323689B2 (en) Image processing device, imaging device, image processing method, and recording medium
JP7373297B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2020085967A (ja) 画像処理装置およびその制御方法ならびにプログラム
KR101599434B1 (ko) 자동 초점 조절을 이용한 영상촬상장치의 공간감지장치 및 공간감지방법
JP2014134723A (ja) 画像処理装置、画像処理方法およびプログラム
JP2014049895A (ja) 画像処理方法
JP6833772B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
US20160094784A1 (en) Image processing apparatus, image processing method, computer program and imaging apparatus
US20180091793A1 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191029

R151 Written notification of patent or utility model registration

Ref document number: 6611531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151