JP2016225811A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2016225811A
JP2016225811A JP2015110214A JP2015110214A JP2016225811A JP 2016225811 A JP2016225811 A JP 2016225811A JP 2015110214 A JP2015110214 A JP 2015110214A JP 2015110214 A JP2015110214 A JP 2015110214A JP 2016225811 A JP2016225811 A JP 2016225811A
Authority
JP
Japan
Prior art keywords
image
parallax
images
pixel
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015110214A
Other languages
English (en)
Inventor
澤田 圭一
Keiichi Sawada
圭一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015110214A priority Critical patent/JP2016225811A/ja
Priority to US15/165,008 priority patent/US20160353079A1/en
Publication of JP2016225811A publication Critical patent/JP2016225811A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

【課題】 立体表示画像を二次元画像として観察した場合の違和感を低減する。
【解決手段】 画像処理装置が、同じ被写体を異なる視点から見た場合の複数の画像を表わす多視点画像データを取得する取得手段と、前記多視点画像データに対して、前記複数の画像の間の視差の大きさに応じたぼかし処理を行う処理手段と、前記処理手段により前記ぼかし処理が行われた前記多視点画像データを用いて、前記被写体の立体視に用いる立体視画像データを生成する生成手段とを有する。
【選択図】 図9

Description

本発明は、立体表示に用いる画像データを生成する方法に関する。
複数の視点から撮像する撮像装置が存在する。特許文献1には、筐体に二つの撮像部を備えることで、左右2視点から見た画像を取得できるステレオカメラが記載されている。ステレオカメラによって取得された左右視点画像からは、3Dディスプレイに表示するための、立体視用の立体表示画像を生成することができる。
また、特許文献2には、撮像レンズを通過した光線を、該撮像レンズにおいて通過した領域ごとに撮像素子上の異なる画素に集光させることで、複数の異なる視点から見た場合の多視点画像を取得できるPlenopticカメラが記載されている。Plenopticカメラによって取得された画像からも、ステレオカメラの場合と同様に、立体表示画像を生成することができる。Plenopticカメラによって取得された多視点画像は、撮像レンズにおいて連続する複数の部分領域を開口として撮像された画像であるので、同一の被写体に対応する点像は各視点画像の間で連続性を有している。そのため、複数の視点画像を合成して生成される立体表示画像においては、各視点の画像の点像は合成され、3Dメガネなしで立体表示画像を観察した際に、各視点の画像の点像はまとまった一つの点像として知覚される。そのため、Plenopticカメラで撮像された画像から生成された立体表示画像は、3Dメガネをかけない場合は、違和感のない2D画像として観賞することが可能である。
なお、特許文献2には、Plenopticカメラにより取得された画像の間の視差を画像処理により拡大することで、立体表示画像の立体感を増幅させる技術が記載されている。
特開2012−93779号公報 特開2013−115532号公報
特許文献1に示すようなステレオカメラにより撮像された画像では、各視点画像の点像同士が連続性を有していない。そのため、ステレオカメラにより撮像された画像から生成された立体表示画像を3Dメガネをかけずに観察した場合、同じ被写体点に対応する左右視点の画像の点像はそれぞれ異なる点像として知覚され、違和感のある画像となってしまう。また、Plenopticカメラにより撮像された画像から立体表示画像を生成した場合においても、特許文献2の技術によって各視点画像の視差を拡大した場合には、3Dメガネをかけずに画像を観察した際に違和感が生じてしまう。これは各視点画像の点像同士の連続性が失われるためである。そこで本発明は、立体表示画像を二次元画像として観察した場合の違和感を低減することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、同じ被写体を異なる視点から見た場合の複数の画像を表わす多視点画像データを取得する取得手段と、前記多視点画像データに対して、前記複数の画像の間の視差の大きさに応じたぼかし処理を行う処理手段と、前記処理手段により前記ぼかし処理が行われた前記多視点画像データを用いて、前記被写体の立体視に用いる立体視画像データを生成する生成手段とを有することを特徴とする。
本発明によれば、立体表示画像を二次元画像として観察した場合の違和感を低減することができる。
実施例1に係る画像処理装置の構成を示すブロック図。 実施例1に係る撮像装置の内部構成を示す図。 Plenopticカメラの機能を説明する図。 Plenopticカメラの基線長、点像の大きさ、視差の関係を示す図。 Plenopticカメラにより撮像された点像の例を示す図。 視差拡大が点像に与える影響を示す図。 実施例1に係る画像処理装置の機能構成を示すブロック図。 実施例1に係る画像処理装置で行われる処理の流れを示すフローチャート。 実施例1に係る画像処理装置で行われるぼかし処理の流れを示すフローチャート。 実施例1に係る画像処理装置で行われるぼかし処理の概要を説明する図。 実施例1に係る画像処理装置で行われるぼかし処理の結果の例を示す図。 立体表示画像の例を示す図。 実施例2に係る撮像装置の内部構成を示す図。 ステレオカメラにより撮像された点像の例を示す図。 実施例2に係る画像処理装置で行われるぼかし処理の結果の例を示す図。
<実施例1>
本実施例では、Plenopticカメラで取得した左右視点画像の視差を拡大した画像から立体表示画像を生成する例について説明する。本実施例では、視差を拡大した左右視点画像に対して後述するぼかし処理を施し、ぼかし処理を施した左右視点画像を用いて立体表示画像を生成する。これにより、二次元画像として観察しても違和感のない立体表示画像を生成することができる。なお、ここで立体表示画像とは、画像の行毎に右視点画像と左視点画像と互い違いに表示されるラインバイライン方式や、右視点画像と左視点画像とを高速に切り替えて表示する時分割表示などの立体表示法に用いられる画像のことを示す。立体表示画像を3Dメガネを用いずに視聴した場合、視聴者には右視点画像と左視点画像とを足し合わせた二次元画像が知覚される。
図1は、本実施例に係る画像処理装置の構成の一例を示す図である。画像処理装置100は、CPU101、RAM102、ROM103、HDDI/F104、HDD105、入力部106、システムバス107により構成され、画像処理装置100には撮像装置108、外部メモリ109が接続されている。
CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス107を介して後述する各構成を統括的に制御するプロセッサである。プログラムを実行したCPU101により、後述する様々な処理が実行される。
HDDI/F104は、例えばシリアルATA(SATA)等のインタフェイスであり、二次記憶装置としてのHDD105を接続する。CPU101は、HDDI/F104を介してHDD105からのデータ読み出し、およびHDD105へのデータ書き込みが可能である。なお、二次記憶装置はHDD以外にも、光ディスクドライブ等の他の記憶デバイスを用いることができる。
入力部106は、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。CPU101は、入力部106を介して、撮像装置108、外部メモリ109(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)などからデータを取得することができる。本実施例における撮像装置108は、Plenopticカメラである。Plenopticカメラの詳細については後述する。なお、画像処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
図2は、実施例1における撮像装置108(Plenopticカメラ)の内部構成を示す図である。撮像装置108は、メインレンズ201、絞り202、シャッター203、マイクロレンズアレイ204、光学ローパスフィルタ205、iRカットフィルタ206、カラーフィルタ207、撮像素子208及びA/D変換部209を有している。以下では、メインレンズ201は一枚のレンズであるとして説明を行うが、実際はズームレンズやフォーカスレンズなどの複数のレンズから構成される。撮像装置108の被写界深度や入射光量は、絞り202を調整することにより調整可能である。マイクロレンズアレイ204は、一般的な集光用マイクロレンズとは異なる。一般的な集光用マイクロレンズでは撮像素子の各画素それぞれに一つのマイクロレンズ例えば凸レンズ)が配置されるが、マイクロレンズアレイ204では、複数画素に対して一つのマイクロレンズ(例えば、2画素に一つ)が配置される。なお、マイクロレンズアレイ204の各レンズのサイズに関わらず、上記の機能を有するレンズアレイをマイクロレンズアレイと呼ぶことにする。
図3は、実施例1における撮像装置108(Plenopticカメラ)の機能を説明するための図である。撮像装置108は、メインレンズ201上の領域のうち、領域301を通る光束と領域302を通る光束とを異なる画素に集光する機能を持つ。図3の例では、領域301を通る光束が画素303〜305(R画素)に集光され、領域302を通る光束が画素306〜308(L画素)に集光される。なお、図3では画素303〜308に入射する光束の例のみを示しているが、撮像素子208上の他の画素についても同様にR画素とL画素が存在する。R画素の出力のみを集めて画像を生成すると、領域301の中心309を視点とした画像(右視点画像)を生成でき、L画素の出力のみを集めて画像を生成すると、領域302の中心310を視点とした画像(左視点画像)を生成することができる。このように、Plenopticカメラでは、複数の異なる視点に対応する画像を取得することができる。以後、右視点画像と左視点画像をまとめて左右視点画像と呼ぶこととする。また、領域301の中心309と領域302の中心310の間の距離311を左右視点画像の間の基線長と呼ぶ。なお、メインレンズ201上の各位置を通る光が画素に集光された際の各光の強度は、それぞれが通過したメインレンズ201上の位置によって異なるため、メインレンズの領域の中心ではなく、光の強度分布の重心を視点としてもよい。なお、以後の説明では、メインレンズの各領域の中心を各画像の視点として説明するが、本発明の実施例はこれに限定されない。また、以下ではメインレンズの二つの部分領域の光線を弁別するPlenopticカメラを例に説明するが、本発明の実施例はこれに限定されない。例えば、メインレンズの領域を二つより多くの部分領域の光線を弁別するPlenopticカメラに対しても本発明は適用可能である。この場合には、各部分領域に対応する画像同士を重畳することで左右視点画像を生成して本発明を適用してもよいし、全部分領域から選択した二つの部分領域に対応する画像を左右視点画像として本発明を適用してもよい。
図4は、実施例1における撮像装置108により撮像される左右視点画像の間の基線長、各画像における点像の大きさ、および各画像の間の視差の関係を示す図である。面401は被写体側焦点面、面402はカメラ側焦点面、面403はセンサ面、点404は被写体点を示している。基線長(視点309と視点310との距離)をr、焦点距離をfとする。また、メインレンズ201と被写体側焦点面401との距離をs、メインレンズ201と被写体点404との距離をs’、メインレンズ201とカメラ側焦点面402との距離をp、メインレンズ201とセンサ面403との距離をqとする。この時、左右視点画像の間の視差d(被写体点404から出た光が視点309を通って入射する画素と視点310を通って入射する画素との距離)は、式(1)で表される。
Figure 2016225811
また、被写体点404のセンサ面403上での点像の大きさbは、式(2)で表される。
b=2d (2)
ここで、撮像装置108(Plenopticカメラ)の基線長rはメインレンズ201の大きさによって制限されるため、Plenopticカメラの基線長rはステレオカメラの基線長と比べて小さい場合が多い。式(1)、(2)から視差dは基線長rに比例する。一般に視差dが小さいほど左右視点画像を3Dディスプレイに表示した際の立体表示画像の立体感(飛び出し量や奥行き)も小さくなるので、撮像装置108で取得できる立体表示画像は立体感が小さいと言える。そこで、本実施例の画像処理装置100は画像処理によって左右視点画像の間の視差を拡大する(以下、この処理を視差拡大と呼ぶ)。視差拡大の方法としては、様々な公知技術を用いることができる。例えば、ステレオマッチングによって左右視点画像の間で互いに被写体上の同一の点に対応する画素位置を導出し、導出された画素位置同士のずれがより大きくなるように、各画素の位置を移動させる方法を用いることができる。なお、視差拡大処理の内容は本発明の主眼ではないため、これ以上の詳細な説明は省略する。
以下、視差拡大が立体表示画像に与える影響について図5および図6を示す影響について説明する。図5は、実施例1における撮像装置108によって撮像された一つの点像分布を模式的に示す図である。図5(a)は右視点画像における点像分布を、図5(b)は左視点画像における点像分布を、それぞれ示している。図5(a)と図5(b)とに示す点像を有する左右視点画像を合成して立体表示画像を生成すると、図5(a)に示す点像と図5(b)に示す点像とは合成されて同じ画像上に表示されるため、観察者からは図5(c)に示すような点像として知覚される。この場合、一つの被写体点に対応する点像が一つの点像として知覚されるため、3Dメガネを用いなくても違和感のない二次元画像として立体表示画像を観察することができる。これは、右視点画像の点像に対応する画像領域と左視点画像の点像に対応する画像領域が互いに接しているために起こる。このように、二つの点像に対応する画像領域の間に間隔がなく、合成すると連続した一つの点像となる状態を、以後「(点像同士が)連続性を有する」と称する。
一方、図6は視差拡大を行った左右視点画像における点像分布を模式的に示す図である。図6(a)は右視点画像における点像分布を、図6(b)は左視点画像における点像分布を、それぞれ示している。それぞれ、撮像装置108の光軸中心から少し外側にずれた位置に像が移動されている。このような左右視点画像を合成して立体表示画像を生成すると、図6(a)と図6(b)に示す点像がそれぞれ合成され、図6(c)に示すような点像として知覚される。このような場合では、立体表示画像を二次元画像として観察した場合に、一つの被写体点に対応する点像が二つに分離して知覚されるため、観察者にとって違和感のある画像となってしまう。これは、視差拡大処理によって左右視点画像の間の点像同士の連続性が失われたことに起因する。
以上の問題を解決するために、実施例1では、Plenopticカメラで取得した左右視点画像に視差拡大を行った画像に対して、後述するぼかし処理を施すことで、二次元画像としても違和感なく視聴できる立体表示画像を生成する方法について述べる。なお、以下において、「二次元画像として視聴できる」とは、「左右視点画像のズレによるアーティファクトの影響が小さい状態で視聴できる」ということを意味するものとする。
以下、実施例1の画像処理装置100で行われる処理について、図7に示すブロック図と図8に示すフローチャートを参照して説明する。本実施例の画像処理装置100では、CPU101が、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行することで、図7に示す各ブロックとして図8に示す処理を実行する。なお、画像処理装置100の構成はこれに限られず、図7に示す各ブロックに対応する専用の処理回路をそれぞれ備えるようにしてもよい。
ステップS801では、画像取得部701が、撮像装置108により撮像された左右視点画像を取得する。画像取得部701は、取得した左右視点画像を視差取得部702と視差拡大部703とに出力する。
ステップS802では、視差取得部702が、画像取得部701から入力された左右視点画像の各画素における視差の大きさを示す視差マップを取得する。視差マップの取得方法としては様々な方法を利用することができる。例えば、被写体に光を照射する光源と、被写体で反射された光を受光するセンサとを撮像装置108に設け、照射した光が受光されるまでの時間に基づいて被写体の距離を推定し、得られた距離情報から視差を決定してもよい。また、左右視点画像の間でブロックマッチングを行うことにより視差を決定してもよい。本実施例では、視差取得部702が、左右視点画像の間でブロックマッチングを行うことにより視差マップを取得する。視差取得部702は、左視点画像に対応する視差マップと右視点画像に対応する視差マップとを生成し、視差拡大部703に出力する。なお、ここで生成される視差マップでは、各画素について、もう一方の視点の画像において対応する画素が存在する画素位置との差の値が格納される。例えば、被写体上の一つの点に対応する画素の位置が左視点画像において(10、50)、右視点画像において(20、50)の場合は、左視点の視差マップの画素位置(10、50)に値+10が格納される。また、右視点の視差マップの画素位置(20、50)には値−10が格納される。
ステップS803では、視差拡大部703が、視差取得部702から入力された視差マップに基づいて、画像取得部701から入力された左右視点画像に対して視差拡大処理を行う。ここで行う視差拡大処理は、各画素における左右視点画像の間の視差の大きさを、所定の倍率で拡大する処理である。左視点の視差マップに格納されている視差の値をd、右視点の視差マップに格納されている視差の値を−dとする。この場合、左右視点画像の間の視差の大きさをa|d|(aは1より大きい実数)とするためには、左視点画像の画素の画素位置を−(a−1)d/2画素動かし、右視点画像の画素の画素位置を+(a−1)d/2画素動かせばよい。視差拡大部703は、各画素をシフトさせることで視差拡大を行った左右視点画像を生成し、ぼかし部704に出力する。なお、ここで視差拡大部は、左右視点画像に対応する2枚の視差マップにも視差拡大の結果を反映する。すなわち、視差マップにおける画素位置を左右視点画像と同様にシフトさせ、画素値がdであった画素の画素値をadとする。視差拡大部703は、視差拡大の結果を反映した視差マップもぼかし部704に出力する。
ステップS804では、ぼかし部704が、視差拡大部703から入力された、視差拡大が行われた左右視点画像に対してぼかし処理を行う。この処理の詳細については後述する。ぼかし部704は、ぼかし処理を行った左右視点画像を生成部705に出力する。
ステップS805では、生成部705が、ぼかし部から入力されたぼかし処理済みの左右視点画像を用いて、立体表示画像を生成し、処理を終了する。なお、ここで行う立体表示画像の生成方法としては、様々な公知の技術を利用することができる。本実施例では、左右視点画像を合成することで画像の画素行毎に右視点画像と左視点画像を切り替えるラインバイライン方式の立体表示画像を生成するものとするが、他の方法で立体表示画像を生成してもかまわない。立体表示画像の生成方法については本発明の主眼ではないので説明を省略する。
以下、ぼかし部704で行われるぼかし処理(ステップS804)の詳細について説明する。図9はぼかし部704で行われる処理の流れを示すフローチャートである。図10はぼかし部704で行われるぼかし処理の概要を示す図である。まず、図10を参照してぼかし部704で行われるぼかし処理の概要について説明する。本実施例のぼかし処理では、ぼかす対象の画像データ(以下、入力画像データと呼ぶ)の各画素の画素値をぼかして周囲の画素に広げる処理が行われる。図10において、係数群1001は各画素をぼかす際に用いる重み係数である。参照画素を中心とする3×3画素についてそれぞれ重み係数が設定されている。各重み係数は、合計が1になるように中心画素からの距離に応じて決定される。各画素をぼかす処理は、参照した画素の画素値に係数群1001に示す重み係数をかけた値を、ぼかした結果の画像データ(以下、出力画像データと呼ぶ)においてそれぞれ対応する画素の画素値に加算する処理である。具体的な例を示して説明を行う。
図10において画像1002〜1004は、5×5画素の画像である。各画素を画像1002の左上から右下方向に向かって画素1〜25とし、画素1〜25には画素値i1〜i25が格納されているとする。画像1002は、画素1をぼかし処理の対象として参照した場合を示しており、ぼかし処理の結果、画像1005に示すように、出力画像データの画素値として画素値i1に重み係数をかけた画素値が画素1、2、6、7に割り当てられる。この処理は、言いかえるとぼかし対象の画素の画素値を、ぼかし対象の画素を含む複数の画素に所定の比率で割り振る処理である。同様に、画像1003は、画素7をぼかし処理の対象として参照した場合を示しており、ぼかし処理の結果、画像1006に示すように、出力画像データの画素値として画素値i7に重み係数をかけた値が画素1〜3、6〜8、11〜13に割り当てられる。同様に、画像1003は、画素7をぼかし処理の対象として参照した場合を示しており、ぼかし処理の結果、画像1006に示すように、出力画像データの画素値として画素値i7に重み係数をかけた値が画素1〜3、6〜8、11〜13に割り当てられる。同様に、画像1004は、画素8をぼかし処理の対象として参照した場合を示しており、ぼかし処理の結果、画像1007に示すように、出力画像データの画素値として画素値i7に重み係数をかけた値が画素2〜4、7〜9、12〜14に割り当てられる。同様のぼかし処理を画素1〜25それぞれに行った結果を全て足し合わせたものを、出力画像データとする。なお、ここで用いる重み係数の値や広がりの大きさは、各画素に対応する視差の大きさに基づいて適宜変更するものとする。この処理により、対応する被写体の視差ごとに適切なぼかし量が設定され、ぼかし処理後の画像が自然な画像となる。
以下、ぼかし部704で行われるぼかし処理の具体的な内容について、図9に示すフローチャートを参照して説明する。
ステップS901では、ぼかし部704は、入力された左右視点画像データのうち、どちらの画像データにぼかし処理を行うかを選択する。なお、ぼかし処理はどちらから先に行ってもよいが、ここでは左視点画像に対して先にぼかし処理を行うものとする。
ステップS902では、ぼかし部704が、ステップS901で選択した画像データにおいて、ぼかし対象の画素を選択する。ステップS903では、ぼかし部704が、視差拡大部703から入力された視差マップを参照して、ぼかし対象の画素に対応する視差の値を取得する。
ステップS904では、ぼかし部704が、ステップS903で取得された視差の値に基づいて、ぼかし対象の画素のぼかし処理に用いる重み係数を決定する。ここでは、公知のぼかしフィルタに用いられる係数群をそのまま用いることが可能である。例えば、以下の式(3)に示すガウシアンフィルタの係数hを用いることができる。
h(x,y)=Cexp{−(x+y)/(d/2)} (3)
ここで、x、yはぼかし対象の画素を原点とした画像中の画素位置、dはぼかし対象の画素に対応する視差、Cは適当な定数である。なお、重み係数を設定する範囲を以下の式(4)で示される範囲に制限してもよい。
Figure 2016225811
図11にぼかし処理結果のイメージを示す。図11(a)において、点像601と点像602に対しては、それぞれの画素をぼかし形状1101および1102に示すような円形にぼかす処理が行われる。その結果、ぼかし処理が終了した後の両者の点像を合成すると、図11(b)に示すように二つの点像が連続的となり、立体表示画像を二次元画像として観察した場合の違和感が小さくなる。
しかしながら、図11(a)(b)に示すように各画素を円形にぼかすようなぼかし処理を行った場合、点像に連続性を持たせるために点像を大きくぼかす必要があり、ぼかし処理による画像の変化が大きくなってしまう。そこで、以下の式(5)に示すような、各画素を楕円形にぼかすようなガウシアンフィルタの計数hを用いてぼかし処理を行ってもよい。
h(x,y)=Cexp[−{x/(d/2)+y/(b/2)}] (5)
ここで、bは点像分布501の縦方向の直径である。点像分布の縦方向の直径は、各画素における視差の値と、画像を撮像した撮像装置の光学設計値などから求めることができる。なお、重み係数を設定する範囲を以下の式(6)で示される範囲に制限してもよい。
Figure 2016225811
このような楕円形のぼかし処理を行った場合のイメージを図11(c)に示す。図11(c)において、点像601と点像602に対しては、それぞれの画素をぼかし形状1103および1104に示すような楕円形にぼかす処理が行われる。その結果、ぼかし処理が終了した後の両者の点像を合成すると図11(d)に示すような形状となり、ぼかし処理を行う前の点像からの点像の形状の変化が小さくなる。
なお、図11(b)および図11(d)に示す例では、左右の点像の繋ぎ目の角が丸くなり、合成した点像の形状が理想的な円形や楕円形と異なってしまうため、別のぼかし形状を用いてぼかし処理を行ってもよい。例えば、図11(e)に示すように各画素を半月型にぼかすような重み係数を設定してもよい。このような重み係数を設定した場合、図11(f)に示すように合成後の点像の形状は円形となり、二次元画像としてより自然に視聴可能な立体表示画像を生成することができる。このような重み係数は、重み係数を設定する領域を半月型の領域に限定することで設定が可能である。
ステップS905では、ぼかし部704が、ステップS904で決定された重み係数群を用いて、ステップS902で選択された画素にぼかし処理を行うことによって生成された画素値を、出力画像データの画素値に加算し、出力画像データを更新する。なお、出力画像データの初期値として、全ての画素の画素値は0が格納されているものとする。
ステップS906では、ぼかし部704が、ステップS901で選択された画像データの全ての画素を参照したかどうかを判定する。画像データの全ての画素を既に参照したと判定された場合は、ステップS907に進む。入力画像データの全ての画素が参照されていないと判定された場合は、ステップS902に戻り、ぼかし部704は新たな画素をぼかし対象として選択してぼかし処理を行う。
ステップS907では、ぼかし部704が、入力された画像データの全ての視点の画像に対してぼかし処理が行われたかどうかを判定する。全ての画像に対してぼかし処理が行われたと判定された場合はステップS908に進む。全ての画像に対してぼかし処理が行われていないと判定された場合は、ステップS901に戻り、まだ処理を行っていない画像をぼかし処理の対象として選択する。ステップS908では、ぼかし処理が終了した画像データを生成部705に出力して処理を終了する。
以上が、ぼかし部704で行われる処理の詳細である。以上の処理によれば、視差拡大が行われた左右視点画像に対して各画素の視差に応じた自然なぼけを付加できるため、立体表示画像を二次元画像として観察した場合の違和感を低減することができる。
図12は、ラインバイライン方式で生成された立体表示画像をディスプレイに表示する際に本発明を適用した場合のイメージを示す図である。図12(a)〜(c)は、視差拡大と本発明の適用を行っていない画像であり、図12(a)は右視点画像、図12(b)は左視点画像、図12(c)は左右視点画像から生成された立体表示画像を示している。図12(a)および(b)に示す縦線はそれぞれ連続性を有しているため、図12(c)の立体表示画像を3D眼鏡をかけずに観察した場合にも、ユーザは表示画像を1本の縦線として認識することができる。
一方、図12(d)〜(f)は、左右視点画像の視差拡大を行い、ぼかし処理は行っていない場合の画像を示す図である。図12(d)は右視点画像、図12(e)は左視点画像、図12(f)は左右視点画像から生成された立体表示画像を示している。視差拡大の影響により図12(d)および(e)に示す縦線は連続性を失っているため、図12(f)の立体表示画像において両者の間に隙間が生じ、ユーザは表示画像を一本の縦線として認識することができなくなってしまう。
図12(g)〜(i)は、視差拡大と本実施例に示すぼかし処理との両方を行った画像である。図12(g)は右視点画像、図12(h)は左視点画像、図12(i)は左右視点画像から生成された立体表示画像を示している。本実施例のぼかし処理により、左右視点画像の間で縦線の連続性が回復されているため、図12(i)の立体表示画像において、ユーザは表示画像を一本の縦線として認識できるようになる。
なお、本実施例において、ぼかし部704は同じ被写体を異なる視点から見た場合の複数の画像を表わす多視点画像データを取得する取得手段として機能する。また、本実施例において、ぼかし部704は前記多視点画像データに対して、前記複数の画像の間の視差の大きさに応じたぼかし処理を行う処理手段としても機能する。また、生成部705は、前記処理手段により前記ぼかし処理が行われた前記多視点画像データを用いて、前記被写体の立体視に用いる立体視画像データを生成する生成手段として機能する。また、視差拡大部703は、前記複数の画像の間の視差の大きさを、前記複数の画像の各画素について示す視差情報を取得する視差取得手段として機能する。
<実施例2>
実施例1では、Plenopticカメラで取得した左右視点画像の視差を拡大した画像に対してぼかし処理を施すことで、二次元画像として観察しても違和感が少ない立体表示画像を生成する方法について説明した。実施例2では、ステレオカメラで取得した左右視点画像に対してぼかし処理を施すことで、二次元画像として観察しても違和感が少ない立体表示画像を生成する場合について説明する。基本的な処理の内容は実施例1と同様であるので、実施例1との差異についてのみ説明する。
図13は、実施例2における撮像装置108(ステレオカメラ)の内部構成を示す図である。実施例2における撮像装置108は、実施例1における撮像装置の撮像部からマイクロレンズアレイ204を除いた撮像部を二つ有しており、互いに視差のついた左右視点画像を撮像により取得することができる。
図14は、実施例2における撮像装置108によって撮像された一つの点像分布を模式的に示す図である。図14(a)は視点画像の点像分布を、図14(b)は左視点画像の点像分布をそれぞれ示している。また、図14(c)は右視点画像の点像分布1401と左視点画像の点像分布1402を合成した点像分布を示している。図14(c)に示されるように、実施例2における撮像装置108(ステレオカメラ)においては、各点像はそれぞれ独立した異なる光学系を介して撮像される。つまり、二つの撮像部の開口が連続していないため、視差拡大をしない場合でも、左右視点画像の点像同士が連続性を有していない。そのため、撮像により得られた左右視点画像から生成された立体表示画像を二次元画像として観察すると、一つの被写体点に対応する点像が二つに分離して知覚されるため、観察者にとって違和感のある画像となってしまう。そこで、実施例1に示したぼかし処理により、左右視点画像をぼかして立体表示画像を生成することで、二次元画像として観察しても違和感が少ない立体表示画像を生成することができる。なお、実施例2において、撮像装置108に撮像された左右視点画像の点像同士は、視差拡大を行っていない状態であっても連続性を有していないので、実施例2ではステップS803の視差拡大処理を省略してもよい。
図15は、実施例2におけるぼかし処理の例を示す図である。図15(a)、(b)は左右視点画像の点像をそれぞれ半月型にぼかす処理を行った例を示す図であり、図15(c)はぼかし処理が行われた点像同士を合成した点像の例を示す図である。このように、ステレオカメラによって撮像された左右視点画像に対してぼかし処理を行った場合にも、立体表示画像を二次元画像として観察した場合の違和感を低減することができる。なお、ぼかし処理後の点像の形状は、ぼかし処理を行う前の点像の形状と、ぼかし処理に用いた重み係数群の形状との両方に依存するので、ぼかし処理後の点像の形状が半月型に近くなるように重み係数群の形状を決定するのが良い。
<その他の実施例>
なお、本発明の実施形態は上記の実施例に限られるものではない。例えば、上記の実施例では人間の左目に対応する左視点画像と人間の右目に対応する右視点画像のみを用いて立体表示画像を生成する例について説明したが、もっと多くの視点の画像から立体表示画像を生成してもよい。たとえば、両目の間の幅が異なる人が同時に立体表示画像を知覚できるように互いに視差の大きさが異なる2組の左右視点画像を組み合わせた4枚の画像から立体表示画像を生成してもよい。また、異なる向きからでも立体表示画像を知覚できるように、左右視点の画像だけでなく上下の視点の画像も用いて立体表示画像を生成する場合にも本発明を適用することは可能である。また、2視点よりも多くの視点の画像を合成して左右視点の画像を生成したり、2視点よりも多くの視点の画像から左右視点画像を選択したりする場合にも本発明は適用可能である。この場合には、視点の分割数がより大きいPlenopticカメラや、3つ以上のカメラを備えた多眼カメラなどを使用することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
701 画像取得部
702 視差取得部
703 視差拡大部
704 ぼかし部
705 生成部

Claims (11)

  1. 同じ被写体を異なる視点から見た場合の複数の画像を表わす多視点画像データを取得する取得手段と、
    前記多視点画像データに対して、前記複数の画像の間の視差の大きさに応じたぼかし処理を行う処理手段と、
    前記処理手段により前記ぼかし処理が行われた前記多視点画像データを用いて、前記被写体の立体視に用いる立体視画像データを生成する生成手段とを有することを特徴とする画像処理装置。
  2. 前記多視点画像データは、人の右目の視点に対応する右視点画像と人の左目の視点に対応する左視点画像とを含み、
    前記立体視画像データは、人の右目が前記右視点画像を観察し、人の左目が前記左視点画像を観察することで前記立体視を行うための画像データであることを特徴とする請求項1に記載の画像処理装置。
  3. 前記ぼかし処理は、前記ぼかし処理の対象の画像の各画素について、該画素の画素値を該画素を含む複数の画素に所定の比率で割り振る処理を行い、割り振られた画素値を各画素について足し合わせた画像を、前記ぼかし処理が行われた画像として出力する処理であることを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記処理手段は、前記ぼかし処理の対象の画素からの距離が大きい画素ほど、小さい比率で前記画素値を割り振ることを特徴とする請求項3に記載の画像処理装置。
  5. 前記処理手段は、前記ぼかし処理の対象の画素における前記複数の画像の間の視差が大きいほど、より広い範囲に前記ぼかし処理の対象の画素の画素値を割り振ることを特徴とする請求項3又は4に記載の画像処理装置。
  6. 前記処理手段は、前記ぼかし処理の対象の画素を含む半月型の領域に前記ぼかし処理の対象の画素の画素値を所定の比率で割り振る処理を行うことを特徴とする請求項3乃至5のいずれか一項に記載の画像処理装置。
  7. 前記複数の画像の間の視差の大きさを、前記複数の画像の各画素について示す視差情報を取得する視差取得手段を更に有し、
    前記処理手段は、前記視差取得手段により取得された前記視差情報に基づいて前記ぼかし処理を行うことを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
  8. 前記多視点画像データは、Plenopticカメラにより撮像された前記被写体を異なる視点から見た場合の複数の画像に対して、該複数の画像の間の視差を拡大する視差拡大処理を行った画像であることを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
  9. 前記多視点画像データは、それぞれ独立した光学系を有する複数の撮像部により撮像された複数の画像を表わすデータであることを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
  10. 同じ被写体を異なる視点から見た場合の複数の画像を表わす多視点画像データを取得する取得工程と、
    前記多視点画像データに対して、前記複数の画像の間の視差の大きさに応じたぼかし処理を行う処理工程と、
    前記処理工程により前記ぼかし処理が行われた前記多視点画像データを用いて、前記被写体の立体視に用いる立体視画像データを生成する生成工程とを含むことを特徴とする画像処理方法。
  11. コンピュータを請求項1乃至7のいずれか一項に記載の画像処理装置として機能させるためのプログラム。
JP2015110214A 2015-05-29 2015-05-29 画像処理装置、画像処理方法およびプログラム Pending JP2016225811A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015110214A JP2016225811A (ja) 2015-05-29 2015-05-29 画像処理装置、画像処理方法およびプログラム
US15/165,008 US20160353079A1 (en) 2015-05-29 2016-05-26 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015110214A JP2016225811A (ja) 2015-05-29 2015-05-29 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2016225811A true JP2016225811A (ja) 2016-12-28

Family

ID=57399285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015110214A Pending JP2016225811A (ja) 2015-05-29 2015-05-29 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US20160353079A1 (ja)
JP (1) JP2016225811A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10255676B2 (en) * 2016-12-23 2019-04-09 Amitabha Gupta Methods and systems for simulating the effects of vision defects
US10217195B1 (en) * 2017-04-17 2019-02-26 Amazon Technologies, Inc. Generation of semantic depth of field effect
US10299880B2 (en) 2017-04-24 2019-05-28 Truevision Systems, Inc. Stereoscopic visualization camera and platform
US10917543B2 (en) 2017-04-24 2021-02-09 Alcon Inc. Stereoscopic visualization camera and integrated robotics platform
US11083537B2 (en) 2017-04-24 2021-08-10 Alcon Inc. Stereoscopic camera with fluorescence visualization
US10536686B1 (en) * 2018-08-02 2020-01-14 Synaptive Medical (Barbados) Inc. Exoscope with enhanced depth of field imaging

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194602A (ja) * 1992-12-24 1994-07-15 Nippon Telegr & Teleph Corp <Ntt> 両眼立体視装置
JP2011523306A (ja) * 2008-06-06 2011-08-04 リアルディー インコーポレイテッド 立体視画像のブラー強化
JP2012147046A (ja) * 2011-01-06 2012-08-02 Sony Corp 撮像装置および画像処理方法
JP2012227685A (ja) * 2011-04-19 2012-11-15 Jvc Kenwood Corp 3d画像処理装置、3d画像撮像装置、及びプログラム
WO2013146041A1 (ja) * 2012-03-28 2013-10-03 富士フイルム株式会社 画像処理装置及び方法並びに撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194602A (ja) * 1992-12-24 1994-07-15 Nippon Telegr & Teleph Corp <Ntt> 両眼立体視装置
JP2011523306A (ja) * 2008-06-06 2011-08-04 リアルディー インコーポレイテッド 立体視画像のブラー強化
JP2012147046A (ja) * 2011-01-06 2012-08-02 Sony Corp 撮像装置および画像処理方法
JP2012227685A (ja) * 2011-04-19 2012-11-15 Jvc Kenwood Corp 3d画像処理装置、3d画像撮像装置、及びプログラム
WO2013146041A1 (ja) * 2012-03-28 2013-10-03 富士フイルム株式会社 画像処理装置及び方法並びに撮像装置

Also Published As

Publication number Publication date
US20160353079A1 (en) 2016-12-01

Similar Documents

Publication Publication Date Title
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
JP6279321B2 (ja) 画像捕捉装置のアレイにより得られたデータから仮想出力画像を作るための方法及びシステム
JP2016225811A (ja) 画像処理装置、画像処理方法およびプログラム
JP5426785B2 (ja) 画像処理装置および画像処理方法
CN106170822B (zh) 3d光场相机和摄影方法
JP5942195B2 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
US11928794B2 (en) Image processing device, image processing program, image processing method, and imaging device
JP5464279B2 (ja) 画像処理装置、そのプログラム、および画像処理方法
RU2689971C2 (ru) Стереоскопическое визуализирующее устройство
JP2013042301A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013026844A (ja) 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ
JP6585938B2 (ja) 立体像奥行き変換装置およびそのプログラム
EP3262606A1 (en) An image processing method and apparatus for determining depth within an image
US20120242791A1 (en) 3-d video processing device and 3-d video processing method
JP2011211551A (ja) 画像処理装置および画像処理方法
JP7014175B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR100927234B1 (ko) 깊이 정보 생성 방법, 그 장치 및 그 방법을 실행하는프로그램이 기록된 기록매체
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
EP3022542A1 (en) A method for determining a visual effect of an ophthalmic lens
JP2018129026A (ja) 決定装置、画像処理装置、決定方法及び決定プログラム
JP2015130646A (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2013242378A (ja) 撮像装置、表示方法、およびプログラム
JP6070061B2 (ja) 画像処理装置、撮影装置、画像処理方法およびプログラム
Sravya Virtual camera effects and depth estimation Using light fields

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190820