JP5831024B2 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP5831024B2 JP5831024B2 JP2011171038A JP2011171038A JP5831024B2 JP 5831024 B2 JP5831024 B2 JP 5831024B2 JP 2011171038 A JP2011171038 A JP 2011171038A JP 2011171038 A JP2011171038 A JP 2011171038A JP 5831024 B2 JP5831024 B2 JP 5831024B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- pixel
- polarization
- polarizing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
- G02B30/25—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/30—Polarising elements
- G02B5/3025—Polarisers, i.e. arrangements capable of producing a definite output polarisation state from an unpolarised input state
- G02B5/3058—Polarisers, i.e. arrangements capable of producing a definite output polarisation state from an unpolarised input state comprising electrically conductive elements, e.g. wire grids, conductive particles
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/08—Stereoscopic photography by simultaneous recording
- G03B35/10—Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Description
左側の撮像装置で撮像し、左眼で観察する左眼用画像と、
右側の撮像装置で撮像し、右眼で観察する右眼用画像と、
のペア画像によって構成される。
しかしながら、後段で右眼用画像及び左眼用画像を抽出するために更に偏光フィルタを設け、光路自体を再度分けて別々の偏光フィルタに入光させなければならず、レンズ系において光の損失が発生し、また、装置の小型化が困難であるなどの問題がある。
各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段と、
前記第1偏光手段の透過光を入射する第2偏光手段であり、前記第1偏光領域または前記第2偏光領域のいずれか一方の透過光のみを透過させる第3偏光領域と、前記第1偏光領域と前記第2偏光領域の透過光を透過させる全透過領域からなる第2偏光手段と、
前記第2偏光手段の透過光を入力する撮像素子と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記画像処理部は、
前記第2偏光手段の前記全透過領域の透過光に基づく第1視点画像と、前記第2偏光手段の前記第3偏光領域の透過光に基づく第2視点画像を適用して被写体距離を反映した視差情報を生成し、該視差情報を適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理装置にある。
撮像手段の撮影画像に対する画像処理を実行する画像処理装置であり、
前記撮像手段は、各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段の透過光に基づく画像を撮影する構成であり、
前記画像処理装置は、
前記第1偏光領域と前記第2偏光領域の全透過光からなる第1視点画像と、
前記第1偏光領域または前記第2偏光領域のいずれか一方の透過光のみからなる第2視点画像を入力し、
前記第1視点画像と、前記第2視点画像を適用して被写体距離を反映した視差情報を生成し、該視差情報を適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理装置にある。
各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段と、
前記第1偏光手段の透過光を入射する第2偏光手段であり、前記第1偏光領域の透過光のみを透過させる第3偏光領域と、前記第2偏光領域の透過光のみを透過させる第4偏光領域と、前記第1偏光領域と前記第2偏光領域の透過光を透過させる全透過領域からなる第2偏光手段と、
前記第2偏光手段の透過光を入力する撮像素子と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記画像処理部は、
前記第2偏光手段の前記第3偏光領域の透過光に基づく視点画像と、前記第4偏光領域の透過光に基づく視点画像とを適用して被写体距離を反映した視差情報を生成し、該視差情報を適用して、前記第2偏光手段の前記全透過領域の透過光に基づく視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理装置にある。
画像処理装置において、撮像手段の撮影画像に対する画像処理を実行する画像処理方法であり、
前記撮像手段は、各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段の透過光に基づく画像を撮影する構成であり、
前記画像処理方法は、
画像処理部において、
前記第1偏光領域と前記第2偏光領域の全透過光からなる第1視点画像と、
前記第1偏光領域または前記第2偏光領域のいずれか一方の透過光のみからなる第2視点画像を入力し、
前記第1視点画像と、前記第2視点画像を適用して被写体距離を反映した視差情報を生成し、該視差情報を適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理方法にある。
画像処理装置において、撮像手段の撮影画像に対する画像処理を実行させるプログラムであり、
前記撮像手段は、各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段の透過光に基づく画像を撮影する構成であり、
前記プログラムは、
画像処理部に、
前記第1偏光領域と前記第2偏光領域の全透過光からなる第1視点画像と、
前記第1偏光領域または前記第2偏光領域のいずれか一方の透過光のみからなる第2視点画像を入力し、
前記第1視点画像と、前記第2視点画像を適用して被写体距離を反映した視差情報を生成し、該視差情報を適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成させるプログラムにある。
具体的には、異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段と、第1偏光領域または第2偏光領域のいずれか一方の透過光のみを透過させる第3偏光領域と、第1偏光領域と第2偏光領域の透過光を透過させる全透過領域からなる第2偏光手段と、第2偏光手段の透過光を入力する撮像素子と、撮像素子の出力信号に対する信号処理を実行する画像処理部を有する。画像処理部は、第2偏光手段の全透過領域の透過光に基づく第1視点画像と、第2偏光手段の第3偏光領域の透過光に基づく第2視点画像を適用して被写体距離を反映した視差情報を生成し、視差情報を適用した第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する。
1.画像処理装置の構成と処理例について(実施例1)
2.ワイヤグリッド偏光子の特性と問題点について
3.短いワイヤ長のワイヤグリッド偏光子を省略した実施例について(実施例2)
4.右眼画像と通常画像から視差検出を行い、デプスマップを生成する実施例について(実施例3)
5.本開示の構成のまとめ
図1以下を参照して本開示の実施例1としての画像処理装置の構成と処理例について説明する。図1は、画像処理装置の一例である撮像装置の構成を示している。
図1(A)に示す撮像装置10において、撮影レンズ11を介して撮影被写体に対応する入射光が入力する。
撮影レンズ11を介した入射光は、第1偏光部12、絞り13、結像レンズ14、第2偏光部15を介して撮像素子16に入力される。
図1(A)の中央付近に示す点線縦ライン(X軸)に示すように、図1(A)の上側が撮影者から見て右(R)側であり、図1(A)の下側が撮影者から見て左(L)側となる。
画像処理部17では、予め既定されたアルゴリズムに従った信号処理を実行し、処理結果としての画像データを記憶部18に格納する。
画像処理部17の構成と処理の詳細については後述する。
第1偏光部12は、図1(B)に示すように、左右に2分割されており、
左半分の領域に垂直偏光領域12V、
右半分の領域に水平偏光領域12H、
これらの異なる偏光領域が構成されている。なお、これらの偏光領域は例えば偏光フィルタを用いて構成される。
水平偏光領域12Hは、水平方向の偏波光のみを通過させ、水平偏光領域12Hを通過した光は、水平方向の偏波光となる。
同様に、図1(B)に示す重心点32は、水平偏光領域12Hの重心位置である。この水平偏光領域12Hの透過光は、重心点32を視点として観察した画像に相当する。
すなわち、
垂直偏光領域12Vの重心位置である重心点31を視点として観察した画像は、左眼からの観察画像である左眼視点画像(L画像)に対応し、
水平偏光領域12Hの重心位置である重心点32を視点として観察した画像は、右眼からの観察画像である右眼視点画像(R画像)に対応する。
このように、第1偏光部12を透過する画像は、左右の2つの異なる視点画像を、それぞれ垂直偏波光と水平偏波光として透過させることになる。
左眼用画像に相当するL画像(垂直偏波光)、
右眼用画像に相当するR画像(水平偏波光)、
これらの光は、結像レンズ14を介して、第2偏光部15に到達する。
なお、以下の説明において、「右眼用画像」は「右眼画像」、「左眼用画像」は「左眼画像」と簡略化して表記する。
第2偏光部15は、図1(C)に示すように、
水平偏光領域15H、
垂直偏光領域15V、
全透過(非偏光)領域15A、
これらの3種類の領域を上から順に繰り返し設定した構成を有する。
垂直偏光領域15Vは、垂直方向の偏波光を選択的に透過して撮像素子16に垂直偏波光のみを結像させる。
全透過(非偏光)領域15Aは、水平方向の偏波光も垂直方向の偏波光もすべて透過し、すべつの入射光を撮像素子16に結像させる。
撮像素子16は、RGB配列(ベイヤー配列)を有する撮像素子を例として示している。
第2偏光部15に設定される垂直偏光領域15Vと、水平偏光領域15Hは、撮像素子の2ライン単位で隣接して設定され、全透過(非偏光)領域15Aは12ライン単位で設定した例である。すなわち、
(a)2ラインの垂直偏光領域15V、
(b)2ラインの水平偏光領域15H、
(c)12ラインの全透過(非偏光)領域15V、
これら(a)〜(c)の3種類の領域が、撮像素子16の縦方向(Y方向)に繰り返し設定される。
垂直偏光領域15Vは、垂直方向の偏波光、すなわち、図1(B)に示す垂直偏光領域12Vを透過した左眼画像に相当するL画像(垂直偏波光)のみを選択的に透過して撮像素子16に左眼画像(L画像)を結像させる。
全透過(非偏光)領域15Aは、図1(B)に示す水平偏光領域12Hを透過した右眼画像に相当するR画像(水平偏波光)と、図1(B)に示す垂直偏光領域12Vを透過した左眼画像に相当するL画像(垂直偏波光)との両画像を透過させる。この画像は、図1(B)に示す重心点31と重心点32の中心位置である中心点33から見た画像に対応する画像となる。すなわち、偏光の影響による視点ずれのない通常の単眼カメラで撮影した通常画像と同様の画像となる。
第2偏光部15の構成としては、この他にも様々な構成が可能である。
例えば図3に示すように、垂直偏光領域15Vと、水平偏光領域15Hをそれぞれ矩形領域に設定し、これらを交互に配置した構成も設定可能である。
図4は、図3に示す第2偏光部とRGB配列の撮像素子16を重ねて示した図である。
2×2の4画素からなる矩形領域を単位として、垂直偏光領域15Vと、水平偏光領域15Hを設定し、これらを交互に配置している2行の領域、
14行の全透過(非偏光)領域15A、
これらを縦方向(Y方向)に繰り返して配置した構成である。
2×2の4画素からなる矩形領域からなる水平偏光領域15Hは、水平方向の偏波光、すなわち、図1(B)に示す水平偏光領域12Hを透過した右眼画像に相当するR画像(水平偏波光)のみを選択的に透過して撮像素子16に右眼画像(R画像)を結像させる。
2×2の4画素からなる矩形領域からなる垂直偏光領域15Vは、垂直方向の偏波光、すなわち、図1(B)に示す垂直偏光領域12Vを透過した左眼画像に相当するL画像(垂直偏波光)のみを選択的に透過して撮像素子16に左眼画像(L画像)を結像させる。
全透過(非偏光)領域15Aは、(B)に示す水平偏光領域12Hを透過した右眼画像に相当するR画像(水平偏波光)と、図1(B)に示す垂直偏光領域12Vを透過した左眼画像に相当するL画像(垂直偏波光)との両画像を透過させる。この画像は、図1(B)に示す重心点31と重心点32の中心位置である中心点33から見た画像に対応する画像となる。すなわち、偏光の影響による視点ずれのない中心点33から観察した通常画像と同様の画像となる。
撮像素子16は、図2〜図4を参照して説明したように、
(a)垂直偏光領域、
(b)水平偏光領域、
(c)全透過(非偏光)領域、
これらの3種類の領域に区分され、それぞれの領域対応の信号を画像処理部17に入力する。
なお、以下の説明において、
撮像素子16における(a)垂直偏光領域と(b)水平偏光領域に対応する画素を、
PL(Polarized(=偏光))画素と呼ぶ。
(c)全透過(非偏光)領域に対応する画素を、
N(Non−polarized(非偏光))画素と呼ぶ。
PL画素出力(=垂直偏光領域と水平偏光領域対応画素の出力)、
N画素出力(=全透過(非偏光)領域対応画素の出力)
これらの出力によって構成される。
すなわち、撮像素子16は、図4を参照して説明したように、
2×2の4画素からなる矩形領域を単位として、垂直偏光領域15Vと、水平偏光領域15Hが交互に配置された2行の領域と、14行の全透過(非偏光)領域15A、
これらが縦方向(Y方向)に繰り返して配置された構成を持つ。
偏光領域画素(PL画素)と、
非偏光領域画素(N画素)と、
これらの各領域の画素出力の分離処理が実行される。
非偏光画素補間処理部52は、N画素信号(非偏光画素信号)61から欠落した画素領域、すなわち、PL画素領域の画素についての画素補間処理を実行する。具体的には、例えば、PL画素領域の画素値を、上下のN画素の画素値を参照して算出して設定する補間処理を実行する。
デモザイク処理部53は、補間画像(2D−Raw画像)62に対するデモザイク処理、およびその他のカメラ信号処理を行い、通常の2次元画像に変換する。
デモザイク処理は、全ての画素位置に全ての色信号、例えばRGBの各色の画素値を設定する処理であり、一般的なカメラにおいて行われる処理である。
デモザイク処理部53の生成した2D−RGB画像63は、視差画像生成部56に入力される。
このPL画素信号(偏光画素信号)65は、偏光画素補間処理部54に入力される。
従って、偏光画素分離部51の分離処理によって生成されるPL画素信号(偏光画素信号)65は、2×2の4画素からなる矩形領域を単位として、垂直偏光領域15Vと、水平偏光領域15Hが交互に配置された2行の領域が、縦方向に14行おきに設定された画像となる。
PL画素信号(偏光画素信号)65に含まれるPL画素領域について、
すべてを垂直偏光領域15Vに対応する画素値を設定した左眼画像信号(垂直偏光画像信号)66a、
すべてを水平偏光領域15Hに対応する画素値を設定した右眼画像信号(水平偏光画像信号)66b、
これらの各画像を生成する。
同様に、図6に示す右眼画像信号(水平偏光画像信号)66bは、PL画素信号(偏光画素信号)65に含まれるPL画素領域の垂直偏光画素領域の画素値をリセット(取り除き)、近傍の水平偏光画素の画素値を用いて、これらのリセット画素の画素値を設定する画素値補間処理によって生成する。
同様に、右眼画像信号(水平偏光画像信号)66bに含まれる画素値の設定された画像は、図1(B)に示す第1偏光部12の右側の重心点32から見た画像、すなわち右眼画像に対応する画像となる。
左眼画像信号(垂直偏光画像信号)66a、
右眼画像信号(水平偏光画像信号)66b、
を生成する。
偏光画素補間処理部54の生成したこれらの画像は、視差検出部55に入力される。
左眼画像信号(垂直偏光画像信号)66a、
右眼画像信号(水平偏光画像信号)66b、
これらの2つの画像に対して、例えばブロックマッチング処理等を用いて、対応画素を比較し、被写体ずれ量を求めることにより視差情報としての被写体距離を検出する。
すなわち、例えばブロックマッチング処理によって、左眼画像と右眼画像の画素間のずれを検出し、ずれ量に応じた被写体距離を算出する。
なお、デプスマップ67は、画像の構成画素各々についての被写体距離情報を持つデータである。例えば被写体距離に応じた輝度値を設定した画像として構成される。
具体的には、例えば、
被写体距離が小(カメラに近い)の領域は高輝度、
被写体距離が大(カメラから遠い)の領域は低輝度、
視差検出部55は、このような画素値設定のなされたデプスマップを生成して、視差画像生成部56に出力する。
左眼画像信号(垂直偏光画像信号)66a、
右眼画像信号(水平偏光画像信号)66b、
これらの画像は、図6に示すように、入力画像中のN画素(非偏光画素)領域については、画像信号を有していないが、視差検出部55は、これらの画素値を持たないN画素(非偏光画素)領域については、左眼画像信号(垂直偏光画像信号)66aに基づく補間画素値を設定した左眼画像と、右眼画像信号(水平偏光画像信号)66bに基づく補間画素値を設定した右眼画像を算出し、これらの画像間のマッチング処理によってすべての画素対応の距離情報を算出する。
なお、画素値補間処理には、例えば線形補間処理等が利用可能である。
図6に示す各視点からの画像、すなわち、
左眼画像信号(垂直偏光画像信号)66a、
右眼画像信号(水平偏光画像信号)66b、
これらの画像はRGBの各信号を設定した画像となっているが、偏光画素分離部51の出力するPL画素信号(偏光画素信号)65に含まれるG画素のみを用いて視差画像としてのL画像とR画像を生成してもよい。
G画素のみを用いた視差画像の生成処理は図7に示す以下の2つの補間処理ステップからなる。
(a)補間処理ステップ1=偏光領域におけるG画素補間処理、
(b)補間処理ステップ2=水平方向のG画素ライン(行)の設定処理、
(a)補間処理ステップ1=偏光領域におけるG画素補間処理
この処理を示している。
図7には、左眼画像信号(垂直偏光画像信号)を生成する処理例を示している。すなわち、偏光画素分離部51の生成するPL画素信号65に含まれる左眼画像信号(垂直偏光画像信号)に基づいて、撮像素子16の全画素領域に左眼画像信号に対応するG画素を設定する処理である。
左眼用画像信号である垂直偏光領域15Vと、右眼用画像信号である水平偏光領域15Hは2×2の画素領域として繰り返し設定されている。
図7(a)には、偏光領域の2行のみを示しており、
2×2画素の左眼画像信号に対応する垂直偏光領域15Vと、2×2画素の右眼画像信号に対応する水平偏光領域15Hが交互に設定された画素領域を示している。
まず、右眼用画像に対応する水平偏光領域15Hの画素値を削除して、ここに左眼画像信号に対応する垂直偏光領域15VにあるG画素の画素値に基づく補間画素値を設定する。
例えば、G14の画素値G14は、同一行の2つの左右にある左眼画像信号に対応する垂直偏光領域15Vにある最近接のG画素の画素値(G12,G16)を用いて以下の式で算出する。
G14=(1/2)(G12+G16)
同様に、G23の画素値G23は、同一行の2つの左右にある垂直偏光領域15Vにある最近接のG画素の画素値(G21,G25)を用いて以下の式で算出する。
G23=(1/2)(G21+G25)
この処理によって、2行の偏光画素領域の各列に左眼用画像に対応する1つのG画素の画素値が設定される。
(b)補間処理ステップ2=水平方向のG画素ライン(行)の設定処理、
この補間処理ステップ2である。
図7(b)には、この補間処理ステップ2の処理例として、2つの手法(手法1、手法2)を示している。
なお、偏光領域は2行単位で設定されているが、垂直2行に対して1行のG画素ラインとして出力する。
例えば、図7(b)に示すように、(b2)に示す新たなG画素の画素値G1は、
G1=(1/2)(G21+G12)
上記式に従って算出する。
同様に、G2,G3,G4・・・を図7(a)に示すステップ1において設定した隣接する2つのG画素値を用いて算出する。
これら手法1または手法2のいずれかを行う補間処理ステップ2の実行により、偏光領域に対応する行の画素には、左眼視点画像に対応するG画素の設定が完了する。
偏光領域に左眼画像のG画素値を設定した補間画像、
偏光領域に右眼画像のG画素値を設定した補間画像、
これらの2つの補間画像を生成して視差検出部56に提供する構成としてもよい。
この処理について、図8を参照して説明する。
偏光領域に左眼画像のG画素値を設定した補間画像、
偏光領域に右眼画像のG画素値を設定した補間画像、
これらの補間画像である。
視差検出部55は、まず、これらの補間画像を適用して偏光領域の各画素に対応する視差を算出して、視差に対応する被写体距離(D:デプス)を算出する。
図8に示すように、偏光領域に設定されたデプスD1,D2を用いて、非偏光領域の各に画素に対応するデプスを算出して設定する。
図8の例では、説明を簡単にするために偏光領域が1行、非偏光領域が7行に設定された例を示しており、D1,D2がそれぞれ任意の列に対する偏光領域の画素に対応するデプス情報である。
これらは、偏光画素補間処理部54の生成した、
偏光領域に左眼画像のG画素値を設定した補間画像、
偏光領域に右眼画像のG画素値を設定した補間画像、
これらの補間画像によって算出されるデプス情報である。
D'1=D1
D'2=(7/8)D1+(1/8)D2
D'3=(6/8)D1+(2/8)D2
: :
D'8=(1/8)D1+(7/8)D2
D'9=D2
このように、D1,D2を用いた拡大処理を行い、D1,D2からの距離に応じた重みを設定して各画素のデプスを推定したデプスマップを生成する。
このようにして生成されたデプスマップ67が視差画像生成部56に提供される。
ここで、図8の例では簡単のために偏光領域が1行、非偏光領域が7行として拡大処理について説明したが、図6で説明するように偏光領域が2行である場合、図7を用いて上述したように、偏光領域に対して1行のデプスマップが生成される。このデプスマップは、偏光領域の2行に対して仮想的に中央の行のデプスマップとなっているため、偏光領域の2行、および非偏光領域のk行に対して、図8での説明と同様にして距離に応じた重みを設定して各画素のデプスを推定したデプスマップを生成する。
視差画像生成部56は、デモザイク処理部53から出力される2次元画像である2D−RGB画像63と、視差検出部55から出力される視差情報としてのデプスマップ67を用いて、左眼画像(L画像)71と、右眼画像(R画像)72の2枚の画像を生成する。
なお、この視差画像生成部56において実行する画像変換処理は、1枚の2次元画像(2D画像)に基づく画像変換により3次元画像表示に適用可能な左眼画像(L画像)71と、右眼画像(R画像)72を生成して出力する処理であり、一般的には例えば2D3D変換処理と呼ばれる処理である。
視差画像生成部56では、デプスマップ67を用いた2D3D変換処理により、デモザイク処理部53から入力した1つの画像、すなわち、2D−RGB画像63から、3次元画像表示に適用する右眼画像と左眼画像を生成する。
視差画像生成部56は、デプスマップから得られる画素領域単位の被写体距離情報に応じた視差(シフト量)を設定した右眼画像と左眼画像を生成して画像出力部57を介して出力する。
視差画像生成部56は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量に対する異なる強調処理を施すことで新たな視点の画像を生成する処理を行う。視差画像生成部56は、微分器81、ゲイン制御部82、非線形変換部83、および画像合成部84から構成される。
なお、実施例では輝度信号を処理データとした例について説明するが、輝度信号ではなく色信号(RGB等)を処理対象データとして利用してもよい。
図10は、ゲイン制御部82の一実施例の構成を示すブロック図である。ゲイン制御部82では、入力された微分信号の振幅値を、同じく入力した奥行き情報を基に、その振幅値を制御する。なお、以下に説明する実施例では、奥行き情報は入力微分信号の1画素ごとに、1つの深さの値を有する、所謂デプスマップの形状で入力されるものとして説明していく。視差検出部55の生成するデプスマップ67から取得される情報である。
乗算処理部92は、入力された微分信号の各画素について、ゲイン係数算出部91から出力された各画素に対するゲイン係数を、微分信号(H)の振幅値に乗じる乗算処理を行い、結果として振幅値がゲイン制御された補正微分信号(H')を出力する。
ゲイン係数算出部91は、入力された奥行き情報(In)を、予め設定した関数f(x)により変換して、ゲイン係数(Out)を出力する。
このとき、関数f(x)は、様々な設定が利用可能である。
関数f(x)の一例としては、例えば、
f(x)=A×x
(ただしAは定数)
上記式に示されるような線形一次関数を用いる。Aは予め設定した定数であり、様々な値に設定可能である。
奥行き情報は、微分信号の各画素に応じた値を入力し、各画素に応じたゲイン係数を出力するものとする。
入力値(奥行き情報)の例は、D1、D2、D3であり、ある3つの画素に対応した奥行きの値を想定する。なお、奥行きとは観察者(ユーザ)あるいはカメラから被写体までの距離に対応する値である。
奥行き(=被写体距離)はD1<D2<D3の順に、手前から奥へと深く(ユーザまたはカメラから遠く)なっていくものとする。ここで、図11中、奥行き情報In=0の位置は生成した画像を3次元表示装置に表示した場合に表示画面上に知覚される点である。
このとき出力値(ゲイン係数)の例は、G1、G2、G3であり、各々は図11中の関数f(x)に、D1、D2、D3の値を入力することで得られる値である。
この例のように、ゲイン係数算出部91は、微分信号の各画素に応じたゲイン係数を出力する。
図12には、
(a)入力信号
(b)微分信号
(c)奥行き情報
(d)補正後の微分信号
これらの例を示している。
図12(b)は、図12(a)の入力画像信号を微分処理した画像である。
図12(c)は、図12(a)の入力画像信号に対応した奥行き情報であり、画像を3分割した各領域に奥行きの値を与えた簡易なものである。
G3、G2、G1(G1<G2<G3)
となる。
図12(d)補正後の微分信号においては、画面上部ほど(遠い領域ほど)、大きなゲイン値が乗じられ、画面下部ほど(近い領域ほど)小さなゲイン値が乗じられる。
この結果、画面上部ほど(遠い領域ほど)微分信号の振幅値が大きくなり、画面下部ほど(近い領域ほど)微分信号の振幅は小さくなる。
f(x)=xγ
上記式に示されるような指数関数を用いる。γは予め設定した係数であり、様々な値に設定可能である。
また、非線形変換部83における変換関数は、指数関数に限定するものではなく、また線形的な変換を施しても構わない。
画像合成部84は、処理対象画像から生成した空間的な特徴量、すなわち、輝度信号の微分信号、または、この微分信号を非線形変換して生成した視差強調信号を適用して新たな視点の画像を生成する処理を行う。
図14は、距離が大の画像領域(奥行きが大きい画像領域)
図15は、距離が小の画像領域(奥行きが小さい画像領域)
これらの各画像領域について、上から順に、
(a)入力信号(S)
(b)微分信号(H)
(c)補正(ゲイン制御)後の補正微分信号(H')
(d)右シフト画像信号
(e)左シフト画像信号
これらの各信号を示している。
(a)入力信号(S)は、ビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。ライン位置(x1)からライン位置(x2)までの領域Aにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)〜(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Bにおいて、輝度が次第に低くなる変化を示している。
微分器81の生成する微分信号(H)は、図14に示すとおり、(a)入力信号(S)の輝度変化が正になる領域Aにおいて正の値をとり、(a)入力信号の輝度変化が負になる領域Bにおいて負の値をとる。
図14(d)に示す通り、大きなゲイン(G3)によって補正が行われた補正微分信号(H')を合成する場合、補正前の微分信号(H)を合成する場合に比較して、右シフトが大きい画像信号が生成される。同様に、図14(d)では、左シフト量が大きい画像信号が生成される。
また、この入力画像を左シフトすることで、(e)左眼画像信号を生成する。
図15(d)に示す通り、小さなゲイン(G1)によって補正が行われた補正微分信号(H')を合成する場合、補正前の微分信号(H)を合成する場合に比較して、右シフト量が小さい画像信号が生成される。同様に、図14(d)では、左シフト量が小さい画像信号が生成される。
距離=大の場合は、振幅の大きい補正微分信号
距離=小の場合は、振幅の小さい補正微分信号、
これらの補正微分信号(図14、図15の(c))を生成し、これらの補正微分信号(またはその非線形変換結果である視差強調信号)と(a)入力信号との合成処理により、入力画像と異なる視点からの観察画像に相当する(d)右眼画像信号、または(e)左眼画像信号を生成する。
図14、図15の(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、
図14、図15の(b)に示す微分信号の信号レベルを(H)とする。
また、ゲイン制御部82において行われる微分信号の補正結果としての補正微分信号の信号レベルを(H')てとする。
なお、補正微分信号(H')の生成の際、(b)微分信号(H)に乗じるゲイン値(G)は、奥行き情報(D)をもとに予め設定された関数などから決定される。
図15に示す距離が小の場合のゲイン値をG1、
とする。
図14、図15に示す例は、G3>1>G1の関係を想定している。
図14に示す距離が大の場合の補正後微分信号(H')は、
H'=G3×H
図15に示す距離が小の場合の補正後微分信号(H')は、
H'=G1×H
これらの式によって算出された信号が、図14、図15の(c)補正後の微分信号の信号レベル(H')となる。
一方、図15(c)に示す距離が小の場合において、実線で示す補正後微分信号(H')と、点線で示す補正前微分信号(=(b))を比較すると、実線で示す補正後微分信号(H')は、点線で示す補正前微分信号よりも振幅が小さくなっている。
すなわち、視差検出部55の出力するデプスマップにおける奥行き情報が大(カメラからの距離が遠い)画素については、(b)微分信号に対して大きなゲイン値を乗じて補正されて図14(c)に示す補正後微分信号が生成される。
一方、視差検出部55の出力するデプスマップにおける奥行き情報が小(カメラからの距離が近い)画素については、(b)微分信号に対して小さなゲイン値を乗じて補正されて図15(c)に示す補正後微分信号が生成される。
Right=S−E'
Left=S+E'
これにより得られる信号が、図14(d)、図15(d)に実線で示す右シフト画像信号、および、図14(e)、図15(e)に示す左シフト画像信号である。
Right=S−E
Left=S+E
である。
図14に示す距離が大の場合は、(d)右シフト画像信号、(e)左シフト画像信号の両者とも、実線(補正後微分信号)が、点線(補正前微分信号)よりエッジ部(信号の変化部)が急峻になっており、(a)入力信号に比較して信号のシフトが大きくなっている。
一方、図15に示す距離が小の場合は、(d)右シフト画像信号、(e)左シフト画像信号の両者とも、実線(補正後微分信号)が、点線(補正前微分信号)よりエッジ部が滑らかになっており、(a)入力信号に比較して信号のシフトが小さくなっている。
さらに、偏光子を配置しない画素によって通常の2次元画像を取得して、これらの情報から画像処理によって3D画像表示に適用する高精細な左眼用画像と右眼用画像を出力する。
また、水平偏光と垂直偏光の組み合わせのみならず、斜め方向の偏波光を透過させる偏光領域など、異なる2つの偏波方向を持つ偏光領域を任意に組み合わせた構成を適用することができる。
なお、第2偏光部15は、第1偏光部12の偏光領域の設定に対応させて、第1偏光部12に設定した偏光領域と同一の組み合わせを持つ偏光領域を設定することが必要である。
先に説明したように、図1に示す第2偏光部15の偏光領域は、例えばワイヤグリッド偏光子を用いた構成とされる。ワイヤグリッド偏光子は、微細なワイヤ(例えばAl(アルミ)線)を微細間隔で並べた構成を有し、ワイヤ配列方向に応じた偏光特性を奏する偏光素子である。
すなわち、例えば図2、図4に示す設定では、水平方向のワイヤグリッドのワイヤ長は、最大、撮像素子の横方向の長さまでに設定可能となるが、垂直方向のワイヤグリッド偏光子のワイヤ長は、必然的に最大2画素分の長さに制限されてしまう。
このような短いワイヤを利用すると、偏光分離特性が悪化するという問題が発生することがある。
図1(C)、図2を参照して説明した偏光領域の設定構成、
図3、図4を参照して説明した偏光領域の設定構成、
このような偏光領域の設定構成を用いた場合、
(a)垂直方向の偏光領域画素(PL画素)における偏光分離特性の確保、
(b)非偏光領域画素(N画素)の画素数の確保、
上記(a),(b)を両立させることが困難となるという問題が発生する。
以下では、本開示の画像処理装置の第2実施例として、上記の問題点を解決した構成、すなわち、撮像素子に設定する第2偏光部の短いワイヤ長のワイヤグリッド偏光子を省略した構成例について説明する。
具体的には、図1に示す撮像装置における第2偏光部15に、垂直方向のワイヤグリッド偏光子を配置せず、水平方向のワイヤグリッド偏光子を配置した偏光領域(PL画素領域)と非偏光領域画素(N画素)のみを有する構成とする。このような構成とすることで偏光特性を悪化させることなく、また非偏光領域画素(N画素)の十分な画素数確保を実現する。
図1(B)に示す第1偏光部12の垂直偏光領域12Vを透過する垂直偏波光は、図1(C)に示す第2偏光部15の垂直偏光領域15Vを透過して、撮像素子の垂直偏光領域画素(垂直PL画素=左眼画素(L画素))に到達する。
図1(B)に示す第1偏光部12の水平偏光領域12Hを透過する水平偏波光は、図1(C)に示す第2偏光部15の水平偏光領域15Hを透過して、撮像素子の水平偏光領域画素(水平PL画素=右眼画素(R画素))に到達する。
左眼用画素に撮り込まれる画像は、図1(B)に示す第1偏光部12の左半分の半円領域の透過光からなり、光軸中心となる視点が左半円領域の重心点31にある画像となる。
また、右眼用画素に撮り込まれる画像は、図1(B)に示す第1偏光部12の右半分の半円領域の透過光からなり、光軸中心となる視点が右半円領域の重心点32にある画像となる。
一方、図1(C)に示す第2偏光部15のワイヤグリッド偏光子を配置していない非偏光領域画素(N画素)には、図1(B)に示す第1偏光部12の全体の透過光からなり、光軸中心となる視点が円の中心点33にある画像となる。
なお。いずれも第1偏光部12の後段に設置された絞り13によって制限された領域の光のみが透過することになる。
第1偏光部12の左半分の半円領域、
第1偏光部12の右半分の半円領域、
これらの2つの領域の透過光を加算した光を取得する。
撮像素子の水平偏光領域画素(水平PL画素=右眼画素(R画素))の受光信号をPL(R)、
撮像素子の垂直偏光領域画素(垂直PL画素=左眼画素(L画素))の受光信号をPL(L)、
撮像素子の非偏光領域画素(N画素)の受光信号をN、
とすると、以下の関係式が成り立つ。
N=PL(R)+PL(L)・・・・・(式1)
なお、本実施例においても、撮像装置の全体構成は、図1に示す構成となる。
ただし、第2偏光部15の構成と、画像処理部17の構成と処理が異なる。
図16は、本実施例における撮像装置の第2偏光部15の構成を示している。
水平偏光領域15H、
全透過(非偏光)領域15A、
これらの2つの領域を縦方向に繰り返し配置した構成を有する。
第2偏光部15に設定される水平偏光領域15Hは、撮像素子の2ライン単位で設定され、全透過(非偏光)領域15Aは10ライン単位で設定した例である。すなわち、
(a)2ラインの水平偏光領域15H、
(b)12ラインの全透過(非偏光)領域15V、
これら(a)〜(b)の2種類の領域が、撮像素子16の縦方向(Y方向)に繰り返し設定される。
全透過(非偏光)領域15Aは、図1(B)に示す水平偏光領域12Hを透過した右眼画像に相当するR画像(水平偏波光)と、図1(B)に示す垂直偏光領域12Vを透過した左眼画像に相当するL画像(垂直偏波光)との両画像を透過させる。この画像は、図1(B)に示す重心点31と重心点32の中心位置である中心点33から見た画像に対応する画像となる。すなわち、偏光の影響による視点ずれのない通常画像と同様の画像となる。
すなわち、図17に示す例では、水平2ライン分の水平偏光領域15Hにのみ水平方向のワイヤグリッド偏光子が配置されている。水平方向のワイヤグリッドの場合、ワイヤ長は最大でイメージセンサの水平サイズまで延長することが可能であり、偏光分離特性を向上させることが可能である。
水平偏光領域15H=図1(B)に示す水平偏光領域12Hを透過した重心点32を視点とした右眼画像に相当するR画像(水平偏波光)。
全透過(非偏光)領域15A=図1(B)に示す水平偏光領域12Hと垂直偏光領域12Vを透過した中心点33から見た画像。
撮像素子の水平偏光領域画素(水平PL画素=右眼画素(R画素))の受光信号をPL(R)、
撮像素子の非偏光領域画素(N画素)の受光信号をN、
とし、
撮像素子によって受光されていない、垂直偏光領域画素(垂直PL画素=左眼画素(L画素))の受光信号をPL(L)、
とすると、以下の関係式が成り立つ。
PL(L)=N−PL(R)・・・・・(式2)
ただし、第2偏光部15の構成と画像処理部17の構成と処理が異なる。
第2偏光部15は、図16、図17を参照して説明したように、垂直方向のワイヤグリッド偏光子を有さず、
水平方向のワイヤグリッド偏光子を、s行(図17ではs=2)を一単位として配置した偏光領域(PL画素領域)と、
非偏光領域画素(N画素)をt行(図17ではt=10)を一単位として配置した非偏光領域(N画素領域)、
これらを撮像素子の縦方向に繰り返し配置した構成である。
このような構成とすることで偏光特性を悪化させることなく、また非偏光領域画素(N画素)の十分な画素数確保を実現している。
ワイヤグリッド偏光子が配置された偏光領域(PL画素領域)画素では、図1(B)に示す第1偏光手段12の右側の水平偏光領域12Hを透過する重心点32を視点とした右眼画像を取得する。
一方、ワイヤグリッド偏光子が配置されない画素である非偏光領域(N画素領域)画素では、図1(B)に示す第1偏光手段12の左側の垂直偏光領域12Vと右側の水平偏光領域12Hの両方を透過する中心点33を視点とした通常画像を取得する。
ワイヤグリッド偏光子が配置されない非偏光領域(N画素領域)画素は、図1(B)に示す中心点33を視点とした通常画像を取得する。
撮像素子16は、図16〜図17を参照して説明したように、
(a)水平偏光領域、
(b)全透過(非偏光)領域、
これらの2種類の領域に区分され、それぞれの領域対応の信号を画像処理部17に入力する。
全透過(非偏光)領域に対応する撮像素子16の画素には、図1(B)の第1偏光部12の中心点33を視点とした通常画像が撮り込まれる。
なお、水平偏光領域に対応する撮像素子16の画素をPL(R)画素と呼ぶ。
非偏光領域画素(N画素)に対応する撮像素子16の画素をN画素と呼ぶ。
偏光領域画素(PL(R)画素)と、非偏光領域画素(N画素)の各出力の分離処理が実行される。
非偏光画素補間処理部102は、N画素信号(非偏光画素信号)121から欠落した画素領域、すなわち、PL(R)画素領域の画素についての画素補間処理を実行する。具体的には、例えば、PL(R)画素領域の画素値を、上下のN画素の画素値を参照して算出して設定する補間処理を実行する。
なお、Raw画像は各画素にRGBのいずれかの画素値の設定された画像である。
デモザイク処理部103は、補間画像(2D−Raw画像)122に対するデモザイク処理、およびその他のカメラ信号処理を行い、通常の2次元画像に変換する。
デモザイク処理は、全ての画素位置に全ての色信号、例えばRGBの各色の画素値を設定する処理であり、一般的なカメラにおいて行われる処理である。
デモザイク処理部103の生成した2D−RGB画像123は、視差画像生成部107に入力される。
このPL(R)画素信号(偏光画素信号)125は、視差検出用右眼画像生成部(偏光画素ゲイン調整部)105に入力される。
視差検出用右眼画像生成部(偏光画素ゲイン調整部)105は、PL(R)画素信号(偏光画素信号)125の輝度を調整し、N画素信号(非偏光画素信号)の輝度に合わせるゲイン調整処理を実行する。すなわち、PL(R)画素が、通常N画素とほぼ同一の平均および分布(標準偏差)となるように設定する。
従って、図19(B)に示すように、撮像素子のPL(R)画素とN画素とでは平均的な輝度レベルが異なる画像となる。
ゲイン処理の詳細例については後段で説明する。
なお、ワイヤグリッド偏光子が配置されたPL(R)画素のゲイン処理後のゲイン調整右眼画像126の画素値を(R1,G1,B1)と表記する。
非偏光画素補間処理部102の生成した補間画像(2D−Raw画像)122と、
視差検出用右眼画像生成部(偏光画素ゲイン調整部)105の生成したゲイン調整右眼画像126、
これらを入力する。
非偏光画素補間処理部102の生成した補間画像(2D−Raw画像)122の画素値を(R0,G0,B0)、
視差検出用右眼画像生成部(偏光画素ゲイン調整部)105の生成したゲイン調整右眼画像126の画素値を(R1,G1,B1)、
とする。
PL(L)=N−PL(R)・・・・・(式2)
ただし、
撮像素子の水平偏光領域画素(水平PL画素=右眼画素(R画素))の受光信号をPL(R)、
撮像素子の非偏光領域画素(N画素)の受光信号をN、
撮像素子によって受光されていない、垂直偏光領域画素(垂直PL画素=左眼画素(L画素))の受光信号をPL(L)、
である。
視差検出用右眼画像生成部(偏光画素ゲイン調整部)105の生成したゲイン調整右眼画像126の画素値(R1,G1,B1)とから、
左眼画像の画素値(R2,G2,B2)を算出する。
例えば、左眼画像の画素値(R2)を以下の(式3)に従って算出する。
R2=2×R0−R1・・・・・(式3)
2を乗算しているのは、
ゲイン調整右眼画像126の画素値(R1)は、ゲイン調整後の輝度であり、先に説明した図19を参照して説明したゲイン調整により、半円領域からほぼ円領域の受光に相当する輝度レベルの調整が行われ、輝度レベルがほぼ2倍に調整されているためである。
図20には、
非偏光画素補間処理部102の生成する補間画像(2D−Raw画像)122
視差検出用右眼画像生成部(偏光画素ゲイン調整部)105の生成するゲイン調整右眼画像126、
これらを示している。
対応する画素位置、すなわち、水平偏光領域15Hに設定されたRGB画素値を用いて、上記(式3)に従って、左眼画像127の画素値(R2,G2,B2)を算出する。
なお、図から明らかなように、
左眼画像127の画素値(R2,G2,B2)の算出対象となる画素領域は、視差検出用右眼画像生成部(偏光画素ゲイン調整部)105の生成するゲイン調整右眼画像126に含まれる画素領域であり、水平偏光領域15Hの画素のみである。
補間画像(2D−Raw画像)122の画素値(R0,G0,B0)から、対応位置のゲイン調整右眼画像126の画素値(R1,G1,B1)を減算して、左眼画像127の画素値(R2,G2,B2)を算出する。
視差検出部106は、
視差検出用右眼画像生成部(偏光画素ゲイン調整部)105の生成したゲイン調整右眼画像126と、
視差検出用左眼画像生成部104の生成した左眼画像127、
これらの2つの異なる視点画像を入力する。
視差検出用右眼画像生成部(偏光画素ゲイン調整部)105の生成したゲイン調整右眼画像126と、
視差検出用左眼画像生成部104の生成した左眼画像127、
これらの2つの異なる視点画像に対して、例えばブロックマッチング処理等を用いて、対応する画素を求めることにより視差情報としての被写体距離を検出する。
すなわち、例えばブロックマッチング処理によって、左眼画像と右眼画像の画素間のずれを検出し、ずれ量に応じた被写体距離を算出する。
なお、デプスマップ128は、画像の構成画素各々についての被写体距離情報を持つデータである。例えば被写体距離に応じた輝度値を設定した画像として構成される。
具体的には、例えば、
被写体距離が小(カメラに近い)の領域は高輝度、
被写体距離が大(カメラから遠い)の領域は低輝度、
視差検出部106は、このような画素値設定のなされたデプスマップを生成して、視差画像生成部107に出力する。
視差検出用右眼画像生成部(偏光画素ゲイン調整部)105の生成したゲイン調整右眼画像126と、
視差検出用左眼画像生成部104の生成した左眼画像127、
これらの画像は、図20に示すように、入力画像中のN画素(非偏光画素)領域については、画像信号を有していないが、視差検出部106は、ゲイン調整右眼画像126に基づいてN画素領域に右眼画像の補間画素値を設定した右眼画像と、視差検出用左眼画像生成部104の生成した左眼画像127に基づいてN画素領域に左眼画像の補間画素値を設定した左眼画像を算出し、これらの画像間のマッチング処理によってすべての画素対応の距離情報を算出する。
なお、画素値補間処理には、例えば線形補間処理等が利用可能である。
あるいは、本構成例においても、先に図7、図8を参照して説明した処理にしたがってデプスマップを生成してもよい。すなわち、視差検出部106は、先に図8を参照して説明したように偏光領域における距離情報(デプス情報)を非偏光領域に展開することで、全画素領域の距離情報(デプス情報)を持つデプスマップ128を生成する構成としてもよい。
なお、この視差画像生成部107において実行する画像変換処理は、1枚の2次元画像(2D画像)に基づく画像変換により3次元画像表示に適用可能な左眼画像(L画像)151と、右眼画像(R画像)152を生成して出力する処理であり、先に図5を参照して説明した画像処理部17における視差画像生成部56と同様の2D3D変換処理を実行する。
例えば、図9〜図15を参照して説明した2D3D変換処理が適用可能である。なお、その他の既存の2D3D変換処理を行ってもよい。
また、水平偏光と垂直偏光の組み合わせのみならず、斜め方向の偏波光を透過させる偏光領域など、異なる2つの偏波方向を持つ偏光領域を任意に組み合わせた構成を適用することができる。
なお、第2偏光部15は、第1偏光部12の偏光領域の設定に対応させて、第1偏光部12に設定した偏光領域の1つの偏光部と同じ偏光領域を設定することが必要である。
前述したように、視差検出用右眼画像生成部(偏光画素ゲイン調整部)105は、PL(R)画素信号(偏光画素信号)125の輝度を、N画素信号(非偏光画素信号)の輝度レベルに合わせるゲイン調整処理を実行する。
撮像素子のPL(R)画素は、図1(B)に示す第1偏光部12の水平偏光領域12Hの半円領域の透過信号であり、一方、撮像素子のN画素は、第1偏光部12の全体(円領域)の透過信号である。
従って、図19に示すように、撮像素子のPL(R)画素はN画素に比較して輝度レベルが半分になるが、第1偏光部、および第2偏光部の特性などにより、必ずしも半分の輝度レベルになっていない。この輝度バラツキを補正するためにゲイン調整処理を実行する。
処理例1は、N画素とPL画素に対して、色毎の画像全体の平均と標準偏差を求め、通常N画素の各色の平均、標準偏差と、PL画素の各色の平均、標準偏差が同じになるように正規化を行う。この処理によって、ワイヤグリッド偏光子が配置されたPL(R)画素が、通常N画素とほぼ同一の平均および分布(標準偏差)となるように設定する。
まず、非偏光画素(N画素)の各色[Gr,Gb,B,R]、すなわち、
NGr、NGb、NB、NR
それぞれの平均と標準偏差を求める。
同様に、偏光画素(PL(R)画素)の各色[Gr,Gb,B,R]、すなわち、
PL(R)Gr、PL(R)Gb、PL(R)B、PL(R)R、
これらの平均と標準偏差を求める。
PL(R)GrとNGr、
PL(R)GbとNGb、
PL(R)BとNB、
PL(R)RとNR、
これらの各対応間で、平均と標準偏差が同じになるように正規化する。
図22(a)は、例えば、
非偏光画素(N画素)の1つの色、例えば、NGr画素の平均と標準偏差の非偏光画素(N画素)実測データ201、
偏光画素(PL(R)画素)の対応色であるPL(R)Gr画素の平均と標準偏差の偏光画素実測データ202、
これらの対比データを示している。
IPL1=IPL−F1
IPL2=IPL1×E
続いて、PL(R)画素の輝度平均をN画素の輝度平均に合わせるために、N画素の輝度平均であるオフセット2を加算する処理を行う。オフセット2の大きさをF2とすると、オフセット2加算後のPL画素の輝度IPL3は、次式で表わされる。
IPL3=IPL2+F2
視差検出用右眼画像生成部(偏光画素ゲイン調整部)105は、偏光画素(PL(R)画素)から処理対象とする画素を1つずつ選択して処理を行う。
一例として、図23に示す水平偏光領域15H内の1つの画素(R24)を処理対象とした場合の例について説明する。
本例では、図23に示すR04、およびR44が選択される。
E=IN/IPL・・・・・(式4)
上記(式4)において、
INはN画素の輝度値、
IPLはPL画素の輝度値、
を表わしている。
E04=R04/R24
E44=R44/R24
これらの輝度比率を算出する。
R20とR00の比率E00、
R20とR40の比率E40、
R22とR02の比率E02、
R22とR42の比率E42、
R26とR06の比率E06、
R26とR46の比率E46、
これらの6つの比率を算出する。これに加え前記の2つの比率E04、E44を加えた8つの比率に対して、中央値の計算を行う。
この中央値をゲイン値Eとして決定する。
IPL3=IPL×E・・・・・(式5)
ただし、
IPL:ゲイン処理前のPL画素の輝度
IPL3:ゲイン処理後のPL画素の輝度
である。
この処理結果を図18に示すゲイン調整右眼画像126として視差検出部106に出力する。
次に、上述した実施例2の画像処理装置の変形例として、右眼画像と通常画像から、左眼画像を生成せず、右眼画像と通常画像から視差検出を行い、デプスマップを生成する実施例について説明する。
本実施例3における全体構成は、図1(A)に示す撮像装置と同様の構成であり、第2偏光部15と撮像素子16は、上述の実施例2で説明した図16、図17に示す構成であり、水平偏光領域画素(PL(R)画素)と、非偏光領域画素(N画素)の繰り返し構成を持つ。
図24に示す画像処理部17と、先の実施例2において説明した図18に示す画像処理部17との差異は、図24に示す画像処理部17には、図18に示す視差検出用左眼画像生成部104がないことである。
本実施例3においては、視差検出部106に、視差検出用右眼画像生成部105において生成したゲイン調整右眼画像126と、非偏光画素補間処理部102の生成した補間画像[2D−Raw画像]122を入力してこれらの2つの画像に基づいて視差検出を実行してデプスマップ128を生成する。
その他の構成と処理は、前述の実施例2と同様である。
従って、視差検出部106は、右眼画像であるゲイン調整右眼画像126と、通常画像である補間画像[2D−Raw画像]122から検出される視差の大きさを2倍に拡大してデプスマップ128として出力する。
この実施例3では、視差検出用の左眼画像の生成処理を省略可能であり、画像処理部の構成と処理が簡略化されるメリットがある。
以上、特定の実施例を参照しながら、本開示の構成について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1) 各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段と、
前記第1偏光手段の透過光を入射する第2偏光手段であり、前記第1偏光領域または前記第2偏光領域のいずれか一方の透過光のみを透過させる第3偏光領域と、前記第1偏光領域と前記第2偏光領域の透過光を透過させる全透過領域からなる第2偏光手段と、
前記第2偏光手段の透過光を入力する撮像素子と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記画像処理部は、
前記第2偏光手段の前記全透過領域の透過光に基づく第1視点画像と、前記第2偏光手段の前記第3偏光領域の透過光に基づく第2視点画像を適用して被写体距離を反映した視差情報を生成し、該視差情報を適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理装置。
前記第2視点画像と前記第3視点画像を適用して前記視差情報を生成する。
(4)前記画像処理部の生成する視差情報は、画像の被写体距離情報を反映したデプスマップであり、前記画像処理部は、デプスマップを適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する前記(1)〜(3)いずれかに記載の画像処理装置。
(6)前記第2偏光手段の第3偏光領域は、ワイヤグリッド偏光子によって構成され、前記撮像素子の前記第1方向に直角な第2方向に延びるワイヤを有する構成である前記(1)〜(5)いずれかに記載の画像処理装置。
(8)前記画像処理部は、前記第2偏光手段の前記全透過領域に対応する撮像素子の画素位置からの撮像素子出力に基づく画像に含まれない前記第3偏光領域対応画素位置の画素値を補間する補間処理部と、前記補間処理部の生成した補間画像のデモザイク処理により各画素位置に各色の画素値を設定して前記第1視点画像を生成するデモザイク処理部と、前記デモザイク処理部の生成した前記第1視点画像に対して、前記視差情報を適用した画像変換処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成する前記(1)〜(7)に記載の画像処理装置。
(10)前記画像処理部の実行する前記視差情報を適用した画像変換処理は、前記第1視点画像に対して被写体距離に応じた画像シフト処理を行うことで3次元画像表示用の左眼用画像と右眼用画像を生成する2D3D変換処理である前記(1)〜(9)いずれかに記載の画像処理装置。
具体的には、異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段と、第1偏光領域または第2偏光領域のいずれか一方の透過光のみを透過させる第3偏光領域と、第1偏光領域と第2偏光領域の透過光を透過させる全透過領域からなる第2偏光手段と、第2偏光手段の透過光を入力する撮像素子と、撮像素子の出力信号に対する信号処理を実行する画像処理部を有する。画像処理部は、第2偏光手段の全透過領域の透過光に基づく第1視点画像と、第2偏光手段の第3偏光領域の透過光に基づく第2視点画像を適用して被写体距離を反映した視差情報を生成し、視差情報を適用した第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する。
11 撮影レンズ
12 第1偏光部
13 絞り
14 結像レンズ
15 第2偏光部
16 撮像素子
17 画像処理部
18 記憶部
51 偏光画素分離部
52 非偏光画素補間処理部
53 デモザイク処理部
54 偏光画素補間処理部
55 視差検出部
56 視差画像生成部
57 画像出力部
61 N画素信号(非偏光画素信号)
62 補間画像(2D−Raw画像)
63 2D−RGB画像
65 PL画素信号(偏光画素信号)
66 左眼右眼画像信号
67 デプスマップ
71 左眼画像(L画像)
72 右眼画像(R画像)
81 微分器
82 ゲイン制御部
83 非線形変換部
84 画像合成部
91 ゲイン係数算出部
92 乗算処理部
101 偏光画素分離部
102 非偏光画素補間処理部
103 デモザイク処理部
104 視差検出用左眼画像生成部
105 視差検出用右眼画像生成部
106 視差検出部
107 視差画像生成部
108 画像出力部
121 N画素信号(非偏光画素信号)
122 補間画像(2D−Raw画像)
123 2D−RGB画像
125 PL(R)画素信号(偏光画素信号)
126 ゲイン調整右眼画像
127 左眼画像
128 デプスマップ
151 左眼画像(L画像)
152 右眼画像(R画像)
Claims (14)
- 各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段と、
前記第1偏光手段の透過光を入射する第2偏光手段であり、前記第1偏光領域または前記第2偏光領域のいずれか一方の透過光のみを透過させる第3偏光領域と、前記第1偏光領域と前記第2偏光領域の透過光を透過させる全透過領域からなる第2偏光手段と、
前記第2偏光手段の透過光を入力する撮像素子と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記画像処理部は、
前記第2偏光手段の前記全透過領域の透過光に基づく第1視点画像と、前記第2偏光手段の前記第3偏光領域の透過光に基づく第2視点画像を適用して被写体距離を反映した視差情報を生成し、該視差情報を適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理装置。 - 前記第2偏光手段の前記全透過領域の透過光に基づく第1視点画像は、前記第1偏光手段の中心位置を視点とした通常画像であり、
前記第2偏光手段の前記第3偏光領域の透過光に基づく第2視点画像は、記第1偏光手段の前記第1偏光領域または前記第2偏光領域のいずれか一方の重心位置を視点とした右眼用画像または左眼用画像であり、
前記画像処理部は、
前記第1視点画像である前記通常画像と、前記第2視点画像である右眼用画像または左眼用画像のいずれかの視点画像を適用して、前記第2視点画像と異なる第3視点画像としての左眼用画像または右眼用画像を生成し、
前記第2視点画像と前記第3視点画像を適用して前記視差情報を生成する請求項1に記載の画像処理装置。 - 前記画像処理部は、
前記第1視点画像である前記通常画像の画素値から、前記第2視点画像である右眼用画像または左眼用画像の画素値を減算する処理により、前記第2視点画像と異なる第3視点画像としての左眼用画像または右眼用画像を生成する請求項2に記載の画像処理装置。 - 前記画像処理部の生成する視差情報は、画像の被写体距離情報を反映したデプスマップであり、
前記画像処理部は、
デプスマップを適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する請求項1に記載の画像処理装置。 - 前記第2偏光手段の第3偏光領域と全透過領域は、撮像素子平面の一方向である第1方向に複数画素単位で繰り返し設定された構成である請求項1に記載の画像処理装置。
- 前記第2偏光手段の第3偏光領域は、ワイヤグリッド偏光子によって構成され、前記撮像素子の前記第1方向に直角な第2方向に延びるワイヤを有する構成である請求項5に記載の画像処理装置。
- 前記画像処理部は、
前記第2偏光手段の前記第3偏光領域の透過光に基づく前記第2視点画像である右眼用画像または左眼用画像のいずれかの視点画像の輝度レベルを、
前記第2偏光手段の前記全透過領域の透過光に基づく第1視点画像の輝度レベルに合わせる輝度調整を実行し、
該輝度調整後の前記第2視点画像を適用して前記視差情報を生成する請求項1に記載の画像処理装置。 - 前記画像処理部は、
前記第2偏光手段の前記全透過領域に対応する撮像素子の画素位置からの撮像素子出力に基づく画像に含まれない前記第3偏光領域対応画素位置の画素値を補間する補間処理部と、
前記補間処理部の生成した補間画像のデモザイク処理により各画素位置に各色の画素値を設定して前記第1視点画像を生成するデモザイク処理部と、
前記デモザイク処理部の生成した前記第1視点画像に対して、前記視差情報を適用した画像変換処理を実行して3次元画像表示用の左眼用画像と右眼用画像を生成する請求項1に記載の画像処理装置。 - 前記画像処理部の実行する画像変換処理は、
2次元(2D)画像である前記第1視点画像に対して前記視差情報を適用した画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する2D3D変換処理である請求項1に記載の画像処理装置。 - 前記画像処理部の実行する前記視差情報を適用した画像変換処理は、
前記第1視点画像に対して被写体距離に応じた画像シフト処理を行うことで3次元画像表示用の左眼用画像と右眼用画像を生成する2D3D変換処理である請求項1に記載の画像処理装置。 - 撮像手段の撮影画像に対する画像処理を実行する画像処理装置であり、
前記撮像手段は、各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段の透過光に基づく画像を撮影する構成であり、
前記画像処理装置は、
前記第1偏光領域と前記第2偏光領域の全透過光からなる第1視点画像と、
前記第1偏光領域または前記第2偏光領域のいずれか一方の透過光のみからなる第2視点画像を入力し、
前記第1視点画像と、前記第2視点画像を適用して被写体距離を反映した視差情報を生成し、該視差情報を適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理装置。 - 各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段と、
前記第1偏光手段の透過光を入射する第2偏光手段であり、前記第1偏光領域の透過光のみを透過させる第3偏光領域と、前記第2偏光領域の透過光のみを透過させる第4偏光領域と、前記第1偏光領域と前記第2偏光領域の透過光を透過させる全透過領域からなる第2偏光手段と、
前記第2偏光手段の透過光を入力する撮像素子と、
前記撮像素子の出力信号に対する信号処理を実行する画像処理部を有し、
前記画像処理部は、
前記第2偏光手段の前記第3偏光領域の透過光に基づく視点画像と、前記第4偏光領域の透過光に基づく視点画像とを適用して被写体距離を反映した視差情報を生成し、該視差情報を適用して、前記第2偏光手段の前記全透過領域の透過光に基づく視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理装置。 - 画像処理装置において、撮像手段の撮影画像に対する画像処理を実行する画像処理方法であり、
前記撮像手段は、各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段の透過光に基づく画像を撮影する構成であり、
前記画像処理方法は、
画像処理部において、
前記第1偏光領域と前記第2偏光領域の全透過光からなる第1視点画像と、
前記第1偏光領域または前記第2偏光領域のいずれか一方の透過光のみからなる第2視点画像を入力し、
前記第1視点画像と、前記第2視点画像を適用して被写体距離を反映した視差情報を生成し、該視差情報を適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成する画像処理方法。 - 画像処理装置において、撮像手段の撮影画像に対する画像処理を実行させるプログラムであり、
前記撮像手段は、各々が異なる偏波光を透過させる第1偏光領域と第2偏光領域を有する第1偏光手段の透過光に基づく画像を撮影する構成であり、
前記プログラムは、
画像処理部に、
前記第1偏光領域と前記第2偏光領域の全透過光からなる第1視点画像と、
前記第1偏光領域または前記第2偏光領域のいずれか一方の透過光のみからなる第2視点画像を入力し、
前記第1視点画像と、前記第2視点画像を適用して被写体距離を反映した視差情報を生成し、該視差情報を適用した前記第1視点画像の画像変換処理により3次元画像表示用の左眼用画像と右眼用画像を生成させるプログラム。
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011171038A JP5831024B2 (ja) | 2011-08-04 | 2011-08-04 | 画像処理装置、および画像処理方法、並びにプログラム |
US14/233,195 US9532028B2 (en) | 2011-08-04 | 2012-06-21 | Image processing device, and image processing method, and program |
PCT/JP2012/065826 WO2013018451A1 (ja) | 2011-08-04 | 2012-06-21 | 画像処理装置、および画像処理方法、並びにプログラム |
RU2014102777/08A RU2014102777A (ru) | 2011-08-04 | 2012-06-21 | Устройство, способ и программа для обработки изображения |
CA2838610A CA2838610A1 (en) | 2011-08-04 | 2012-06-21 | Image processing device, and image processing method, and program |
EP12820114.2A EP2741504B1 (en) | 2011-08-04 | 2012-06-21 | Image processing device |
CN201280037902.1A CN103718547B (zh) | 2011-08-04 | 2012-06-21 | 图像处理设备、图像处理方法及程序 |
BR112014002132A BR112014002132A2 (pt) | 2011-08-04 | 2012-06-21 | dispositivo e método de processamento de imagem, e, programa |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011171038A JP5831024B2 (ja) | 2011-08-04 | 2011-08-04 | 画像処理装置、および画像処理方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013038502A JP2013038502A (ja) | 2013-02-21 |
JP5831024B2 true JP5831024B2 (ja) | 2015-12-09 |
Family
ID=47628987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011171038A Expired - Fee Related JP5831024B2 (ja) | 2011-08-04 | 2011-08-04 | 画像処理装置、および画像処理方法、並びにプログラム |
Country Status (8)
Country | Link |
---|---|
US (1) | US9532028B2 (ja) |
EP (1) | EP2741504B1 (ja) |
JP (1) | JP5831024B2 (ja) |
CN (1) | CN103718547B (ja) |
BR (1) | BR112014002132A2 (ja) |
CA (1) | CA2838610A1 (ja) |
RU (1) | RU2014102777A (ja) |
WO (1) | WO2013018451A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5982751B2 (ja) * | 2011-08-04 | 2016-08-31 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
JP6417666B2 (ja) * | 2013-05-15 | 2018-11-07 | 株式会社リコー | 画像処理システム |
JP6481375B2 (ja) | 2014-02-27 | 2019-03-13 | 株式会社リコー | 情報処理システム、情報処理方法、プログラム、および情報処理装置 |
CN106464853B (zh) * | 2014-05-21 | 2019-07-16 | 索尼公司 | 图像处理设备和方法 |
JP6391316B2 (ja) * | 2014-06-25 | 2018-09-19 | キヤノン株式会社 | 撮像装置 |
WO2016088483A1 (ja) | 2014-12-01 | 2016-06-09 | ソニー株式会社 | 画像処理装置と画像処理方法 |
DE102015216646B4 (de) * | 2015-08-31 | 2022-09-15 | Carl Zeiss Meditec Ag | Vorrichtung für das Erfassen von stereoskopischer Bildinformation sowie System und Verfahren für das stereoskopische Visualisieren eines Objektbereichs |
JP2018029280A (ja) * | 2016-08-18 | 2018-02-22 | ソニー株式会社 | 撮像装置と撮像方法 |
JP7261168B2 (ja) * | 2017-10-30 | 2023-04-19 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置及び電子機器 |
US11049275B2 (en) * | 2018-11-21 | 2021-06-29 | Samsung Electronics Co., Ltd. | Method of predicting depth values of lines, method of outputting three-dimensional (3D) lines, and apparatus thereof |
JP7528929B2 (ja) * | 2019-04-19 | 2024-08-06 | ソニーグループ株式会社 | 撮像装置と画像処理装置および画像処理方法 |
WO2021070867A1 (ja) * | 2019-10-07 | 2021-04-15 | ソニーセミコンダクタソリューションズ株式会社 | 電子機器 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0654991B2 (ja) | 1987-08-25 | 1994-07-20 | シャープ株式会社 | 立体撮影装置 |
JP2971259B2 (ja) | 1992-08-06 | 1999-11-02 | 富士車輌株式会社 | ドライクリーニング機 |
US8369607B2 (en) * | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
JP2004228629A (ja) * | 2003-01-20 | 2004-08-12 | Sharp Corp | 3次元視差画像用撮像素子、撮像光学系及び撮像装置 |
JP2004309868A (ja) * | 2003-04-08 | 2004-11-04 | Sony Corp | 撮像装置及び立体映像生成装置 |
GB2453163B (en) * | 2007-09-26 | 2011-06-29 | Christopher Douglas Blair | Three-dimensional imaging system |
WO2009147814A1 (ja) | 2008-06-02 | 2009-12-10 | パナソニック株式会社 | 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置 |
US20100321777A1 (en) * | 2009-06-18 | 2010-12-23 | Sony Corporation | Method and apparatus for optimizing stereoscopic effect in a camera |
JP5391914B2 (ja) * | 2009-08-06 | 2014-01-15 | ソニー株式会社 | 撮像装置および映像記録再生システム |
JP5387377B2 (ja) * | 2009-12-14 | 2014-01-15 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
US9036004B2 (en) * | 2010-01-05 | 2015-05-19 | Panasonic Intellectual Property Management Co., Ltd. | Three-dimensional image capture device |
JP5454424B2 (ja) * | 2010-09-03 | 2014-03-26 | ソニー株式会社 | 撮像方法 |
-
2011
- 2011-08-04 JP JP2011171038A patent/JP5831024B2/ja not_active Expired - Fee Related
-
2012
- 2012-06-21 BR BR112014002132A patent/BR112014002132A2/pt not_active IP Right Cessation
- 2012-06-21 CA CA2838610A patent/CA2838610A1/en not_active Abandoned
- 2012-06-21 US US14/233,195 patent/US9532028B2/en active Active
- 2012-06-21 EP EP12820114.2A patent/EP2741504B1/en not_active Not-in-force
- 2012-06-21 CN CN201280037902.1A patent/CN103718547B/zh not_active Expired - Fee Related
- 2012-06-21 RU RU2014102777/08A patent/RU2014102777A/ru unknown
- 2012-06-21 WO PCT/JP2012/065826 patent/WO2013018451A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2013018451A1 (ja) | 2013-02-07 |
EP2741504A4 (en) | 2015-03-25 |
BR112014002132A2 (pt) | 2017-02-21 |
CA2838610A1 (en) | 2013-02-07 |
CN103718547A (zh) | 2014-04-09 |
US20140218486A1 (en) | 2014-08-07 |
JP2013038502A (ja) | 2013-02-21 |
EP2741504B1 (en) | 2016-11-02 |
US9532028B2 (en) | 2016-12-27 |
EP2741504A1 (en) | 2014-06-11 |
RU2014102777A (ru) | 2015-08-10 |
CN103718547B (zh) | 2016-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5831024B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5982751B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US9538163B2 (en) | Image processing apparatus, image processing method, and program | |
US9247227B2 (en) | Correction of the stereoscopic effect of multiple images for stereoscope view | |
JP5879713B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
WO2011078244A1 (ja) | 多眼撮像装置および多眼撮像方法 | |
JP2013005259A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5433109B2 (ja) | 立体撮像装置および立体撮像方法 | |
JP5370606B2 (ja) | 撮像装置、画像表示方法、及びプログラム | |
WO2012133286A1 (ja) | 立体画像生成装置及び立体画像生成方法 | |
JP5931062B2 (ja) | 立体画像処理装置、立体画像処理方法、及びプログラム | |
JP5982907B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
WO2012014695A1 (ja) | 立体撮像装置およびその撮像方法 | |
JP2011182325A (ja) | 撮像装置 | |
JP6070061B2 (ja) | 画像処理装置、撮影装置、画像処理方法およびプログラム | |
JP6255753B2 (ja) | 画像処理装置および撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151012 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5831024 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |