JPWO2012023330A1 - 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体 - Google Patents
画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体 Download PDFInfo
- Publication number
- JPWO2012023330A1 JPWO2012023330A1 JP2012529511A JP2012529511A JPWO2012023330A1 JP WO2012023330 A1 JPWO2012023330 A1 JP WO2012023330A1 JP 2012529511 A JP2012529511 A JP 2012529511A JP 2012529511 A JP2012529511 A JP 2012529511A JP WO2012023330 A1 JPWO2012023330 A1 JP WO2012023330A1
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- image
- stereoscopic
- image processing
- areas
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
本発明の一態様は、画像処理装置が、立体動画の出力条件に従って前記立体動画の複数の立体画像フレームの各々の水平方向の視差を調整するステップと、視差調整された各立体画像フレームに対応する左右の視点画像の画像情報が所定の出力面の左右端部の左右の非出力領域のうち、所定の基準を満たす左右の非出力領域の水平方向の幅に基づいて、前記立体画像フレームの各々に共通する左右の基準境界を設定するステップと、各立体画像フレームにおいて、前記左右の基準境界よりもそれぞれ前記出力面の中央側に位置する非出力領域である左右の補完対象領域に対して、前記左右の補完対象領域とそれぞれ隣接する隣接領域の画像情報を前記左右の補完対象領域のそれぞれに適用して、前記左右の補完対象領域の画像情報を補完するステップと、前記画像情報を補完した各立体画像フレームを、前記調整した視差に従って出力するステップとを実行する画像処理方法を提供する。
Description
本発明は、画像処理に関し、特に、立体動画の各立体画像フレームの両眼視差の調整後の画像の補完処理に関する。
特許文献1によると、視差画像のシフトによる視差調整の結果、左眼画像と右眼画像の端にそれぞれ欠落部分が生じた場合、画像端調整部は、画像端の画素列を複製して水平画素数を補償する。
また、表示されたオブジェクトが限界視差にくれば、視差制御部が以降の立体表示において当該適正視差を実現するよう視差画像を生成する。視差の制御は、三次元データに遡ってカメラパラメータを最適設定することで実現する。二次元画像生成部は、適正視差を満たすデプスFxyを計算する。デプスの範囲をK1〜K2とし、各画素のデプス値をGxyとすると、Fxy=J1+(Gxy−K1)×(J2−J1)/(K2−K1)である。Fxyが整数にならない場合は、四捨五入や近置視差が小さくなるような処理を施す。
視差を用いた立体動画は、適切な視差量で表示しないと、視聴者の疲労を誘発するおそれがある。適切な視差量は表示するディスプレイのサイズや視聴者の立体融合限界などによって変わるため、立体動画を構成する立体画像フレームごとに、それに合わせた視差調整を行う必要がある。
立体画像フレームごとに個別に視差調整を行うと、立体画像フレームごとに左右の画像の視差方向のシフト量が異なる場合がある。図16Aから図16Dは、視差調整後の左右画像と欠落部分(左右画像に写っていない部分)の関係を模式的に示す図である。図16Aから図16Dは、それぞれ時系列的に連続する立体画像フレームF(1)からF(4)を示している。図16Aから図16Dでは、実線の無地の矩形部分が左眼画像L(i)(i=1〜4)、破線の無地の矩形部分が右眼画像R(i)(i=1〜4)を表しており、左眼画像L(i)および右眼画像R(i)の左右の斜線部がそれぞれ欠落部分ML(i)(i=1〜4)およびMR(i)(i=1〜4)を示している。なお、図16Aから図16Dでは、理解の容易のため、左右画像L(i)およびR(i)は上下方向にずらして示されているが、実際には、左右の視差方向にのみずれている。図16Aから図16Dに示すように、各フレームF(i)の左眼画像L(i)と右眼画像R(i)(i=1〜4)の端の欠落部分ML(i)およびMR(i)が、立体画像フレームごとに異なっており、左右画像L(i)およびR(i)の視野(撮影される範囲)が異なっている。このため、立体動画の視聴者に違和感を与え、眼の疲労を誘発するおそれがある。このため、立体画像フレームにかかわらず、左右画像L(i)およびR(i)の視野(欠落部分の映像の範囲)を一致させた方が好ましい。
特許文献1では、静止画像について、個別に処理することのみが記載されている。特許文献1に記載の方法では、各立体画像フレームごとに画像端の欠落部分の位置が変動するおそれがある。また、画像端の画素列を複製するだけであり、観察者に違和感を与えることが考えられる。
本発明は、立体動画の各立体画像フレームの視差調整によって、各立体画像フレームごとに画像端の欠落の位置が変動するのを防止する。
本発明の一態様は、立体動画を構成する複数の立体画像フレームの入力を受け付け、各立体画像フレームを構成する左右の視点画像間の水平方向の視差を取得する視差取得部と、前記立体動画の出力条件に従って前記立体画像フレームの各々の水平方向の視差を調整する視差調整部と、前記視差調整部によって視差が調整された各立体画像フレームに対応する左右の視点画像の画像情報が所定の出力面の左右端部においてそれぞれ不存在となる領域である左右の非出力領域のうち、所定の基準を満たす左右の非出力領域の水平方向の幅に基づいて、前記立体画像フレームの各々に共通する左右の基準境界を設定する基準境界設定部と、各立体画像フレームにおいて、前記基準境界設定部の設定した左右の基準境界よりもそれぞれ前記出力面の中央側に位置する非出力領域である左右の補完対象領域に対して、前記左右の補完対象領域とそれぞれ隣接する左右の視点画像内の部分領域である隣接領域の画像情報を前記左右の補完対象領域のそれぞれに適用することにより、前記左右の補完対象領域の画像情報を補完する画像処理部と、前記画像処理部が前記左右の補完対象領域に前記画像情報を補完した各立体画像フレームを、前記視差調整部が調整した視差に従って出力する出力部とを備える画像処理装置を提供する。
基準境界設定部は、出力面の水平方向の幅が最小となる左右の非出力領域の中央側境界に基づいて、左右の基準境界を設定することが好ましい。
基準境界設定部は、視差調整部による水平方向の視差の調整量が0となる立体画像フレームに対応する左右の非出力領域の中央側境界に基づいて、左右の基準境界を設定することが好ましい。
画像処理部は、左右の基準境界よりも出力面の外側に位置する左右の視点画像の画像情報を削除することが好ましい。
画像処理部は、隣接領域の画像情報を補完対象領域に複製することにより画像情報を補完する第1の補完処理を実施することが好ましい。
画像処理部は、隣接領域の色情報を補完対象領域に適用することにより画像情報を補完する第2の補完処理を実施することが好ましい。
画像処理部は、隣接領域の色の濃度勾配情報に従って隣接領域の色を補完対象領域に延長することにより画像情報を補完することが好ましい。
画像処理部は、左右の隣接領域の画像情報に含まれる直線を左右の補完対象領域に延長することにより画像情報を補完することが好ましい。
画像処理部は、左右の隣接領域の直線で区切られる部分領域ごとの色情報を、左右の補完対象領域に延長された直線で区切られる部分領域ごとに適用することにより画像情報を補完することが好ましい。
画像処理部は、隣接領域の画像情報が所定の基準を満たすか否かを判定し、判定結果に基づいて、第1の補完処理または第2の補完処理のいずれか一方を実施することが好ましい。
画像処理部は、隣接領域の高周波数成分の頻度が所定の閾値を上回る場合、第1の補完処理を実施し、隣接領域の高周波数成分の頻度が所定の閾値を上回らない場合、第2の補完処理を実施することが好ましい。
画像処理部は、左右の補完対象領域の画素数が所定の閾値を下回る場合、左右の隣接領域の色情報を左右の補完対象領域に適用することにより画像情報を補完することが好ましい。
基準境界設定部は、各立体画像フレームの視差の最大値および最小値で規定される視差幅が所定の閾値を超える場合、出力面の水平方向の幅が最小となる左右の非出力領域の中央側境界に基づいて、左右の基準境界を設定することが好ましい。
基準境界設定部は、各立体画像フレームの視差の最大値および最小値で規定される視差幅が所定の閾値を超えない場合、視差調整部による視差の調整量が0となる立体画像フレームに対応する左右の非出力領域の中央側境界に基づいて、左右の基準境界を設定することが好ましい。
画像処理部は、左右の基準境界の近傍の画像情報を平滑化することが好ましい。
本発明の一態様は、画像処理装置が、立体動画を構成する複数の立体画像フレームの入力を受け付け、各立体画像フレームを構成する左右の視点画像間の水平方向の視差を取得するステップと、前記立体動画の出力条件に従って前記立体画像フレームの各々の水平方向の視差を調整するステップと、前記視差が調整された各立体画像フレームに対応する左右の視点画像の画像情報が所定の出力面の左右端部においてそれぞれ不存在となる領域である左右の非出力領域のうち、所定の基準を満たす左右の非出力領域の水平方向の幅に基づいて、前記立体画像フレームの各々に共通する左右の基準境界を設定するステップと、各立体画像フレームにおいて、前記設定した左右の基準境界よりもそれぞれ前記出力面の中央側に位置する非出力領域である左右の補完対象領域に対して、前記左右の補完対象領域とそれぞれ隣接する左右の視点画像内の部分領域である隣接領域の画像情報を前記左右の補完対象領域のそれぞれに適用することにより、前記左右の補完対象領域の画像情報を補完するステップと、前記左右の補完対象領域に前記画像情報を補完した各立体画像フレームを、前記調整した視差に従って出力するステップとを実行する画像処理方法を提供する。
本発明の一態様は、画像処理装置が、立体動画を構成する複数の立体画像フレームの入力を受け付け、各立体画像フレームを構成する左右の視点画像間の水平方向の視差を取得するステップと、前記立体動画の出力条件に従って前記立体画像フレームの各々の水平方向の視差を調整するステップと、前記視差が調整された各立体画像フレームに対応する左右の視点画像の画像情報が所定の出力面の左右端部においてそれぞれ不存在となる領域である左右の非出力領域のうち、所定の基準を満たす立体画像フレームに対応する左右の非出力領域の水平方向の幅に基づいて、前記立体画像フレームの各々に共通する左右の基準境界を設定するステップと、各立体画像フレームにおいて、前記設定した左右の基準境界よりもそれぞれ前記出力面の中央側に位置する非出力領域である左右の補完対象領域に対して、前記左右の補完対象領域とそれぞれ隣接する左右の視点画像内の部分領域である隣接領域の画像情報を前記左右の補完対象領域のそれぞれに適用することにより、前記左右の補完対象領域の画像情報を補完するステップと、前記左右の補完対象領域に前記画像情報を補完した各立体画像フレームを、前記調整した視差に従って出力するステップとを実行するための画像処理プログラムを提供する。
本発明の一態様は、コンピュータ読取可能な記録媒体であって、該記録媒体に格納された指令がプロセッサによって読み取られ実行された場合に、該プロセッサが、立体動画を構成する複数の立体画像フレームの入力を受け付け、各立体画像フレームを構成する左右の視点画像間の水平方向の視差を取得するステップと、前記立体動画の出力条件に従って前記立体画像フレームの各々の水平方向の視差を調整するステップと、前記視差が調整された各立体画像フレームに対応する左右の視点画像の画像情報が所定の出力面の左右端部においてそれぞれ不存在となる領域である左右の非出力領域のうち、所定の基準を満たす立体画像フレームに対応する左右の非出力領域の水平方向の幅に基づいて、前記立体画像フレームの各々に共通する左右の基準境界を設定するステップと、各立体画像フレームにおいて、前記設定した左右の基準境界よりもそれぞれ前記出力面の中央側に位置する非出力領域である左右の補完対象領域に対して、前記左右の補完対象領域とそれぞれ隣接する左右の視点画像内の部分領域である隣接領域の画像情報を前記左右の補完対象領域のそれぞれに適用することにより、前記左右の補完対象領域の画像情報を補完するステップと、前記左右の補完対象領域に前記画像情報を補完した各立体画像フレームを、前記調整した視差に従って出力するステップとを実行する記録媒体を提供する。
この発明によると、各立体画像フレームに設定された基準境界の内側にある画像情報の非存在領域である補完対象領域に対し、隣接領域の画像情報が適用されることで、各立体画像フレームの画像情報の非存在領域が共通の基準境界まで補完される。このため、各立体画像フレームの画像情報の非存在領域の位置およびサイズが統一され、ユーザは違和感なく立体動画を視覚できる。また、補完対象領域の補完は隣接領域の画像情報を適用することで行われるため、基準境界付近での画像情報の差異が少なく、ユーザに与える違和感が小さい。
図1は、本発明の一実施形態であるデジタルカメラ10の外観構成を示す正面斜視図である。図2は、そのデジタルカメラの一例の外観構成を示す背面斜視図である。
デジタルカメラ10は、複数の撮像部(図1では2つを例示)を備えており、同一被写体を複数視点(図1では左右2つの視点を例示)から撮影可能となっている。なお、本例では、説明の便宜のため2つの撮像部を備えた場合を例に説明するが、本発明はこれに限定されず、3つ以上の撮像部を備えた場合であっても同様に適用可能である。
本例のデジタルカメラ10のカメラボディ112は、矩形の箱状に形成されている。カメラボディ112の正面には、図1に示すように、一対の撮影光学系11R、11Lと、ストロボ116が設けられている。また、カメラボディ112の上面には、レリーズボタン14、電源/モードスイッチ120、モードダイヤル122等が設けられている。また、カメラボディ112の背面には、図2に示すように、液晶表示装置(LCD:Liquid Crystal Display)などで構成されたモニタ13、ズームボタン126、十字ボタン128、MENU/OKボタン130、DISPボタン132、BACKボタン134等が設けられている。モニタ13はデジタルカメラ10に内蔵されていてもよいし外部機器でもよい。
左右一対の撮影光学系11R、11Lは、それぞれ沈胴式のズームレンズ(図3の18R、18L)を含んで構成されており、デジタルカメラ10の電源をONすると、カメラボディ112から繰り出される。なお、撮影光学系におけるズーム機構や沈胴機構については、公知の技術なので、ここでは、その具体的な説明を省略する。
モニタ13は、半円筒状のレンズ群を有したいわゆるレンチキュラレンズが前面に配置されたカラー液晶パネル等の表示装置である。このモニタ13は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUI(Graphical User Interface)として利用される。また、撮影時には、撮像素子で捉えた画像がスルー表示され、電子ファインダとして利用される。なお、モニタ13の立体画像の表示方式は、パララックスバリア方式に限られない。例えば、アナグリフ方式、偏光フィルタ方式、液晶シャッタ方式など、めがねを利用した立体画像の表示方式でもよい。
レリーズボタン14は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。デジタルカメラ10は、静止画撮影時(例えば、モードダイヤル122またはメニューによる静止画撮影モード選択時)、このレリーズボタン14を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押しすると、画像の撮影・記録処理を行う。また、立体動画撮影時(例えば、モードダイヤル122またはメニューにより立体動画撮影モード選択時)、このレリーズボタン14を全押しすると、立体動画の撮影を開始し、再度全押しすると、撮影を終了する。なお、設定により、レリーズボタン14を全押ししている間、立体動画の撮影を行い、全押しを解除すると、撮影を終了するようにもできる。なお、静止画撮影専用のレリーズボタンおよび立体動画撮影専用のレリーズボタンを設けてもよい。
電源/モードスイッチ120(電源スイッチ及びモードスイッチ)は、デジタルカメラ10の電源スイッチとして機能するとともに、デジタルカメラ10の再生モードと撮影モードとを切り替えるための操作部材として機能する。モードダイヤル122は、撮影モードの設定に用いられる。デジタルカメラ10は、このモードダイヤル122を「2D静止画位置」にセットすることにより、2Dの静止画を撮影する2D静止画撮影モードに設定され、「3D静止画位置」にセットすることにより、3Dの静止画を撮影する3D静止画撮影モードに設定される。さらに、「3D動画位置」にセットすることにより、3Dの動画を撮影する3D動画撮影モードに設定される。
ズームボタン126は、撮影光学系11R、11Lのズーム操作に用いられ、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとで構成されている。十字ボタン128は、上下左右4方向に押圧操作可能に設けられており、各方向の押圧操作に対して、カメラの設定状態に応じた機能が割り当てられる。MENU/OKボタン130は、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられる。DISPボタン132は、モニタ13の表示内容の切り替え指示等の入力に用いられ、BACKボタン134は入力操作のキャンセル等の指示の入力に用いられる。
図3Aおよび図3Bは、デジタルカメラ10の要部を示すブロック図である。
デジタルカメラ10は、右視点用の撮影光学系11Rおよび撮像素子29Rを有する右視点用の撮像部と、左視点用の撮影光学系および撮像素子29Lを有する左視点用の撮像部を備える。
2つの撮影光学系11(11R、11L)は、それぞれズームレンズ18(18R、18L)、フォーカスレンズ19(19R、19L)および絞り20(20R、20L)を有する。これらのズームレンズ18、フォーカスレンズ19および絞り20は、それぞれズームレンズ制御部22(22R、22L)、フォーカスレンズ制御部23(23R、23L)および絞り制御部24(24R、24L)により駆動される。各制御部22、23、24は、ステッピングモータからなり、CPU(Central Processing Unit)26に接続された不図示のモータドライバから与えられる駆動パルスにより制御される。
2つの撮影光学系11(11R、11L)の背後には、それぞれ、CCD(Charge Coupled Device)イメージセンサ(以下単に「CCD」という)29(29R、29L)が配置されている。なお、CCD29の代りに、MOS(metal−oxide semiconductor)型のイメージセンサを用いるようにしてもよい。CCD29は、周知のように、複数の光電変換素子が並べられた光電変換面を有している。この光電変換面に撮影光学系11を介して被写体光が入射することにより、被写体像が結像される。CCD29には、CPU26によって制御されるタイミングジェネレータ:TG31(31R、31L)が接続される。このTG31から入力されるタイミング信号(クロックパルス)により、電子シャッタのシャッタ速度(各光電変換素子の電荷蓄積時間である)が決定される。
CCD29から出力された撮像信号は、アナログ信号処理回路33(33R、33L)に入力される。アナログ信号処理回路33は、相関2重サンプリング回路(CDS)、増幅器(AMP)などを有する。CDSは、撮像信号から各画素の蓄積電荷時間に対応したR、G、Bの画像データを生成する。AMPは、生成された画像データを増幅する。
AMPは、CCD29の感度を調節する感度調節部として機能する。CCD29のISO(International Organization for Standardization)感度は、AMPのゲインによって決定される。A/D変換器36(36R、36L)は、増幅された画像データをアナログからデジタルに変換する。A/D変換器36(36R、36L)から出力されたデジタルの画像データは、画像入力コントローラ38(38R、38L)を介して、作業用のメモリであるSDRAM(Synchronous Dynamic Random Access Memory)39によりそれぞれ右の視点の画像データ、左の視点の画像データとして一時的に記憶される。
デジタル信号処理部41は、SDRAM39から画像データを読み出して、階調変換、ホワイトバランス補正、γ補正処理、YC変換処理などの各種画像処理を施し、この画像データを再度SDRAM39に記憶させる。デジタル信号処理部41による画像処理済みの画像データは、VRAM(Video Random Access Memory)65にスルー画として取得されたのち、表示制御部42で映像出力用のアナログ信号に変換され、モニタ13に表示される。また、レリーズボタン14の全押しに伴って取得された画像処理済みの画像データは、圧縮伸張処理部43で所定の圧縮形式(例えば、JPEG(Joint Photographic Experts Group)形式)で圧縮された後、メディア制御部15を経由して、記録用画像としてメモリカード16に記録される。
操作部25は、デジタルカメラ10の各種操作を行うためのものであり、図1および図2に示した各種のボタン・スイッチ120〜134を含んでいる。
CPU26は、デジタルカメラ10を統括的に制御するために設けられている。CPU26は、フラッシュROM(read−only memory)60やROM61に記憶された各種制御用のプログラムや設定情報、姿勢検出センサ73や操作部25からの入力信号などに基づいて、バッテリー70、電源制御部71、時計部72など各部を制御する。
また、デジタルカメラ10には、AE(Auto Exposure)/AWB(Auto White Balance)制御を行うAE/AWB制御部47、複数の立体画像フレームの各々の代表視差の検出を行う視差検出部49が設けられている。また、デジタルカメラ10は、フラッシュ5の発光タイミングや発光量を制御するフラッシュ制御部28を備える。
AE/AWB制御部47は、レリーズボタン14が半押しされたときに、CCD29により得られた画像(撮像画像)を解析して、被写体の輝度情報等に基づき、絞り20の絞り値およびCCD29の電子シャッタのシャッタ速度を算出する。そして、これらの算出結果に基づき、AE/AWB制御部47は、絞り制御部24を介して絞り値を制御し、TG31を介してシャッタ速度を制御する。
例えば、2つの撮影光学系11R、11Lのうち一方の撮影光学系のCCD29Rまたは29Lにより得られた撮像画像(右視点画像または左視点画像)に基づいて、両方の撮影光学系11R、11Lの絞り値およびシャッタ速度を算出する。両方の撮影光学系11Rおよび11Lにより得られた撮像画像(右視点画像および左視点画像)に基づいて、それぞれの撮影光学系11R、11Lの絞り値およびシャッタ速度を算出してもよい。
AF制御部45は、レリーズボタン14が半押しされたときに、フォーカスレンズ19R、19Lを光軸方向に沿って移動させてコントラスト値を算出するAFサーチ制御、および、コントラスト値に基づく合焦レンズ位置にフォーカスレンズ19R、19Lを移動させる合焦制御を行う。ここで、「コントラスト値」は、CCD29R、29Lにより得られた撮像画像の所定の合焦評価値算出領域内の画像信号に基づいて算出される。「合焦レンズ位置」は、フォーカスレンズ19R、19Lが少なくとも主要被写体に合焦するフォーカスレンズ19R、19Lの位置である。
例えば、2つの撮影光学系11R、11Lのフォーカスレンズ19R、19Lのうち少なくとも一方を、モータドライバ27Rまたは27Lの駆動により移動させながら、一方の撮影光学系11Rまたは11Lの撮像画像(右視点画像または左視点画像)にて、コントラスト値を算出する。そのコントラスト値に基づき、2つの撮影光学系11R、11Lのフォーカスレンズ19R、19Lの合焦レンズ位置をそれぞれ決定し、モータドライバ27Rおよび27Lをそれぞれ駆動して、各フォーカスレンズ19R、19Lをそれぞれの合焦レンズ位置に移動させる。両方の撮影光学系11R、11LにてそれぞれAFサーチを行って、それぞれの合焦レンズ位置を決定してもよい。
姿勢検出センサ73は、撮影光学系11R、11Lが予め決められた姿勢に対して回転された方向および角度を検出する。
手ブレ制御部62は、撮影光学系11R、11Lに設けられた図示しない補正レンズをモータによって駆動することで、姿勢検出センサ73の検出した光軸のずれを補正して手ブレを防止する。
CPU26は、撮影光学系11R、11Lの被写体像に対応する左右の画像データから顔認識を行うよう顔認識部64を制御する。顔認識部64は、CPU26の制御に応じて顔認識を開始し、左右の画像データからそれぞれ顔認識を行う。顔認識部64は、顔認識の結果、左右の画像データからそれぞれから認識された顔領域の位置情報を含む顔領域情報をSDRAM39に記憶する。顔認識部64は、テンプレートマッチングなど公知の方法により、SDRAM39に記憶された画像から顔領域を認識することができる。なお被写体の顔領域とは、撮像画像中の人物や動物の顔領域が挙げられる。
顔対応判定部66は、右の画像データから認識された顔領域と左の画像データから認識された顔領域の対応関係を判定する。すなわち、顔対応判定部66は、左右の画像データからそれぞれから認識された顔領域の位置情報同士が最も近接する顔領域の組を特定する。そして、顔対応判定部66は、当該組を構成する顔領域同士の画像情報をマッチングし、両者の同一性の確度が所定の閾値を超えた場合、当該組を構成する顔領域同士は対応関係にあると判定する。
視差検出部49は、左右画像データの所定の領域間の代表視差を算出する。
例えば、代表視差の算出は、次のようにする。まず、視差検出部49は、組を構成する顔領域間で対応する特定の点(対応点)間の位置の差(対応点間距離)を算出する。そして、視差検出部49は、当該組の顔領域に含まれる点の視差の平均値を算出し、これを当該組の代表視差とする。視差検出部49は、対応関係にあると判定された顔領域が複数存在する場合、それらの顔領域のうち、主要な顔領域についてのみ代表視差の算出を行い、この主要な顔領域の代表視差をSDRAM39に記憶する。主要な顔領域とは、画面中央に最も近い顔領域、合焦評価値算出領域に最も近い顔領域、サイズの最も大きい顔領域などである。
あるいは、視差検出部49は、左右の画像で対応関係にある所定の領域、例えば、画像中央領域や合焦評価値算出領域内の対応点間の視差の平均値を算出し、これを当該組の代表視差とする。
対応関係にある所定の領域の位置情報とその代表視差は、左右の画像データと対応づけられてSDRAM39に記憶される。例えば、対応関係にある顔領域の位置情報とその代表視差は、画像データの付帯情報(ヘッダ、タグ、メタ情報など)として記憶される。画像データがメモリカード16に記録用画像として圧縮記録される際は、例えば、Exif(Exchangeable image file format)などのタグ情報として、この顔領域の位置情報と代表視差が合わせて記録用画像の付帯情報に記録される。
表示許容視差幅取得部204は、表示許容最小視差Dminおよび表示許容最大視差Dmaxを取得し、視差調整部202に入力する。取得の態様は任意であり、操作部25から入力されてもよいし、ROM61や立体動画データの付帯情報などから入力してもよいし、モニタ13から制御情報として入力されてもよい。
表示許容最大視差Dmaxは、開散方向の視差(モニタ13上の立体画像が引っ込む方向)の限界を規定する。図4Aに例示するように、人の目は外側には開かないので、瞳孔間距離を超える視差を有する左右像は融合せず、視聴者が1つの像として認識できないので、眼精疲労を引き起こす。子供の視聴者を考慮すると、瞳孔間距離は、約5cmであるので、この距離に相当するモニタ13のピクセル数が表示許容最大視差Dmaxとなる。例えば、モニタ13が16:9インチサイズのハイビジョンテレビであり、解像度が1920×1080とすると、モニタ13のサイズごとの表示許容最小視差Dminは、図4Bのようになる。デジタルカメラや携帯電話の内蔵画面のようにモニタ13のサイズが小さければ、開散方向の視差は問題となりにくいが、テレビのように表示面のサイズが大きいモニタ13の場合は、開散方向の視差が問題になる。
表示許容最小視差Dminは、過大視差(モニタ13上の立体画像が飛び出す方向)の限界を規定する。表示許容最小視差Dminは表示許容最大視差Dmaxと異なり瞳孔間距離から一意に決定することができない。例えば、表示許容最小視差Dminを決定する出力条件としては、(1)モニタ13のサイズ、(2)モニタ13の解像度、(3)観視距離(視聴者からモニタ13までの距離)、(4)視聴者個人の立体融合限界がある。
標準的な例として、(2)ハイビジョンテレビのモニタ13の解像度は1920×1080、(3)観視距離はモニタ13の画面高さの3倍である。これらを前提とすると、(4)一般的な立体融合限界は57ピクセル(視差角1度程度)である。(1)〜(4)の情報はユーザ操作やモニタ13の設定情報などに基づいて外部から入力されてもよい。例えば、ユーザは操作部25を介して、自分の観ているモニタ13の解像度、観視距離、立体融合限界を入力できる。ただし、(2)〜(4)について特に外部から入力がない場合、上記標準的な例をROM61などから読み出して視差調整部202に入力する。
視差調整部202は、左右の画像データの代表視差の最大値および最小値を、表示許容最小視差Dminから表示許容最大視差Dmaxまでの範囲からなる表示許容視差幅に収める視差調整を行う。この視差調整は、各代表視差を一律なシフト量で正(上)または負(下)の方向にシフトすることおよび/または各代表視差を一律な縮減率で縮減することを含む。
図5は、視差調整処理のフローチャートを示す。この処理をデジタルカメラ10の各ブロックに実行させるためのプログラムはROM61などのコンピュータ読み取り可能な記憶媒体に記憶されている。
S101では、視差調整部202は、SDRAM39またはメモリカード16に記憶された立体動画の各立体画像フレームの左右の画像データと、当該立体動画の付帯情報から、各立体画像フレームごとの代表視差の読み出しを試みる。
S102では、表示許容視差幅取得部204は、表示許容視差幅をSDRAM39に取得する。表示許容視差幅は、表示許容最小視差Dminから表示許容最大視差Dmaxまでの範囲をいう。表示許容視差幅の取得元は、操作部25、内蔵のROM61、外部のモニタ13や電子機器などを含む。
S103では、視差調整部202は、各立体画像フレームの代表視差から、代表視差の最大値pmaxと代表視差の最小値pminを特定し、立体動画視差幅=pmax−pminを計算する。そして、視差調整部202は、立体動画視差幅<表示許容視差幅であるか否かを判断する。Yesの場合はS105に進み、Noの場合はS104に進む。
S104では、視差調整部202は、立体動画視差幅が表示許容視差幅に収まるよう各立体画像フレームの代表視差を調整する。
S105では、視差調整部202は、代表視差の最大値pmax>表示許容最大視差Dmaxであるか否かを判断する。Yesの場合はS107に進み、Noの場合はS106に進む。
S106では、視差調整部202は、代表視差の最小値pmin<表示許容最小視差Dminであるか否かを判断する。Yesの場合はS107に進み、Noの場合はS108に進む。
S107では、視差調整部202は、立体動画視差幅が表示許容視差幅に収まるよう各立体画像フレームの代表視差をシフトする。
S108では、視差調整部202は、ROM61などに記憶されている代表視差−出力視差変換表をSDRAM39に読み出す。視差調整部202は、ROM61などに記憶された代表視差−出力視差変換表に従って、各立体画像フレームの代表視差に対応する出力視差を決定する。
図6は、代表視差−出力視差変換表の一例を示す。図6に示す表は、各立体画像フレームの任意の値の代表視差に対応する整数の出力視差を規定する。例えば、この表によると、M〜M+tの代表視差はNの出力視差,M〜M+2tの代表視差はN+1の出力視差に対応する。なお、画像の最小表示単位は1画素であるため、画素単位で出力視差を示すと整数となる。
図7Aから図10Bは、本処理による視差調整の様子を模式的に示す。
図7Aおよび図7Bは視差幅調整の一例を示す。図7Aのように、立体動画視差幅が表示許容視差幅を超える場合、図7Bのように、立体動画視差幅が表示許容視差幅の範囲に収まるよう、各立体画像フレームの代表視差を一律な縮減率(X−Y)/Xで縮減する。
S103からS107に至るパターンは、(1)S103でYesかつS105でYes、(2)S103でNoかつS105でYes、(3)S103でYesかつS105でNoかつS106でYes、(4)S103でNoかつS105でNoかつS106でYes、の4パターンがある。
図8Aおよび図8Bは、パターン(1)すなわち視差幅調整のない場合の負の方向へのシフトを示す。
例えば、図8Aに示すように、代表視差の最大値pmaxが表示許容最大視差Dmaxを超えるが、立体動画視差幅は表示許容視差幅未満の場合、図8Bに示すように、各立体画像フレームの代表視差を一律な幅W1だけ負の方向にシフトし、全ての立体画像フレームの代表視差を表示許容視差幅の範囲に収める調整を行う。ここで、W1=pmin−Dminである。
図9Aおよび図9Bは、パターン(2)すなわち視差幅調整のある場合の負の方向へのシフトを示す。
図9Aに示すように、視差幅調整後の代表視差の最大値pmaxが表示許容最大視差Dmaxを超える場合も、図9Bに示すように、各立体画像フレームの代表視差を一律な幅W2だけ負の方向にシフトする。ここで、W2=pmin−Dminである。
図10Aおよび図10Bは、パターン(3)すなわち視差幅調整のない場合の正の方向へのシフトを示す。
あるいは、図10Aに示すように、代表視差の最小値pminが表示許容最小視差Dminを下回る場合、図10Bに示すように、各立体画像フレームの代表視差を一律な幅W3だけ正の方向にシフトする。ここで、W2=Dmin−pminである。
パターン(4)の図示は省略するが、視差幅調整後の代表視差の最小値pminが表示許容最小視差Dminを下回る場合も、同様に各立体画像フレームの代表視差を一律な幅だけ正の方向にシフトする。
図11は、画像端調整処理のフローチャートを示す。この処理は、上記の視差調整処理の完了後に実行される。この処理をデジタルカメラ10の各ブロックに実行させるためのプログラムはROM61などのコンピュータ読み取り可能な記憶媒体に記憶されている。
S201では、画像処理部209は、各立体画像フレームに対する視差調整処理の結果、モニタ13の表示面内に生じた、各立体画像フレームに対応する右非表示領域の中から、最小の横幅を有する右最小非表示領域を特定する。また、画像処理部209は、各立体画像フレームに対する視差調整処理の結果、モニタ13の表示面内に生じた、各立体画像フレームに対応する左非表示領域の中から、最小の横幅を有する左最小非表示領域を特定する。
ここで、非表示領域とは、モニタ13の表示面内において、左右の視点画像の画像情報が存在しない領域である。また、右非表示領域とは、表示面内の左視点画像よりも右側に位置する非表示領域であり、左非表示領域とは、表示面内の右視点画像よりも左側に位置する非表示領域である。
例えば、図12のような、立体画像フレームF1〜F4に対応する左非表示領域/右非表示領域は、BR1(L)/BR1(R)〜BR4(L)/BR4(R)である。BR1(L)/BR1(R)〜BR4(L)/BR4(R)の中では、立体画像フレームF1に対応する非表示領域BR1(L)/BR1(R)の横幅すなわちモニタ13の表示面の水平方向の長さが最小である。よって、画像処理部209は、左最小非表示領域としてBR1(L)を特定し、右最小非表示領域としてBR1(R)を特定する。
次に、画像処理部209は、左最小非表示領域の右端線LN(L)と右最小非表示領域の左端線LN(R)を、それぞれ各立体画像フレームに共通の左基準線および右基準線に設定する。
次に、画像処理部209は、立体画像フレームごとに、画面左側の非表示領域のうち左基準線LN(L)よりも表示面中央よりの部分領域である左補完対象領域を特定する。また画像処理部209は、立体画像フレームごとに、画面右側の非表示領域のうち右基準線LN(R)よりも表示面中央よりの部分領域である右補完対象領域を特定する。
図12は、各フレームF1〜F4に対応する左補完対象領域EL1(L)〜EL4(L)と右補完対象領域EL1(R)〜EL4(R)を例示している。
そして、画像処理部209は、カレント立体画像フレームに対応する左補完対象領域の画素数と右補完対象領域の画素数を取得する。
S202では、画像処理部209は、カレント立体画像フレームの左補完対象領域の画素数と右補完対象領域の画素数が、ともに所定の閾値を超えているか否かを判断する。Yesの場合はS203、Noの場合はS206に進む。なお、本処理の開始時、カレント立体画像フレームは、立体動画の最初の立体画像フレームであり、以後S208が繰り返されるごとにカレント立体画像フレームが切り替わる。
S203では、画像処理部209は、カレント立体画像フレームに対応する左右各視点画素の左端部の領域のうち、左補完対象領域の画素数に相当する領域である左補完基準領域から、高低各周波数成分の強度を示すヒストグラムを算出する。
また画像処理部209は、カレント立体画像フレームに対応する左右各視点画素の右端部の領域のうち、右補完対象領域の画素数に相当する領域である右補完基準領域から、高低各周波数成分の強度を示すヒストグラムを算出する。
図12は、各フレームF1〜F4に対応する左補完基準領域D1(L)〜D4(L)と右補完基準領域D1(R)〜D4(R)を例示している。
S204では、画像処理部209は、カレント立体画像フレームに対応する左補完基準領域の高周波数成分の頻度が所定の閾値を上回っているか否かを判断する。Yesの場合はS205、Noの場合はS206に進む。
また、画像処理部209は、カレント立体画像フレームに対応する右補完基準領域の高周波数成分の頻度が所定の閾値を上回っているか否かを判断する。Yesの場合はS205、Noの場合はS206に進む。
S205では、画像処理部209は、カレント立体画像フレームに対応する左補完基準領域の高周波数成分の頻度が所定の閾値を上回っていると判断した場合、当該左補完基準領域の画像情報を当該左補完対象領域に複製することで、当該左補完対象領域の画像情報を補完する。
あるいは、画像処理部209は、カレント立体画像フレームに対応する右補完基準領域の高周波数成分の頻度が所定の閾値を上回っていると判断した場合、当該右補完基準領域の画像情報を当該右補完対象領域に複製することで、当該右補完対象領域の画像情報を補完する。
本ステップは、左右の補完基準領域に存在する特徴的な模様を左右の補完対象領域にそのまま複製することで、画像情報の補完を目立たなくするための処理である。
S206では、画像処理部209は、カレント立体画像フレームに対応する左補完基準領域の高周波数成分の頻度が所定の閾値を上回っていないと判断した場合、当該左補完基準領域の画像情報から濃度勾配情報と色情報を取得する。画像処理部209は、その濃度勾配情報に従って、当該色情報を左補完基準領域から左補完対象領域まで延長することで、当該左補完対象領域の画像情報を補完する。
画像処理部209は、カレント立体画像フレームに対応する右補完基準領域の高周波数成分の頻度が所定の閾値を上回っていないと判断した場合、当該右補完基準領域の画像情報から濃度勾配情報と色情報を取得する。画像処理部209は、その濃度勾配情報に従って、当該色情報を右補完基準領域から右補完対象領域まで延長することで、当該右補完対象領域の画像情報を補完する。
本ステップは、左右の補完基準領域に存在するグラデーションをそのまま補完対象領域に延長することで、画像情報の補完を目立たなくするための処理である。なお、典型的には、濃度勾配情報は画素の位置に応じた各色の濃度を決める関数である。
S208では、画像処理部209は、新たなカレント立体画像フレームとして、現在のカレント立体画像フレームよりも1フレーム分後の立体画像フレームを設定する。カレント立体画像フレームは、視差調整後の全立体画像フレームの中から1つずつ順次選択される。例えば、S201〜S207の第1〜4回目のループに対応するカレント立体画像フレームは、それぞれ図12に示した立体画像フレームF1〜F4となる。
S209では、表示制御部42は、S108で決定された出力視差に従い、画像情報の補完された各立体画像フレームを順次モニタ13に表示することで立体動画を再生する。
なお、S205またはS206のいずれで補完を実行する場合も、基準線LN(L)およびLN(R)の近傍の画像情報に対して平滑化処理を行い、元々の視点画像と補完された画像の間の境界部分にぼかしを与えることが好ましい。
以上の処理により、視差調整の結果、各立体画像フレームの外側に生じた非表示領域では、基準線LN(L)およびLN(R)の位置まで統一して画像情報が補完される。この結果、立体画像フレームは全て共通したサイズとなり、立体画像フレームごとに画像の非表示領域のサイズが変動することがなくなるので、立体動画が観やすくなる。
さらに、補完対象領域への画像情報の補完は、グラデーションの延長か、画像情報のコピーのいずれかで行われる。補完対象領域の画素数が閾値より小さいか、補完基準領域に特徴的な高周波成分が少なければ、グラデーションの延長で画像情報が補完される。また補完領域の画素数が閾値より大きく、かつ補完基準領域に特徴的な高周波成分が多ければ、補完基準領域のコピーで画像情報が補完される。これにより、補完対象領域が不自然に目立つのを防げる。
<第2実施形態>
第1実施形態のS206において、補完基準領域の中に、補完対象領域に向けて延びる線分がある場合は、これを検出し、線分で区切られた領域ごとに色情報の延長を行う。これにより、補完対象領域と補完基準領域の統一感が増し、補完対象領域が不自然に目立つのをさらに効果的に防げる。
第1実施形態のS206において、補完基準領域の中に、補完対象領域に向けて延びる線分がある場合は、これを検出し、線分で区切られた領域ごとに色情報の延長を行う。これにより、補完対象領域と補完基準領域の統一感が増し、補完対象領域が不自然に目立つのをさらに効果的に防げる。
具体的には、画像処理部209は、カレント立体画像フレームの左右の補完基準領域から、直線を検出する。直線検出は公知の技術で行うことができる。例えば、特許公開2008−42800号公報・特開平6−314339号公報に記載された方法のように、左右の補完基準領域に対して微分処理を施して画像中のエッジ成分を抽出し、抽出されたエッジ成分の点列に対してハフ変換を施し、ハフ変換の関数値に従うヒストグラムを作成し、そのヒストグラムの頻度のピーク点を検出して、補完基準領域中からその検出されたピーク点に対応する直線成分とその色を抽出する。
画像処理部209は、検出された直線成分のうち、基準線LN(L)およびLN(R)に達するものを選別し、選別した直線成分を延長対象直線と判定する。
画像処理部209は、補完基準領域の中から、一対の延長対象直線で区切られた区分領域ごとに、色情報を取得する。次に、画像処理部209は、当該一対の延長対象直線を補完対象領域に延長する。延長対象直線の延長の際、色は同じものに保たれる。画像処理部209は、当該色情報を、当該延長後の一対の延長対象直線で区切られた延長区分領域に複製する。
さらに、画像処理部209は、区分領域ごとに、濃度勾配情報を取得し、この濃度勾配情報に従って対応する延長区分領域ごとにグラデーションを付してもよい。
図13は、直線とその区分領域ごとの色の延長の一例を示す。このように、画像の表示されない領域に、画像の端の線と色を延長することで、立体動画の全体の雰囲気をくずすことが防がれる。
<第3実施形態>
第1実施形態では、最も視差調整量の大きい立体画像フレームの非表示領域に合わせて基準線LN(L)およびLN(R)を設定し、各立体画像フレームにおいて、基準線LN(L)およびLN(R)を画面端の限界として非表示領域を補完していた。
第1実施形態では、最も視差調整量の大きい立体画像フレームの非表示領域に合わせて基準線LN(L)およびLN(R)を設定し、各立体画像フレームにおいて、基準線LN(L)およびLN(R)を画面端の限界として非表示領域を補完していた。
その代わり、画像処理部209は、最も視差調整量の小さい立体画像フレームの非表示領域に合わせて基準線LN(L)およびLN(R)を設定し、各立体画像フレームにおいて、基準線LN(L)およびLN(R)を限度として非表示領域を補完してもよい。
例えば、図14では、立体画像フレームF1〜F4のうち、F3の視差調整量=0が最も小さい。そこで、画像処理部209は、立体画像フレームF3の左非表示領域の右端線に相当するLN(L)と、右非表示領域の左端線に相当するLN(R)を、それぞれ立体画像フレームF1〜F4に共通の左右の基準線に設定する。
画像処理部209は、立体画像フレームF1〜F4の各々について、LN(L)およびLN(R)よりも画面内側に存在する非表示領域を補完する。例えば、立体画像フレームF1では、内側領域R1inがLN(L)およびLN(R)よりも画面内側に存在するため、R1inを補完する。補完の方法は第1実施形態と同様である。
さらに、基準線LN(L)およびLN(R)よりも画面外側に存在する左右の視点画像の画像情報は削除されることが好ましい。画像処理部209は、立体画像フレームF1〜F4の各々について、LN(L)およびLN(R)よりも画面外側に存在する左右の視点画像の部分領域を削除する。例えば、立体画像フレームF1では、外側領域R1outがLN(L)およびLN(R)よりも画面外側に存在するため、R1outを削除し、非表示領域とする。
同様に、各フレームF2、F4にそれぞれ対応する外側領域R2out、R4outならびに内側領域R2in、R4inもそれぞれ削除または補完される。なお視差調整量が0のF3には画像情報の補完も削除もされない。
さらに、画像処理部209は、動画視差幅に応じて、第1実施形態または第3実施形態の補完処理を切り替えてもよい。
例えば、画像処理部209は、ある立体動画の動画視差幅が、所定の閾値を超える場合、第1実施形態の補完処理を実行する。第1実施形態の補完処理は画像の削除がないため、画像のオリジナルの状態をなるべく保ったまま表示するのに適している。逆に、立体画像フレームごとの視差が大きく変動する場合に、第3実施形態の補完処理を実行すると、画像情報の削除量が増えてしまうため、第1実施形態の補完処理が好ましい。
一方、画像処理部209は、ある立体動画の動画視差幅が、所定の閾値を超えない場合、第3実施形態の補完処理を実行する。立体画像フレームごとの視差が大きく変動しない場合、第3実施形態の補完処理を行えば、補完対象領域も小さくなり、立体動画の品質を高く保てるし、処理量も少ない。さらに、視差調整量が0の立体画像フレームをLN(L)およびLN(R)の設定基準とすれば、処理後の各立体画像フレームのアスペクト比をオリジナルのままに保つことができる。
いずれの方法で補完するにせよ、補完対象領域は注視点ではないので、補完によって立体動画全体の印象が大きく変わることはないと考えられる。
なお、上記の処理を実行するのに必要なブロックは、デジタルカメラ以外の電子機器に備えられていてもよい。例えば、図15に示すような、CPU26、VRAM65、SDRAM39、フラッシュROM60、ROM61、圧縮伸張処理部43、メディア制御部15、視差検出部49、視差調整部202、画像入力部201(例えば、画像入力コントローラ38、メディア制御部15など)、表示許容視差幅取得部204、画像出力部208(例えば、モニタ13、メディア制御部15など)、画像処理部209を備えた画像処理装置がこの処理を実行することもできる。
画像入力部201の入力する立体動画は、撮像手段から直接出力されたものに限られない。例えば、メディア制御部15がメモリカード16などのメディアから読み出したものや、ネットワーク経由で受信したものでもよい。
画像出力部206が視差調整の完了した画像を出力する先は、表示制御部42およびモニタ13に限られず、画像は視差調整後に即時に表示されなくてもよい。例えば、メディア制御部15は、各立体画像フレームごとの調整後の代表視差すなわち出力視差を各立体画像フレームと対応づけた立体動画データとしてメモリカード16などのメディアに記録してもよい。あるいは、当該立体動画データをネットワーク経由で送信してもよい。あるいはそれぞれの立体画像フレームをレンチキュラプリントのような印刷物とすることもできる。
また、視差調整処理を動作させるか否かのモード設定やタイミングも任意である。例えば、撮影モードの開始時は視差調整処理を行わないが、レリーズボタン14が全押しされたときから視差調整処理を開始する。あるいは、メモリカード16の立体動画データをテレビなどの外部のモニタ13に表示する際に、視差調整処理を開始する。
上記の各実施形態に係る画像処理装置および画像処理方法は、立体動画の表示機能を有する画像処理装置または画像処理装置に適用可能なプログラムであって、上記の処理を行わせるためのコンピュータ読取可能なプログラムや、該プログラムが格納される記録媒体としても提供することが可能である。
49:視差検出部、202:視差調整部、204:表示許容視差幅取得部、209:画像処理部
Claims (18)
- 立体動画を構成する複数の立体画像フレームの入力を受け付け、各立体画像フレームを構成する左右の視点画像間の水平方向の視差を取得する視差取得部と、
前記立体動画の出力条件に従って前記立体画像フレームの各々の水平方向の視差を調整する視差調整部と、
前記視差調整部によって視差が調整された各立体画像フレームに対応する左右の視点画像の画像情報が所定の出力面の左右端部においてそれぞれ不存在となる領域である左右の非出力領域のうち、所定の基準を満たす左右の非出力領域の水平方向の幅に基づいて、前記立体画像フレームの各々に共通する左右の基準境界を設定する基準境界設定部と、
各立体画像フレームにおいて、前記基準境界設定部の設定した左右の基準境界よりもそれぞれ前記出力面の中央側に位置する非出力領域である左右の補完対象領域に対して、前記左右の補完対象領域とそれぞれ隣接する左右の視点画像内の部分領域である隣接領域の画像情報を前記左右の補完対象領域のそれぞれに適用することにより、前記左右の補完対象領域の画像情報を補完する画像処理部と、
前記画像処理部が前記左右の補完対象領域に前記画像情報を補完した各立体画像フレームを、前記視差調整部が調整した視差に従って出力する出力部と、
を備える画像処理装置。 - 前記基準境界設定部は、前記出力面の水平方向の幅が最小となる左右の非出力領域の中央側境界に基づいて、前記左右の基準境界を設定する請求項1に記載の画像処理装置。
- 前記基準境界設定部は、前記視差調整部による前記水平方向の視差の調整量が0となる立体画像フレームに対応する左右の非出力領域の中央側境界に基づいて、前記左右の基準境界を設定する請求項1に記載の画像処理装置。
- 前記画像処理部は、前記左右の基準境界よりも前記出力面の外側に位置する左右の視点画像の画像情報を削除する請求項3に記載の画像処理装置。
- 前記画像処理部は、前記隣接領域の画像情報を前記補完対象領域に複製することにより画像情報を補完する第1の補完処理を実施する請求項1から4のいずれかに記載の画像処理装置。
- 前記画像処理部は、前記隣接領域の色情報を前記補完対象領域に適用することにより画像情報を補完する第2の補完処理を実施する請求項5に記載の画像処理装置。
- 前記画像処理部は、前記隣接領域の色の濃度勾配情報に従って前記隣接領域の色を前記補完対象領域に延長することにより画像情報を補完する請求項6に記載の画像処理装置。
- 前記画像処理部は、前記左右の隣接領域の画像情報に含まれる直線を前記左右の補完対象領域に延長することにより画像情報を補完する請求項7に記載の画像処理装置。
- 前記画像処理部は、前記左右の隣接領域の直線で区切られる部分領域ごとの色情報を、前記左右の補完対象領域に延長された直線で区切られる部分領域ごとに適用することにより画像情報を補完する請求項8に記載の画像処理装置。
- 前記画像処理部は、前記隣接領域の画像情報が所定の基準を満たすか否かを判定し、前記判定結果に基づいて、前記第1の補完処理または前記第2の補完処理のいずれか一方を実施する請求項6から9のいずれかに記載の画像処理装置。
- 前記画像処理部は、前記隣接領域の高周波数成分の頻度が所定の閾値を上回る場合、前記第1の補完処理を実施し、前記隣接領域の高周波数成分の頻度が前記所定の閾値を上回らない場合、前記第2の補完処理を実施する請求項10に記載の画像処理装置。
- 前記画像処理部は、前記左右の補完対象領域の画素数が所定の閾値を下回る場合、前記左右の隣接領域の色情報を前記左右の補完対象領域に適用することにより画像情報を補完する請求項6から11のいずれかに記載の画像処理装置。
- 前記基準境界設定部は、各立体画像フレームの視差の最大値および最小値で規定される視差幅が所定の閾値を超える場合、前記出力面の水平方向の幅が最小となる左右の非出力領域の中央側境界に基づいて、前記左右の基準境界を設定する請求項2に記載の画像処理装置。
- 前記基準境界設定部は、各立体画像フレームの視差の最大値および最小値で規定される視差幅が所定の閾値を超えない場合、前記視差調整部による視差の調整量が0となる立体画像フレームに対応する左右の非出力領域の中央側境界に基づいて、前記左右の基準境界を設定する請求項4に記載の画像処理装置。
- 前記画像処理部は、前記左右の基準境界の近傍の画像情報を平滑化する請求項1から14のいずれかに記載の画像処理装置。
- 画像処理装置が、
立体動画を構成する複数の立体画像フレームの入力を受け付け、各立体画像フレームを構成する左右の視点画像間の水平方向の視差を取得するステップと、
前記立体動画の出力条件に従って前記立体画像フレームの各々の水平方向の視差を調整するステップと、
前記視差が調整された各立体画像フレームに対応する左右の視点画像の画像情報が所定の出力面の左右端部においてそれぞれ不存在となる領域である左右の非出力領域のうち、所定の基準を満たす左右の非出力領域の水平方向の幅に基づいて、前記立体画像フレームの各々に共通する左右の基準境界を設定するステップと、
各立体画像フレームにおいて、前記設定した左右の基準境界よりもそれぞれ前記出力面の中央側に位置する非出力領域である左右の補完対象領域に対して、前記左右の補完対象領域とそれぞれ隣接する左右の視点画像内の部分領域である隣接領域の画像情報を前記左右の補完対象領域のそれぞれに適用することにより、前記左右の補完対象領域の画像情報を補完するステップと、
前記左右の補完対象領域に前記画像情報を補完した各立体画像フレームを、前記調整した視差に従って出力するステップと、
を実行する画像処理方法。 - 画像処理装置が、
立体動画を構成する複数の立体画像フレームの入力を受け付け、各立体画像フレームを構成する左右の視点画像間の水平方向の視差を取得するステップと、
前記立体動画の出力条件に従って前記立体画像フレームの各々の水平方向の視差を調整するステップと、
前記視差が調整された各立体画像フレームに対応する左右の視点画像の画像情報が所定の出力面の左右端部においてそれぞれ不存在となる領域である左右の非出力領域のうち、所定の基準を満たす立体画像フレームに対応する左右の非出力領域の水平方向の幅に基づいて、前記立体画像フレームの各々に共通する左右の基準境界を設定するステップと、
各立体画像フレームにおいて、前記設定した左右の基準境界よりもそれぞれ前記出力面の中央側に位置する非出力領域である左右の補完対象領域に対して、前記左右の補完対象領域とそれぞれ隣接する左右の視点画像内の部分領域である隣接領域の画像情報を前記左右の補完対象領域のそれぞれに適用することにより、前記左右の補完対象領域の画像情報を補完するステップと、
前記左右の補完対象領域に前記画像情報を補完した各立体画像フレームを、前記調整した視差に従って出力するステップと、
を実行するための画像処理プログラム。 - コンピュータ読取可能な記録媒体であって、該記録媒体に格納された指令がプロセッサによって読み取られ実行された場合に、該プロセッサが
立体動画を構成する複数の立体画像フレームの入力を受け付け、各立体画像フレームを構成する左右の視点画像間の水平方向の視差を取得するステップと、
前記立体動画の出力条件に従って前記立体画像フレームの各々の水平方向の視差を調整するステップと、
前記視差が調整された各立体画像フレームに対応する左右の視点画像の画像情報が所定の出力面の左右端部においてそれぞれ不存在となる領域である左右の非出力領域のうち、所定の基準を満たす立体画像フレームに対応する左右の非出力領域の水平方向の幅に基づいて、前記立体画像フレームの各々に共通する左右の基準境界を設定するステップと、
各立体画像フレームにおいて、前記設定した左右の基準境界よりもそれぞれ前記出力面の中央側に位置する非出力領域である左右の補完対象領域に対して、前記左右の補完対象領域とそれぞれ隣接する左右の視点画像内の部分領域である隣接領域の画像情報を前記左右の補完対象領域のそれぞれに適用することにより、前記左右の補完対象領域の画像情報を補完するステップと、
前記左右の補完対象領域に前記画像情報を補完した各立体画像フレームを、前記調整した視差に従って出力するステップと、
を実行する、記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010181815 | 2010-08-16 | ||
JP2010181815 | 2010-08-16 | ||
PCT/JP2011/062895 WO2012023330A1 (ja) | 2010-08-16 | 2011-06-06 | 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2012023330A1 true JPWO2012023330A1 (ja) | 2013-10-28 |
Family
ID=45604993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012529511A Pending JPWO2012023330A1 (ja) | 2010-08-16 | 2011-06-06 | 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20130162764A1 (ja) |
JP (1) | JPWO2012023330A1 (ja) |
CN (1) | CN103098478A (ja) |
WO (1) | WO2012023330A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2012138174A (ru) * | 2012-09-06 | 2014-03-27 | Сисвел Текнолоджи С.Р.Л. | Способ компоновки формата цифрового стереоскопического видеопотока 3dz tile format |
TWI497444B (zh) * | 2013-11-27 | 2015-08-21 | Au Optronics Corp | 二維影像至三維影像的影像轉換方法及影像轉換裝置 |
CN104574311B (zh) | 2015-01-06 | 2017-08-11 | 华为技术有限公司 | 图像处理方法和装置 |
CN107993233B (zh) * | 2016-10-26 | 2022-02-22 | 中国科学院深圳先进技术研究院 | 一种坑区域的定位方法及装置 |
US10488920B2 (en) * | 2017-06-02 | 2019-11-26 | Htc Corporation | Immersive headset system and control method thereof |
JP7022544B2 (ja) * | 2017-09-13 | 2022-02-18 | キヤノン株式会社 | 画像処理装置及び方法、及び撮像装置 |
WO2019133640A1 (en) * | 2017-12-29 | 2019-07-04 | PlusAI Corp | Method and system for multiple stereo based depth estimation and collision warning/avoidance utilizing the same |
JP2020027957A (ja) * | 2018-08-09 | 2020-02-20 | オリンパス株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
DE102019120998A1 (de) * | 2019-08-02 | 2021-02-04 | Psholix Ag | Verfahren und Vorrichtung für eine adaptive Disparitätskontrolle |
CN115134574B (zh) * | 2022-06-24 | 2023-08-01 | 咪咕视讯科技有限公司 | 动态元数据生成方法、装置、设备及存储介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10221775A (ja) * | 1997-02-07 | 1998-08-21 | Canon Inc | 立体視撮像表示プログラムを記録した媒体及び複眼画像入出力装置 |
JP2004221700A (ja) * | 2003-01-09 | 2004-08-05 | Sanyo Electric Co Ltd | 立体画像処理方法および装置 |
JP4181446B2 (ja) * | 2003-05-14 | 2008-11-12 | シャープ株式会社 | 立体画像表示装置 |
EP1889171A4 (en) * | 2005-04-07 | 2012-11-28 | Visionsense Ltd | METHOD FOR RECONSTRUCTING A THREE-DIMENSIONAL SURFACE OF AN OBJECT |
KR100739730B1 (ko) * | 2005-09-03 | 2007-07-13 | 삼성전자주식회사 | 3d 입체 영상 처리 장치 및 방법 |
KR100731979B1 (ko) * | 2005-10-18 | 2007-06-25 | 전자부품연구원 | 다시점 정방향 카메라 구조 기반의 메쉬를 이용한 중간영상 합성 방법 및 장치와 이를 구현하는 기능을실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는기록 매체 |
US7679641B2 (en) * | 2006-04-07 | 2010-03-16 | Real D | Vertical surround parallax correction |
KR101311896B1 (ko) * | 2006-11-14 | 2013-10-14 | 삼성전자주식회사 | 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치 |
WO2010048632A1 (en) * | 2008-10-24 | 2010-04-29 | Real D | Stereoscopic image format with depth information |
JP4625517B2 (ja) * | 2008-10-27 | 2011-02-02 | 富士フイルム株式会社 | 3次元表示装置および方法並びにプログラム |
US8270807B2 (en) * | 2009-07-13 | 2012-09-18 | Panasonic Corporation | Recording medium, playback device, and integrated circuit |
WO2011014419A1 (en) * | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene |
US8456518B2 (en) * | 2010-03-31 | 2013-06-04 | James Cameron & Vincent Pace | Stereoscopic camera with automatic obstruction removal |
US20110249889A1 (en) * | 2010-04-08 | 2011-10-13 | Sreenivas Kothandaraman | Stereoscopic image pair alignment apparatus, systems and methods |
-
2011
- 2011-06-06 JP JP2012529511A patent/JPWO2012023330A1/ja active Pending
- 2011-06-06 CN CN2011800399497A patent/CN103098478A/zh active Pending
- 2011-06-06 WO PCT/JP2011/062895 patent/WO2012023330A1/ja active Application Filing
-
2013
- 2013-02-14 US US13/767,500 patent/US20130162764A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20130162764A1 (en) | 2013-06-27 |
WO2012023330A1 (ja) | 2012-02-23 |
CN103098478A (zh) | 2013-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012023330A1 (ja) | 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体 | |
US9560341B2 (en) | Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device | |
US8736671B2 (en) | Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device | |
US9256116B2 (en) | Stereoscopic imaging device, image reproducing device, and editing software | |
JP5449550B2 (ja) | 立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体 | |
JP5336662B2 (ja) | 画像処理装置、方法およびプログラム | |
JP2012093779A (ja) | 立体撮像装置及び画像補正方法 | |
JP5449551B2 (ja) | 画像出力装置、方法およびプログラム | |
US9310672B2 (en) | Stereoscopic image capturing device and method of controlling thereof | |
JP5486697B2 (ja) | 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法 | |
JP5466773B2 (ja) | 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法 | |
WO2012101916A1 (ja) | 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法 | |
JP5571257B2 (ja) | 画像処理装置、方法およびプログラム | |
JP5580486B2 (ja) | 画像出力装置、方法およびプログラム | |
JP2012015620A (ja) | 立体撮像装置 | |
JP2011044828A (ja) | 立体画像生成装置、立体画像プリント装置、及び立体画像生成方法 | |
JP2012044319A (ja) | 画像処理装置、画像処理方法及び立体撮像装置 |