JPWO2013094329A1 - 画像処理装置、方法およびプログラム - Google Patents

画像処理装置、方法およびプログラム Download PDF

Info

Publication number
JPWO2013094329A1
JPWO2013094329A1 JP2013550179A JP2013550179A JPWO2013094329A1 JP WO2013094329 A1 JPWO2013094329 A1 JP WO2013094329A1 JP 2013550179 A JP2013550179 A JP 2013550179A JP 2013550179 A JP2013550179 A JP 2013550179A JP WO2013094329 A1 JPWO2013094329 A1 JP WO2013094329A1
Authority
JP
Japan
Prior art keywords
parallax
scene
representative
stereoscopic image
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013550179A
Other languages
English (en)
Other versions
JP5571257B2 (ja
Inventor
智紀 増田
智紀 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2013550179A priority Critical patent/JP5571257B2/ja
Application granted granted Critical
Publication of JP5571257B2 publication Critical patent/JP5571257B2/ja
Publication of JPWO2013094329A1 publication Critical patent/JPWO2013094329A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

本発明は、立体動画の視差幅が出力許容視差幅に適合しない場合、立体動画を複数のシーンに分離し、シーンごとのシーン視差幅が出力許容視差幅に適合するか否かを判断し、その判断結果に応じてシーンの代表視差を調整する。立体動画の視差幅の全体が一律に調整されるのではなく、シーンごとに視差幅が調整されるため、立体動画の立体感が全体的に失われるのを防げる。

Description

本発明は、画像処理に関し、特に、立体動画の各立体画像フレームの両眼視差の調整に関する。
特許文献1の立体画像処理装置は、表示された被写体が限界視差に達すると、取得された適正視差情報に従い、以降の立体表示において当該適正視差を実現するよう視差画像を生成する。視差の制御は、3次元データに遡ってカメラパラメータを最適設定することで実現する。ここで、立体画像処理装置の二次元画像生成部は、適正視差を満たすデプスFxyを計算する。デプスの範囲をK1〜K2とし、各画素のデプス値をGxyとすると、Fxy=J1+(Gxy−K1)×(J2−J1)/(K2−K1)である。Fxyが整数にならない場合は、四捨五入や近置視差が小さくなるような処理を施す。
特許文献2の3次元画像処理装置では、視点座標系をもって透視された3次元画像を表示するディスプレイに、対面する観察者の観察視点を検出する観察視点センサを設け、この観察視点センサにより検出された観察視点に合わせてコンピュータが表示画像の視点座標系を移動することにより、ディスプレイに表示される3次元画像の透視視点を、観察者の観察視点に追従させて移動し、透視視点を常に観察視点に一致させて画像表示する。
特許文献3の3次元像表示装置は、観察者の視点位置を検出する視点検知装置と、左右の目に対する視差をもった2つの映像を生成する映像生成装置と、2つの映像を別々に投影するために表示する映像表示装置と、表示された2つの映像を観察者の左右の目に別々に投影する映像投影装置とを備え、映像生成装置は、視点検知装置の出力信号に基づいて、観察者の視点の移動に対応して観察対象の観察方向の変化を反映した映像を生成する。また、映像生成装置は、視点検知装置の出力信号に基づいて観察者の視点の移動に対応した観察対象の観察方向の変化を反映し、且つ観察者の左右の目に対する視差をもった架空の物体の映像を生成する。
特許文献4の立体画像表示方法では、ディスプレイの前方に液晶シャッタを設け、該液晶シャッタの前方にレンチキュラレンズを配置した表示部と観察者の視点位置が入力される制御部を備えた構成で、ディスプレイに右目・左目に対応した視差画像を時分割で表示するとともに、視差画像に同期しながら観察者の視点位置に応じて液晶シャッタの透光状態にする部分の幅と位置を変化させ、視差画像をレンチキュラレンズを介し対応する目で観察させる。
特開2004-221699号公報 特開平6-028452号公報 特開平9-238369号公報 特開平8-327948号公報
視差を用いた立体動画は、適切な視差量で表示しないと、視聴者の疲労を誘発するおそれがある。適切な視差量は表示するディスプレイのサイズや視聴者の立体融合限界などによって変わるため、それに合わせた視差調整を行う必要がある。
視差調整の結果、撮影時の視差とは異なった視差で立体画像が再生されると、視聴者に違和感を与えるおそれがある。このため、立体動画の撮影時の本来の視差をなるべく保つように視差調整を行うことが好ましい。
特許文献1では、適正視差を満たすデプスFxyを計算して四捨五入するため、フレーム間で視差が同じになり、フレーム遷移に伴う立体感の変化が感じられなかったり、逆にフレーム間で大きな視差の変化がつきすぎて視聴者に疲労を与えるおそれがある。
本発明は、立体動画の視差調整によって、元々の視差が大きく損なわれるのを防止することを目的とする。
本発明は、立体動画の全部または所定の一部の範囲を構成する複数の立体画像フレームごとの代表視差を取得する代表視差取得部と、代表視差取得部の取得した各立体画像フレームの代表視差の最大値および最小値で規定される視差幅が、予め定められた最大許容視差および最小許容視差で規定される許容視差幅に適合しない場合、立体動画を複数のシーンに分離するシーン分離部と、シーン分離部の分離したシーンごとに、シーンを構成する立体画像フレームの代表視差の最大値および最小値で規定されるシーン視差幅が許容視差幅に適合するか否かを判断し、判断結果に応じてシーンを構成する各立体画像フレームの代表視差を許容視差幅に適合するよう一律に調整する視差調整部と、視差調整部が代表視差を調整した立体画像フレームを出力する出力部と、を備え、立体画像フレームごとの代表視差は、立体画像フレームの視差のうち所定の条件を満たす視差に基づいて算出された統計的演算値を含む画像処理装置を提供する。
視差調整部は、あるシーンのシーン視差幅が許容視差幅に適合するが、シーンを構成する立体画像フレームの代表視差の最大値が予め定められた代表視差の上限を上回る場合、シーンを構成する各立体画像フレームの代表視差が代表視差の上限を下回るよう代表視差を調整する。
視差調整部は、連続する2以上のシーンに対応する各シーン視差幅が許容視差幅に適合するが、連続する2以上のシーンを構成する立体画像フレームの代表視差の最大値が代表視差の上限を上回る場合、連続する2以上のシーンを構成する各立体画像フレームの代表視差が代表視差の上限を下回るよう代表視差を一律に調整する。
視差調整部は、あるシーンのシーン視差幅が許容視差幅に適合するが、シーンを構成する立体画像フレームの代表視差の最小値が予め定められた代表視差の下限を下回る場合、シーンを構成する各立体画像フレームの代表視差が代表視差の下限を上回るよう代表視差を調整する。
視差調整部は、連続する2以上のシーンに対応する各シーン視差幅が許容視差幅に適合するが、連続する2以上のシーンを構成する立体画像フレームの代表視差の最小値が代表視差の下限を下回る場合、連続する2以上のシーンを構成する各立体画像フレームの代表視差が代表視差の下限を上回るよう代表視差を一律に調整する。
シーン分離部は、所定の第1の基準に従って分離されたシーンのシーン視差幅が許容視差幅に適合しない場合、所定の第1の基準および所定の第1の基準と異なる第2の基準に従って立体動画を分離する。
第2の基準は、第1の基準よりもシーンの変化の推定確度が低い。
視差調整部は、シーン分離部が第1の基準および第2の基準に従って分離したシーンごとに、シーンのシーン視差幅が許容視差幅に適合するか否かを判断し、シーンのシーン視差幅が許容視差幅に適合しないと判断した場合、シーンを構成する各立体画像フレームの代表視差を許容視差幅に適合するよう調整する。
視差調整部は、隣接する2つのシーン間での代表視差の調整量の差が所定の閾値を超える場合、隣接する2つのシーン間での代表視差の調整量を平滑化する。
好ましくは、統計的演算値は、立体画像フレームの視差の平均値、最大値、最小値、最頻値および中央値のうち少なくとも1つを含む。
好ましくは、立体画像フレームごとの代表視差は、立体画像フレームの視差のうちクロスポイントよりも撮像装置から遠ざかる方向である遠景側に存在する被写体の視差の平均値、最大値、最小値、最頻値もしくは中央値およびクロスポイントよりも撮像装置に近づく方向である近景側に存在する被写体の視差の平均値、最大値、最小値、最頻値もしくは中央値のうち少なくとも1つを含む。
好ましくは、所定の条件を満たす視差は、立体画像フレームに対する注視位置の視差を含む。
好ましくは、注視位置は、立体画像フレームの視聴者の注視点、立体画像フレームの撮影者の注視点または立体画像フレーム内で任意に指定された注視点を含む。
好ましくは、所定の条件を満たす視差は、顔領域の視差、合焦評価値算出領域の視差、画像中央領域の視差、立体画像フレームの視差のうちクロスポイントよりも撮像装置から遠ざかる方向である遠景側に存在する被写体の視差、または立体画像フレームの視差のうちクロスポイントよりも撮像装置に近づく方向である近景側に存在する被写体の視差を含む。
好ましくは、立体画像フレームごとの代表視差は、立体画像フレームの視差のうち所定の条件を満たす視差の最大値である第1の代表視差と、立体画像フレームの視差のうち所定の条件を満たす視差の最小値である第2の代表視差の双方を含み、シーン分離部は、第1の代表視差の最大値および第2の代表視差の最小値で規定される視差幅が、予め定められた最大許容視差および最小許容視差で規定される許容視差幅に適合しない場合、立体動画を複数のシーンに分離する。
本発明は、代表視差取得部と、シーン分離部と、視差調整部と、出力部と、を備える画像処理装置において、代表視差取得部が、立体動画の全部または所定の一部の範囲を構成する複数の立体画像フレームごとの代表視差を取得するステップと、シーン分離部が、代表視差取得部の取得した各立体画像フレームの代表視差の最大値および最小値で規定される視差幅が、予め定められた最大許容視差および最小許容視差で規定される許容視差幅に適合しない場合、立体動画を複数のシーンに分離するステップと、視差調整部が、シーン分離部の分離したシーンごとに、シーンを構成する立体画像フレームの代表視差の最大値および最小値で規定されるシーン視差幅が許容視差幅に適合するか否かを判断し、判断結果に応じてシーンを構成する各立体画像フレームの代表視差を許容視差幅に適合するよう一律に調整するステップと、出力部が、視差調整部が代表視差を調整した立体画像フレームを出力するステップと、を実行し、立体画像フレームごとの代表視差は、立体画像フレームの視差のうち所定の条件を満たす視差に基づいて算出された統計的演算値を含む画像処理方法を提供する。
本発明は、代表視差取得部と、シーン分離部と、視差調整部と、出力部と、を備える画像処理装置において、代表視差取得部が、立体動画の全部または所定の一部の範囲を構成する複数の立体画像フレームごとの代表視差を取得するステップと、シーン分離部が、代表視差取得部の取得した各立体画像フレームの代表視差の最大値および最小値で規定される視差幅が、予め定められた最大許容視差および最小許容視差で規定される許容視差幅に適合しない場合、立体動画を複数のシーンに分離するステップと、視差調整部が、シーン分離部の分離したシーンごとに、シーンを構成する立体画像フレームの代表視差の最大値および最小値で規定されるシーン視差幅が許容視差幅に適合するか否かを判断し、判断結果に応じてシーンを構成する各立体画像フレームの代表視差を許容視差幅に適合するよう一律に調整するステップと、出力部が、視差調整部が代表視差を調整した立体画像フレームを出力するステップと、を実行し、立体画像フレームごとの代表視差は、立体画像フレームの視差のうち所定の条件を満たす視差に基づいて算出された統計的演算値を含む画像処理プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な非一時的記録媒体(non-transitory computer-readable medium)を提供する。
本発明は、立体動画の視差幅が出力許容視差幅に適合しない場合、立体動画を複数のシーンに分離し、シーンごとのシーン視差幅が出力許容視差幅に適合するか否かを判断し、その判断結果に応じてシーンの代表視差を調整する。立体動画の視差幅の全体が一律に調整されるのではなく、シーンごとに視差幅が調整されるため、立体動画の立体感が全体的に失われるのを防げる。
デジタルカメラの正面斜視図 デジタルカメラの背面斜視図 デジタルカメラのブロック図 開散方向の視差の限界の模式図 視差調整処理のフローチャート 立体動画の代表視差−出力視差変換表の一例を示す図 第1実施形態に係る視差シフトの模式図 第2実施形態に係る視差シフトの模式図 表示再生装置のブロック図
図1は、本発明の一実施形態であるデジタルカメラ10の外観構成を示す正面斜視図である。図2は、そのデジタルカメラの一例の外観構成を示す背面斜視図である。
デジタルカメラ10は、複数の撮像手段(図1では二つを例示)を備えており、同一被写体を複数視点(図1では左右二つの視点を例示)から撮影可能となっている。なお、本例では、説明の便宜のため2つの撮像手段を備えた場合を例に説明するが、本発明はこれに限定されず、3つ以上の撮像手段を備えた場合であっても同様に適用可能である。
本例のデジタルカメラ10のカメラボディ112は、矩形の箱状に形成されており、その正面には、図1に示すように、一対の撮影光学系11R、11Lと、ストロボ116が設けられている。また、カメラボディ112の上面には、レリーズボタン14、電源/モードスイッチ120、モードダイヤル122等が設けられている。また、カメラボディ112の背面には、図2に示すように、液晶表示装置(LCD)などで構成されたモニタ13、ズームボタン126、十字ボタン128、MENU/OKボタン130、DISPボタン132、BACKボタン134等が設けられている。モニタ13はデジタルカメラ10に内蔵されていてもよいし外部機器でもよい。
左右一対の撮影光学系11R、11Lは、それぞれ沈胴式のズームレンズ(図3の18R、18L)を含んで構成されており、デジタルカメラ10の電源をONすると、カメラボディ112から繰り出される。なお、撮影光学系におけるズーム機構や沈胴機構については、公知の技術なので、ここでは、その具体的な説明を省略する。
モニタ13は、半円筒状のレンズ群を有したいわゆるレンチキュラレンズが前面に配置されたカラー液晶パネル等の表示装置である。このモニタ13は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また、撮影時には、撮像素子で捉えたライブビュー画像が表示され、電子ファインダとして利用される。なお、モニタ13の立体画像の表示方式は、パララックスバリア方式に限られない。例えば、アナグリフ方式、偏光フィルタ方式、液晶シャッタ方式など、めがねを利用した立体画像の表示方式でもよい。
レリーズボタン14は、いわゆる「半押し」と「全押し」とからなる二段ストローク式のスイッチで構成されている。デジタルカメラ10は、静止画撮影時(例えば、モードダイヤル122またはメニューによる静止画撮影モード選択時)、このレリーズボタン14を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押しすると、画像の撮影・記録処理を行う。また、立体動画撮影時(例えば、モードダイヤル122またはメニューにより立体動画撮影モード選択時)、このレリーズボタン14を全押しすると、立体動画の撮影を開始し、再度全押しすると、撮影を終了する。なお、設定により、レリーズボタン14を全押ししている間、立体動画の撮影を行い、全押しを解除すると、撮影を終了するようにもできる。なお、静止画撮影専用のレリーズボタンおよび立体動画撮影専用のレリーズボタンを設けてもよい。
電源/モードスイッチ120(電源スイッチ及びモードスイッチ)は、デジタルカメラ10の電源スイッチとして機能するとともに、デジタルカメラ10の再生モードと撮影モードとを切り替える切替手段として機能する。モードダイヤル122は、撮影モードの設定に用いられる。デジタルカメラ10は、このモードダイヤル122を「2D静止画位置」にセットすることにより、2Dの静止画を撮影する2D静止画撮影モードに設定され、「3D静止画位置」にセットすることにより、3Dの静止画を撮影する3D静止画撮影モードに設定される。さらに、「3D動画位置」にセットすることにより、3Dの動画を撮影する3D動画撮影モードに設定される。
ズームボタン126は、撮影光学系11R、11Lのズーム操作に用いられ、望遠側へのズームを指示するズームテレボタンと、広角側へのズームを指示するズームワイドボタンとで構成されている。十字ボタン128は、上下左右4方向に押圧操作可能に設けられており、各方向の押圧操作に対して、カメラの設定状態に応じた機能が割り当てられる。MENU/OKボタン130は、メニュー画面の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられる。DISPボタン132は、モニタ13の表示内容の切り替え指示等の入力に用いられ、BACKボタン134は入力操作のキャンセル等の指示の入力に用いられる。
図3は、デジタルカメラ10の要部を示すブロック図である。
デジタルカメラ10は、右視点用の撮影光学系11Rおよび撮像素子29Rを有する右視点用の撮像手段と、左視点用の撮影光学系11Lおよび撮像素子29Lを有する左視点用の撮像手段を備える。
2つの撮影光学系11(11R、11L)は、それぞれ、ズームレンズ18(18R、18L)、フォーカスレンズ19(19R、19L)、および、絞り20(20R、20L)を有する。これらのズームレンズ18、フォーカスレンズ19、および、絞り20は、それぞれ、ズームレンズ制御部22(22R、22L)、フォーカスレンズ制御部23(23R、23L)、絞り制御部24(24R、24L)により駆動される。各制御部22、23、24は、ステッピングモータからなり、CPU26に接続された不図示のモータドライバから与えられる駆動パルスにより制御される。
2つの撮影光学系11(11R、11L)の背後には、それぞれ、CCDイメージセンサ(以下単に「CCD」という)29(29R、29L)が配置されている。なお、CCD29の代りに、MOS型のイメージセンサを用いるようにしてもよい。CCD29は、周知のように、複数の光電変換素子が並べられた光電変換面を有し、この光電変換面に撮影光学系11を介して被写体光が入射することにより、被写体像が結像される。CCD29には、CPU26によって制御されるタイミングジェネレータ:TG31(31R、31L)が接続され、このTG31から入力されるタイミング信号(クロックパルス)により、電子シャッタのシャッタ速度(各光電変換素子の電荷蓄積時間である)が決定される。
CCD29から出力された撮像信号は、アナログ信号処理回路33(33R、33L)に入力される。アナログ信号処理回路33は、相関二重サンプリング回路(CDS)、増幅器(AMP)などを有する。CDSは、撮像信号から各画素の蓄積電荷時間に対応したR、G、Bの画像データを生成する。AMPは、生成された画像データを増幅する。
AMPは、CCD29の感度を調節する感度調節手段として機能する。CCD29のISO感度は、AMPのゲインによって決定される。A/D変換器36(36R、36L)は、増幅された画像データをアナログからデジタルに変換する。A/D変換器36(36R、36L)から出力されたデジタルの画像データは、画像入力コントローラ38(38R、38L)を介して、作業用のメモリであるSDRAM39によりそれぞれ右の視点の画像データ、左の視点の画像データとして一時的に記憶される。
デジタル信号処理部41は、SDRAM39から画像データを読み出して、階調変換、ホワイトバランス補正、γ補正処理、YC変換処理などの各種画像処理を施し、この画像データを再度SDRAM39に記憶させる。デジタル信号処理部41による画像処理済みの画像データは、VRAM65にスルー画として取得されたのち、表示制御部42で映像出力用のアナログ信号に変換され、モニタ13に表示される。また、レリーズボタン14の全押しに伴って取得された画像処理済みの画像データは、圧縮伸張処理部43で所定の圧縮形式(例えばJPEG形式)で圧縮された後、メディア制御部15を経由して、記録用画像としてメモリカード16に記録される。
操作部25は、デジタルカメラ10の各種操作を行うためのものであり、図1および図2に示した各種のボタン・スイッチ120〜134から構成されている。
CPU26は、デジタルカメラ10を統括的に制御するために設けられている。CPU26は、フラッシュROM60やROM61などのコンピュータ読み取り可能な非一時的記録媒体に記憶された各種制御用のプログラムや設定情報、姿勢検出センサ73や操作部25からの入力信号などに基づいて、バッテリー70、電源制御部71、時計部72など各部を制御する。
また、デジタルカメラ10には、AE(Auto Exposure)/AWB(Auto White Balance)制御を行うAE/AWB制御部47、複数の立体画像フレームの各々の代表視差の検出を行う視差検出部49が設けられている。また、デジタルカメラ10は、フラッシュ5の発光タイミングや発光量を制御するフラッシュ制御部23を備える。
AE/AWB制御部47は、レリーズボタン14が半押しされたときに、CCD29により得られた画像(撮像画像)を解析して、被写体の輝度情報等に基づき、絞り20の絞り値およびCCD29の電子シャッタのシャッタ速度を算出する。そして、これらの算出結果に基づきAE/AWB制御部47は、絞り制御部24を介して絞り値を制御し、TG31を介してシャッタ速度を制御する。
例えば、ふたつの撮影光学系11R、11Lのうち一方の撮影光学系のCCD29Rまたは29Lにより得られた撮像画像(右視点画像または左視点画像)に基づいて、両方の撮影光学系11R、11Lの絞り値およびシャッタ速度を算出する。両方の撮影光学系11Rおよび11Lにより得られた撮像画像(右視点画像および左視点画像)に基づいて、それぞれの撮影光学系11R、11Lの絞り値およびシャッタ速度を算出してもよい。
AF制御部45は、レリーズボタン14が半押しされたときに、フォーカスレンズ19R、19Lを光軸方向に沿って移動させてコントラスト値を算出するAFサーチ制御、および、コントラスト値に基づく合焦レンズ位置にフォーカスレンズ19R、19Lを移動させる合焦制御を行う。ここで、「コントラスト値」は、CCD29R、29Lにより得られた撮像画像の所定の合焦評価値算出領域内の画像信号に基づいて算出される。「合焦レンズ位置」は、フォーカスレンズ19R、19Lが少なくとも主要被写体に合焦するフォーカスレンズ19R、19Lの位置である。
例えば、ふたつの撮影光学系11R、11Lのフォーカスレンズ19R、19Lのうち少なくとも一方を、モータドライバ27Rまたは27Lの駆動により移動させながら、一方の撮影光学系11Rまたは11Lの撮像画像(右視点画像または左視点画像)にて、コントラスト値を算出する。そのコントラスト値に基づき、ふたつの撮影光学系11R、11Lのフォーカスレンズ19R、19Lの合焦レンズ位置をそれぞれ決定し、モータドライバ27Rおよび27Lをそれぞれ駆動して、各フォーカスレンズ19R、19Lをそれぞれの合焦レンズ位置に移動させる。両方の撮影光学系11R、11LにてそれぞれAFサーチを行って、それぞれの合焦レンズ位置を決定してもよい。
姿勢検出センサ73は、撮影光学系11R、11Lが予め決められた姿勢に対して回転された方向および角度を検出する。
手ブレ制御部62は、撮影光学系11R、11Lに設けられた図示しない補正レンズをモータによって駆動することで、姿勢検出センサ73の検出した光軸のずれを補正して手ブレを防止する。
CPU26は、撮影光学系11R、11Lの被写体像に対応する左右の画像データから顔認識を行うよう顔認識部64を制御する。顔認識部64は、CPU26の制御に応じて顔認識を開始し、左右の画像データからそれぞれ顔認識を行う。顔認識部64は、顔認識の結果、左右の画像データからそれぞれから認識された顔領域の位置情報を含む顔領域情報をSDRAM39に記憶する。顔認識部64は、テンプレートマッチングなど公知の方法により、SDRAM39に記憶された画像から顔領域を認識することができる。なお被写体の顔領域とは、撮像画像中の人物や動物の顔領域が挙げられる。
顔対応判定部66は、右の画像データから認識された顔領域と左の画像データから認識された顔領域の対応関係を判定する。すなわち、顔対応判定部66は、左右の画像データからそれぞれから認識された顔領域の位置情報同士が最も近接する顔領域の組を特定する。そして、顔対応判定部66は、当該組を構成する顔領域同士の画像情報をマッチングし、両者の同一性の確度が所定の閾値を超えた場合、当該組を構成する顔領域同士は対応関係にあると判定する。
視差検出部49は、左右画像データの所定の領域間の代表視差を算出する。所定領域は、画像の一部領域または全体領域を含みうる。また、所定領域は、公知の顔検出により検出された顔領域、任意に登録された特定の人物の顔領域にマッチする顔領域、モニタ13の観察者や撮影者の注視点、操作部25などのユーザインターフェースから任意に指定されたモニタ13の表示面内での立体動画の注視点や被写体領域、あるいは注視点の近傍領域などを含みうる。モニタ13の観察者が単数であれば、特許文献2〜4などの公知の注視点検出により、その観察者の注視点が検出されうる。モニタ13の観察者が複数であれば、モニタ13に最も近い観察者などのように、特定の条件を満たす観察者について、公知の注視点検出を適用し、その注視点が検出されうる。撮影者の注視点は、撮影時やそれ以外のタイミングで指定された被写体領域の全部または一部としてもよい。注視点検出は、デジタルカメラ10で行われてもよいし、その他の機器、例えばテレビやヘッドマウントディスプレイなどの外部の表示機器で行われてもよい。
例えば、代表視差の算出は、次のようにする。まず、視差検出部49は、組を構成する顔領域間で対応する特定の点(対応点)間の位置の差(対応点間距離)を算出する。そして、視差検出部49は、当該組の顔領域に含まれる点の視差の平均値を算出し、これを当該組の代表視差とする。視差検出部49は、対応関係にあると判定された顔領域が複数存在する場合、それらの顔領域のうち、主要な顔領域についてのみ代表視差の算出を行い、この主要な顔領域の代表視差をSDRAM39に記憶する。主要な顔領域とは、画面中央に最も近い顔領域、合焦評価値算出領域に最も近い顔領域、サイズの最も大きい顔領域などである。
あるいは、視差検出部49は、左右画像データの所定領域(例えば顔領域などの一部領域か、全体領域)の各対応点の視差から視差のヒストグラムを作成する。階級は任意である。そして、度数が最大の階級の階級値すなわち最頻値を、その所定領域における代表視差としてもよい。
あるいは、視差検出部49は、左右画像データの所定領域の各対応点の視差から、視差の最大値または最小値を選択し、この視差の最大値または最小値をその所定領域における代表視差としてもよい。なお、所定領域が注視点のような一点であれば、代表視差は、その注視点の視差の最大値かつ最小値である。
あるいは、視差検出部49は、左右画像データの所定領域の各対応点の視差の中央値を、その所定領域における代表視差としてもよい。
あるいは、視差検出部49は、左右画像データの所定領域の各対応点の視差の平均値を、その所定領域における代表視差としてもよい。
上記に限らず、代表視差は、各種の統計的演算にて算出されることができる。なお、代表視差の算出に用いる視差のサンプル値から、所定の条件を満たさないものを除外してもよい。例えば、画像の鮮鋭度(空間周波数)が所定の基準値よりも低い領域(いわゆるピンボケの領域)の対応点の視差や、所定の限界値を超過している視差などは、代表視差の算出に用いる視差のサンプル値から除外し、所定の条件を満たす領域の対応点の視差から代表視差を算出してもよい。この条件は、撮影光学系11R、11Lのズーム倍率などの撮影条件に基づいて決定されてもよい。これは、ズーム倍率の拡大または縮小に応じて、同じ対応点の視差が拡大したり縮小したりするからである。なお、除外の所定の条件がない(無条件)としてもよい。
あるいは、視差検出部49は、左右画像データのクロスポイントよりもデジタルカメラ10から遠ざかる方向である奥側(遠景側)またはデジタルカメラ10に近づく方向である手前側(近景側)に位置する被写体の視差から、上記の統計的演算を用いて、代表視差を算出してもよい。ここで、クロスポイントとは、撮影光学系11Rの光軸と、撮影光学系11Lの光軸とを撮影対称面上で交差させた収束点である。
さらに、代表視差は、異なるフレームごとあるいは異なるシーンに渡って統一された統計的演算式で算出されてもよいし、複数の統計的演算式にて同じフレームから複数種類の代表視差が算出されてもよい。
例えば、任意の1つのフレームFの視差の最大値を第1の代表視差、そのフレームFの視差の最小値を第2の代表視差とするなど、1つのフレームから複数の種類の代表視差を求めてもよい。
あるいは、遠景のシーンXを構成する各フレームの代表視差はクロスポイントよりも奥側(遠景側)に位置する被写体の対応点の視差から、上記の統計的演算を用いて代表視差を算出し、近景のシーンYを構成する各フレームの代表視差はクロスポイントよりも手前側(近景側)に位置する被写体の対応点の視差から、上記の統計的演算を用いて代表視差を算出してもよい。例えば、任意の1つのフレームにおいて、クロスポイントより遠景側の対応点の視差の最大値を第1の代表視差、クロスポイントより近景側の対応点の視差の最大値を第2の代表視差として求めることができる。
あるいは、クロスポイントより遠景側の対応点の視差の最大値を第1の代表視差、クロスポイントより近景側の対応点の視差の最大値を第2の代表視差、クロスポイントより遠景側の対応点の視差の最小値を第3の代表視差、クロスポイントより近景側の対応点の視差の最小値を第4の代表視差として求めることもできる。
あるいは、同一のシーンに含まれる任意のフレームにおける全ての視差の最大値を第1の代表視差、全ての視差の最小値を第2の代表視差として求めることができる。
つまり、代表視差は1つの統計的演算により単一の種類だけ求められてもよいし、複数の異なる統計的演算により複数種類求められてもよい。
あるいは、視差検出部49は、左右の画像で対応関係にある所定の領域、例えば、画像中央領域や合焦評価値算出領域内の対応点間の視差の平均値を算出し、これを当該組の代表視差とする。
対応関係にある所定の領域の位置情報とその代表視差は、左右の画像データと対応づけられてSDRAM39に記憶される。例えば、対応関係にある顔領域の位置情報とその代表視差は、画像データの付帯情報(ヘッダ、タグ、メタ情報など)として記憶される。画像データがメモリカード16に記録用画像として圧縮記録される際は、例えば、Exifなどのタグ情報として、この顔領域の位置情報と代表視差が合わせて記録用画像の付帯情報に記録される。
表示許容視差幅取得部204は、表示許容最小視差Dminおよび表示許容最大視差Dmaxを取得し、視差調整部202に入力する。取得の態様は任意であり、操作部25から入力されてもよいし、ROM61や立体動画データの付帯情報などから入力してもよいし、モニタ13から制御情報として入力されてもよい。
表示許容最大視差Dmaxは、開散方向の視差(モニタ13上の立体画像が引っ込む方向)の限界を規定する。図4の(a)部分に例示するように、人の目は外側には開かないので、瞳孔間距離を超える視差を有する左右像は融合せず、視聴者が1つの像として認識できないので、眼精疲労を引き起こす。子供の視聴者を考慮すると、瞳孔間距離は、約5cmであるので、この距離に相当するモニタ13のピクセル数が表示許容最大視差Dmaxとなる。例えば、モニタ13が16:9インチサイズのハイビジョンテレビであり、解像度が1920×1080とすると、モニタ13のサイズごとの表示許容最小視差Dminは、図4の(b)部分のようになる。デジタルカメラや携帯電話の内蔵画面のようにモニタ13のサイズが小さければ、開散方向の視差は問題となりにくいが、テレビのように表示面のサイズが大きいモニタ13の場合は、開散方向の視差が問題になる。
表示許容最小視差Dminは、過大視差(モニタ13上の立体画像が飛び出す方向)の限界を規定する。表示許容最小視差Dminは表示許容最大視差Dmaxと異なり瞳孔間距離から一意に決定することができない。例えば、表示許容最小視差Dminを決定する出力条件としては、(1)モニタ13のサイズ、(2)モニタ13の解像度、(3)観視距離(視聴者からモニタ13までの距離)、(4)視聴者個人の立体融合限界がある。
標準的な例として、(2)ハイビジョンテレビのモニタ13の解像度は1920×1080、(3)観視距離はモニタ13の画面高さの3倍である。これらを前提とすると、(4)一般的な立体融合限界は57ピクセル(視差角1度程度)である。閾値設定部205は、(1)〜(4)の情報をユーザ操作やモニタ13の設定情報などに基づいて外部から入力してもよい。例えば、ユーザは操作部25を介して、自分の観ているモニタ13の解像度、観視距離、立体融合限界を入力できる。ただし、(2)〜(4)について特に外部から入力がない場合、閾値設定部205は、上記標準的な例をROM61などから読み出して視差調整部202に入力する。
視差調整部202は、左右の画像データの代表視差の幅を、表示許容最小視差Dminから表示許容最大視差Dmaxまでの範囲からなる表示許容視差幅に収まる調整を行う。
図5は視差調整処理のフローチャートを示す。この処理はCPU26によって制御される。この処理をCPU26に実行させるプログラムはROM61などのコンピュータ読み取り可能な記録媒体に記録されている。この処理は、画像データの付帯情報に上記の領域の位置情報と代表視差が記憶された後に実行される。
S1では、視差調整部202は、SDRAM39またはメモリカード16に記憶された立体動画の全部または所定の一部の範囲を構成する各立体画像フレームの左右の画像データと、当該立体動画の付帯情報から、各立体画像フレームごとの代表視差の読み出しを試みる。立体動画の所定の一部の範囲は、操作部25で指定されてもよいし、ROM61などに規定されてもよい。当該範囲の位置と長さの単位も任意であり、フレーム番号、撮影時刻、時間間隔、フレーム数などで指定されうる。
S2では、表示許容視差幅取得部204は、表示許容視差幅をSDRAM39に取得する。表示許容視差幅は、表示許容最小視差Dminから表示許容最大視差Dmaxまでの範囲をいう。表示許容視差幅の取得元は、操作部25、内蔵のROM61、外部のモニタ13や電子機器などを含む。
S3では、視差調整部202は、各立体画像フレームの代表視差から、代表視差の最大値pmaxと代表視差の最小値pminを特定し、立体動画視差幅=pmax−pminを計算する。そして、視差調整部202は、立体動画視差幅<表示許容視差幅であるか否かを判断する。Yesの場合はS4に進み、Noの場合はS7に進む。
ここで、代表視差が複数の演算式で求められ、複数種類の代表視差が存在する場合は、全ての種類の代表視差の中のうちの最大値をpmax、全ての種類の代表視差の中のうちの最小値をpminとして特定し、立体動画視差幅=pmax−pminを計算する。
特に、各フレームFkの視差の最大値maxkを第1の種類の代表視差とし、各フレームFkの視差の最小値を第2の種類の代表視差minkとすると、pmaxは各フレームFkの視差の最大値の中の最大値MAX(maxk)、pminは各フレームFkの視差の最小値の中の最小値MIN(mink)となる。
S4では、視差調整部202は、代表視差の最大値pmax>表示許容最大視差Dmaxであるか否かを判断する。Yesの場合はS6に進み、Noの場合はS5に進む。
S5では、視差調整部202は、代表視差の最小値pmin<表示許容最小視差Dminであるか否かを判断する。Yesの場合はS6に進み、Noの場合はS16に進む。
S6では、視差調整部202は、立体動画視差幅が表示許容視差幅に収まるよう各立体画像フレームの代表視差をシフトする。すなわち、S4でYesと判断された場合は、各代表視差を負(下)の方向にシフトし、各代表視差がDmax〜Dminの範囲に収まるようにする。S5でYesと判断された場合は、各代表視差を正(上)の方向にシフトし、各代表視差がDmax〜Dminの範囲に収まるようにする。
S7では、シーン分離部206は、各立体画像フレームのシーンの変化の検出を行う。シーン分離部206によるシーンの検出のレベルは可変である。ここでは、シーンの検出のレベルは、レベル1〜3の間で段階的に可変であるとする。最初のS7の実行時の初期検出レベルはレベル1であり、後述のS13でレベルが変更されるまでは初期検出レベルでシーン変化が検出される。また、レベル1>レベル2>レベル3の順に、シーン変化の検出の推定確度が低下するものとする。
シーン変化の検出方法はレベルに応じて異なる。最もシーン変化の検出の推定確度が高いレベル1では、操作部25などから入力されたユーザの明示的なシーンの区切り指定操作を基準にシーン変化が検出される、例えば、編集操作によってシーンの区切りに指定された立体画像フレームをシーン変化のあった立体画像フレームと検出する。編集操作は、立体動画の中での立体画像フレームの切り取り箇所の指定や、異なる立体動画の接合箇所の指定などを含む。レリーズボタン14のオン・オフのあった立体画像フレームをシーン変化のあった立体画像フレームと検出することもできる。
レベル1よりも検出の推定確度が低いレベル2では、ズームボタン126によるズームレンズ18の変倍操作のあった時点で取得された立体画像フレームをシーン変化のあった立体画像フレームと検出する。
レベル2よりも検出の推定確度が低いレベル3では、隣り合う2つの立体画像フレームa・b間の画像情報の相違が所定の閾値を超えた場合、立体画像フレームbをシーン変化のあった立体画像フレームと検出する。この画像情報には、輝度情報、色情報、あるいはそれらの情報を統計処理した情報(ヒストグラムなど)などが含まれる。
各レベルに対応するシーン検出方法は、シーン分離情報入力部207を介してユーザが自由に設定できてもよい。シーン分離情報入力部207と操作部25は共通の手段でもよい。
シーン分離部206は、シーン変化の検出された立体画像フレームを基準に立体動画をn個(n=2、3・・)のセクションに分離する。シーン変化の検出された立体画像フレームを境に立体動画を区切ることで、分離された立体動画の各セクションがそれぞれ異なるシーンを構成する。シーン分離部206は、各シーンS(k)の最初の立体画像フレームと最後の立体画像フレームを示すシーン情報を視差調整部202に入力する。ここで、k=1〜nであるが、kの初期値は1であり、S7〜S15のループが繰り返される度にkの値は1だけインクリメントされるものとする。
S8では、視差調整部202は、シーン情報に従って識別されるシーンS(k)内の各立体画像フレームの代表視差から、代表視差の最大値pmax(k)と代表視差の最小値pmin(k)を特定し、シーンS(k)の立体動画視差幅=pmax(k)−pmin(k)を計算する。そして、視差調整部202は、シーンS(k)の立体動画視差幅<表示許容視差幅であるか否かを判断する。Yesの場合はS9に進み、Noの場合はS12に進む。
S9では、視差調整部202は、シーンS(k)の代表視差の最大値pmax(k)>表示許容最大視差Dmaxであるか否かを判断する。Yesの場合はS11に進み、Noの場合はS10に進む。
S10では、視差調整部202は、シーンS(k)の代表視差の最小値pmin<表示許容最小視差Dminであるか否かを判断する。Yesの場合はS11に進み、Noの場合はS15に進む。
S11では、視差調整部202は、シーンS(k)の代表視差がDmax〜Dminの範囲に収まるよう、シーンS(k)の各立体画像フレームの代表視差を正または負の方向にシフトする。
S12では、シーン分離部206は、現在設定されているシーンの分離レベルよりも低い分離レベルのシーンの検出方法が設定可能であるか否かを判断する。例えば、上記のようにシーンの検出のレベルがレベル1〜3の間で可変の場合、現在の設定レベルがレベル1または2ならばYesと判断され、現在の設定レベルがレベル3ならばNoと判断される。
S13では、シーン分離部206は、シーンの分離レベルを変更する。例えば、シーン分離部206は、現在のレベルよりも1段階推定確度の低いレベルを、新たな検出レベルに設定する。その後S7に戻り、新たな検出レベルで立体動画のシーンの変化の検出が行われる。あるいは、以前に設定されたレベルと今回設定されたレベルの双方でシーンの変化の検出が行われてもよい。
S14では、視差調整部202は、シーンS(k)の立体動画視差幅が表示許容視差幅に収まるようシーンS(k)の各立体画像フレームの代表視差を調整する。例えば、シーンS(k)の立体動画視差幅がX、表示許容視差幅がYであり、かつX>Yである場合、シーンS(k)の各立体画像フレームの代表視差を一律な縮減率(X−Y)/Xで縮減する。
S15では、CPU26は、k=n、すなわち、S7〜S15のループが全てのシーンS(1)〜S(n)に対して実行されたか否かを判断する。Yesの場合はS16に進み、Noの場合はkの値を1だけインクリメントしてS8に戻る。
S16では、視差調整部202は、ROM61などに記憶されている立体動画視差−出力視差変換表をSDRAM39に読み出す。図6は立体動画視差−出力視差変換表の一例を示す。この表は、各立体画像フレームの任意の値の代表視差に対応する整数の出力視差を規定する。例えば、この表によると、M〜M+tの代表視差はNの出力視差,M〜M+2tの代表視差はN+1の出力視差に対応する。なお、画像の最小表示単位は1画素であるため、画素単位で出力視差を示すと整数となる。
視差調整部202は、ROM61などに記憶された立体動画視差−出力視差変換表に従って、各立体画像フレームの代表視差(シフト後あるいは縮減後の代表視差も含む)に対応する出力視差を決定する。
表示制御部42は、決定された出力視差で各立体画像フレームを順次モニタ13に表示することで立体動画を再生する。
図7は本処理による視差幅調整の様子を例示する。
例えば、図7の(a)部分に示すように、ある立体動画の動画視差幅が表示許容視差幅を超えているとする。この場合、S3でNoとなり、S7にてこの動画のシーン分離が行われる。図7の(b)部分は分離されたシーンを例示する。この図では、1つの立体動画が3つのシーンSN1〜SN3に分離されている。
シーンの分離後、S8にて、シーンごとの動画視差幅が表示許容視差幅と比較される。シーンの動画視差幅が表示許容視差幅を超える場合、S8でNoとなり、S13にてシーン変化の検出レベルが変更され、変更後のレベルで再びシーン変化が検出される。
シーンの動画視差幅が表示許容視差幅を超えない場合、S8でYesとなり、S9および/またはS10にて、当該シーンについて代表視差のシフトの要否が判断される。S9にて当該シーンの最大視差が表示許容最大視差を超えていると判断されるか、S10にて当該シーンの最小視差が表示許容最小視差を下回っていると判断された場合は、S11にて当該シーンに含まれる各立体画像フレームの代表視差が表示許容視差の最小値から最大値の範囲に収まるようシフトされる。
図7の(c)部分は分離されたシーンごとの代表視差のシフトを例示する。この図では、シーンSN1の各代表視差は一律Δ1だけ下側にシフトされ、シーンSN2の各代表視差は一律Δ2だけ下側にシフトされて、シーンSN3の各代表視差は一律Δ3だけ下側にシフトされている。
上記の処理を実行するのに必要なブロックは、デジタルカメラ以外の電子機器に備えられていてもよい。例えば、図8に示すような、CPU26、VRAM65、SDRAM39、フラッシュROM60、ROM61、圧縮伸張処理部43、メディア制御部15、視差検出部49、視差調整部202、画像入力部201(例えば画像入力コントローラ38、メディア制御部15など)、表示許容視差幅取得部204、シーン分離部206、シーン分離情報入力部207、画像出力部208(例えばモニタ13、メディア制御部15など)などの平面または立体画像を表示するブロックを備えた画像処理装置がこの処理を実行することもできる。
画像入力部201の入力する立体動画は、撮像手段から直接出力されたものに限られない。例えば、メディア制御部15がメモリカード16などのメディアから読み出したものや、ネットワーク経由で受信したものでもよい。
画像出力部208が視差調整の完了した画像を出力する先は、表示制御部42およびモニタ13に限られず、画像は視差調整後に即時に表示されなくてもよい。例えば、メディア制御部15は、各立体画像フレームごとの調整後の代表視差すなわち出力視差を各立体画像フレームと対応づけた立体動画データとしてメモリカード16などのメディアに記録してもよい。あるいは、当該立体動画データをネットワーク経由で送信してもよい。あるいはそれぞれの立体画像フレームをレンチキュラプリントのような印刷物とすることもできる。
また、視差調整処理を動作させるか否かのモード設定やタイミングも任意である。例えば、撮影モードの開始時は視差調整処理を行わないが、レリーズボタン14が全押しされたときから視差調整処理を開始する。あるいは、メモリカード16の立体動画データをテレビなどの外部のモニタ13に表示する際に、視差調整処理を開始する。
以上の処理により、各立体画像フレームの代表視差が表示許容視差幅を超える場合は、シーンごとに視差幅圧縮の可否が判断され、シーン単位で視差幅が調整される。よって、撮影時の立体動画の代表視差を保って出力することができる。
特に、pmax=MAX(maxk)、pmin=MIN(mink)とすると、観察者が感得する可能性のある最大視差から最小視差までの範囲が表示許容視差幅に調整され、疲労感を与える可能性がさらに低くなる。
なお、上記の視差調整処理は、異なる種類の代表視差の各々について実行されることができる。この場合、異なる種類の代表視差について、視差調整の結果が整合しないことが考えられるが、その際には、観察者にとって適切な結果を選択して実行したり、視差調整および視差幅調整をキャンセルしてもよい。
例えば、任意の1つのフレームにおいて、クロスポイントより遠景側の視差の最大値を第1の最大代表視差、クロスポイントより遠景側の視差の最小値を第1の最小代表視差、クロスポイントより近景側の視差の最大値を第2の最大代表視差、クロスポイントより近景側の視差の最小値を第2の最小代表視差とし、第1の最大・最小代表視差について視差調整処理が行われ、かつ第2の最大・最小代表視差について視差調整処理が行われるとする。
そして例えば、第2の最大・最小代表視差で定まるシーンS(k)の動画視差幅(第2の動画視差幅)について、S8でYESとなっても、第1の最大・最小代表視差で定まるシーンS(k)の動画視差幅(第1の動画視差幅)についてS8でNOとなり、かつS12でNOとなってS14に進み、S14で視差調整が行われたとする。この場合、再びS1に戻って、視差調整後のシーンS(k)から第2の最大・最小代表視差と第2の動画視差幅を算出して、この視差調整後のシーンS(k)の第2の動画視差幅について、S8でNOとなった場合、視差調整をキャンセルし、動画の視差調整を行っていない状態に戻してもよい。同様なことは、第1の動画視差幅について、S8でYESとなっても、第2の動画視差幅についてS8でNOとなった場合も行うことができる。こうすれば、遠景側の視差の調整、近景側の視差の調整を整合させることができる。
<第2実施形態>
シーンごとに視差量の調整を行うと、シーンの変化に伴う出力視差の変動が撮影時のオリジナルの視差の変動と異なったものとなり、視聴者に違和感を与える可能性がある。そこで、S11において、視差調整部202は、1つ前のシーンS(k−1)と現在のシーンS(k)(ただしここでは2<k≦n)について、いずれのシーンS(k−1)・S(k)の視差幅も表示許容視差幅を超えないか否かをさらに判断し、いずれのシーンS(k−1)・S(k)の視差幅も表示許容視差幅を超えないと判断した場合、シーンS(k)をシーンS(k−1)と共通のシフト量で表示許容視差幅内にシフトするとよい。この処理をkのインクリメントに伴って繰り返し、連続する2以上のシーンの動画視差幅がいずれも表示許容視差幅を超えなければ、それらの2以上のシーンは、表示許容視差の範囲内に収まるよう、上にまたは下に共通のシフト量でシフトされる。
例えば、図9の(a)部分に示すように、ある立体動画の立体画像フレームの代表視差が推移しているとする。図9の(b)部分はこの立体動画から分離されたシーンを例示する。この図では、1つの立体動画が3つのシーンSN1〜SN3に分離されている。
2つのシーンSN1・SN2における視差幅W1は、表示許容視差幅W0を超える。一方、2つのシーンSN2・SN3における視差幅W2は、表示許容視差幅W0を超えない。この場合、S9および/またはS10にて、2つのシーンSN2・SN3について代表視差のシフトの要否が判断される。S9にて当該シーンの最大視差が表示許容最大視差を超えていると判断されるか、S10にて当該シーンの最小視差が表示許容最小視差を下回っていると判断された場合は、S11にて、2つのシーンSN2・SN3に含まれる各立体画像フレームの代表視差が表示許容視差幅に収まるようシフトされる。
図9の(c)部分は分離されたシーンごとの代表視差のシフトを例示する。この図では、シーンSN1の各代表視差は一律Δ1だけ下側にシフトされ、シーンSN2・SN3の各代表視差ははともにΔ2だけ下側にシフトされている。
このように、連続するシーンの代表視差の視差幅が表示許容視差幅に収まる場合、それらのシーンの代表視差のシフト量を共通の値にすれば、シーンの変化の前後における視差の遷移が撮影時のものと同様となり、視聴者にとって観やすい立体画像となる。
<第3実施形態>
第1または2実施形態において、隣接するシーン間での代表視差の調整量(視差幅縮減による代表視差の変動量および/または代表視差のシフトによる変動量)の差異が大きいと、当該シーン間でのシーンの変化時に被写体の距離が急激に変化する可能性が高い。そこで、当該シーン間での代表視差の調整量の差異が所定の閾値以上である場合、当該シーン間での代表視差の調整量を平滑化するとよい。
具体的には、シーンAとシーンBが時間的に隣接し、シーンAの代表視差の調整量がa、シーンBの代表視差の調整量がbとする。視差調整部202は、|a−b|<所定の閾値(例えば5画素)であるかを判断する。Noの場合、視差調整部202は、シーンAの代表視差の調整量aとシーンBの視差調整量bを、所定の範囲で平滑化する。
例えば、視差調整部202は、シーンBの先頭の立体画像フレームから100フレーム程度後の立体画像フレームにかけて、視差調整量を、aからbに徐々に変化させる。あるいは、視差調整部202は、シーンAの最後尾から50フレーム程度遡った立体画像フレームからシーンBの先頭から50フレーム程度進んだ立体画像フレームにかけて、視差調整量を、aからbに徐々に変化させる。こうすれば、シーンの変化に伴う視差調整量の急激な変化を緩和できる。なお、シーン間での視差調整量の変化は、時間軸をパラメータとする所定の関数、例えば1次関数に従って行えばよい。
49:視差検出部、202:視差調整部、204:表示許容視差幅取得部、206:シーン分離部、207:シーン分離情報入力部
デジタルカメラの正面斜視図 デジタルカメラの背面斜視図 デジタルカメラのブロック図 開散方向の視差の限界の模式図 視差調整処理のフローチャート 立体動画の代表視差−出力視差変換表の一例を示す図 第1実施形態に係る視差シフトの模式図 表示再生装置のブロック図 第2実施形態に係る視差シフトの模式図
例えば、ふたつの撮影光学系11R、11Lのフォーカスレンズ19R、19Lのうち少なくとも一方を、フォーカスレンズ制御部23Rまたは2Lの駆動により移動させながら、一方の撮影光学系11Rまたは11Lの撮像画像(右視点画像または左視点画像)にて、コントラスト値を算出する。そのコントラスト値に基づき、ふたつの撮影光学系11R、11Lのフォーカスレンズ19R、19Lの合焦レンズ位置をそれぞれ決定し、フォーカスレンズ制御部23Rおよび2Lをそれぞれ駆動して、各フォーカスレンズ19R、19Lをそれぞれの合焦レンズ位置に移動させる。両方の撮影光学系11R、11LにてそれぞれAFサーチを行って、それぞれの合焦レンズ位置を決定してもよい。
表示許容最大視差Dmaxは、開散方向の視差(モニタ13上の立体画像が引っ込む方向)の限界を規定する。図4の(a)部分に例示するように、人の目は外側には開かないので、瞳孔間距離を超える視差を有する左右像は融合せず、視聴者が1つの像として認識できないので、眼精疲労を引き起こす。子供の視聴者を考慮すると、瞳孔間距離は、約5cmであるので、この距離に相当するモニタ13のピクセル数が表示許容最大視差Dmaxとなる。例えば、モニタ13が16:9インチサイズのハイビジョンテレビであり、解像度が1920×1080とすると、モニタ13のサイズごとの表示許容最視差Dmaxは、図4の(b)部分のようになる。デジタルカメラや携帯電話の内蔵画面のようにモニタ13のサイズが小さければ、開散方向の視差は問題となりにくいが、テレビのように表示面のサイズが大きいモニタ13の場合は、開散方向の視差が問題になる。
S16では、視差調整部202は、ROM61などに記憶されている立体動画視差−出力視差変換表をSDRAM39に読み出す。図6は立体動画視差−出力視差変換表の一例を示す。この表は、各立体画像フレームの任意の値の代表視差に対応する整数の出力視差を規定する。例えば、この表によると、M〜M+tの代表視差はNの出力視差,M+t〜M+2tの代表視差はN+1の出力視差に対応する。なお、画像の最小表示単位は1画素であるため、画素単位で出力視差を示すと整数となる。

Claims (18)

  1. 立体動画の全部または所定の一部の範囲を構成する複数の立体画像フレームごとの代表視差を取得する代表視差取得部と、
    前記代表視差取得部の取得した各立体画像フレームの代表視差の最大値および最小値で規定される視差幅が、予め定められた最大許容視差および最小許容視差で規定される許容視差幅に適合しない場合、前記立体動画を複数のシーンに分離するシーン分離部と、
    前記シーン分離部の分離したシーンごとに、前記シーンを構成する立体画像フレームの代表視差の最大値および最小値で規定されるシーン視差幅が前記許容視差幅に適合するか否かを判断し、前記判断結果に応じて前記シーンを構成する各立体画像フレームの代表視差を前記許容視差幅に適合するよう一律に調整する視差調整部と、
    前記視差調整部が代表視差を調整した立体画像フレームを出力する出力部と、
    を備え、
    前記立体画像フレームごとの代表視差は、前記立体画像フレームの視差のうち所定の条件を満たす視差に基づいて算出された統計的演算値を含む画像処理装置。
  2. 前記視差調整部は、あるシーンのシーン視差幅が前記許容視差幅に適合するが、前記シーンを構成する立体画像フレームの代表視差の最大値が予め定められた代表視差の上限を上回る場合、前記シーンを構成する各立体画像フレームの代表視差が前記代表視差の上限を下回るよう前記代表視差を調整する請求項1に記載の画像処理装置。
  3. 前記視差調整部は、連続する2以上のシーンに対応する各シーン視差幅が前記許容視差幅に適合するが、前記連続する2以上のシーンを構成する立体画像フレームの代表視差の最大値が前記代表視差の上限を上回る場合、前記連続する2以上のシーンを構成する各立体画像フレームの代表視差が前記代表視差の上限を下回るよう前記代表視差を一律に調整する請求項2に記載の画像処理装置。
  4. 前記視差調整部は、あるシーンのシーン視差幅が前記許容視差幅に適合するが、前記シーンを構成する立体画像フレームの代表視差の最小値が予め定められた代表視差の下限を下回る場合、前記シーンを構成する各立体画像フレームの代表視差が前記代表視差の下限を上回るよう前記代表視差を調整する請求項1〜3のいずれかに記載の画像処理装置。
  5. 前記視差調整部は、連続する2以上のシーンに対応する各シーン視差幅が前記許容視差幅に適合するが、前記連続する2以上のシーンを構成する立体画像フレームの代表視差の最小値が前記代表視差の下限を下回る場合、前記連続する2以上のシーンを構成する各立体画像フレームの代表視差が前記代表視差の下限を上回るよう前記代表視差を一律に調整する請求項4に記載の画像処理装置。
  6. 前記シーン分離部は、所定の第1の基準に従って分離されたシーンのシーン視差幅が前記許容視差幅に適合しない場合、前記所定の第1の基準および前記所定の第1の基準と異なる第2の基準に従って前記立体動画を分離する請求項1〜5のいずれかに記載の画像処理装置。
  7. 前記第2の基準は、前記第1の基準よりも前記シーンの変化の推定確度が低い請求項6に記載の画像処理装置。
  8. 前記視差調整部は、前記シーン分離部が前記第1の基準および前記第2の基準に従って分離したシーンごとに、前記シーンのシーン視差幅が前記許容視差幅に適合するか否かを判断し、前記シーンのシーン視差幅が前記許容視差幅に適合しないと判断した場合、前記シーンを構成する各立体画像フレームの代表視差を前記許容視差幅に適合するよう調整する請求項6または7に記載の画像処理装置。
  9. 前記視差調整部は、隣接する2つのシーン間での代表視差の調整量の差が所定の閾値を超える場合、前記隣接する2つのシーン間での代表視差の調整量を平滑化する請求項1〜8のいずれかに記載の画像処理装置。
  10. 前記統計的演算値は、前記立体画像フレームの視差の平均値、最大値、最小値、最頻値および中央値のうち少なくとも1つを含む請求項1〜9のいずれかに記載の画像処理装置。
  11. 前記立体画像フレームごとの代表視差は、前記立体画像フレームの視差のうちクロスポイントよりも撮像装置から遠ざかる方向である遠景側に存在する被写体の視差の平均値、最大値、最小値、最頻値もしくは中央値およびクロスポイントよりも撮像装置に近づく方向である近景側に存在する被写体の視差の平均値、最大値、最小値、最頻値もしくは中央値のうち少なくとも1つを含む請求項10に記載の画像処理装置。
  12. 前記所定の条件を満たす視差は、前記立体画像フレームに対する注視位置の視差を含む請求項1または10に記載の画像処理装置。
  13. 前記注視位置は、前記立体画像フレームの視聴者の注視点、前記立体画像フレームの撮影者の注視点または前記立体画像フレーム内で任意に指定された注視点を含む請求項12に記載の画像処理装置。
  14. 前記所定の条件を満たす視差は、顔領域の視差、合焦評価値算出領域の視差、画像中央領域の視差、前記立体画像フレームの視差のうちクロスポイントよりも撮像装置から遠ざかる方向である遠景側に存在する被写体の視差、または前記立体画像フレームの視差のうちクロスポイントよりも撮像装置に近づく方向である近景側に存在する被写体の視差を含む請求項1または10に記載の画像処理装置。
  15. 前記立体画像フレームごとの代表視差は、前記立体画像フレームの視差のうち所定の条件を満たす視差の最大値である第1の代表視差と、前記立体画像フレームの視差のうち所定の条件を満たす視差の最小値である第2の代表視差の双方を含み、
    前記シーン分離部は、前記第1の代表視差の最大値および前記第2の代表視差の最小値で規定される視差幅が、予め定められた最大許容視差および最小許容視差で規定される許容視差幅に適合しない場合、前記立体動画を複数のシーンに分離する請求項1〜14のいずれかに記載の画像処理装置。
  16. 代表視差取得部と、シーン分離部と、視差調整部と、出力部と、を備える画像処理装置において、
    前記代表視差取得部が、立体動画の全部または所定の一部の範囲を構成する複数の立体画像フレームごとの代表視差を取得するステップと、
    前記シーン分離部が、前記代表視差取得部の取得した各立体画像フレームの代表視差の最大値および最小値で規定される視差幅が、予め定められた最大許容視差および最小許容視差で規定される許容視差幅に適合しない場合、前記立体動画を複数のシーンに分離するステップと、
    前記視差調整部が、前記シーン分離部の分離したシーンごとに、前記シーンを構成する立体画像フレームの代表視差の最大値および最小値で規定されるシーン視差幅が前記許容視差幅に適合するか否かを判断し、前記判断結果に応じて前記シーンを構成する各立体画像フレームの代表視差を前記許容視差幅に適合するよう一律に調整するステップと、
    前記出力部が、前記視差調整部が代表視差を調整した立体画像フレームを出力するステップと、
    を実行し、
    前記立体画像フレームごとの代表視差は、前記立体画像フレームの視差のうち所定の条件を満たす視差に基づいて算出された統計的演算値を含む画像処理方法。
  17. 代表視差取得部と、シーン分離部と、視差調整部と、出力部と、を備える画像処理装置において、
    前記代表視差取得部が、立体動画の全部または所定の一部の範囲を構成する複数の立体画像フレームごとの代表視差を取得するステップと、
    前記シーン分離部が、前記代表視差取得部の取得した各立体画像フレームの代表視差の最大値および最小値で規定される視差幅が、予め定められた最大許容視差および最小許容視差で規定される許容視差幅に適合しない場合、前記立体動画を複数のシーンに分離するステップと、
    前記視差調整部が、前記シーン分離部の分離したシーンごとに、前記シーンを構成する立体画像フレームの代表視差の最大値および最小値で規定されるシーン視差幅が前記許容視差幅に適合するか否かを判断し、前記判断結果に応じて前記シーンを構成する各立体画像フレームの代表視差を前記許容視差幅に適合するよう一律に調整するステップと、
    前記出力部が、前記視差調整部が代表視差を調整した立体画像フレームを出力するステップと、
    を実行し、
    前記立体画像フレームごとの代表視差は、前記立体画像フレームの視差のうち所定の条件を満たす視差に基づいて算出された統計的演算値を含む画像処理プログラム。
  18. 請求項17に記載の画像処理プログラムを記録したコンピュータ読み取り可能な非一時的記録媒体。
JP2013550179A 2011-12-19 2012-11-08 画像処理装置、方法およびプログラム Expired - Fee Related JP5571257B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013550179A JP5571257B2 (ja) 2011-12-19 2012-11-08 画像処理装置、方法およびプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011277352 2011-12-19
JP2011277352 2011-12-19
PCT/JP2012/078933 WO2013094329A1 (ja) 2011-12-19 2012-11-08 画像処理装置、方法およびプログラムならびにその記録媒体
JP2013550179A JP5571257B2 (ja) 2011-12-19 2012-11-08 画像処理装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP5571257B2 JP5571257B2 (ja) 2014-08-13
JPWO2013094329A1 true JPWO2013094329A1 (ja) 2015-04-27

Family

ID=48668228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013550179A Expired - Fee Related JP5571257B2 (ja) 2011-12-19 2012-11-08 画像処理装置、方法およびプログラム

Country Status (4)

Country Link
US (1) US9094671B2 (ja)
JP (1) JP5571257B2 (ja)
CN (1) CN104054333A (ja)
WO (1) WO2013094329A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103391447B (zh) * 2013-07-11 2015-05-20 上海交通大学 3d节目镜头切换中安全深度保证与调整方法
CN107087112B (zh) * 2017-05-31 2020-01-10 Oppo广东移动通信有限公司 双摄像头的控制方法和控制装置
JP7022544B2 (ja) * 2017-09-13 2022-02-18 キヤノン株式会社 画像処理装置及び方法、及び撮像装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4086585A (en) * 1976-12-27 1978-04-25 Dimensional Development Corporation System and camera for controlling depth of field in three-dimensional photography
US6590573B1 (en) * 1983-05-09 2003-07-08 David Michael Geshwind Interactive computer system for creating three-dimensional image information and for converting two-dimensional image information for three-dimensional display systems
US4852972A (en) * 1987-06-08 1989-08-01 Wah Lo Allen K Method of controlling variation of density of images in 3-D pictures
JPH0628452A (ja) 1991-08-07 1994-02-04 Nec Home Electron Ltd 3次元画像処理装置
US5337096A (en) * 1993-08-23 1994-08-09 Pantech, Inc. Method for generating three-dimensional spatial images
JPH08327948A (ja) 1995-05-31 1996-12-13 Canon Inc 立体画像表示方法及び立体画像表示装置
JPH09238369A (ja) 1996-02-29 1997-09-09 Mitsubishi Electric Corp 3次元像表示装置
US7365875B2 (en) * 2002-05-14 2008-04-29 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and recording medium
JP2004221699A (ja) 2003-01-09 2004-08-05 Sanyo Electric Co Ltd 立体画像処理方法および装置
US20100097444A1 (en) * 2008-10-16 2010-04-22 Peter Lablans Camera System for Creating an Image From a Plurality of Images
KR101667723B1 (ko) * 2008-12-02 2016-10-19 엘지전자 주식회사 3차원 영상신호 전송 방법과, 3차원 영상표시 장치 및 그에 있어서의 신호 처리 방법
US8199186B2 (en) * 2009-03-05 2012-06-12 Microsoft Corporation Three-dimensional (3D) imaging based on motionparallax
US8406619B2 (en) * 2009-03-23 2013-03-26 Vincent Pace & James Cameron Stereo camera with automatic control of interocular distance
JP2011109408A (ja) * 2009-11-17 2011-06-02 Funai Electric Co Ltd 三次元信号生成装置
US8780185B2 (en) * 2009-11-25 2014-07-15 Olympus Imaging Corp. Image pickup apparatus having a display controlled using interchangeable lens information and/or finder information
JP2013517677A (ja) * 2010-01-13 2013-05-16 トムソン ライセンシング 3dテキストを3dコンテンツと合成するシステムおよび方法
US9071759B2 (en) 2010-03-30 2015-06-30 Fujifilm Corporation Compound-eye imaging device, and parallax adjusting method and program thereof
KR101329065B1 (ko) * 2010-03-31 2013-11-14 한국전자통신연구원 영상 시스템에서 영상 데이터 제공 장치 및 방법
JP2011223482A (ja) 2010-04-14 2011-11-04 Sony Corp 画像処理装置、画像処理方法、およびプログラム
CN102986232B (zh) * 2010-07-26 2015-11-25 富士胶片株式会社 图像处理装置及方法
JP5891424B2 (ja) * 2010-09-17 2016-03-23 パナソニックIpマネジメント株式会社 立体映像作成装置および立体映像作成方法
KR101763686B1 (ko) * 2010-11-15 2017-08-01 삼성전자 주식회사 입체 영상 처리 장치 및 그 처리 방법
US8878950B2 (en) * 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5011431B2 (ja) * 2010-12-21 2012-08-29 株式会社東芝 映像信号処理装置および処理方法ならびに映像表示装置
US8937644B2 (en) * 2012-03-21 2015-01-20 Canon Kabushiki Kaisha Stereoscopic image capture

Also Published As

Publication number Publication date
WO2013094329A1 (ja) 2013-06-27
US20140247327A1 (en) 2014-09-04
US9094671B2 (en) 2015-07-28
JP5571257B2 (ja) 2014-08-13
CN104054333A (zh) 2014-09-17

Similar Documents

Publication Publication Date Title
US9560341B2 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
US8736671B2 (en) Stereoscopic image reproduction device and method, stereoscopic image capturing device, and stereoscopic display device
WO2012023330A1 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP5449550B2 (ja) 立体画像表示装置、立体画像表示方法、立体画像表示プログラムおよび記録媒体
EP2590421A1 (en) Single-lens stereoscopic image capture device
JP5336662B2 (ja) 画像処理装置、方法およびプログラム
JP5449551B2 (ja) 画像出力装置、方法およびプログラム
US9310672B2 (en) Stereoscopic image capturing device and method of controlling thereof
JP5486697B2 (ja) 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
JP5466773B2 (ja) 立体動画再生装置、立体動画再生プログラムならびにその記録媒体、立体ディスプレイ装置、立体撮像装置及び立体動画再生方法
JP5571257B2 (ja) 画像処理装置、方法およびプログラム
WO2012101916A1 (ja) 立体動画処理装置、立体動画処理プログラム及びその記録媒体、立体撮像装置並びに立体動画処理方法
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
JP2012015620A (ja) 立体撮像装置
US20130120374A1 (en) Image processing device, image processing method, and image processing program
JP2012044319A (ja) 画像処理装置、画像処理方法及び立体撮像装置

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20140508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140509

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140509

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140613

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140625

R150 Certificate of patent or registration of utility model

Ref document number: 5571257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees