JP5891424B2 - 立体映像作成装置および立体映像作成方法 - Google Patents

立体映像作成装置および立体映像作成方法 Download PDF

Info

Publication number
JP5891424B2
JP5891424B2 JP2012502347A JP2012502347A JP5891424B2 JP 5891424 B2 JP5891424 B2 JP 5891424B2 JP 2012502347 A JP2012502347 A JP 2012502347A JP 2012502347 A JP2012502347 A JP 2012502347A JP 5891424 B2 JP5891424 B2 JP 5891424B2
Authority
JP
Japan
Prior art keywords
frame
stereoscopic
video
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012502347A
Other languages
English (en)
Other versions
JPWO2012035783A1 (ja
Inventor
整 山田
整 山田
リー ボー
リー ボー
オン チンペク
オン チンペク
シェン シェンメイ
シェン シェンメイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2012502347A priority Critical patent/JP5891424B2/ja
Publication of JPWO2012035783A1 publication Critical patent/JPWO2012035783A1/ja
Application granted granted Critical
Publication of JP5891424B2 publication Critical patent/JP5891424B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、立体映像作成装置および立体映像作成方法に関し、特に、2D映像から3D映像を作成する立体映像作成装置および立体映像作成方法に関する。
注目を集めている技術として、3D(Three Dimensions)関連の技術がある。3D関連の技術の適用範囲は広く、軍用ナビゲーションから、産業用検査、消費者用電子機器などまでにわたる。近年では、多くのテレビメーカーが発売している3Dテレビ、および、様々な3D映画館で上映されている3D映画など、3D技術が適用されたアプリケーションや製品が市場に出回っている。さらに、試験的に3Dチャンネルの放送を行っているテレビ放送会社もある。このように、3D関連の技術が適用されることにより、人々は、立体映像(3D映像)等に接する3D体験の機会が増えている。
また、1838年には3D関連の技術として立体画像に関する研究が開始されている。人間は、左目と右目との間に視差があることで奥行きの感覚を知覚することができる。したがって、人間にとって適切な視差のある左眼画像と右眼画像を生成し、生成した左眼画像と右眼画像とを人の左目と右目とに別々に送ることができれば、人は臨場感のある立体画像(3D画像)を楽しむことができる。
そのため、人に好適な3D体験を提供するために、種々の技術が開発されている。開発されている技術には、3D画像の撮影技術、3D映像の撮影技術、後処理技術、パッケージ(3Dコンテンツ)、3Dコンテンツの配信および3D表示を含む一連の3D処理における様々な機能を実現する技術がある。
3Dテレビは、近年顕著な発展を遂げているが、ホームユーザが楽しむための利用可能な3Dコンテンツが不十分である。この状況は、2つの解決策を用いて緩和することができる。
1つは、新たな3Dカメラの開発を進め、多くの3Dカメラを市場に提供する方法である。しかし、これを実現するには時間を要する。さらに、新たな3Dカメラを購入するなどユーザにも負担を課してしまう。
もう1つは、2D映像のコンテンツを3D映像に変換する方法である。例えば、既存の2D映像のコンテンツを3D映像のコンテンツに変換する方法、通常のカメラやカムコーダで2D映像を撮影すると同時に、3D映像のコンテンツに変換する方法などがある。この方法は、新たな3Dカメラの開発等と比べて、コストをかけずに人々に好適な3D体験を提供することができる点で好ましい。
特許文献1には、複雑性に適応し(計算コストが低く)、かつ、自動的に2D画像(2D映像)から3D画像(3D映像)に変換する技術が開示されている。特許文献1に開示されている技術では、まず、フレームを平坦画像および非平坦画像に分類する。次に、平坦画像は、直接3D立体表示形式に変換され、非平坦画像は、予め推定された奥行きマップに基づいて変換される。なお、奥行きマップに基づく立体変換は、より多くの種類に対応することができる。
特許文献2には、2D画像信号を3D画像信号に変換し、変換した3D画像信号を出力する技術が開示されている。特許文献2に開示されている技術では、まず各フレームの動きを分析し、それらのフレームを3種類に分類する。具体的には、(1)水平方向の動きを含み、シーン変化を含まないフレーム、(2)水平方向の動きおよびシーン変化を含まないフレーム、(3)水平方向の動きを含まないフレームの3種類に分類する。次に、水平方向の動きを含み、シーン変化を含まない場合に、対象フレームと次のフレームを直接用いて立体対を構築する。
非特許文献1には、SFM(structure from motion)に基づく立体変換方法が開示されている。非特許文献1に開示されている技術では、まず、位置、回転および焦点距離等のカメラパラメータを、SFMアルゴリズムによって推定する。次に、元映像シーケンスから、左眼画像の候補とそれに対応する右眼画像とを、推定したカメラパラメータに基づき選択する。
米国特許出願公開第2008/0150945号明細書 国際公開第2010/024479号
Guofeng Zhang、Wei Hua、Xueying Qin、Tien−Tsin Wong、and Hujun Bao、「Stereoscopic Video Synthesis from a Monocular Video」、IEEE Transactions on Visualization and Computer Graphics、13(4):686−696(2007) 「International Joint Conference on Artificial Intelligence」における、Bruce D.LucasおよびTakeo Kanadeの「An Iterative Image Registration Technique with an Application to Stereo Vision(1981)」 「Alvey vision conference」におけるC.HarrisおよびM.Stephensの「A combined corner and edge detector(1988)」 R.Hartley and A.Zisserman、Multiple View Geometry in Computer Vision、Cambridge University Press、London、2000
しかしながら、上記従来の技術では、以下に示すような課題がある。
まず、上記特許文献1で開示される技術では、計算が複雑すぎるため質の高い奥行きマップの推定をリアルタイムでは行えない。また、質の低い奥行きマップに基づき、3D画像(3D映像)に変換する場合には、人が快適に感じる3D画像への変換という要件を満たさない。
次に、特許文献2で開示される技術では、快適な3Dの条件には不十分であるという課題がある。具体的には、水平方向の動きのみを含むフレームは、実際の映像ではあまり発生しない。そのため、上記特許文献2で開示される技術では、多くの場合、推定された奥行きマップに基づいて2D映像を3D映像に変換することになる。奥行きマップの推定は、水平境界に基づいて推定するためノイズによって影響されやすい。また、質の高い奥行きマップを推定するには、時間を要する。
最後に、非特許文献1で開示される技術では、立体変換の性能はSFMの精度に依存するという課題がある。高精度のSFMは、時間のかかる処理であり、リアルタイムでの適用は難しい。さらに、オンラインでの変換に、オフラインのSFMを用いることが記載されているが、実現性は低い。
本発明は、上述の事情を鑑みてなされたもので、2D映像から適切かつ快適な3D映像を作成する立体映像作成装置および立体映像作成方法を提供することを目的とする。
上記目的を達成するために、本発明の一形態に係る立体映像作成装置は、2D映像から3D映像を作成する立体映像作成装置であって、2D映像を受信する受信部と、前記2D映像を構成する複数のフレームから、対象フレームと共通する画像の領域である共通領域が占める領域の大きさが予め定めた値以上である複数のフレームを、当該対象フレームとともに立体画像を構成するフレームの候補である立体パートナーフレーム候補として選択する選択部と、前記立体パートナーフレーム候補から、所定の基準に基づいて、当該対象フレームとともに立体画像を構成するフレームである立体パートナーフレームを決定する決定部と、前記対象フレームと、前記立体パートナーフレームとを用いて、前記対象フレームに対応する立体画像を構成する立体対を生成する立体対生成部と、前記対象フレームと前記選択部により選択された前記立体パートナーフレーム候補とから、前記立体パートナーフレーム候補をワープさせるための変換行列を生成し、前記立体対に、生成した前記変換行列を適用することにより、前記立体対を変換する変換部とを備える。
この構成によれば、計算コストの高いSFMによる推定を行わず立体映像を生成することができる。また、本発明の立体映像作成装置は、時間のかかる奥行きマップの推定を行わず立体映像を生成することができる。
それにより、2D映像から適切かつ快適な3D映像を作成する立体映像作成装置実現することができる。
なお、本発明は、装置として実現するだけでなく、このような装置が備える処理手段を備える集積回路として実現したり、その装置を構成する処理手段をステップとする方法として実現したり、それらステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、プログラムは、CD−ROM等の記録媒体やインターネット等の通信媒体を介して配信してもよい。
本発明によれば、2D映像から適切かつ快適な3D映像を作成する立体映像作成装置および立体映像作成方法を実現することができる。
図1は、本発明の実施の形態1における立体映像作成装置の構成を示すブロック図である。 図2は、本発明の実施の形態1における安定化部の詳細構成を示すブロック図である。 図3は、本発明の実施の形態1における立体映像作成部の詳細構成を示すブロック図である。 図4は、本発明の実施の形態1における立体映像変換部の処理を示すフローチャートである。 図5は、本発明の実施の形態1における安定化部の処理を示すフローチャートである。 図6は、本発明の実施の形態1における手持ち式のビデオカメラが撮影対象とするシーン例を示す図である。 図7は、本発明の実施の形態1における手持ち式のビデオカメラで撮影した安定化前の2D映像を示す図である。 図8は、本発明の実施の形態1における手持ち式のビデオカメラで撮影した安定化後の2D映像を示す図である。 図9は、本発明の実施の形態1における対象フレームとそれに対応する立体パートナーフレーム候補の共通領域を示す図である。 図10は、本発明の実施の形態1における決定部の処理を示すフローチャートである。 図11は、本発明の実施の形態1における変換行列を生成する処理を説明するためのフローチャートである。 図12Aは、本発明の実施の形態1における用語の概念を説明するための図である。 図12Bは、本発明の実施の形態1における用語の概念を説明するための図である。 図13は、本発明の実施の形態1におけるビデオカメラで撮影した安定化後の2D映像を立体変換した3D映像を示す図である。 図14は、本発明に係る立体映像作成装置の最小構成を示すブロック図である。 図15は、図14に示す立体映像作成装置の動作を示すフローチャートである。 図16は、本発明の実施の形態2における立体映像作成装置の構成を示すブロック図である。 図17は、本発明の実施の形態3に係る画像装置の構成を示すブロック図である。
以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1における立体映像作成装置の構成を示すブロック図である。図2は、本発明の実施の形態1における安定化部の詳細構成を示すブロック図である。図3は、本発明の実施の形態1における立体映像作成部の詳細構成を示すブロック図である。
図1に示す立体映像作成装置100は、2D映像から3D映像を作成し、作成した3D映像を出力する。出力された3D映像は、外部にある表示部112で表示されるまたは外部にある記憶/送信装置114に記憶される。この立体映像作成装置100は、受信部101と、立体映像変換部106と、映像出力部108と、内部バッファ110とを備える。
受信部101は、2D映像を受信する。受信部101は、例えば図1に示すように記憶媒体リーダ102と、ビデオデコーダ104とで構成される。記憶媒体リーダ102は、2D映像を構成する複数のフレーム(画像データ)を蓄積している。ビデオデコーダ104は、記憶媒体リーダ102から画像データS11を取得して、立体映像変換部106に出力する。ビデオデコーダ104は、画像デ―タS11が符号化されている場合、必要に応じて画像デ―タS11を復号した2D映像データS13を立体映像変換部106に出力する。
立体映像変換部106は、安定化部116と、立体映像作成部118とで構成されている。立体映像変換部106は、安定化部116と立体映像作成部118とを用いて2D映像データS13を安定化し、その後3D映像(立体映像)に変換する。
安定化部116は、2D映像(2D映像データS13)を構成する複数のフレームから、当該複数のフレーム間のゆれを補正することで、当該複数のフレームを安定化させる。ここで、複数のフレーム間のゆれ(揺れ)とは、例えば2D映像を撮像時の手振れによる映像の揺れである。また、安定化させるとは、例えば揺れのない映像に補正することである。
安定化部116は、図2に示すように、検出部121と算出部122とで構成されている。安定化部116は、所定フレームと、所定フレームと時間的に近いフレームである複数の近隣フレームとの間で対応するフレーム上の特徴的な点である特徴点に基づいて算出した射影変換行列を用いることにより、当該複数のフレーム間のゆれを補正する。
具体的には、検出部121は、所定フレームと、その所定フレームに近いフレームである近隣フレームとの間で対応する特徴的な点である複数の特徴点を検出する。
算出部122は、所定フレームの複数の特徴点と、対応する近隣フレームの重みづけされた複数の特徴点とが同じ座標値を有するように、所定フレームをワープ(変形)させる射影変換行列を安定化行列として算出する。例えば、算出部122は、複数の近隣フレームの重みを、重み関数を用いて算出する。算出部122は、対応する近隣フレームが所定フレームに時間的に最も近いフレームである場合、重み関数を用いて1により近い値の重みを算出する。一方、対応する近隣フレームが、所定フレームから時間的に遠いフレームである場合、重み関数を用いて1より小さい値の重みを算出する。
このように、安定化部116は、算出した射影変換行列を所定フレームに適用し、すべてのフレームに対しても同様に処理することで、2D映像データを構成する複数のフレームを安定化させる。
立体映像作成部118は、図3に示すように、選択部123と、決定部124と、立体対生成部125と、変換部126とで構成され、安定化された2D映像データS13から、3D映像を作成する。
選択部123は、2D映像を構成する複数のフレームから、対象フレームと共通する画像の領域である共通領域が占める領域の大きさが予め定めた値以上である複数のフレームを、対象フレームとともに立体画像を構成するフレームの候補である立体パートナーフレーム候補として選択する。
例えば、選択部123は、立体パートナーフレーム候補として、2D映像を構成する複数のフレームから、対象フレームと同一シーンに撮影された複数のフレームを選択する。具体的には、選択部123は、対象フレームに占める共通領域の大きさの割合と立体パートナーフレーム候補に占める共通領域の大きさの割合とがそれぞれ予め定めた値(例えば0.9)以上の場合に、立体パートナーフレーム候補が対象フレームと同一シーンに撮影されたフレームであると判断する。ここで、共通領域は、対象フレームと立体パートナーフレーム候補との間で対応するフレーム上の特徴的な点である特徴点に基づき算出される。また、選択部123は、例えば2D映像を構成する複数のフレームにおいて、対象フレームと時間的に近いフレームである近隣フレームを、立体パートナーフレーム候補として、選択するとしてもよい。
決定部124は、立体パートナーフレーム候補から、第1基準に基づいて、対象フレームとともに立体画像を構成するフレームである立体パートナーフレームを決定する。換言すると、決定部124は、画像処理を施すことによって検出可能なフレーム上の特徴的な点である特徴点を用いて、第1基準を満たすか否かを判定することで、立体パートナーフレームを決定する。
立体対生成部125は、対象フレームと、立体パートナーフレームとを用いて、対象フレームに対応する立体画像を構成する立体対を生成する。
なお、第1基準とは、垂直方向差基準と、水平視差基準と、円滑化基準と、歪低減基準とで構成される基準である。具体的には、垂直方向差基準では、対象フレームの共通領域と垂直方向の位置の差がゼロに略等しいフレームを立体パートナーフレームとする旨が規定されている。水平視差基準では、対象フレームの共通領域と水平方向の位置の差(視差)が所定の範囲に含まれるフレームを立体パートナーフレームとする旨が規定されている。また、円滑化基準では、時間的に連続する立体対間において、共通領域の変位が滑らかとなるフレームを立体パートナーフレームとする旨が規定されている。歪低減基準では、共通領域が占める領域の大きさが対象フレームとともに予め定めた値以上であるフレームを立体パートナーフレームとする旨が規定されている。
変換部126は、対象フレームと選択部123により選択された立体パートナーフレーム候補とから、立体パートナーフレーム候補をワープさせるための変換行列を生成し、立体対に、生成した変換行列を適用することにより、生成した立体対を変換する。
ここで、変換部126は、フレーム上の特徴的な点である特徴点であって、対象フレームと立体パートナーフレームとの間で対応する特徴点に基づいて、その変換行列を生成する。具体的には、変換部126は、その変換行列を、算出した射影変換行列と斜傾変換行列と並進変換行列とを組み合わせて生成する。より具体的には、まず、変換部126は、対象フレームと立体パートナーフレーム候補との間で基本行列を算出する。次に、変換部126は、射影変換行列を、立体対における対象フレームと立体パートナーフレーム候補との間の垂直方向差を最小化するように、基本行列に基づいて算出する。次に、変換部126は、斜傾変換行列を、射影変換行列により変換される立体パートナーフレームにおける共通領域を変換前と同じ直交性とアスペクト比とを維持させるよう算出する。次に、変換部126は、並進変換行列を、対象フレームと、射影変換行列および斜傾変換行列が適用された立体パートナーフレームとの間の視差が、対象フレームより以前の対象フレームと立体パートナーフレームとの間の視差と同じになるように算出する。
内部バッファ110は、本発明の記憶部に相当し、変換部126により変換された立体対を記憶する。具体的には、内部バッファは、映像出力部108に出力される前のデータである中間データとして、立体映像作成部118で生成された立体対を記憶する。換言すると、立体映像変換部106は、生成した立体対データS15を、内部バッファ110を介して、映像出力部108に送信する。
映像出力部108は、本発明の出力部に相当し、内部バッファ110に記憶された当該変換された立体対を出力する。また、映像出力部108は、2D映像を構成する複数のフレームそれぞれに対応する立体対であって、変換部126により変換された立体対を出力する。
また、映像出力部108は、入力された立体対データS15を好ましい出力形式に応じた出力映像形式(立体対データS17)に調整して、表示部112に出力する。具体的には、映像出力部108は、表示部112に表示させるために、表示部112の表示形式に合致するように出力映像形式を調整する。例えば、出力映像形式としては、例えば眼鏡を使用せずに見る裸眼立体装置のための形式があるがそれに限られない。例えば、眼鏡を使用して見る、グレー/カラーアナグリフでもよいし、インターレース形式でもよい。また、チェッカーボード形式でもよいし、アクティブシャッターメガネを用いて見るフレームシーケンシャル型立体表示装置のための他の形式としてもよい。
なお、映像出力部108は、立体対データS17を、記憶/送信装置114を用いて記憶/送信するとしてよい。
記憶/送信装置114は、例えば、フラッシュベースのメモリカード、ハードドライブ、または光学ドライブであるが、これらに限定されない。例えば、記憶/送信装置114は、HDMIインターフェース、USBインターフェース、ワイヤレスインターフェースまたはdirect−to−printerインターフェースでもよいが、これらに限定されない。なお、記憶/送信装置114は、任意に可逆または不可逆圧縮して、記憶/送信するとしてもよい。
以上のように、立体映像作成装置100は構成される。
なお、立体映像作成装置100(または立体映像作成装置を構成する立体映像変換部106等)は、通常、IC(集積回路)、ASIC(特定用途集積回路)、またはLSI(大規模集積回路)で実現されるが、複数チップで構成されてもよいし、1チップで構成されてもよい。なお、立体映像作成装置100または立体映像変換部106等はそれぞれ、LSIの形で実現されることに限られない。集積度に応じて、IC、システムLSI、スーパーLSI、またはウルトラLSIとも呼ばれるもので実現されるとしてもよい。
また、立体映像作成装置100等は、専用回路または汎用プロセッサなどを用いて集積化されて実現されるとしてもよい。専用回路としては、例えばプログラム命令により制御することができるDSP(デジタルシグナルプロセッサ)など、特化したマイクロプロセッサがある。
また、立体映像作成装置100等は、LSI製造後に、プログラムすることが可能なFPGA(フィールド・プログラマブル・ゲートアレイ)、または、LSIの接続もしくは構成を再構成可能なプロセッサを用いるとしてもよい。将来的には、製造および処理技術が向上し、全く新しい技術がLSIに取って代わる場合には、その技術により、集積化を行うことで実現されるとしてもよい。
また、立体映像作成装置100は、時系列に画像(映像)を表示する液晶表示装置、プラズマ表示装置、レンチキュラーレンズ層が付加された表示装置、または、他の種類の表示装置等の立体画像を表示可能な表示装置に組み込まれるとしてもよい。
また、立体映像作成装置100は、デジタルビデオディスクプレーヤ、ブルーレイディスクプレーヤ、および他の種類のデジタルメディアプレーヤなどのデジタルメディアプレーヤ装置に実装されるとしてもよい。他の種類の装置に実装されるとしてもよい。上記いずれの場合も本願の範囲を限定するものではない。
図4は、本発明の実施の形態1による立体映像変換部106の動作を示すフローチャートである。
まず、S102において、立体映像変換部106に2D映像が入力される。具体的には、立体映像変換部106は、受信部101から2D映像データS13が入力される。
次に、S104において、立体映像変換部106は、隣接するフレーム間で対応する特徴点を検出する。
ここで、対応する特徴点の検出(登録/追跡)には、先行技術に開示された方法を用いる。なお、特徴を追跡する既知の方法は、例えば非特許文献2に開示されている。また、特徴を登録する既知の方法は、例えば非特許文献3に開示されている。なお、特徴点の検出(登録/追跡)の方法は上記非特許文献2および非特許文献3に開示される方法に限らない。
次に、S106において、立体映像変換部106は、2D映像を安定化する。具体的には、立体映像変換部106は、所定フレームに対する安定化変換を、対象(参照)フレームと複数の近隣フレームとの間で対応する特徴点に基づき算出される行列を用いて行う。より詳細には、所定フレームと、所定フレームと時間的に近いフレームである複数の近隣フレームとの間で対応するフレーム上の特徴的な点である特徴点に基づいて算出する射影変換行列を用いることにより、当該複数のフレーム間のゆれを補正する。それにより、立体映像変換部106は、2D映像を安定化することができる。
次に、S108において、立体映像変換部106は、対象フレームに対応する立体パートナーフレーム候補を選択する。具体的には、立体映像変換部106は、2D映像を構成する複数のフレームから、対象フレームと共通する領域である共通領域を有し、かつ、当該共通領域が占める領域の大きさが予め定めた値(例えば0.9)以上である複数のフレームを、対象フレームとともに立体画像を構成するフレームの候補である立体パートナーフレーム候補として選択する。例えば、立体映像変換部106は、対象フレームと同じシーンを含むフレームを、2D映像を構成する複数のフレームから選択する。
次に、S110において、立体映像変換部106は、対象フレームに対応する立体パートナーフレームを決定する。具体的には、立体映像変換部106は、立体パートナーフレーム候補から、第1基準に基づいて、対象フレームとともに立体画像を構成するフレームである立体パートナーフレームを決定する。
ここで、第1基準は、上述したとおりであるが、次の基準a)〜基準d)を含む。すなわち、立体対を形成する立体パートナーフレームと対象フレームとについて、基準a)垂直方向差がほぼゼロである(垂直方向差基準)、基準b)は十分かつ適切な水平視差を有する(水平視差基準)、基準c)隣接する立体対との対応点の視差が類似している(円滑化基準)、かつ基準d)歪みが最小限である(歪低減基準)。
次に、S112において、立体映像変換部106は、立体対を生成する。具体的には、立体映像変換部106は、対象フレームと、立体パートナーフレームとを用いて、対象フレームに対応する立体画像を構成する立体対を生成する。つまり、立体映像変換部106は、安定化された対象フレームと、第1基準に基づき決定された立体パートナーフレームとを用いて、立体対を生成する。
次に、S114において、立体映像変換部106は、生成した立体対(対象立体対)を、保存または表示する。例えば、立体映像変換部106は、生成した対象立体対を、内部バッファ110に保存する。
次に、S115において、立体映像変換部106は、生成した対象立体対の対象フレームが、2D映像を構成する複数のフレームのうちで最後のフレームであるか否かを確認する。
S115において、立体映像変換部106は、生成した対象立体対の対象フレームが、最後のフレームでないと確認した場合には(S115でno)、S106に戻る。
一方、立体映像変換部106は、生成した対象立体対の対象フレームが、最後のフレームであると確認した場合には(S115でyes)、S116に進む。
最後に、S116では、立体映像変換部106で生成された立体対で構成される立体映像(3D映像)を出力する。
以上のようにして、立体映像変換部106は、2D映像を3D映像に変換する。
次に、本願の特徴的な処理であるS106、S108およびS110について詳細に説明する。
まず、S106について詳細に説明する。
例えば、立体映像変換部106に入力される2D映像がカメラ等で撮影される場合、解決すべき課題の1つは、手振れまたは他の理由により起こるカメラの動きである。すなわち、手振れ等で動いたカメラで2D映像を撮影すると、2D映像が揺れ等を包含する不安定な映像となる。そのため、不安定な2D映像から3D映像を作成しても、作成して得られた3D映像は、不安定な3D映像となる。不安定な3D映像は、人が視聴する場合には、不健全かつ不快に感じてしまう。
そこで、手振れまたは他の理由によるフレーム間のゆれを補正することで、不安定な2D映像を安定化する。以下、安定化部116が行う安定化処理(S106)の詳細について説明する。
図5は、本発明の実施の形態1における安定化部116の処理を示すフローチャートである。
まず、S201において、安定化部116は、2D映像が入力される。具体的には、安定化部116は、受信部101から2D映像データS13が入力される。
次に、S202において、安定化部116は、2D映像(2D映像データS13)を構成する複数のフレームにおいて、隣接するフレーム間で対応する特徴点を検出(追跡)する。具体的には、検出部121は、2D映像を構成する複数のフレームにおいて、所定フレームと、所定フレームに近いフレームである近隣フレームとの間で対応する特徴的な点である複数の特徴点を検出する。
次に、S204において、安定化部116は、所定フレームおよび複数の近隣フレーム間で対応する特徴点に基づき、所定フレームをワープさせる安定化行列を算出する。
具体的には、算出部122は、所定フレームの複数の特徴点と、対応する近隣フレームの重みづけされた複数の特徴点とが同じ座標値を有するように、所定フレームをワープさせる安定化行列である射影変換行列を算出する。
より具体的には、S204において、安定化行列Sは、所定フレームとしてm番目のフレームIに対して、対応する複数の近隣フレームN={Im−k、・・・、Im−1、I、Im+1、・・・、Im+k}の特徴点を滑らかに変更する行列となるように算出される。安定化行列Sは、式1の目的関数を最小化する行列として算出される。
Figure 0005891424
ここで、Sは3×3射影変換行列であり、Sは、推定された3×3安定化行列である。Pは、j番目のフレームのすべての特徴点(K個)を含む3×K行列である。これら行列の各列は、特徴点の3次元同次座標である。wは、j番目のフレームでの特徴点の重みである。j番目のフレームがm番目の対象フレームから遠い場合、重みは小さくなる。j番目のフレームがm番目のフレーム(所定フレーム)に近い場合、重みは大きくなる。重みは、式2に示すガウス関数により算出される。
Figure 0005891424
ここで、σは分散のガウス関数である。
次に、S206において、安定化部116は、算出した安定化行列を所定フレームに適用する。具体的には、安定化部116は、算出した射影変換行列を所定フレームに適用することで、当該所定フレーム間のゆれを補正する。このようにして、当該複数のフレーム安定化させることができる。
次に、S208において、安定化部116は、安定化行列を適用した所定フレームが、2D映像を構成する複数のフレームのうちで最後のフレームであるか否かを確認する。
S208において、安定化部116は、安定化行列を適用した所定フレームが最後のフレームでないと確認した場合には(S208でno)、S204に戻る。一方、安定化部116は、安定化行列を適用した所定フレームが最後のフレームであると確認した場合には(S208でyes)、S210に進む。
最後に、S210において、安定化部116は、安定化した2D映像を出力する。
ここで、安定化部116の効果について図6〜図8を用いて説明する。
図6は、本発明の実施の形態1における手持ち式のビデオカメラが撮影対象とするシーン(景色)の例を示す図である。図7は、手持ち式のビデオカメラで撮影した安定化前の2D映像を示す図である。図8は、手持ち式のビデオカメラで撮影した安定化後の2D映像を示す図である。
より具体的には、図7では、手持ち式で単眼式のビデオカメラ542を使用してシーン502を撮影した様子を示している。ユーザは、ビデオカメラ542を、同じ高さで水平方向に一定速度にずらしながらシーン502を2D映像で撮影する。しかし、ユーザはビデオカメラ542を手で持って、シーン502を撮影しているので、軌道562は手振れにより上下方向の揺らぎが生じる。換言すると、ユーザは、手振れにより上下に変動しているビデオカメラ542の軌道562に沿ってシーン502を2D映像で撮影している。つまり、ビデオカメラ542は、例えば図7に示すビデオサンプルポイント522に対応するビデオフレーム582(2D映像)すなわち上下方向の揺らぎがある不安定な2D映像を撮影することになる。そのため、上述したように、この2D映像から3D映像を作成する場合には、この揺らぎは、3D映像の安定性に影響する。
ここで、ビデオサンプルポイント522は、ビデオカメラ542の軌道562のビデオサンプルポイントの1つであり、ビデオフレーム582は、ビデオサンプルポイント522に対応するビデオフレームである。
一方、図8では、手持ち式で単眼式のビデオカメラ542を使用してシーン502を撮影し、撮影した2D映像を安定化した様子を示している。ここでは、軌道562の上下の変動を仮想的に安定化させた仮想軌道566に沿って、仮想ビデオカメラ544がシーン502を撮影することで、安定化された2D映像を生成する様子を示している。ここで、仮想ビデオサンプルポイント524に対応する仮想ビデオフレーム584を示している。図7からわかるように、安定化を行った後、手振れによる揺らぎが大幅に軽減されている。また、ビデオカメラ542の仮想軌道566に示されているように、軌道562はより滑らかに安定化され、ビデオサンプルポイントはより均一になっている。つまり、安定化された2D映像は、揺らぎが大幅に少なくなる。それにより、安定化された2D映像から得られた3D映像は、人が視聴する場合には健全かつ快適に感じるため、好適であるのがわかる。
次に、S108について詳細に説明する。
S108において、立体映像変換部106は、2D映像を構成する複数のフレームから、対象フレームと共通する領域である共通領域を有し、かつ、当該共通領域が占める領域の大きさが予め定めた値以上である複数のフレームを、立体パートナーフレーム候補として選択する。
例えば、立体映像変換部106は、共通領域のサイズと、対象フレームのサイズとの比に基づいて立体パートナーフレーム候補を選択する。より詳細には、m番目のフレーム(対象フレーム)と、n番目のフレームとの比rmnが、ratio_infimumと呼ばれる所定の値よりも大きい場合、n番目のフレームが立体パートナーフレーム候補の1つとして選択される。
Figure 0005891424
C(m)は立体パートナーフレーム候補のすべての指標を含む。
ここで、共通領域についての詳細を、図を用いて説明する。
図9は、本発明の実施の形態1における対象フレームとそれに対応する立体パートナーフレーム候補の共通領域を示す図である。図9(a)は、対象フレーム602を示しており、図9(b)は、立体パートナーフレーム候補604を示している。また、矩形606と矩形608とは、両フレームに共通する領域である共通領域の外形を示している。なお、共通領域は、対象フレーム602とそれに対応する立体パートナーフレーム候補604で構成される立体対の視域となる。
続いて、この共通領域を算出する方法の一つについて説明する。
まず、m番目のフレーム(対象フレーム画像)における複数の特徴点の重心を算出する。
次に、n番目のフレーム(フレーム画像)において、対象フレーム画像に対応する複数の特徴点(共通領域)の重心を算出する。なお、対象フレーム画像とn番目のフレーム画像の重心は同時に算出されるとしてもよい。
次に、対象フレーム画像の重心とn番目のフレーム画像の共通領域の重心の差を求める。
その結果、対象フレーム画像とn番目のフレーム画像との共通領域の垂直方向の位置の差分として、図9(a)に示す垂直差636が得られる。また、対象フレーム画像とn番目のフレーム画像の水平方向の差分として、図9(a)に示す水平差638が得られる。
以上から、共通領域の大きさは、元のフレームサイズ(対象フレームのサイズ)および対象フレーム画像とn番目のフレーム画像とで対応する特徴点の重心の差から導き出せる。
なお、この方法では、正確な共通領域を導き出せない可能性がある。すなわち、算出された共通領域と、実際の共通領域との間に差が生じる可能性がある。しかし、本発明に用いる場合は、この方法で十分である。
最後に、S110について詳細に説明する。
図10は、本発明の実施の形態1における決定部124の処理を示すフローチャートである。
立体映像変換部106は、立体パートナーフレーム候補の組C(m)を決定した後、S110において、以下に示す基準a)〜基準d)を含む第1基準に基づき対象フレームに対する立体パートナーフレームを選択する。なお、以下に示す基準a)〜基準d)は、上述した基準a)〜基準d)を換言したものに相当する。
a)対象フレームと立体パートナーフレームとにおける共通領域のy方向差がほぼゼロである(垂直方向差基準)。ここで、y方向は両眼視差方向の直交方向に相当する。
b)対象フレームと立体パートナーフレームとにおける共通領域のx方向差(視差)が、3D効果を得るのに十分であり、かつ快適な3D映像となるよう所定の範囲にある(水平視差基準)。ここで、x方向は両眼視差方向に相当する。
c)隣接する立体対間の対応点(共通領域)の視差が滑らかに変更される(円滑化基準)。
d)共通領域に基づいて立体対の歪みが最小限となるようにワープする(歪低減基準)。ここで、本発明では、従来の透視変換によって歪みが発生するからである。
具体的には、まず、S302において、決定部124は、対象フレームとその立体パートナーフレーム候補との間で対応する特徴点に基づき、上記a)の垂直方向差を満たさない立体パートナーフレーム候補を除外する。決定部124は、垂直方向差の評価に分散を用いる。すなわち、決定部124は、対象フレームと立体パートナーフレーム候補と間の垂直差の分散を算出する。算出した垂直差の分散が大きすぎる場合、その立体パートナーフレーム候補は候補の組から除外する。
次に、S304において、決定部124は、対象フレームとS302で除外されなかった立体パートナーフレーム候補との間で対応する特徴点に基づき、上記b)の水平視差を満たさない立体パートナーフレーム候補を除外する。決定部124は、水平視差の評価に分散を用いる。すなわち、決定部124は、対象フレームと立体フレーム候補と間の水平視差の分散を算出し、算出した分散に基づいて上記b)の水平視差を満たさない立体パートナーフレーム候補を除外する。水平視差が大きすぎると、その後作成される3D映像は不快なものとなり、反対に、水平視差が小さすぎると、その後作成される3D映像の3D効果は低くなるからである。
なお、S302およびS304を、一括で処理するとしてもよい。いずれにせよ、決定部124は、フィルタリングされた(所定の範囲に含まれる)立体パートナーフレーム候補を、式4を用いて決定する。
Figure 0005891424
ここで、決定部124は、水平視差の分散と垂直差の分散とを、それぞれ式5および式6を用いて算出する。
Figure 0005891424
Figure 0005891424
式5および式6において、d mn=p −p は、m番目のフレームとn番目のフレームとにおいて対応する2点間の差分を示す差分ベクトルである。ここで、p は、m番目のフレームにおけるi番目の点である。
また、
Figure 0005891424
は、すべて(N点)の平均を示しており、式7により算出することができる。
Figure 0005891424
式7において、[d]は、ベクトルdの第1の成分を示し、[d]は、ベクトルdの第2の成分を示す。
次に、S306において、決定部124は、残存する立体パートナーフレーム候補から、上記c)に示す円滑化基準に基づき、立体パートナーフレームを決定する。決定部124は、円滑化基準の評価に分散を用いる。すなわち、決定部124は、隣接する2つの立体対間の対応点における水平視差の分散を算出する。そして、決定部124は、円滑化基準に基づきすなわち式8を用いて、立体パートナーフレームを決定する。
Figure 0005891424
式8において、idx(m)は、立体パートナーフレームの指標を示す。
なお、S108において、選択された立体パートナーフレーム候補から、d)の歪低減基準を用いず、a)〜c)の第1基準に基づいて、立体パートナーフレームを決定するとしてもよい。
しかし、通常、S108において、選択された立体パートナーフレーム候補は、そのままでは対象フレームに対応する好適な立体パートナーフレームとして用いることはできない。選択された立体パートナーフレーム候補は、通常、歪みを有しているからである。つまり、選択された立体パートナーフレーム候補を立体パートナーフレームとして用いると、最終の3D映像に影響し、快適な3D効果を達成することができない。
それに対して、S302〜S306では、上記のd)に示す歪低減基準に基づき、斜傾変換行列を用いて歪みを低減したもので判断するのが好ましい。すなわち、(式5)、(式6)において、差分ベクトルを(式9)を用いて算出するのが好ましい。
Figure 0005891424
式9において、行列H は、m番目のフレームとn番目のフレームとの対応点に基づき算出される射影変換行列である。行列Wは、共通領域に基づき算出される斜傾変換行列である。
なお、上記では、S302〜S306において、d)の歪低減基準に基づき、斜傾変換行列を用いて歪みを低減したもので判断するのが好ましいとしたが、それに限らない。射影変換行列と斜傾変換行列と並進変換行列とを組み合わせて生成した変換行列を用いて歪みを低減したもので判断するとしてもよい。以下、図11を用いて、変換行列を生成する処理について説明する。
図11は、本発明の実施の形態1における変換行列を生成する処理を説明するためのフローチャートである。具体的には、変換行列は、変換部126により、対象フレームと対応する立体フレーム候補とに基づき生成される。決定部124は、生成された変換行列を用いて、立体パートナーフレーム候補から立体パートナーフレームを決定する。
まず、S402において、変換部126は、対象フレームの特徴点と、立体パートナーフレーム候補の対応する特徴点(共通領域の特徴点)とに基づき、基本行列を算出する。
次に、S404において、変換部126は、対象フレームの共通領域と立体パートナーフレーム候補の共通領域との間の垂直方向差を最小化するように、基本行列に基づいて射影変換行列を算出する。
具体的には、まず、式9に示す射影変換行列は、式10に示すように、エピポーラ幾何を用いて制約を加える。すなわち、基本行列に一致または適合性のある式9に示す射影変換行列は、式10に示すように制約が加えられる(例えば、非特許文献4参照)。これにより、通常の射影変換の自由度は8ではなく、3に低減される。
Figure 0005891424
式10において、Hは3×3射影変換行列を示し、Fは、S402で算出された3×3基本行列を示す。また、e’は、立体パートナーフレーム候補のエピポールの3×1同次座標である。これは、基本行列Fから導き出すことができる。[a]bは、外積を示しとおり、a×bとも表すことができる。vは、自由度3のパラメータを含む、1x3ベクトルを示す。
続いて、対象フレームと立体パートナーフレーム候補との間で対応する特徴点の垂直差を最小化するように、vによってパラメータ化されたHを、式11を用いて算出する。
Figure 0005891424
なお、S404において、垂直方向差を最小化するように、基本行列に基づいて射影変換行列を算出する方法は、上記の方法に限られない。同様の制約の下でHを求めることができれば他の方法が用いられてもよく、本発明の範囲に含まれる。
次に、S406において、変換部126は、射影変換行列により変換される立体パートナーフレームにおける共通領域が、変換前と同じ直交性とアスペクト比とを維持する斜傾変換行列を算出する。
具体的には、上記のd)に示す歪低減基準に基づき、選択された立体パートナーフレーム候補に対して、歪みを低減させる斜傾変換行列を算出する。より具体的には、アスペクト比と共通領域の直交性を復元する斜傾量を有する斜傾変換行列を算出する。
ここで、共通領域、アスペクト比、および直交性という用語について説明する。図12Aおよび図12Bは、本発明の実施の形態1における用語の概念を説明するための図である。まず、図8を用いて共通領域の概念を説明し、図12Aおよび図12Bを用いて、アスペクト比および直交性の概念について説明する。
図8では、上述したように、対象フレーム602と、立体パートナーフレーム候補604とが示されている。また、矩形606および矩形608は、対象フレーム602と立体パートナーフレーム候補604とで共通する領域である共通領域の外形を示している。矩形506、矩形508の外側の領域は、対象フレーム602と立体パートナーフレーム候補604とのうちどちらか一方のフレームのみに現れる。
対象フレーム602と立体パートナーフレーム候補604を用いて、そのまま立体対(立体画像)を形成した場合、これら外側の領域は人が立体画像を見ると不快に感じる。なぜなら、人は立体画像を1つの画像として見ており、人間の脳は、奥行きを知覚するための視差情報を抽出することができないからである。なお、矩形606、矩形608を、共通領域と呼ぶが、視野領域ともいう。
一方、図12Aは、ワープ前の立体パートナーフレーム候補604を示し、図12Bは、ワープ後の立体パートナーフレーム候補712を示す。ここで、ワープとは、変換行列が適用されることと同義であり、本実施の形態では、射影変換行列と斜傾変換行列と並進変換行列とを組み合わせて生成した変換行列が適用されることを意味する。
図12Aに示す矩形608(共通領域)は、所定のアスペクト比を有している。このアスペクト比は、点718および点722間の距離と、点720および点724間の距離との比で表される。また、図12Aにおいて、角726は直角である。それに対して、図12Bに示すワープ後の共通領域716は、ワープされた点728および点730間の距離と、点732および点734間の距離の比で表される。
なお、図12Bに示すワープ後の共通領域716は、図12Aに示す矩形618(共通領域)と異なるアスペクト比を有していてもよいし、角736は、直角でないとしてもよい。その場合、さらに、式12に示すような一般的なシアー変換行列を用いて、直交性およびアスペクト比を復元させればよい。シアー変換行列は、直交性およびアスペクト比を復元させるために算出される行列である。
Figure 0005891424
ここで、共通領域を算出する方法の一つについて説明する。
まず、対象フレームの複数の特徴点の重心を算出する。続いて、立体パートナーフレーム候補の特徴点のうち、対象フレームの特徴点に対応する対応点(共通領域)の重心を算出する。そして、対象フレームと立体パートナーフレーム候補とにおける対応点(共通領域)の重心の差分を算出する。ここで、垂直差636は、図8に示す通りであり、水平差638は、図8に示す通りである。このようにして、共通領域の寸法を、対象フレームのフレームサイズと、対象フレームおよび立体パートナーフレーム候補における対応点の重心の差分とから導くことができる。
なお、この算出方法では、完璧な共通領域を算出できないことがある。すなわち、算出された共通領域と、実際の共通領域との間に差分が生じる場合がある。しかしながら、この方法で十分満足な結果が得られるので問題ない。
以上のように、S406において、変換部126は、斜傾変換行列を算出する。その際、さらにシアー変換行列を算出していてもよい。
次に、S408において、変換部126は、対象フレームと、射影変換行列および斜傾変換行列が適用された立体パートナーフレーム候補との間の視差が、対象フレームより以前の対象フレームと立体パートナーフレーム候補との間の視差と同じになるように、並進変換行列を算出する。
具体的には、変換部126は、円滑な奥行きを実現させるために、以下の式13〜式15を用いて式16に示す並進変換行列を算出する。この並進変換行列が適用されると、対象の立体対の水平視差と以前の立体対の水平視差との差分は最小化され、さらに、対象の立体対の垂直視差が最小化される。
Figure 0005891424
Figure 0005891424
ここで、vは、変換ベクトルを示し、式15と表すことができる。
Figure 0005891424
Figure 0005891424
次に、S406およびS408の後、S410において、各立体パートナーフレーム候補に対する変換行列を算出する。具体的には、変換部126は、射影変換行列と、斜傾変換行列と、並進変換行列とが組み合わせて、1つの変換行列(T=VWH)として算出する。
ここで、立体パートナーフレーム候補としては、{I、Warp(T、I)|n∈C(m)}を含む。つまり、S108で選択された立体パートナーフレーム候補に対しては、上記のように算出される変換行列を適用した上(ワープした上)で、図10に示す手順に基づき立体パートナーフレームを決定するとしてもよい。また、S108で選択された立体パートナーフレーム候補(この時点ではワープされていない立体パートナーフレーム候補)から、上記変換行列を用いて、図10に示す手順に基づき立体パートナーフレームを決定するとしてもよい。
なお、S108で選択された立体パートナーフレーム候補から、算出された変換行列を用いて、立体パートナーフレームを決定する方が好ましい。その場合、図3に示すS112において、変換部126により生成された変換行列に基づき、ワープを行う。これは、別々の図10に示す手順(S302〜S304)それぞれで変換(ワープ)を行うよりも、効率的であるので好ましい。
なお、S306において、円滑化基準に基づき、決定される立体パートナーフレームは、上記の変換行列が適用されていない元の立体パートナーフレームでもよいし、この変換行列が適用された立体パートナーフレームであってもよい。
以上、本実施の形態によれば、計算コストの高いSFMによる推定を行わず立体映像を生成することができるだけでなく、時間のかかる奥行きマップの推定を行わず立体映像を生成することができる。また、2D映像を撮影する撮影装置が手振れ等で動いた際の不安定な2D映像も安定した快適な3D映像に変換することができる。それにより、2D映像から適切かつ快適な3D映像を作成する立体映像作成装置および立体映像作成方法を実現することができる。
ここで、本実施の形態における立体映像作成装置および立体映像作成方法による効果について、図6〜図8と、図13とを用いて説明する。以下、ビデオカメラ542は、立体映像作成装置が構成されているとして説明する。
図13は、本発明の実施の形態1におけるビデオカメラで撮影した安定化後の2D映像を立体変換した3D映像を示す図である。
まず、手持ち式のビデオカメラ542の撮影者(ユーザ)は、ビデオカメラ542を用いて、図6に示すシーン502を撮影する。なお、本発明では、シーン502は、例えば風景など、静止している対象物を典型的な例として想定している。
ここで、ユーザは、ビデオカメラ542を、同じ高さで水平方向に一定速度にずらしながらシーン502を2D映像で撮影する。つまり、ユーザは、軌道562に沿って、ビデオカメラ542をずらしながら、シーン502を2D映像で撮影する。
しかし、ユーザはビデオカメラ542を手で持って、シーン502を撮影しているので、軌道562は手振れにより上下方向の揺らぎが生じる。換言すると、ビデオカメラ542は、例えば図7に示すビデオサンプルポイント522に対応するビデオフレーム582(2D映像)すなわち上下方向の揺らぎがある不安定な2D映像を撮影することになる。不安定な2D映像からは、不快で不適切な3D映像しか作成できない。そのため、本実施の形態では、2D映像を3D映像(立体映像)に変換する前に、2D映像の安定化を行う。
次に、ビデオカメラ542は撮影した2D映像を安定化させる。これを模式的に示したものが図8である。つまり、手振れによる揺らぎが大幅に軽減されるように修正された軌道562を示す仮想軌道566に沿って、仮想ビデオカメラ544でシーン502を撮影したかのように2D映像が修正(安定化)されている。例えば仮想ビデオカメラ544は、例えば図8に示す仮想ビデオサンプルポイント524に対応する仮想ビデオフレーム584すなわち上下方向の揺らぎが大幅に軽減された安定な2D映像を撮影していることに相当する。換言すると、仮想ビデオカメラ544の仮想軌道566に示されているように、軌道はより滑らかになり、仮想ビデオサンプルポイント524はより均一になっている。安定化された2D映像から、健全かつ適切な3D映像を作成することができる。
次に、ビデオカメラ542は安定化した2D映像に対して立体映像変換を行い、3D映像を作成する。これを模式的に示したものが図13である。つまり、仮想ビデオカメラ746は、仮想軌道766に沿って、安定化された3D映像を作成する。例えば仮想ビデオカメラ746は、例えば図13に示す仮想立体映像サンプルポイント767および768に対応する立体映像フレーム対786および788を作成していることに相当する。
このようにして、ビデオカメラ542は、2D映像から適切かつ快適な3D映像を作成することができる。
なお、上記の説明では、本実施の形態に係る立体映像作成装置100は、受信部101と、立体映像変換部106と、映像出力部108と、内部バッファ110とを備えるとしたが、それに限られない。図14に示すように、立体映像作成装置100の最小構成として、受信部101と、選択部123、決定部124、立体対生成部125および変換部126を有する立体映像作成部118とで構成される立体映像作成装置150を少なくとも備えていればよい。ここで、図14は、本発明に係る立体映像作成装置の最小構成を示すブロック図である。図1と同様の要素には同一の符号を付しており、詳細な説明は省略する。
また、立体映像作成装置150は、図15に示す手順で、2D映像から3D映像を作成する。図15は、図14に示す立体映像作成装置の動作を示すフローチャートである。
まず、S501において、受信部101は、2D映像を受信する。
次に、S502において、選択部123は、2D映像を構成する複数のフレームから、対象フレームと共通する領域である共通領域を有し、かつ、当該共通領域が占める領域の大きさが予め定めた値以上である複数のフレームを、当該対象フレームとともに立体画像を構成するフレームの候補である立体パートナーフレーム候補として選択する。
次に、S503において、決定部124は、立体パートナーフレーム候補から、第1基準に基づいて、当該対象フレームとともに立体画像を構成するフレームである立体パートナーフレームを決定する。
次に、S504において、立体対生成部125は、対象フレームと、立体パートナーフレームとを用いて、立体画像を構成する立体対を生成する。
最後に、S505において、対象フレームと決定された立体パートナーフレームとに基づいて、変換行列を生成し、第2基準に基づき、立体対に、生成した変換行列を適用することにより、立体対を変換する。
このようにして、計算コストの高いSFMによる推定や時間のかかる奥行きマップの推定を行わないで、2D映像から適切かつ快適な3D映像を作成する。つまり、2D映像を構成する複数のフレームの中から、対象フレームに対応する立体パートナーフレーム候補を選択し、選択した立体パートナーフレーム候補から、第1基準に基づき、立体パートナーフレームを決定するという方法を用いることで、2D映像から適切かつ快適な3D映像を作成する。
それにより、2D映像から適切かつ快適な3D映像を作成することができる。
なお、2D映像を撮影する撮影装置が手振れ等で動いた際の不安定な2D映像も安定化処理を行うことで、2D映像から適切かつ快適な3D映像を作成することができる。
(実施の形態2)
図16は、本発明の実施の形態2における立体映像作成装置の構成を示すブロック図である。図1と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図16に示す立体映像作成装置200は、実施の形態1に係る立体映像作成装置100に対して、受信部201の構成が異なり、ユーザフィードバック部204が追加されている。また、立体映像作成装置200は、さらに表示部223と接続されている。
受信部201は、ユーザがカメラ等の撮影装置で撮影した2D映像を受信する。具体的には、受信部201は、例えばロウメディア202で構成されており、カメラ等の撮影装置から画像デ―タを取得する。受信部201は、2D映像データS13を立体映像変換部106に出力するとともに、原画像デ―タS21を、ユーザフィードバック部204に送信される。なお、受信部201は、たとえば、立体映像作成装置200においてプレビューパス/プレビューモードが設定されている場合のみ、原画像デ―タS21を、ユーザフィードバック部204に送信するとしてもよい。
ユーザフィードバック部204は、動き分析部220とフィードバック部222とで構成されており、ユーザが撮影装置で撮影した2D映像をリアルタイムにフィードバックするフィードバック情報を表示部223に伝達する。ここで、フィードバック情報とは、例えば撮影方向を示す矢印または撮影装置の動きを示す信号など、安定化した2D映像を撮影するようにユーザを導くための情報である。
動き分析部220は、本発明の分析部に相当し、撮影装置の動きを分析して、安定化した2D映像を撮影するようにユーザを導くための情報を生成する。
フィードバック部222は、動き分析部220により生成された情報に基づいて、ユーザにフィードバックするためのフィードバック情報を生成する。
表示部223は、カメラモニタなどであり、生成されたフィードバック情報と、2D映像とを表示する。なお、表示部223は、伝達されたフィードバック情報に基づいて、立体映像作成装置200が好適な3D効果を作成するために最もよい方法でビデオを撮影するようにユーザを導くとしてもよい。
以上のように、立体映像作成装置200は構成される。
なお、立体映像作成装置200(または、ユーザフィードバック部204もしくは立体映像変換部106等)は、通常、IC(集積回路)、ASIC(特定用途集積回路)、またはLSI(大規模集積回路)で実現されるが、複数チップで構成されてもよいし、1チップで構成されてもよい。なお、立体映像作成装置200、または、ユーザフィードバック部204もしくは立体映像変換部106等はそれぞれ、LSIの形で実現されることに限られない。集積度に応じて、IC、システムLSI、スーパーLSI、またはウルトラLSIとも呼ばれるもので実現されるとしてもよい。
また、立体映像作成装置200等は、専用回路または汎用プロセッサなどを用いて集積化されて実現されるとしてもよい。専用回路としては、例えばプログラム命令により制御することができるDSP(デジタルシグナルプロセッサ)など、特化したマイクロプロセッサがある。
また、立体映像作成装置200等はそれぞれ、LSI製造後に、プログラムすることが可能なFPGA(フィールド・プログラマブル・ゲートアレイ)、または、LSIの接続もしくは構成を再構成可能なプロセッサを用いるとしてもよい。将来的には、製造および処理技術が向上し、全く新しい技術がLSIに取って代わる場合には、その技術により、集積化を行うことで実現されるとしてもよい。
また、立体映像作成装置200は、時系列に画像(映像)を表示する液晶表示装置、プラズマ表示装置、レンチキュラーレンズ層が付加された表示装置、または、他の種類の表示装置等の立体画像を表示可能な表示装置に組み込まれるとしてもよい。
また、立体映像作成装置200は、デジタルビデオディスクプレーヤ、ブルーレイディスクプレーヤ、および他の種類のデジタルメディアプレーヤなどのデジタルメディアプレーヤ装置に実装されるとしてもよい。他の種類の装置に実装されるとしてもよい。上記いずれの場合も本願の範囲を限定するものではない。
(実施の形態3)
実施の形態3では、実施の形態1および実施の形態2と異なる装置に、上述の立体映像変換部が構成される場合の例について説明する。
図17は、本発明の実施の形態3に係る画像装置の構成を示すブロック図である。図1と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図17に示す画像装置1200は、光学系1202と、ビデオセンサ1204と、ADC(アナログ−デジタル変換器)1206と、ビデオプロセッサ1208と、マイクロコンピュータ1210と、外部メモリ1212と、ドライバコントローラ1220と、操作部1222と、記憶/送信装置1216と、表示装置1214とを備える。
ここで、ビデオプロセッサ1208は、内部メモリ1240と、立体映像変換部106と、原画像プロセッサ1242と、カラー映像プロセッサ1244とを備える。なお、マイク、スピーカなどの他の構成要素は図示されていないが、これは本発明の範囲を限定するものではない。
光学系1202は、ビデオセンサ1204に到達する光信号を制御する。光学系1202は、例えば、複数のレンズまたはレンズセット、ズーム/フォーカス機構、アクチュエータ、シャッター、開口部などの構成要素を備える。光学系1202は、例えばドライバコントローラ1220により制御される。
ドライバコントローラ1220は、マイクロコンピュータ1210により制御されて、光学系1202におけるアクチュエータ等を制御する。ドライバコントローラ1220は、光学系1202のレンズを、揺れを補償するように動かすことができるので、手振れまたはカメラの動きに起因するボケを低減させることができる。
操作部1222は、ユーザの操作入力を受信し、その電気信号をマイクロコンピュータ1210に送信する。操作部1222は、その電気信号を送信することで、ユーザの入力に対応して関連する、ドライバコントローラ1220、ビデオセンサ1204、ビデオプロセッサ1208等のモジュールを制御することができる。
マイクロコンピュータ1210は、ドライバコントローラ1220、ビデオセンサ1204を制御する。
ビデオセンサ1204は、入射光信号を蓄積し、その光信号を電気信号に変換する。ビデオセンサ1204は、マイクロコンピュータ1210により制御される。
ADC1206は、ビデオセンサ1204で変換された電気信号を、デジタルデータ(原画像データ)に変換し、内部メモリ1240または外部メモリ1212に記憶する。
原画像プロセッサ1242は、原画像データを内部メモリ1240(または外部メモリ1212)から取得し、ノイズ低減、直線性補正、ホワイトバランス、ガンマ補正等、多くの前処理を行う。原画像プロセッサ1242は、前処理を行った原画像を記憶/送信装置1216またはカラー映像プロセッサ1244に出力する。
カラー映像プロセッサ1244は、原画像プロセッサ1242で前処理された原画像を処理することで、RGBまたはYCbCr等、カラー画像を生成する。ここで、カラー映像プロセッサ1244の処理とは、色補間、色補正、色調範囲の調整、色ノイズの低減等の処理を含み、好適なカラー画像を生成する。
立体映像変換部106は、安定化部116と立体映像作成部118という2つのサブモジュールで構成される。立体映像変換部106は、内部メモリ1240からのビデオフレームを取り込み、安定化した後に3D映像に変換する。立体映像変換部106は、変換した3D映像を、表示装置1214または外部メモリ1212に出力する。なお、立体映像変換部106の詳細は、前述したため、ここでの説明は省略する。
表示装置1214は、例えば、3D視のステレオ画像を表示可能なレンチキュラーレンズ層が付着された液晶モニタ等である。表示装置1214は、立体映像変換部106より出力される3D映像を表示することができる。なお、表示装置1214は、立体映像変換部106より出力される3D映像を、2D映像で表示するとしてもよいし、記憶/送信装置1216に記憶するとしてもよい。
記憶/送信装置1216は、原画像プロセッサ1242で前処理された原映像と、立体映像変換部106より出力された3D映像とを、記憶または送信する。なお、記憶/送信装置1216は、原画像プロセッサ1242で前処理された原映像および立体映像変換部106より出力された3D映像を、記憶/送信する前に、圧縮部(図示せず)により圧縮するとしてもよい。
記憶/送信装置1216は、例えば、フラッシュベースのメモリカード、ハードドライブ、および光学ドライブなどで構成されてもよいが、これらに限定されない。また、記憶/送信装置1216は、例えばHDMIインターフェース、USBインターフェース、ワイヤレスインターフェースおよびdirect−to−printerインターフェースなどで構成されるが、これらに限定されない。また、記憶/送信装置1216は、処理(記憶または送信)するデータを、任意に可逆または不可逆圧縮するとしてもよい。
ビデオプロセッサ1208および内部のモジュールは、通常、IC(集積回路)、ASIC(特定用途集積回路)、またはLSI(大規模集積回路)で実現されるが、複数チップで構成されてもよいし、1チップで構成されてもよい。なお、立体映像作成装置100または立体映像変換部106等はそれぞれ、LSIの形で実現されることに限られない。集積度に応じて、IC、システムLSI、スーパーLSI、またはウルトラLSIとも呼ばれるもので実現されるとしてもよい。
また、ビデオプロセッサ1208および内部のモジュールはそれぞれ、専用回路または汎用プロセッサなどを用いて集積化されて実現されるとしてもよい。専用回路としては、例えばプログラム命令により制御することができるDSP(デジタルシグナルプロセッサ)など、特化したマイクロプロセッサがある。
また、ビデオプロセッサ1208および内部のモジュールはそれぞれ、LSI製造後に、プログラムすることが可能なFPGA(フィールド・プログラマブル・ゲートアレイ)、または、LSIの接続もしくは構成を再構成可能なプロセッサを用いるとしてもよい。将来的には、製造および処理技術が向上し、全く新しい技術がLSIに取って代わる場合には、その技術により、集積化を行うことで実現されるとしてもよい。
以上、本発明によれば、計算コストの高いSFMによる推定を行わず立体映像を生成することができるだけでなく、時間のかかる奥行きマップの推定を行わず立体映像を生成することができる。それにより、2D映像から適切かつ快適な3D映像を作成する立体映像作成装置および立体映像作成方法を実現することができる。
具体的には、本発明の立体映像作成装置は、2D映像を受け取り、連続するビデオフレーム間の対応点を検出(追跡)する。本発明の立体映像作成装置は、対象フレームとそれに対応する複数の近隣フレーム間の対応点に基づき、対象フレームに対して安定化処理を行う。なお、予め安定している2D映像には、安定化処理を行わなくても良い。
本発明の立体映像作成装置は、対象フレームと立体パートナーフレーム候補との間の共通領域のサイズに応じて、対象フレームに対する立体パートナーフレーム候補を選択する。
また、本発明の立体映像作成装置は、対象フレームおよび各立体パートナーフレーム候補間において、垂直方向差がゼロになる条件とエピポーラ拘束とを満たす射影変換行列を算出する。また、本発明の立体映像作成装置は、射影変換行列を適用する際に発生する歪みを軽減するために斜傾変換行列を算出し、対象フレームと近隣フレームとの間の対応点の視差の差分を最小化するための並進変換行列を算出する。
また、本発明の立体映像作成装置は、立体パートナーフレーム候補から、算出した射影変換行列、斜傾変換行列および並進変換行列を用いて、第1基準に基づき、対象フレームに対する立体パートナーフレームを決定する。
ここで、第1基準は、垂直方向差基準と、水平視差基準(ベースライン)と、円滑化基準と、歪低減基準とを含む。垂直方向差基準は、対象フレームと立体パートナーフレームとのy方向(垂直方向)の差がゼロである旨が規定されている。水平視差基準(ベースライン)は、対象フレームと立体パートナーフレームとのx方向(水平方向)の視差が、3D効果を得るのに十分であり、かつ快適な3D視となるよう適切な範囲を満たす旨が規定されている。円滑化基準は、奥行き方向について規定されており、隣接する立体対(対象フレームと対応する立体パートナーフレーム)間の対応点の視差が滑らかである範囲を満たす旨が規定されている。歪低減基準は、立体対に、歪みが生じる従来の変換による影響を受けることなく、これらの共通領域に基づき作成されると規定されている。
また、本発明の立体映像作成装置は、決定した立体パートナーフレーム(立体対)に対して、射影変換行列と斜傾変換行列と並進変換行列とを組み合わして生成した変換行列を適用することで、立体パートナーフレームをワープ(変形)させる。
この段階で、本発明の立体映像作成装置は、対象フレームと、ワープされた立体パートナーフレームとを、3D画像を構成する立体対として出力する。
本発明の立体映像作成装置は、このようにして、対象フレームが2D映像を構成する最終フレームとなるまで繰り返し、立体対から生成した3D映像を出力する。
以上、本発明の立体映像作成装置および立体映像作成方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
本発明は立体映像作成装置および立体映像作成方法に利用でき、特に、液晶表示装置、プラズマ表示装置、レンチキュラーレンズ層が付加された表示装置、またはデジタルビデオディスクプレーヤ、ブルーレイディスクプレーヤ等に実装される立体映像作成装置および立体映像作成方法に利用することができる。
100、150、200 立体映像作成装置
101、201 受信部
102 記憶媒体リーダ
104 ビデオデコーダ
106 立体映像変換部
108 映像出力部
110 内部バッファ
112、223 表示部
114 送信装置
116 安定化部
118 立体映像作成部
121 検出部
122 算出部
123 選択部
124 決定部
125 立体対生成部
126 変換部
202 ロウメディア
204 ユーザフィードバック部
220 動き分析部
222 フィードバック部
502 シーン
506、508、606、608、618 矩形
522 ビデオサンプルポイント
524 仮想ビデオサンプルポイント
542 ビデオカメラ
544、746 仮想ビデオカメラ
562 軌道
566、766 仮想軌道
582 ビデオフレーム
584 仮想ビデオフレーム
602 対象フレーム
604、712 立体パートナーフレーム候補
636 垂直差
638 水平差
716 共通領域
718、720、722、724、728、730、732、734 点
726、736 角
767 仮想立体映像サンプルポイント
786 立体映像フレーム対
1200 画像装置
1202 光学系
1204 ビデオセンサ
1208 ビデオプロセッサ
1210 マイクロコンピュータ
1212 外部メモリ
1214 表示装置
1216 送信装置
1220 ドライバコントローラ
1222 操作部
1240 内部メモリ
1242 原画像プロセッサ
1244 カラー映像プロセッサ

Claims (16)

  1. 2D映像から3D映像を作成する立体映像作成装置であって、
    2D映像を受信する受信部と、
    前記2D映像を構成する複数のフレームから、対象フレームと共通する画像の領域である共通領域が占める領域の大きさが予め定めた値以上である複数のフレームを、当該対象フレームとともに立体画像を構成するフレームの候補である立体パートナーフレーム候補として選択する選択部と、
    前記立体パートナーフレーム候補から、所定の基準に基づいて、当該対象フレームとともに立体画像を構成するフレームである立体パートナーフレームを決定する決定部と、
    前記対象フレームと、前記立体パートナーフレームとを用いて、前記対象フレームに対応する立体画像を構成する立体対を生成する立体対生成部と、
    前記対象フレームと前記選択部により選択された前記立体パートナーフレーム候補とから、前記立体パートナーフレーム候補をワープさせるための変換行列を生成し、前記立体対に、生成した前記変換行列を適用することにより、前記立体対を変換する変換部とを備える、
    立体映像作成装置。
  2. さらに、
    前記2D映像を構成する複数のフレームから、当該複数のフレーム間のゆれを補正することで、当該複数のフレームを安定化させる安定化部を備え、
    前記選択部は、前記安定化部により安定化された前記2D映像を構成する複数のフレームから、立体パートナーフレーム候補を選択する、
    請求項1に記載の立体映像作成装置。
  3. 前記立体映像作成装置は、
    前記変換部により変換された立体対を記憶するための記憶部と、
    前記記憶部に記憶された当該変換された立体対を出力する出力部とを備え、
    前記出力部は、前記2D映像を構成する複数のフレームそれぞれに対応する立体対であって、前記変換部により変換された立体対を出力することで、前記2D映像から3D映像を生成する、
    請求項1または2に記載の立体映像作成装置。
  4. 前記選択部は、前記立体パートナーフレーム候補として、前記2D映像を構成する複数のフレームから、前記対象フレームと同一シーンに撮影された複数のフレームを選択する、
    請求項1〜3のいずれか1項に記載の立体映像作成装置。
  5. 前記選択部は、前記対象フレームに占める前記共通領域の大きさの割合と前記立体パートナーフレーム候補に占める前記共通領域の大きさの割合とがそれぞれ前記予め定めた値以上の場合に、前記立体パートナーフレーム候補が前記対象フレームと同一シーンに撮影されたフレームであると判断し、
    前記共通領域は、前記対象フレームと前記立体パートナーフレーム候補との間で対応するフレーム上の特徴的な点である特徴点に基づき算出される、
    請求項4に記載の立体映像作成装置。
  6. 前記選択部は、前記2D映像を構成する複数のフレームにおいて、前記対象フレームと時間的に近いフレームである近隣フレームを、前記立体パートナーフレーム候補として、選択する、
    請求項4または5に記載の立体映像作成装置。
  7. 前記所定の基準は、垂直方向差基準と、水平視差基準と、円滑化基準と、歪低減基準とで構成され、
    前記垂直方向差基準では、前記対象フレームの前記共通領域と垂直方向の位置の差がゼロに略等しいフレームを前記立体パートナーフレームとする旨が規定され、
    前記水平視差基準では、前記対象フレームの前記共通領域と水平方向の位置の差が所定の範囲に含まれるフレームを前記立体パートナーフレームとする旨が規定され、
    前記円滑化基準では、時間的に連続する立体対間において、前記共通領域の変位が滑らかとなるフレームを前記立体パートナーフレームとする旨が規定され、
    前記歪低減基準では、前記共通領域が占める領域の大きさが前記対象フレームとともに前記予め定めた値以上であるフレームを前記立体パートナーフレームとする旨が規定されている、
    請求項1〜6のいずれか1項に記載の立体映像作成装置。
  8. 前記決定部は、画像処理を施すことによって検出可能なフレーム上の特徴的な点である特徴点を用いて、前記所定の基準を満たすか否かを判定することにより、前記立体パートナーフレームを決定する、
    請求項7に記載の立体映像作成装置。
  9. 前記変換部は、前記変換行列を、フレーム上の特徴的な点である特徴点であって、前記対象フレームと前記立体パートナーフレームとの間で対応する特徴点に基づいて生成する、
    請求項1または2に記載の立体映像作成装置。
  10. 前記変換部は、前記変換行列を、算出した射影変換行列と斜傾変換行列と並進変換行列とを組み合わせて生成して、前記立体対に適用し、
    前記変換部は、前記対象フレームと前記立体パートナーフレーム候補との間で基本行列を算出し、
    前記変換部は、前記立体対における対象フレームと前記立体パートナーフレーム候補との間の垂直方向差を最小化するように、前記基本行列に基づいて前記斜傾変換行列を算出し、
    前記変換部は、前記射影変換行列を、前記射影変換行列により変換される前記立体パートナーフレームにおける前記共通領域を、変換前と同じ直交性とアスペクト比とを維持させるように、前記射影変換行列を算出し、
    前記変換部は、前記対象フレームと、前記射影変換行列および前記斜傾変換行列が適用された立体パートナーフレームとの間の視差が、前記対象フレームより以前の対象フレームと立体パートナーフレームとの間の視差と同じになるように、前記並進変換行列を算出する、
    請求項1または2に記載の立体映像作成装置。
  11. 前記安定化部は、フレーム上の特徴的な点である特徴点であって、所定フレームと、前記所定フレームと時間的に近いフレームである複数の近隣フレームとの間で対応する特徴点に基づいて算出する射影変換行列を用いることにより、当該複数のフレーム間のゆれを補正する、
    請求項2に記載の立体映像作成装置。
  12. 前記安定化部は、
    所定フレームと、前記所定フレームに隣接するフレームである近隣フレームとの間で対応する特徴的な点である複数の特徴点を検出する検出部と、
    前記所定フレームの複数の特徴点と、対応する前記近隣フレームの重みづけされた複数の特徴点とが同じ座標値を有するように、前記所定フレームをワープさせる射影変換行列を算出する算出部とを備え、
    前記射影変換行列を前記所定フレームに適用することで、当該複数のフレーム安定化させる、
    請求項2に記載の立体映像作成装置。
  13. 前記複数の近隣フレームは、前記所定フレームと時間的に近いフレームである、
    請求項12に記載の立体映像作成装置。
  14. 前記算出部は、前記複数の近隣フレームの重みを、重み関数を用いて算出し、
    前記算出部は、
    前記対応する近隣フレームが前記所定フレームに時間的に最も近いフレームである場合、前記重み関数を用いて1により近い値の重みを算出し、
    前記対応する近隣フレームが前記所定フレームから時間的に遠いフレームである場合、前記重み関数を用いて1より小さい値の重みを算出する、
    請求項12に記載の立体映像作成装置。
  15. 前記受信部は、ユーザが撮影装置で撮影した2D映像を受信し、
    前記立体映像作成装置は、さらに、
    前記撮影装置の動きを分析して、安定化した2D映像を撮影するように前記ユーザを導くための情報を生成する分析部と、
    前記分析部により生成された情報に基づいて、前記ユーザにフィードバックするためのフィードバック情報を生成するフィードバック部と、
    生成された前記フィードバック情報と、前記2D映像とを表示する表示部とを備える、
    請求項2に記載の立体映像作成装置。
  16. 2D映像から3D映像を作成する立体映像作成方法であって、
    2D映像を受信する受信ステップと、
    前記2D映像を構成する複数のフレームから、対象フレームと共通する画像の領域である共通領域が占める領域の大きさが予め定めた値以上である複数のフレームを、当該対象フレームとともに立体画像を構成するフレームの候補である立体パートナーフレーム候補として選択する選択ステップと、
    前記立体パートナーフレーム候補から、所定の基準に基づいて、当該対象フレームとともに立体画像を構成するフレームである立体パートナーフレームを決定する決定ステップと、
    前記対象フレームと、前記立体パートナーフレームとを用いて、立体画像を構成する立体対を生成する立体対生成ステップと、
    前記対象フレームと前記選択ステップにおいて選択された前記立体パートナーフレーム候補とから、前記立体パートナーフレーム候補をワープさせるための変換行列を生成し、前記立体対に、生成した前記変換行列を適用することにより、前記立体対を変換する変換ステップとを含む、
    立体映像作成方法。
JP2012502347A 2010-09-17 2011-09-16 立体映像作成装置および立体映像作成方法 Active JP5891424B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012502347A JP5891424B2 (ja) 2010-09-17 2011-09-16 立体映像作成装置および立体映像作成方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010210138 2010-09-17
JP2010210138 2010-09-17
JP2012502347A JP5891424B2 (ja) 2010-09-17 2011-09-16 立体映像作成装置および立体映像作成方法
PCT/JP2011/005250 WO2012035783A1 (ja) 2010-09-17 2011-09-16 立体映像作成装置および立体映像作成方法

Publications (2)

Publication Number Publication Date
JPWO2012035783A1 JPWO2012035783A1 (ja) 2014-01-20
JP5891424B2 true JP5891424B2 (ja) 2016-03-23

Family

ID=45831268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012502347A Active JP5891424B2 (ja) 2010-09-17 2011-09-16 立体映像作成装置および立体映像作成方法

Country Status (5)

Country Link
US (1) US8908011B2 (ja)
EP (1) EP2618584B1 (ja)
JP (1) JP5891424B2 (ja)
CN (1) CN102598683B (ja)
WO (1) WO2012035783A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5571257B2 (ja) * 2011-12-19 2014-08-13 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP5977591B2 (ja) * 2012-06-20 2016-08-24 オリンパス株式会社 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
KR20140104121A (ko) * 2013-02-20 2014-08-28 주식회사 카몬 복합 차원 콘텐츠 제공 시스템, 그 제공 방법 및 복합 차원 콘텐츠 파일
US9967549B2 (en) * 2013-03-20 2018-05-08 Mediatek Inc. 3D image capture method with 3D preview of preview images generated by monocular camera and related electronic device thereof
US9842423B2 (en) 2013-07-08 2017-12-12 Qualcomm Incorporated Systems and methods for producing a three-dimensional face model
LU92357B1 (en) * 2014-01-21 2015-07-22 Evolution & Dev Technology S A 2D/3D Video conversion method
US9948920B2 (en) 2015-02-27 2018-04-17 Qualcomm Incorporated Systems and methods for error correction in structured light
US10068338B2 (en) 2015-03-12 2018-09-04 Qualcomm Incorporated Active sensing spatial resolution improvement through multiple receivers and code reuse
US9530215B2 (en) 2015-03-20 2016-12-27 Qualcomm Incorporated Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology
US10275863B2 (en) * 2015-04-03 2019-04-30 Cognex Corporation Homography rectification
US9635339B2 (en) 2015-08-14 2017-04-25 Qualcomm Incorporated Memory-efficient coded light error correction
US9846943B2 (en) 2015-08-31 2017-12-19 Qualcomm Incorporated Code domain power control for structured light
SG10201510773PA (en) * 2015-12-30 2017-07-28 Creative Tech Ltd A method for creating a stereoscopic image sequence
CN109070803B (zh) * 2016-04-14 2021-10-08 金泰克斯公司 提供深度信息的车辆显示系统
US9887497B1 (en) * 2016-06-10 2018-02-06 Amazon Technologies, Inc. Device connector with reduced electromagnetic noise
US9961261B2 (en) * 2016-06-20 2018-05-01 Gopro, Inc. Image alignment using a virtual gyroscope model
US10002284B2 (en) * 2016-08-11 2018-06-19 Ncku Research And Development Foundation Iterative matching method and system for partial fingerprint verification
US10967266B2 (en) 2018-02-21 2021-04-06 Roblox Corporation Cinematic game camera in a gaming platform
CN108712643B (zh) * 2018-04-27 2020-02-21 苏州新光维医疗科技有限公司 二维图像转换成三维图像的方法、装置及三维成像系统
GB2575843A (en) * 2018-07-25 2020-01-29 Sony Interactive Entertainment Inc Method and system for generating an image
CN113260835A (zh) * 2018-12-14 2021-08-13 光谱Md公司 用于高精度多孔径光谱成像的系统和方法
CN111212278B (zh) * 2020-01-07 2021-08-03 电子科技大学 一种预测位移帧的方法与系统
CN113905147B (zh) * 2021-09-30 2023-10-03 桂林长海发展有限责任公司 一种船用监控视频画面去抖方法、装置以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324234A (ja) * 2001-02-23 2002-11-08 Sharp Corp 立体画像を偏歪修正する方法および装置
JP2007316982A (ja) * 2006-05-26 2007-12-06 Olympus Imaging Corp 画像表示制御装置、画像表示装置、カメラ、及び画像表示制御プログラム
WO2010024479A1 (en) * 2008-08-26 2010-03-04 Enhanced Chip Technology Inc. Apparatus and method for converting 2d image signals into 3d image signals
JP2010515303A (ja) * 2006-12-22 2010-05-06 クゥアルコム・インコーポレイテッド 複雑適応2D−to−3Dビデオシーケンス変換

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0703716B1 (en) 1994-09-22 2002-11-27 Sanyo Electric Co. Ltd Method of converting two-dimensional images into three-dimensional images
IL150131A (en) * 2002-06-10 2007-03-08 Rafael Advanced Defense Sys A method for turning a series of monoscopic images into a series of stereoscopic images
IL166305A0 (en) 2005-01-14 2006-01-15 Rafael Armament Dev Authority Automatic conversion from monoscopic video to stereoscopic video
JP5284048B2 (ja) 2008-11-12 2013-09-11 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
US9124874B2 (en) * 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
US8421847B2 (en) * 2010-05-21 2013-04-16 Mediatek Inc. Apparatus and method for converting two-dimensional video frames to stereoscopic video frames

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324234A (ja) * 2001-02-23 2002-11-08 Sharp Corp 立体画像を偏歪修正する方法および装置
JP2007316982A (ja) * 2006-05-26 2007-12-06 Olympus Imaging Corp 画像表示制御装置、画像表示装置、カメラ、及び画像表示制御プログラム
JP2010515303A (ja) * 2006-12-22 2010-05-06 クゥアルコム・インコーポレイテッド 複雑適応2D−to−3Dビデオシーケンス変換
WO2010024479A1 (en) * 2008-08-26 2010-03-04 Enhanced Chip Technology Inc. Apparatus and method for converting 2d image signals into 3d image signals

Also Published As

Publication number Publication date
CN102598683A (zh) 2012-07-18
EP2618584A4 (en) 2014-05-14
EP2618584A1 (en) 2013-07-24
WO2012035783A1 (ja) 2012-03-22
US20120229609A1 (en) 2012-09-13
EP2618584B1 (en) 2016-08-10
CN102598683B (zh) 2015-06-17
US8908011B2 (en) 2014-12-09
JPWO2012035783A1 (ja) 2014-01-20

Similar Documents

Publication Publication Date Title
JP5891424B2 (ja) 立体映像作成装置および立体映像作成方法
JP5679978B2 (ja) 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
JP5414947B2 (ja) ステレオ撮影装置
US8274552B2 (en) Primary and auxiliary image capture devices for image processing and related methods
JP5140210B2 (ja) 撮影装置および画像処理方法
JP5204350B2 (ja) 撮影装置、再生装置、および画像処理方法
JP5320524B1 (ja) ステレオ撮影装置
KR101824439B1 (ko) 모바일 스테레오 카메라 장치 및 그 촬영방법
US20070081716A1 (en) 3D image processing apparatus and method
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
US20120105599A1 (en) Camera system and image-shooting method with guide for taking stereo images and method for adjusting stereo images
JP2011188004A (ja) 立体映像撮像装置、立体映像処理装置および立体映像撮像方法
WO2012029299A1 (ja) 撮影装置、再生装置、および画像処理方法
JP5420075B2 (ja) 立体画像再生装置、その視差調整方法、視差調整プログラム、及び撮影装置
WO2012056685A1 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
US11415935B2 (en) System and method for holographic communication
JP5889022B2 (ja) 撮像装置、画像処理装置、画像処理方法及びプログラム
JP2012220603A (ja) 3d映像信号撮影装置
JP2005072674A (ja) 三次元画像生成装置および三次元画像生成システム
KR101206298B1 (ko) 단일 카메라를 이용한 입체영상 제작 방법
JP2012191608A (ja) 立体撮像装置および立体撮像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140806

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151112

R151 Written notification of patent or utility model registration

Ref document number: 5891424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250