JP2012123799A - 仮想視点画像合成方法及び仮想視点画像合成システム - Google Patents

仮想視点画像合成方法及び仮想視点画像合成システム Download PDF

Info

Publication number
JP2012123799A
JP2012123799A JP2011264974A JP2011264974A JP2012123799A JP 2012123799 A JP2012123799 A JP 2012123799A JP 2011264974 A JP2011264974 A JP 2011264974A JP 2011264974 A JP2011264974 A JP 2011264974A JP 2012123799 A JP2012123799 A JP 2012123799A
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
depth
depth map
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011264974A
Other languages
English (en)
Other versions
JP5858380B2 (ja
Inventor
Maindard Ono Wildabla
メインダード オノ ウィルダブラ
Lu Yang
路 楊
Panahpour Teherani Mehrdad
テヘラニ、メヒルダド パナヒフル
Tomohiro Marumichi
知博 圓道
Masayuki Tanimoto
正幸 谷本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Original Assignee
Nagoya University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC filed Critical Nagoya University NUC
Publication of JP2012123799A publication Critical patent/JP2012123799A/ja
Application granted granted Critical
Publication of JP5858380B2 publication Critical patent/JP5858380B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】アップサンプリングされた深度マップに遮断作用又は平滑作用を及ぼさないアップサンプリング方法を低いビットレートで実現する仮想画像合成技術を提供する。
【解決手段】多視点撮影サブシステム101にて、複数の視点に設置したカメラから、多視点ビデオ画像105を取得し、形状生成サブシステム102にて、形状情報106を生成するとともに、深度カメラ402で多視点ビデオ画像105よりも低解像度の深度マップ413を取得する。アップサンプリングサブシステム401にて、多視点ビデオ画像105及び深度マップ413に基づき深度マップ413をアップサンプリングする。仮想ビュー合成サブシステム104にて、多視点ビデオ画像105、アップサンプリングした深度マップ及び、画像を合成する際の視点となる仮想視点の位置情報と方向情報に基づいて、仮想視点情報に対応する仮想視点画像を合成することにより、仮想視点画像を合成する。
【選択図】図1

Description

本発明は、複数位置において取得した画像に基づき仮想視点における合成画像を得る仮想視点画像合成方法及び仮想視点画像合成システムに関する。
仮想視点画像とは、仮想位置において実際のカメラによって撮影されたかのように見える画像のことである。例えば、対象及び背景を、2台のカメラによって撮影した場合、2台の実際のカメラの間の位置から撮影されたかのように見える画像が生成される。この画像は「仮想視点画像」と呼ばれる。
この画像を生成するプロセスは、「レンダリング」又は「ビュー合成」と呼ばれる。以下で、「視点画像」は、指定された視点から撮影された画像であり、実際のカメラによるかあるいはビュー合成のプロセスを通じて生成される。さらに、本明細書で、「画像」という語は、画像ピクセルからなるデジタル画像を指す。
人は、各々の目で異なるビューを見るので深度を感知することができる。最新の3Dビデオシステム(3D−TV又は自由視点TVなど)の原理は、各々の目に対して1つの、2視点画像を生成することである。視点に自由度を持たせるためには多くの視点画像が必要である。3Dシーンの情報は、多くの方法で得られて表現され得る。
よく使用される3Dシーン表現は、深度画像がシーン形状を表現するNビュー及びN深度画像に基づいている。図10に、複数のビュー及び形状に基づく多視点ビデオシステムの一般化されたシステム図を示す。
複数のカラービューは、一般に、複数の同期カメラによって撮影される。形状情報は、例えば、3Dモデル又はパーピクセル深度画像によって表現され得る。深度画像に基づくレンダリングを使用すると、実際のカメラで撮影されているように思われる無数の仮想視点画像が所与の範囲内で合成され得る(例えば、非特許文献1参照)。
深度画像に基づくレンダリングは、パーピクセル深度値を用いて所与の視点画像の画像ピクセルを別の視点画像に投影する仮想ビュー合成プロセスである。この投影は、一般に、3Dワーピングと呼ばれる。
Nビュー及びN深度表現の長所の一つは、受信機側における所要の処理が比較的低いことである。さらに、所要の送信/記憶帯域幅が抑制され得る。例えば、3Dディスプレイが20視点画像を必要とする場合、20視点画像を送信しなくても2つ又は3つのビュー及び対応する深度マップを送信すれば十分であり得る。
一般に、多視点ビデオシステムでは、複数の深度マップ及びビューが記憶又は送信のために圧縮される。ビュー及び深度の両方の効率的圧縮と信頼性の高い高品質の仮想ビュー合成が、このようなシステムにおいて重要である。
圧縮のために深度をダウン/アップサンプリングするアプローチでは、補間されたサンプルによって低解像度の深度マップのみから推定される従来のアップサンプリングが採用されている(例えば、非特許文献2、非特許文献3参照)。
C.Fehn、「Depth−image−based rendering (DIBR), compression and transmission for a new approach on 3D−TV(3D−TVに関する新しいアプローチのための、深度画像に基づくレンダリング(DIBR)、圧縮、及び送信)」、Proc.SPIE Stereoscopic Displays and Virtual Reality Systems、XI、pp.93−104(Jan.2004) S.Shimizu、M.Kitahara、K.Kamikura、及びY.Yashima、「View scalable multiview video coding using 3−D warping with depth map(深度マップを使用した3Dワーピングを用いるビュースケーラブル多視点映像符号化)」、IEEE Transactions on Circuits and Systems for Video Technology、vol.17、pp.1485−1495、November 2007 K−J.Oh、S.Yea、A.Vetro、Y−S.Ho、「Depth Reconstruction Filter and Down/Up Sampling for Depth Coding in 3−D Video(3−Dビデオにおける深度符号化のための深度再構成フィルタ及びダウン/アップサンプリング)」、IEEE signal processing letters、vol.16、No.9、Sept.2009、p747−750
ところが、従来のアップサンプリング方法を適用すると、アップサンプリングされた深度マップに強力な遮断作用又は平滑作用を及ぼす。これは、合成されたビューにアーチファクトをもたらすので望ましくないという問題がある。
本発明は、こうした問題に鑑みなされたもので、アップサンプリングされた深度マップに遮断作用又は平滑作用を及ぼさないアップサンプリング方法を低いビットレートで実現する仮想画像合成技術を提供することを目的とする。
上記[発明が解決しようとする課題において述べた問題を解決するためになされた請求項1に記載の発明は、
複数の視点から取得した画像情報に基づき、仮想視点から観た仮想視点画像を合成する仮想視点画像合成方法であって、
複数の視点に設置した複数の画像取得手段(10)から、仮想視点画像の基準となる基準画像を取得する基準画像取得工程と、
複数の画像取得手段(10)と同じ視点における画像の深度を取得する画像深度取得手段(402.409,412)によって、複数の画像取得手段(10)と同じ視点における画像の深度マップを生成する深度マップ生成工程と、
深度マップ生成工程において生成した深度マップをアップサンプリングするアップサンプリング工程と、
画像を合成する際の視点となる仮想視点の位置情報と仮想視点から合成画像を観たときの方向である仮想視点方向の情報を取得する仮想視点情報取得手段から仮想視点の位置情報及び方向情報を取得する仮想視点情報取得工程と、
基準画像取得工程において取得した基準画像、アップサンプリング工程においてアップサンプリングした深度マップ及び仮想視点情報取得工程において取得した仮想視点の位置情報及び方向情報に基づいて、仮想視点の位置情報及び方向情報情報に対応する仮想視点画像を合成する仮想視点画像合成工程と、
により、仮想視点画像を合成することを特徴とする仮想視点画像合成方法である。
このような仮想視点画像合成方法によれば、アップサンプリングされた深度マップに強力な遮断作用又は平滑作用を及ぼさず、合成されたビューにアーチファクトをもたらさないものとなる。したがって、符号化効率の改善及びビュー合成品質の向上に寄与する。
つまり、従来型のアップサンプリングとは対照的に、本発明のアップサンプリング方法では、高解像度ビューを使用することによって再構成される深度マップにおける明確な対象境界を再構成する。これによって、対象のエッジがより良く維持されるので、比較的低いビットレートにおける符号化効率が改善されるとともにレンダリング品質が向上する。
したがって、アップサンプリングされた深度マップに遮断作用又は平滑作用を及ぼさないアップサンプリング方法を低いビットレートで実現することができる。
基準画像取得工程において取得した基準画像、アップサンプリング工程においてアップサンプリングした深度マップ及び仮想視点情報取得工程において取得した仮想視点の位置情報と方向情報に基づいて、仮想視点の位置情報及び方向情報情報に対応する仮想視点画像を合成する仮想視点画像合成工程と、
により、仮想視点画像を合成することを特徴とする仮想視点画像合成方法。
請求項2に記載の発明は、請求項1に記載の仮想視点画像合成方法において、画像深度取得手段(402.409,412)は、画像の深度を検出する深度カメラ(402)であり、アップサンプリング工程は、深度カメラ(402)から入力された深度マップを入力し、深度マップ生成工程において生成された深度マップにおける一組の隣接するピクセルと、基準画像における互いに隣接していないピクセルとを対応させ、深度マップにおける一組の隣接するピクセルにおける各ピクセルに重みを割り当て、一組の隣接するピクセルに割り当てた各ピクセルの重みを最適化し、最小重みを算出し、算出した最小重みを得たときの一組の隣接するピクセルにおける最適な深度値を選択することを特徴とする仮想視点画像合成方法である。
請求項3に記載の発明は、請求項2に記載の仮想視点画像合成方法において、重みは、基準画像のピクセルと深度マップにおける一組の隣接するピクセルとの色又は強度差及び距離に基づいて割り当てられることを特徴とする仮想視点画像合成方法である。
請求項4に記載の発明は、請求項2に記載の仮想視点画像合成方法において、重みは、深度カメラ(402)から入力された深度マップ及び/又は基準画像のピクセルと、深度カメラ(402)から入力された深度マップ及び/又は基準画像における一組の隣接するピクセルとの色又は強度差及び距離の組合せに基づき割り当てられることを特徴とする仮想視点画像合成方法である。
請求項5に記載の発明は、請求項2〜請求項4のいずれか1項に記載の仮想視点画像合成方法において、重みの最適化は、権利独占選択によることを特徴とする仮想視点画像合成方法である。
請求項6に記載の発明は、請求項2〜請求項5のいずれか1項に記載の仮想視点画像合成方法において、最適深度値の選択は、出力深度値として最小重みを有するピクセルの深度を選択することによることを特徴とする仮想視点画像合成方法である。
請求項7に記載の発明は、複数の視点から取得した画像情報に基づき、仮想視点から観た仮想視点画像を合成する仮想視点画像合成システム(100)であって、複数の視点に配置した画像取得手段(10)と、複数の画像取得手段(10)から画像構成の基準となる基準画像を取得する基準画像取得手段(102)と、複数の画像取得手段(10)と同じ視点における画像の深度を取得する画像深度取得手段(402.409,412)と、画像深度取得手段(402,409,412)により取得した深度に基づき、複数の画像取得手段(10)と同じ視点における画像の深度マップを生成する深度マップ生成手段(102)と、深度マップ生成手段(102)において生成した深度マップをアップサンプリングするアップサンプリング手段(401)と、画像を合成する際の視点となる仮想視点の位置情報と仮想視点から合成画像を観たときの方向である仮想視点方向の情報を取得する仮想視点情報取得手段と、基準画像取得手段(102)において取得した基準画像、アップサンプリング手段(401)においてアップサンプリングした深度マップ及び仮想視点情報取得手段において取得した仮想視点の位置情報及び方向情報に基づいて、仮想視点の位置情報及び方向情報に対応する仮想視点画像を合成する仮想視点画像合成手段(104)と、を備えたことを特徴とする仮想視点画像合成システム(100)である。
このような仮想視点画像合成システム(100)によれば、請求項1に記載の仮想視点画像合成方法と同様な効果を得ることができる仮想視点画像合成システム(100)とすることができる。
請求項8に記載の発明は、請求項7に記載の仮想視点画像合成システム(100)において、画像深度取得手段(402.409,412)は、画像の深度を検出する深度カメラ(402)であり、アップサンプリング手段(401)は、深度カメラ(402)から入力された深度マップを入力する深度マップ入力手段(601)と、深度マップ入力手段(601)で入力した深度マップにおける一組の隣接するピクセルと、基準画像における互いに隣接していないピクセルとを対応させる対応手段と、深度マップにおける一組の隣接するピクセルにおける各ピクセルに重みを割り当てる重み割当手段と、重み割当手段で一組の隣接するピクセルに割り当てた各ピクセルの重みを最適化し、最小重みを算出する最小重み算出手段と、最小重み算出手段で算出した最小重みを得たときの一組の隣接するピクセルにおける最適な深度値を選択する最適深度値選択手段と、を備えたことを特徴とする仮想視点画像合成システム(100)である。
請求項9に記載の発明は、請求項8に記載の仮想視点画像合成システム(100)において、重み割当手段は、基準画像のピクセルと、深度マップ入力手段(601)で入力した深度マップにおける一組の隣接するピクセルと、の色又は強度差及び距離に基づいて重みを割り当てることを特徴とする仮想視点画像合成システム(100)である。
請求項10に記載の発明は、請求項8に記載の仮想視点画像合成システム(100)において、重み割当手段は、深度マップ入力手段(601)で入力した深度マップ及び/又は基準画像のピクセルと、深度マップ入力手段(601)で入力した深度マップにおける一組の隣接するピクセル及び/又は基準画像との色又は強度差及び距離の組合せに基づき、重みを割り当てることを特徴とする仮想視点画像合成システム(100)である。
請求項11に記載の発明は、請求項8〜請求項10のいずれか1項に記載の仮想視点画像合成システム(100)において、最小重み算出手段は、権利独占選択により、重みの最適化を行うことを特徴とする仮想視点画像合成システム(100)である。
請求項12に記載の発明は、請求項8〜請求項11のいずれか1項に記載の仮想視点画像合成システム(100)において、最適深度値選択手段は、出力深度値として最小重みを有するピクセルの深度を選択することを特徴とする仮想視点画像合成システム(100)である。
例示的なNビュー及びN深度に基づく3Dシステムのシステム図である。 ダウンサンプリングの概略図である。 3つのビュー及び対応する深度マップの例である。 アップサンプル部の概略の内部構成を示す図である。 アップサンプル部におけるアップサンプリングの概略図を示す アップサンプリング処理の流れを示すフローチャートである。 アップサンプリング処理中のサブルーチンであるアップサンプル深度処理の流れを示すフローチャートである。 アップサンプル部におけるアップサンプリングの結果を示す。 ビデオシーケンス「Champagne_tower」に関するPSNR比較である。 複数のビュー及び形状に基づく多視点ビデオシステムの一般化されたシステム図である。
以下、本発明が適用された実施形態について図面を用いて説明する。なお、本発明の実施の形態は、下記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
図1は、仮想視点画像合成システム100の概略の構成を示すシステム図である。仮想視点画像合成システム100は、図1に示すように、多視点撮影サブシステム101、形状生成サブシステム102、送信/記憶サブシステム103及び仮想ビュー合成サブシステム104を備えている。
なお、本実施形態における、形状生成サブシステム102及びアップサンプリングサブシステム401では、単に一つの処理経路を有するのではなく、アプリケーションの違いによって、種々の経路(以下、アプリケーション経路とも呼ぶ)を採ることができるようになっている。
つまり、スイッチ407及びスイッチ408を切り替えることにより、4つのアプリケーションが経路「a」〜「d」を選択し、アプリケーションの違いによって、アップサンプリングサブシステム401における処理内容を異なるものとすることができるようになっている。
なお、スイッチ407,408は、常に同じ経路を選択し、例えば、両方を経路「a」に設定するかあるいは両方を経路「b」に設定するといった具合である。
多視点撮影サブシステム101は、図示しない複数のカメラにより静的又は動的のいずれかの画像を取得するマルチカメラ撮像システム10を含んでいる。
マルチカメラ撮像システム10で撮影されたビデオ画像は、較正又は修正によって前処理され、多視点ビデオ画像105として、形状生成サブシステム102及び送信/記憶サブシステム103に出力される。
多視点撮影サブシステム101における較正又は修正の方法は、従来の技術によればよいため、説明を省略する。
形状生成サブシステム102は、深度マップ413を生成し、送信/記憶サブシステム103へ出力する。
深度マップ413の生成は、4つの方法(4つのアプリケーション経路「a]〜[d]に対応)によって行われる。
アプリケーション経路[a]では、深度カメラ402で取得した深度画像をその深度マップ413として出力する。
アプリケーション経路「b」では、深度カメラ402で取得した深度画像をアップサンプル部403でアップサンプリングして出力する。このアップサンプリングについては、詳細を後述する。
ここで、アプリケーション経路「a」、「b」で用いられる深度カメラ402は、画像をその深度とともに取得することができるカメラであり、マルチカメラ撮像システム10で撮影する多視点ビデオ画像105と同じ画像の深度を取得する。
通常、深度カメラ402からの深度マップは、撮影された多視点ビデオ画像105よりも解像度が低い。
アプリケーション経路「c」では、多視点撮影サブシステム101から入力される多視点ビデオ画像105から、深度推定部409において多視点ビデオ画像105の深度が推定された深度マップが生成され、生成された深度マップがダウンサンプル部410でダウンサンプルされて出力される。
アプリケーション経路「c」では、このように、深度推定部409からの高解像度の深度マップがダウンサンプル部410においてダウンサンプルされることによって符号化効率を向上させることができる。
深度推定部409における深度推定は複雑であるので、深度を比較的低い解像度で推定し、この後に本発明の低複雑度のアップサンプリング方式が続くようにする方がはるかに速い。これには深度マップの品質が僅かに低下するという犠牲を伴うが、このアプリケーションは実時間深度推定が要求される場合に有用である。
アプリケーション経路「c」におけるダウンサンプル部410では、ダウンサンプリング中に深度境界を維持するために、下記式1で定義されるピクセルドロッピングによってダウンサンプリングを適用する。
ここで、stepは受信機側に送信されるパラメータであるダウンサンプリング係数である。図2は、このダウンサンプリングの概略図を示す。
このダウンサンプリングでは、規則的な格子上のすべてのサンプルは低解像度の深度マップに記憶され、格子から外れたピクセルは捨てられる。図2では、文字A〜Kで示されたピクセルの深度値のみがダウンサンプリングされた深度マップに記憶され、他の深度値は捨てられる。例えば、ピクセル501は、ピクセル503にマップするが、ピクセル502は捨てられる。
アプリケーション経路「d」では、多視点撮影サブシステム101から入力される多視点ビデオ画像105がダウンサンプル部411においてダウンサンプリングされ、深度推定部412において、ダウンサンプリングされた多視点ビデオ画像の深度が推定されて、深度マップが生成され、出力される。
仮想視点画像合成システム100においては、3Dシーンの情報は多くの方法で表現され得る。よく使用される3Dシーン表現は、Nビュー及びN深度マップ画像に基づくものであるため、図3に、形状生成サブシステム102において得られる、N=3の場合のNビュー及びN深度マップ画像の例を示す。
図3は、3つの深度ビュー201〜203及び対応する深度マップ204〜206を示す。3つの深度ビュー201〜203は、並べた3台の深度カメラ402で撮影されている。
深度マップ204〜206は、所定の深度範囲内の深度カメラ402に対するパーピクセル深度を表すグレースケール画像である。8ビットスケールでは、グレースケール値0(黒)は最大距離を表し、255(白)は最小距離を表す。
深度マップ204〜206は、対象内で滑らかに変化する強度と対象エッジにおける急峻な変化を含む傾向がある(例えば、図3参照)。したがって、深度マップ204〜206は、深度のダウンサンプリング及びアップサンプリングによって利用され得るテクスチャビデオに比べてより大きな空間的冗長性を有する傾向がある。
深度マップ204〜206は、対象境界付近の重要なエッジ情報を伝達する。最近隣法(nearest neigbor)、線形補間、又は多項式補間など、従来型のアップサンプリング方法は、この重要な情報を平滑化するか又は除去する。これは合成されたビューのアーチファクトにつながる。
送信/記憶サブシステム103は、多視点ビデオ画像105及び深度マップ413を記憶又は送信する。送信/記憶サブシステム103では、多視点ビデオ画像105及び深度マップ413を圧縮する場合も圧縮しない場合もあり、チャネルは単にワイヤーであってよい。
したがって、送信/記憶サブシステム103から出力される復号化ビュー414及び復号化深度マップ416は、それぞれ多視点ビデオ画像105及び深度マップ413と全く同じであってよい。
また、多視点ビデオ画像105及び深度マップ413を圧縮するには、標準的な最新式のビデオエンコーダ、例えば、AVC/H.264、MVC、MPEG2、MJPEGなどを使用してもよい。
アップサンプリングサブシステム401は、スイッチ407、アップサンプル部404〜406及びワイヤーを備えている。スイッチ407は、前述のようにアプリケーション経路を選択するスイッチであり、ワイヤーは、送信/記憶サブシステム103からの入力を、スイッチ407を介して、直接仮想ビュー合成サブシステム104へ出力するためのものである。
また、アップサンプル部406は、経路「d」で示されるように、実時間深度推定が要求されるアプリケーションに使用され得る。多視点ビデオ画像105は、ダウンサンプル部411によってダウンサンプリングされ、深度は、深度推定部412によって比較的低い解像度で推定され、この後にアップサンプル部406が用いられている。
ここで、アップサンプリングサブシステム401のアップサンプル部404〜406及び形状生成サブシステム102におけるアップサンプル部403について、図4〜図8に基づいて説明する。
図4は、アップサンプル部403〜406の概略の内部構成を示す図である。アップサンプル部403〜406の各々は、図4に示すように、画像入力ユニット601、重み計算ユニット602、最小値最適化ユニット603、深度選択ユニット604及び後処置ユニット605を備えている。
そして、多視点ビデオ画像105及び深度マップ413の集合から、画像入力ユニット601が入力ビュー606及び対応する深度マップ607を選択する。
アップサンプリングを必要とする各ピクセルuに対して、重み計算ユニット602が、ピクセルuと一組の隣接するピクセルとの色差又は輝度差及びこれらの間の距離に基づいて一組の重み608を計算する。
最小値最適化ユニット603が最小重み609のピクセルを選択し、対応する出力深度マップ610が深度選択ユニット604によって選択される。
オプションとして、後処理ユニット605が出力深度611を生成するためにフィルタリング(例えば、メジアンフィルタリング)などの後処理動作を適用してもよい。
図5は、アップサンプル部403〜406におけるアップサンプリングの概略図を示す。入力画像は、最高解像度の入力ビュー606(アップサンプル部403では、多視点ビデオ画像105に該当)と対応する低解像度の深度マップ607(アップサンプル部403では、深度マップ413に該当)とからなる。入力ビュー606のサンプル格子と深度マップ607のサンプル格子の間の倍率は、パラメータステップ709によって定義される。
深度マップ607内のピクセル701「A」は、入力ビュー606のピクセル705「A」に対応し、ピクセル701の深度値は出力深度マップ610のピクセル703にコピーされる。
深度マップ607で定義される値を持たない出力深度マップ610のピクセル、例えば、出力深度マップ610のピクセル708「u」の場合、深度は隣接するピクセルから推定される。
隣接するピクセルの集合Nは予め定義される。例として、Nは入力ビュー606において図5でA、B、C、Dと標記される4つの隣接するピクセルからなり、下記式2で定義される。
このとき、集合Nの各隣接するピクセルに対して、重みが、集合N内のピクセルuと隣接するピクセルとの間の色差と、ピクセル距離とに基づいて、下記式3、式4及び式5により計算される。
式3〜5中、関数f( )はピクセル距離であり、関数g( )は集合N内のピクセルuと隣接するピクセルとの色差である。Cuはピクセルuの色を示し、CNは集合N内のピクセルの色を示す。
ここでは、||.||は任意のノルム(例えば、L1又はL2ノルム)であり得るし、色空間Cは任意の空間(例えば、RGB、YUV、HSI、グレースケールなど)であり得る。
さらに、境界付近のノイズを抑制するために、例えば、下記式6及び式7などのように平滑項が式3に追加され得る。
式6,7中、λ1及びλ2は平滑項の強度を制御するパラメータであり、dNは集合Nにおけるピクセルの深度であり、dleft及びdupは、それぞれ、ピクセルuの左及びピクセルuの上のピクセルの深度値である。
ピクセル98「u」の出力深度の深度値は、下記式8のように、獲得深度(winning depth)を選択するために式3又は式6のWN(u)を最適化することによって決定される。
(アップサンプリング処理)
次に、アップサンプル部403〜406の各ユニット601〜605の処理をCPUで実行する場合のアップサンプリング処理について説明する。図6は、アップサンプリング処理の流れを示すフローチャートであり、図7は、アップサンプリング処理中のサブルーチンであるアップサンプル深度処理の流れを示すフローチャートである。
図6に示すように、アップサンプリング処理では、ステップS800において、入力ビュー606及び深度マップ607が入力される。
続くステップS805において、入力ビュー606のうち、図5において左上隅に位置するピクセル705が選択される。以下、ピクセルの選択は、左上隅で始まり、右下隅で終わる従来のスキャニング順(ラスタースキャン)に処理される。
続くステップS810において、入力ビュー606におけるピクセルuの位置が、ピクセル701の深度の比較的低い解像度格子にマップされる。
続くS815では、ピクセル701の深度の値がその位置で定義されるか否かが判断される。ピクセル701の深度の値がその位置で定義される場合(S815:Yes)、処理がステップS820へ移行され、定義されない場合(S815:No)には、処理がアップサンプル深度処理ステップS900へ移行される。
ステップS820では、深度マップからピクセル701の深度の値がコピーされる。深度値が定義されない場合(S815:No)、深度値は、後述するアップサンプル深度処理によって決定される。
その後、ステップS825において、入力ビュー606内の次のピクセルuを選択し、続くステップS830において、入力ビュー606のすべてのピクセルについて、ステップS810〜S825処理が終了したか否かが判定される。
全ピクセルに対してステップS810〜S825が終了していないと判定された場合(S830:No)、処理がステップS810に戻され、全ピクセルに対してステップS810〜S825の処理が実行される。また、全ピクセルに対してステップS810〜S825が終了していると判定された場合は(S830:Yes)、本処理が終了となる。
この処理の出力はアップサンプリングされた出力深度マップ610である。
次に、アップサンプル深度処理ステップS900について図7に基づき説明する。アップサンプル深度処理は、図7に示すように、ステップS905において、隣接するピクセルNの集合及び深度マップ607における対応する深度値が決定される。
この後、ステップS910〜S925において、すべてのピクセル(i=0〜N)について、重みが前述した式3〜式7を用いて計算される。
そして、ステップS930において、集合Nにおける最小重みが決定される。隣接する獲得ピクセル(winning neighboring pixel)の深度値がステップS935において決定される。
このような、アップサンプル部403〜406における入力ビュー606に基づくアップアンプリング方法は、急峻な対象境界を維持し再構成することができる。これは、低解像度深度マップをアップサンプリングするとき対応する高解像度カラービュー画像が使用されるからである。
図8は、アップサンプリングの結果を示す。図8(a)は最初の深度マップを示す。この後、最初の深度は、ダウンサンプリングされ、さらに、2つの従来の方法及び本発明の方法でアップサンプリングされる。
図8(b)は、従来型の最近隣アップサンプリングの結果である。図8(c)は、従来型の双線形アップサンプリングの結果である。図8(d)は、アップサンプル部403〜406の出力画像であり、これは平滑作用も遮断作用もさほどなくかつより良く再構成された対象エッジを鮮明に示す。
仮想ビュー合成サブシステム104では、形状生成サブシステム102において取得した基準画像、アップサンプリングサブシステム401においてアップサンプリングした深度マップ及びマルチカメラ撮像システム10を構成する各カメラの位置情報と方向情報に基づいて、仮想視点情報に対応する仮想視点画像を合成し、仮想ビュー109として出力する。
ここで、すべてのアプリケーション経路(「a」〜「d」)において、アップサンプル部403〜406への入力は、ビュー画像、及びビュー画像よりも低い解像度の対応深度マップである。再構成された深度マップ417及び復号化ビュー414は、新規なビューをレンダーするために、仮想ビュー合成サブシステム104で使用される。
(仮想視点画像合成システム100の特徴)
以上に説明した仮想視点画像合成システム100によれば、アップサンプリングされた深度マップに強力な遮断作用又は平滑作用を及ぼさず、合成されたビューにアーチファクトをもたらさないものとなる。したがって、符号化効率の改善及びビュー合成品質の向上に寄与する。
つまり、従来型のアップサンプリングとは対照的に、仮想視点画像合成システム100のアップサンプリング方法では、高解像度ビューを使用することによって再構成される深度マップにおける明確な対象境界を再構成する。これによって、対象のエッジがより良く維持されるので、比較的低いビットレートにおける符号化効率が改善されるとともにレンダリング品質が向上する。
したがって、アップサンプリングされた深度マップに遮断作用又は平滑作用を及ぼさないアップサンプリング方法を低いビットレートで実現することができる。
ここで、本発明の方法の長所の証拠として、ビデオシーケンス「Champagne_tower」に関するPSNR比較を図9示す。
(その他の実施形態)
以上、本発明の実施形態について説明したが、本発明は、本実施形態に限定されるものではなく、種々の態様を採ることができる。
例えば、本実施形態では、アップサンプリングサブシステム401は、送信/記憶サブシステム103の後段で用いたが、アプリケーションに応じて送信/記憶サブシステム103の前に使用してもよい。
10…マルチカメラ撮像システム、100…仮想視点画像合成システム、101…多視点撮影サブシステム、102…形状生成サブシステム、103…送信/記憶サブシステム、104…仮想ビュー合成サブシステム、105…多視点ビデオ画像、106…形状情報、109…仮想ビュー 203…深度ビュー、深度マップ204〜206、401… アップサンプリングサブシステム、402… 深度カメラ、403〜406… アップサンプル部、407,408… スイッチ、409… 深度推定部 410,411… ダウンサンプル部、412… 深度推定部、413…深度マップ、414…復号化ビュー、416…復号化深度マップ、417…深度マップ、501〜503…ピクセル、601…画像入力ユニット、602…重み計算ユニット、603…最小値最適化ユニット、604…深度選択ユニット、605…後処理ユニット、606…入力ビュー、607…深度マップ、610…出力深度マップ、611…出力深度、701,703,705…ピクセル、708…深度値、709…パラメータステップ。

Claims (12)

  1. 複数の視点から取得した画像情報に基づき、仮想視点から観た仮想視点画像を合成する仮想視点画像合成方法であって、
    複数の視点に設置した複数の画像取得手段から、前記仮想視点画像の基準となる基準画像を取得する基準画像取得工程と、
    前記複数の画像取得手段と同じ視点における画像の深度を取得する画像深度取得手段によって、前記複数の画像取得手段と同じ視点における画像の深度マップを生成する深度マップ生成工程と、
    前記深度マップ生成工程において生成した深度マップをアップサンプリングするアップサンプリング工程と、
    画像を合成する際の視点となる仮想視点の位置情報と該仮想視点から前記合成画像を観たときの方向である仮想視点方向の情報を取得する仮想視点情報取得手段から前記仮想視点の位置情報及び方向情報を取得する仮想視点情報取得工程と、
    前記基準画像取得工程において取得した前記基準画像、前記アップサンプリング工程においてアップサンプリングした前記深度マップ及び前記仮想視点情報取得工程において取得した前記仮想視点の位置情報及び方向情報に基づいて、前記仮想視点の位置情報及び方向情報情報に対応する仮想視点画像を合成する仮想視点画像合成工程と、
    により、仮想視点画像を合成することを特徴とする仮想視点画像合成方法。
  2. 請求項1に記載の仮想視点画像合成方法において、
    前記画像深度取得手段は、画像の深度を検出する深度カメラであり、
    前記アップサンプリング工程は、
    前記深度カメラから入力された深度マップを入力し、
    前記深度マップ生成工程において生成された深度マップにおける一組の隣接するピクセルと、前記基準画像における互いに隣接していないピクセルとを対応させ、
    前記深度マップにおける一組の隣接するピクセルにおける各ピクセルに重みを割り当て、
    前記一組の隣接するピクセルに割り当てた各ピクセルの重みを最適化し、最小重みを算出し、
    前記算出した最小重みを得たときの前記一組の隣接するピクセルにおける最適な深度値を選択することを特徴とする仮想視点画像合成方法。
  3. 請求項2に記載の仮想視点画像合成方法において、
    前記重みは、前記基準画像のピクセルと前記深度マップにおける前記一組の隣接するピクセルとの色又は強度差及び距離に基づいて割り当てられることを特徴とする仮想視点画像合成方法。
  4. 請求項2に記載の仮想視点画像合成方法において、
    前記重みは、前記深度カメラから入力された深度マップ及び/又は前記基準画像のピクセルと、前記深度カメラから入力された深度マップ及び/又は前記基準画像における一組の隣接するピクセルとの色又は強度差及び距離の組合せに基づき割り当てられることを特徴とする仮想視点画像合成方法。
  5. 請求項2〜請求項4のいずれか1項に記載の仮想視点画像合成方法において、
    前記重みの最適化は、権利独占選択によることを特徴とする仮想視点画像合成方法。
  6. 請求項2〜請求項5のいずれか1項に記載の仮想視点画像合成方法において、
    前記最適深度値の選択は、
    出力深度値として最小重みを有するピクセルの深度を選択することによることを特徴とする仮想視点画像合成方法。
  7. 複数の視点から取得した画像情報に基づき、仮想視点から観た仮想視点画像を合成する仮想視点画像合成システムであって、
    複数の視点に配置した画像取得手段と、
    前記複数の画像取得手段から画像構成の基準となる基準画像を取得する基準画像取得手段と、
    前記複数の画像取得手段と同じ視点における画像の深度を取得する画像深度取得手段と、
    前記画像深度取得手段により取得した、前記複数の画像取得手段と同じ視点における画像の深度マップを生成する深度マップ生成手段と、
    前記深度マップ生成手段において生成した深度マップをアップサンプリングするアップサンプリング手段と、
    画像を合成する際の視点となる仮想視点の位置情報と該仮想視点から前記合成画像を観たときの方向である仮想視点方向の情報を取得する仮想視点情報取得手段と、
    前記基準画像取得手段において取得した前記基準画像、前記アップサンプリング手段においてアップサンプリングした前記深度マップ及び前記仮想視点情報取得手段において取得した前記仮想視点の位置情報及び方向情報に基づいて、前記仮想視点の位置情報及び方向情報に対応する仮想視点画像を合成する仮想視点画像合成手段と、
    を備えたことを特徴とする仮想視点画像合成システム。
  8. 請求項7に記載の仮想視点画像合成システムにおいて、
    前記画像深度取得手段は、画像の深度を検出する深度カメラであり、
    前記アップサンプリング手段は、
    前記深度カメラから入力された深度マップを入力する深度マップ入力手段と、
    前記深度マップ入力手段で入力した前記深度マップにおける一組の隣接するピクセルと、前記基準画像における互いに隣接していないピクセルとを対応させる対応手段と、
    前記深度マップにおける一組の隣接するピクセルにおける各ピクセルに重みを割り当てる重み割当手段と、
    前記重み割当手段で前記一組の隣接するピクセルに割り当てた各ピクセルの重みを最適化し、最小重みを算出する最小重み算出手段と、
    前記最小重み算出手段で算出した最小重みを得たときの前記一組の隣接するピクセルにおける最適な深度値を選択する最適深度値選択手段と、
    を備えたことを特徴とする仮想視点画像合成システム。
  9. 請求項8に記載の仮想視点画像合成システムにおいて、
    前記重み割当手段は、
    前記基準画像のピクセルと、前記深度マップ入力手段で入力した前記深度マップにおける前記一組の隣接するピクセルと、の色又は強度差及び距離に基づいて前記重みを割り当てることを特徴とする仮想視点画像合成システム。
  10. 請求項8に記載の仮想視点画像合成システムにおいて、
    前記重み割当手段は、
    前記深度マップ入力手段で入力した深度マップ及び/又は前記基準画像のピクセルと、前記深度マップ入力手段で入力した深度マップ及び/又は前記基準画像における一組の隣接するピクセルとの色又は強度差及び距離の組合せに基づき、前記重みを割り当てることを特徴とする仮想視点画像合成システム。
  11. 請求項8〜請求項10のいずれか1項に記載の仮想視点画像合成システムにおいて、
    前記最小重み算出手段は、
    権利独占選択により、前記重みの最適化を行うことを特徴とする仮想視点画像合成システム。
  12. 請求項8〜請求項11のいずれか1項に記載の仮想視点画像合成システムにおいて、
    前記最適深度値選択手段は、
    前記出力深度値として最小重みを有するピクセルの深度を選択することを特徴とする仮想視点画像合成システム。
JP2011264974A 2010-12-03 2011-12-02 仮想視点画像合成方法及び仮想視点画像合成システム Expired - Fee Related JP5858380B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US41950110P 2010-12-03 2010-12-03
US61/419,501 2010-12-03

Publications (2)

Publication Number Publication Date
JP2012123799A true JP2012123799A (ja) 2012-06-28
JP5858380B2 JP5858380B2 (ja) 2016-02-10

Family

ID=46162288

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011264974A Expired - Fee Related JP5858380B2 (ja) 2010-12-03 2011-12-02 仮想視点画像合成方法及び仮想視点画像合成システム
JP2011264975A Active JP5858381B2 (ja) 2010-12-03 2011-12-02 多視点画像合成方法及び多視点画像合成システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011264975A Active JP5858381B2 (ja) 2010-12-03 2011-12-02 多視点画像合成方法及び多視点画像合成システム

Country Status (2)

Country Link
US (1) US8867823B2 (ja)
JP (2) JP5858380B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014030571A1 (ja) * 2012-08-23 2014-02-27 シャープ株式会社 立体画像処理装置、立体画像処理方法およびプログラム
JP2017011653A (ja) * 2015-06-26 2017-01-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2018078496A (ja) * 2016-11-10 2018-05-17 株式会社金子製作所 三次元動画像表示処理装置、動画情報記録媒体、動画情報提供サーバ、並びにプログラム
JPWO2017082077A1 (ja) * 2015-11-11 2018-08-30 ソニー株式会社 画像処理装置および画像処理方法

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011060216A (ja) * 2009-09-14 2011-03-24 Fujifilm Corp 画像処理装置および画像処理方法
JP5909187B2 (ja) 2009-10-14 2016-04-26 トムソン ライセンシングThomson Licensing フィルタ処理およびエッジ符号化
US9177381B2 (en) * 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
WO2013025157A2 (en) * 2011-08-17 2013-02-21 Telefonaktiebolaget L M Ericsson (Publ) Auxiliary information map upsampling
CN103765474B (zh) * 2011-08-26 2017-10-24 汤姆逊许可公司 深度编码
KR20130084850A (ko) * 2012-01-18 2013-07-26 삼성전자주식회사 시차 값을 생성하는 영상 처리 방법 및 장치
US9767598B2 (en) 2012-05-31 2017-09-19 Microsoft Technology Licensing, Llc Smoothing and robust normal estimation for 3D point clouds
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US20150172715A1 (en) * 2012-07-09 2015-06-18 Nippon Telegraph And Telephone Corporation Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program, and recording media
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
JP2014082540A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラム、および装置、ならびに、互いに類似した情報を含む複数画像を表現するデータ構造
KR102184766B1 (ko) * 2013-10-17 2020-11-30 삼성전자주식회사 3차원 모델 복원 시스템 및 방법
US9729857B2 (en) * 2014-04-08 2017-08-08 Semyon Nisenzon High resolution depth map computation using multiresolution camera clusters for 3D image generation
US9772405B2 (en) * 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
US10326981B2 (en) * 2015-05-15 2019-06-18 Semyon Nisenzon Generating 3D images using multi-resolution camera set
US10275892B2 (en) * 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
WO2018025660A1 (ja) * 2016-08-05 2018-02-08 ソニー株式会社 画像処理装置および画像処理方法
JP2018036898A (ja) * 2016-08-31 2018-03-08 キヤノン株式会社 画像処理装置及びその制御方法
JP6727106B2 (ja) * 2016-11-30 2020-07-22 キヤノン株式会社 画像音響処理装置および画像音響処理方法、プログラム
WO2018104102A1 (en) * 2016-12-06 2018-06-14 Koninklijke Philips N.V. Apparatus and method for generating a light intensity image
JP6849430B2 (ja) * 2016-12-27 2021-03-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
KR102351542B1 (ko) 2017-06-23 2022-01-17 삼성전자주식회사 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
EP3467782A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing Method and device for generating points of a 3d scene
JP6980496B2 (ja) * 2017-11-21 2021-12-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7102173B2 (ja) * 2018-03-09 2022-07-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US11308577B2 (en) * 2018-04-04 2022-04-19 Sony Interactive Entertainment Inc. Reference image generation apparatus, display image generation apparatus, reference image generation method, and display image generation method
JP7187182B2 (ja) * 2018-06-11 2022-12-12 キヤノン株式会社 データ生成装置、方法およびプログラム
US11057609B2 (en) * 2019-02-27 2021-07-06 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and computer readable storage medium for determining a moving path of virtual viewpoint
US11521347B2 (en) 2019-03-07 2022-12-06 Alibaba Group Holding Limited Method, apparatus, medium, and device for generating multi-angle free-respective image data
CN111669561B (zh) * 2019-03-07 2023-05-26 阿里巴巴集团控股有限公司 多角度自由视角图像数据处理方法及装置、介质、设备
CN111669570B (zh) * 2019-03-07 2023-12-19 阿里巴巴集团控股有限公司 多角度自由视角视频数据处理方法及装置、介质、设备
CN111667438B (zh) * 2019-03-07 2023-05-26 阿里巴巴集团控股有限公司 视频重建方法、系统、设备及计算机可读存储介质
CN112541972B (zh) * 2019-09-23 2024-05-14 华为技术有限公司 一种视点图像处理方法及相关设备
RU2749749C1 (ru) * 2020-04-15 2021-06-16 Самсунг Электроникс Ко., Лтд. Способ синтеза двумерного изображения сцены, просматриваемой с требуемой точки обзора, и электронное вычислительное устройство для его реализации
US11734792B2 (en) 2020-06-17 2023-08-22 Electronics And Telecommunications Research Institute Method and apparatus for virtual viewpoint image synthesis by mixing warped image
KR102576700B1 (ko) * 2020-06-17 2023-09-08 한국전자통신연구원 워핑된 영상의 혼합을 통한 가상 시점 영상 합성 방법 및 장치
CN113891060B (zh) * 2020-07-03 2024-06-07 阿里巴巴集团控股有限公司 自由视点视频重建方法及播放处理方法、设备及存储介质
CN111726619B (zh) * 2020-07-06 2022-06-03 重庆理工大学 一种基于虚拟视点质量模型的多视点视频比特分配方法
CN114007059B (zh) * 2020-07-28 2025-01-17 阿里巴巴集团控股有限公司 视频压缩方法、解压方法、装置、电子设备及存储介质
CN111988597B (zh) * 2020-08-23 2022-06-14 咪咕视讯科技有限公司 虚拟视点合成方法、装置、电子设备及可读存储介质
CN111988596B (zh) * 2020-08-23 2022-07-26 咪咕视讯科技有限公司 虚拟视点合成方法、装置、电子设备及可读存储介质
CN114727084B (zh) * 2021-01-04 2023-10-03 浙江大学 一种筛选图像的方法及装置
CN114937140B (zh) * 2022-07-25 2022-11-04 深圳大学 面向大规模场景的图像渲染质量预测与路径规划系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4052331B2 (ja) * 2003-06-20 2008-02-27 日本電信電話株式会社 仮想視点画像生成方法及び3次元画像表示方法並びに装置
WO2010024938A2 (en) * 2008-08-29 2010-03-04 Thomson Licensing View synthesis with heuristic view blending
JP2010218549A (ja) * 2009-03-17 2010-09-30 Mitsubishi Electric Research Laboratories Inc 深度画像をフィルタリングする方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084979A (en) * 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
JP2001175863A (ja) * 1999-12-21 2001-06-29 Nippon Hoso Kyokai <Nhk> 多視点画像内挿方法および装置
JP2002032744A (ja) * 2000-07-14 2002-01-31 Komatsu Ltd 3次元モデリング及び3次元画像作成のための装置及び方法
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
BRPI1008500B1 (pt) * 2009-02-23 2021-08-24 Nippon Telegraph And Telephone Corporation Método de codificação de imagem de multivisão, método de decodificação de imagem de multivisão, dispositivo de codificação de imagem de multivisão e dispositivo de decodificação de imagem de multivisão
US8395642B2 (en) * 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis
US8325186B2 (en) * 2009-05-21 2012-12-04 Sony Computer Entertainment America Llc Method and apparatus for rendering shadows
JP5909187B2 (ja) * 2009-10-14 2016-04-26 トムソン ライセンシングThomson Licensing フィルタ処理およびエッジ符号化
US8355565B1 (en) * 2009-10-29 2013-01-15 Hewlett-Packard Development Company, L.P. Producing high quality depth maps
US8643701B2 (en) * 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
US8428342B2 (en) * 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4052331B2 (ja) * 2003-06-20 2008-02-27 日本電信電話株式会社 仮想視点画像生成方法及び3次元画像表示方法並びに装置
WO2010024938A2 (en) * 2008-08-29 2010-03-04 Thomson Licensing View synthesis with heuristic view blending
JP2010218549A (ja) * 2009-03-17 2010-09-30 Mitsubishi Electric Research Laboratories Inc 深度画像をフィルタリングする方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014030571A1 (ja) * 2012-08-23 2014-02-27 シャープ株式会社 立体画像処理装置、立体画像処理方法およびプログラム
JP2017011653A (ja) * 2015-06-26 2017-01-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JPWO2017082077A1 (ja) * 2015-11-11 2018-08-30 ソニー株式会社 画像処理装置および画像処理方法
JP7009996B2 (ja) 2015-11-11 2022-01-26 ソニーグループ株式会社 画像処理装置および画像処理方法
JP2018078496A (ja) * 2016-11-10 2018-05-17 株式会社金子製作所 三次元動画像表示処理装置、動画情報記録媒体、動画情報提供サーバ、並びにプログラム

Also Published As

Publication number Publication date
US20120141016A1 (en) 2012-06-07
US8867823B2 (en) 2014-10-21
JP2012123800A (ja) 2012-06-28
JP5858381B2 (ja) 2016-02-10
JP5858380B2 (ja) 2016-02-10

Similar Documents

Publication Publication Date Title
JP5858380B2 (ja) 仮想視点画像合成方法及び仮想視点画像合成システム
JP6633694B2 (ja) 多視点信号コーデック
EP2201784B1 (en) Method and device for processing a depth-map
EP2327059B1 (en) Intermediate view synthesis and multi-view data signal extraction
US20190222821A1 (en) Methods for Full Parallax Compressed Light Field 3D Imaging Systems
JP7036599B2 (ja) 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法
US20110157229A1 (en) View synthesis with heuristic view blending
US20090103616A1 (en) Method and device for generating depth image using reference image, method for encoding/decoding depth image, encoder or decoder for the same, and recording medium recording image generated using the method
US20140198182A1 (en) Representation and Coding of Multi-View Images Using Tapestry Encoding
WO2019034807A1 (en) SEQUENTIAL CODING AND DECODING OF VOLUMETRIC VIDEO
WO2012090181A1 (en) Depth map coding
TW201412093A (zh) 用於立體及自動立體顯示器之深度圖傳遞格式
KR20100008677A (ko) 깊이맵 추정장치와 방법, 이를 이용한 중간 영상 생성 방법및 다시점 비디오의 인코딩 방법
JP2025004019A (ja) マルチビュービデオシーケンスをコード化および復号化するための方法およびデバイス
Aflaki et al. Nonlinear depth map resampling for depth-enhanced 3-D video coding
KR101129309B1 (ko) 다시점 영상의 히스토그램 매칭 기반 조명보상의 전처리 방법 및 그 기록매체
JP5940812B2 (ja) 多視点画像処理装置、方法及びプログラム
Song et al. Down-/up-sampling based depth coding by utilizing interview correlation
KR20120079794A (ko) 영상 처리 장치 및 방법
WO2012177015A2 (ko) 영상 부호화/복호화 방법 및 그 장치
WO2011058483A1 (en) Generating an image signal
Lee et al. Virtual view interpolation at arbitrary view points for mixed-resolution 3D videos
Morvan et al. Design considerations for a 3D-TV video coding architecture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151207

R150 Certificate of patent or registration of utility model

Ref document number: 5858380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees