JP7012642B2 - アーチファクトを意識したビュー合成のための補助データ - Google Patents
アーチファクトを意識したビュー合成のための補助データ Download PDFInfo
- Publication number
- JP7012642B2 JP7012642B2 JP2018523453A JP2018523453A JP7012642B2 JP 7012642 B2 JP7012642 B2 JP 7012642B2 JP 2018523453 A JP2018523453 A JP 2018523453A JP 2018523453 A JP2018523453 A JP 2018523453A JP 7012642 B2 JP7012642 B2 JP 7012642B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- data
- image
- view
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Description
本出願は、引用することによりその全体が本明細書の一部をなす、2015年11月9日に出願された米国仮特許出願第62/285,825号の利益を主張する。
1.各ビューの深度順を示す識別子を有する形状画像。
2.各2Dビデオの深度マップ。
3.i)各ビュー内の各オブジェクトの形状及び深度マップによって指定される部分遮蔽の画像、マット及び深度データ、並びにii)自己遮蔽データの画像、マット及び深度データ、を含む部分遮蔽データ。
4.オブジェクト抽出、背景の更新、共同深度-テクスチャーフィルタリング及びビュー合成を行う際にアルゴリズムにおいて必要とされる他の制御又は調整パラメーター。
1 テクスチャー及び深度ビデオから補助データによって定義されるような部分的に遮蔽された領域において画像オブジェクト及びそれらの深度値を抽出する。
2 各オブジェクトの抽出後に、補助データを用いて画像背景及びその深度値を更新する。
3 指定された部分遮蔽領域及び背景において抽出されたオブジェクトを用いてビュー合成を行う。
1.形状画像を用いて、マッティングを用いて背景から前景を抽出する。これについては以下で更に詳細に述べられる。
2.部分遮蔽データの境界におけるマッティング(matting)によって、残りの背景の遮蔽除去エリアにおける画像データを埋める。この境界を除いて、残りの背景内の部分遮蔽データによって覆われる全てのピクセルが、更新された背景における前景のトレースを除去するように上書きされることになる。生じ得る穴を埋めるのに、更なるインペインティングが必要とされる場合がある。
3.部分遮蔽データから新たな背景の深度を更新する。インペインティングは、全てのオブジェクトが処理されるまで次に最小の深度を有するオブジェクトによって定義された境界内の穴を埋めるのに必要とされる場合がある。
4.最小の深度を有する次のオブジェクトについて、上記のステップ1~3を繰り返す。カラー及び深度データを有しない境界領域におけるマッティング時には、精緻化された形状として形状画像が用いられる。
1.fc(Ip,Fj)は、IpとFjとの間のカラー類似度関数である。値Ip及びFjが近いほど、fc(Ip,Fj)の値が大きくなり、逆もまた同様である。任意のカラー類似度関数を用いることができ、単純な選択肢は、
2.fd(Dp,Dj)は、Dp及びDj間の深度類似度関数である。Dp及びDjは、それぞれ、ロケーションp及びDjにおける深度値である。任意の類似度関数を適用することができ、単純な選択肢は、
3.fs(p,j)は、空間距離重み付け関数(weighting function)である。ここでもまた、多くの選択肢が存在し、単純な選択肢は、
4.
この結果、非ゼロのplごとにuを2-lだけシフトし、これらを合算することになる。このため、そのようなCSD数とFjとの乗算は、一連のバイナリシフト及び累積として効果的に実施することができる。したがって、加重和は、最大で、ここでも同様に計算することができる、
1.入力ビデオ及び深度マップから部分遮蔽データを予測する。
2.以前に符号化された近傍ブロックから部分遮蔽データの各ブロックを予測する。
3.同じ行における開始深度不連続部から遠く離れたブロックのための量子化誤差を徐々に増大させる。
1.フィルタリングプロセスにローカルコンテキスト情報を組み込むことによって、エッジの周りの従来のバイラテラルフィルターのアーチファクト及び勾配反転を低減する。
2.Ruizの論文に示されるように、カノニカル署名数字(CSD)によるフィルター重みを表すことによって、効率的な実施構造を与える。
1.時間的重み付けを用いて、特に静的領域における深度マップの時間安定性を改善する。
2.ローカルコンテキストマスク関数g(p,s,ξ)を用いて、エッジ情報を用いてローカルコンテキストを強調する。
3.図17(f)に示す深度信頼度項Rを追加することによって、視差マップのエッジの周りの重み付けが低減される。
4.重み付け関数w(p,s)及びc(Ip,Is)は、必ずしもガウス重み付け(カーネル)関数ではない。実際に、これらは、値の限られた組に量子化することができ、それによって、w(p,s)c(Ip,Is)とDsとの乗算を加算によってのみ実施することができるように、カノニカル署名数字(CSD)の形態で積を事前に計算し、表すことができる。これにより、精緻化方法の実施における算術的複雑度が大幅に低減する。
5.算術的複雑度を低減するための分離可能な空間及び時間フィルタリングの使用。
・w(p,s)における(xs-xp)2+(ys-yp)2+ρ(ts-tp)2が、nd個のレベルに量子化される。dsの範囲は、選択された空間ウィンドウサイズ及び時間ウィンドウサイズに依拠する。
・pとsとの間の強度差、すなわち、es=|Is-Ip|、及びその範囲は、固定のテクスチャー画像強度の範囲に依拠する。これはne個のレベルに量子化される。
・0~1の範囲をとる視差マップの信頼度{Rs’}は、nR個のレベルに量子化される。
・複雑度を低減するための他の可能な方法は、近傍Nにおいて用いられるフィルタリングサンプル数を低減することである。pを中心とするNは、通例、正方形として選択され、内部の全てのピクセルを用いてフィルター出力が得られる。図21(a)及び(b)に示すようなNの適切なサブセットを用いることにより、性能と算術的複雑度との間のトレードオフが提供される。そのようなパターン及び更なるトレードオフは、例えば、一定のフレームワークレートを維持するため等、アプリケーションにおける処理システムの利用可能な計算能力に従ってオンラインで変動させることができる。
1.1つのみのビデオ及びその関連付けられた深度ビデオが利用可能である場合、2D+補助データを深度方法と共に用いることによって、必要な全てのビューを合成する。このためのシステムは図23に示されている。3D効果の劣化と引き換えに、視覚アーチファクトを僅かにし、帯域幅/ストレージを低減することができる。
2.左(右)ステレオビデオ及び提案される2Dビデオ+補助データを深度合成方法と共に用いて、左(右)眼に対応するステレオ又はオートステレオスコピックディスプレイによって必要とされるビューを合成する(図25の下側部分)。ステレオビューを用いるのではなく、この手法を用いることにより、全ての必要なビューを合成するのに得られる視覚的アーチファクトが大幅に少なくなる。
1.ユーザーは、隣接ビュー(2D又はステレオビデオのいずれか)からの2つのそのようなビデオ+補助データストリームを使用しており、或る特定の時間間隔において、2つのビュー間のビュー合成又はビュー切り替えを行う。ビデオ及び補助データの次の隣接する対について切り替えが必要とされる場合、次の時間間隔において新たな情報が取り出されることになる。2対のビデオがオーバーラップを有する場合、一方の更なるビデオ+補助データが必要とされ、他方はドロップすることができる。このため、全体帯域幅は、2つのビデオ+補助データからなる。
2.隣接ビデオ+補助データの対をユーザーに送信する代わりに、ビュー切り替え中にデータを送信することができる。2つのビュー間の媒介物を合成するために、切り替え期間において双方のビデオデータが入手可能であるべきである。このため、全体帯域幅は、双方のデータが入手可能であるべき切り替え期間を除いて、1つのビデオ+補助データに更に低減される。
3.(2)における切り替え中のビューが更に凍結する場合、すなわち、中間合成又はモーフィングを期間にわたって連続して行うのではなく所与の時点において行う場合、2つのビデオデータのオーバーラップを更に最小限にすることができる。実際に、切り替え中に必要とされる情報がかなり低減されるので、更に離れたビデオからのオーバーラップするデータをユーザーに送信し、ユーザーが複数のビューにわたってフライオーバー効果をエミュレートすることを可能にする。この時点における画像データは、コンテンツプロバイダーによって、フライオーバー効果を後にユーザーにより想起することができる重要なイベントを記録するために、又はターゲットビューに切り替える前の付近のビューのユーザープレビューのために選択することもできる。この場合、後の時点に切り替えを行う前に、ユーザーは付近のビューをプレビューする。ディスプレイにおいて現在のビューの正常ビューを乱さないようにするために、結果として得られる合成されたフライオーバー効果を、ユーザーの想起又は選択のためにサブウィンドウ又はピクチャーインピクチャーウィンドウ内に別個に表示することができる。
1.合成ビューの品質を改善するための形状情報が以前に提案されてきたが、これは、上述したG. Techの論文及びS. C. Chanの論文、並びに、全て引用することによりその全体が本明細書の一部をなす、J. Lainema他「Intra Coding of the HEVC standard」IEEE Trans. Circuits and Systems for Video Technology, vol. 22, pp.1792-1801,(2012);https://en.wikipedia.org/wiki/Bilinear_interpo及びhttps://en.wikipedia.org/wiki/Bilinear_interpolationlation;及びT. Kariya他「Generalized Least Squares」J. Wiley, 2004を用いて行うことができる。ここで検討されるのは、情報が圧縮されている場合があり、したがって、深度、画像及び形状の一貫性を確保するための更なる処理が必要とされる状況である。従来の8ビットマッティング値ではなく、バイナリ形状情報を用い、したがって、高速マッティングがオンラインで行われなくてはならない事例も検討される。
2.部分遮蔽除去データを、圧縮されデコーダーに送信される補助データに含めることは新規である。従来から、穴はオンラインでインペインティングされ、良好な合成結果を保証することは困難である。
3.合成ビューの品質は、入力ビデオ、深度及び補助データの品質に高度に依拠するので、全ての入力について完全な合成結果を確実にすることは困難である。したがって、視覚的にわずらわしいアーチファクトの知覚を低減するために1つのビューから別のビューへの遷移をエミュレートするためのスイーピング関数が導入される。スイーピングレートは、入力データのマッチング誤差に依拠する。例えば、形状画像、テクスチャー画像及び深度画像における差の尺度を用いるか又は適切に組み合わせて、スイーピングレート及びぼけを制御することができる。
1.形状情報を用いた視差マップの補正。
2.オブジェクト層、それらのマット及び深度の抽出、並びに部分遮蔽データを用いた対応する背景の更新。
3.元の視点に近接した1つのビューを用いたレンダリング。
4.ユーザーが選択可能な幅を有する2つのカメラビューの中点の周りのユーザー領域において、所望の視認ロケーション及び再マッティングにおけるビュー及び所望のマットの融合を行って、ビュー合成のための一意のオブジェクト形状を確実にする。
5.このユーザーが選択可能な領域(2つのビューの事前に推定されたマッチング品質に従って補助データに含めることができる)においてスイーピングを行って、一方のビューから他方のビューへのフライオーバー効果を連続してエミュレートし、大きなアーチファクトの知覚を低減することができる。2つのビュー間の差が大きい場合、ビュー混合からモーフィングにシフトするための更なる処理を行うことができる。この差は、上記のステップにおける中間結果から検出することができる。
Claims (26)
- 補助データを用いて2次元入力ビデオ画像の改善されたレンダリングのための新たなビューを生成する方法であって、前記補助データは、形状情報、部分遮蔽データ及び深度情報の形態の深度不連続部を有し、該方法は、
前記補助データの前記形状情報によって指定される部分遮蔽領域において前記2次元入力ビデオ画像から画像オブジェクトを抽出し、前記深度情報から前記画像オブジェクトの深度値を抽出するステップと、
前記画像オブジェクトの抽出後に、前記画像オブジェクトの抽出に起因した欠落データ又は穴をインペインティングすることによって前記2次元入力ビデオ画像の背景を更新し、前記背景の深度値を更新するステップと、
前記補助データの前記部分遮蔽データを用いて、前記欠落データ又は穴のインペインティングの限られた性能に起因した前記新たなビューにおけるアーチファクトを低減するステップと、
前記指定された部分遮蔽領域において抽出された前記画像オブジェクトと、前記背景とを用いて、前記レンダリングのためのビュー合成を行うステップと、
を含み、
前記インペインティングされたオブジェクトは、独自の深度マップを有する画像層内に再構築される、方法。 - 前記補助データの前記形状情報は、前記深度不連続部に対する補正のために深度不連続部の概算ロケーションを与える、請求項1に記載の方法。
- グレースケール形状画像の場合、前記形状情報は、前記深度不連続部のロケーションにおける概算前景量を与える、請求項2に記載の方法。
- 前記部分遮蔽データ及び前記形状情報を用いて、所与の視点変更をサポートするのに必要な主要遮蔽除去エリア及び欠落情報が指示される、請求項1に記載の方法。
- 前記2次元入力ビデオ画像及び前記補助データは、送信され、前記部分遮蔽データは、画像データ、深度データ及びマット(matte)と共に含まれ、これらは前記形状情報、前記2次元入力ビデオ画像の深度値、並びに他の制御及び調整パラメーターと共にパッケージングされて補助データが形成され、ビュー合成が支援される、請求項1に記載の方法。
- 前記2次元入力ビデオ画像及び前記補助データは、送信帯域幅を低減するために、送信前に圧縮される、請求項5に記載の方法。
- 前記2次元入力ビデオ画像及び前記補助データは、記憶され、前記部分遮蔽データは、画像データ、深度データ及びマット(matte)と共に含まれ、これらは前記形状情報、前記2次元入力ビデオ画像の深度値、並びに他の制御及び調整パラメーターと共にパッケージングされて補助データが形成され、ビュー合成が支援される、請求項1に記載の方法。
- 前記2次元入力ビデオ画像及び前記補助データは、記憶前に圧縮される、請求項7に記載の方法。
- 前記補助データは、送信のためにビデオデータに埋め込まれる、請求項5に記載の方法。
- 前記補助データは、別個のデータストリームとして送信され、ビデオデータと同期される、請求項5に記載の方法。
- 前記画像オブジェクトを抽出し、前記背景及び前記深度値を更新する前記ステップは、
最小の深度を有する前記画像オブジェクトから開始して、前記形状情報を用いて、前記背景からマッティングを用いて前景を抽出するステップと、
前記部分遮蔽データの境界におけるマッティング(matting)によって、残りの背景の遮蔽除去エリアにおける画像データを埋めるステップと、
前記境界において、前記残りの背景における前記部分遮蔽データによってカバーされる全てのピクセルを上書きして、前記更新された背景における前景のトレースを除去するステップと、
生じ得る穴を埋める必要に応じて追加のインペインティングを提供するステップと、
前記部分遮蔽データから前記更新された背景の前記深度を更新するステップと、
必要に応じてインペインティングを行い、全てのオブジェクトが処理されるまで、次に最小の深度を有する前記オブジェクトによって画定される前記境界内の前記穴を埋めるステップと、
最小の深度を有する次のオブジェクトについて前記ステップを繰り返すステップとを上記順序で含む、請求項1に記載の方法。 - 前記層は、深度値の昇順で次々にレンダリングされる、請求項1に記載の方法。
- 前記抽出されたオブジェクトは、或る特定の順序で適切な遮蔽除去データを用いてインペインティングされ、アーチファクトを意識したビュー合成アルゴリズムを用いて、従来の2D、ステレオ、及びオートステレオスコピックディスプレイのうちの1つにおいてこのコンテンツの表示又はレンダリングがサポートされる、請求項1に記載の方法。
- 前記マッティングによる抽出ステップは、2つのフィルタリングプロセスとして効率的に実施され、該フィルタリングプロセスは、フィルター係数のカノニカル署名数字(canonical signed digits:CSD)表現を用いて、シフト及び加算を用いて乗算なしで行うことができる、請求項11に記載の方法。
- フィルター積を事前に計算し、カノニカル署名数字(CSD)として記憶することができる、請求項14に記載の方法。
- 前記アーチファクトを低減するステップは、半自動ユーザーインターフェースを通じた人間の介入により実行され、遮蔽除去情報の品質、及びしたがって、ビュー合成の品質が維持されることを確実にする、請求項1に記載の方法。
- 前記補助データは、
各ビューの深度順を示す識別子を有する前記形状情報と、
各2次元入力ビデオ画像の前記深度情報と、
i)各ビューにおける各オブジェクトの前記形状情報及び前記深度情報によって指定される前記部分遮蔽の前記画像、マット及び深度データと、ii)自己遮蔽データの画像、マット及び深度データとを含む部分遮蔽データと、
前記画像オブジェクトの抽出、前記背景の更新、共同深度-テクスチャーフィルタリング及び前記ビュー合成を実施する際にアルゴリズムにおいて必要とされる他の制御又は調整パラメーターと、
を含む、請求項1に記載の方法。 - 前景ピクセル及び背景ピクセルは、既知の前景及び背景の近傍から未知の領域に徐々にインペインティングすることができる、請求項1に記載の方法。
- マットを推定し平滑化を行う代わりに、バイナリ形状画像がフィルタリングされる、請求項14に記載の方法。
- 前記帯域幅は、以下の方法、すなわち、
前記2次元入力ビデオ画像及び前記深度情報から前記部分遮蔽データを予測する方法、
以前に符号化された近傍ブロックから前記部分遮蔽データの各ブロックを予測する方法、及び、
同じ行の開始深度不連続部から離れるにつれ、ブロックの量子化誤差を徐々に増大させる方法、のうちの少なくとも1つに従って前記部分遮蔽データを符号化することによって更に低減される、請求項6に記載の方法。 - バイラテラルフィルタリングによって前記深度情報を精緻化するステップを更に含み、各ピクセルにおける精緻化された前記深度情報は、現在のピクセルからの空間的差及び強度差によって重み付けされた近傍ピクセルの平均から得られる、請求項1に記載の方法。
- 前記バイラテラルフィルタリングは、
時間的重み付けを用いて、特に静的領域における前記深度情報の時間的安定性を改善するステップと、
ローカルコンテキストマスク関数を用いて、エッジ情報に基づいてローカルコンテキストを強調するステップと、
前記時間的重み付けに深度信頼度項を追加することによって、視差マップの前記エッジの周りの前記重み付けを低減するステップと、
前記時間的重み付けの重み付け関数を限られた値の組に量子化し、積を、加算のみによって実施することができるカノニカル署名数字(CSD)の形態で事前に計算し表現することができるようにするステップと、
分離可能な空間フィルタリング及び時間フィルタリングを用いて算術的複雑度を低減するステップと、
を含む、請求項21に記載の方法。 - 入力データのマッチング誤差(matching error)に依拠するスイーピング機能を導入して、1つのビューから別のビューへの遷移をエミュレートし、視覚的にわずらわしいアーチファクトの知覚を低減するステップを更に含む、請求項1に記載の方法。
- 前記アーチファクトを意識したビュー合成アルゴリズムは、
前記形状情報を用いて視差マップを補正するステップと、
オブジェクト層、該オブジェクト層のマット及び深度を抽出し、対応する背景を、前記部分遮蔽データを用いて更新するステップと、
元の視点の付近の1つのビューを用いて前記画像をレンダリングするステップと、
ユーザーが選択可能な幅を有する2つのカメラビューの中点付近のユーザー領域において、所望の視認ロケーションにおいてビュー及び所望のマットの融合を行い、ビュー合成の一意のオブジェクト形状を確実にする再マッティングを行うステップと、
を含む、請求項13に記載の方法。 - ユーザーが選択可能な領域においてスイーピング機能を実行し、一方のビューから他方のビューへのフライオーバー効果を連続してエミュレートし、大きなアーチファクトの知覚を低減するステップを更に含む、請求項24に記載の方法。
- 前記アーチファクトを意識したビュー合成アルゴリズムは、
左(右)ステレオビデオ、2Dビデオ+補助データを深度合成方法と共に用いて、左(右)眼に対応する前記ステレオ又はオートステレオスコピックディスプレイによって必要とされるビューを合成するステップと、
1つのビデオ及び該ビデオの関連深度ビデオのみが入手可能である場合、2Dビデオ+補助データを深度方法と共に用いて、必要な全てのビューを合成するステップと、
を含む、請求項13に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562285825P | 2015-11-09 | 2015-11-09 | |
US62/285,825 | 2015-11-09 | ||
PCT/CN2016/104887 WO2017080420A1 (en) | 2015-11-09 | 2016-11-07 | Auxiliary data for artifacts –aware view synthesis |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019502295A JP2019502295A (ja) | 2019-01-24 |
JP7012642B2 true JP7012642B2 (ja) | 2022-01-28 |
Family
ID=58694533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018523453A Active JP7012642B2 (ja) | 2015-11-09 | 2016-11-07 | アーチファクトを意識したビュー合成のための補助データ |
Country Status (4)
Country | Link |
---|---|
US (1) | US10404961B2 (ja) |
JP (1) | JP7012642B2 (ja) |
CN (1) | CN108475330B (ja) |
WO (1) | WO2017080420A1 (ja) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9807340B2 (en) * | 2014-11-25 | 2017-10-31 | Electronics And Telecommunications Research Institute | Method and apparatus for providing eye-contact function to multiple points of attendance using stereo image in video conference system |
US10482586B2 (en) * | 2015-05-18 | 2019-11-19 | Nokia Technologies Oy | Filtering depth map image |
CN108141593B (zh) * | 2015-07-31 | 2022-05-03 | 港大科桥有限公司 | 用于针对深度视频的高效帧内编码的基于深度不连续的方法 |
WO2017141511A1 (ja) * | 2016-02-17 | 2017-08-24 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
EP3236657A1 (en) * | 2016-04-21 | 2017-10-25 | Ultra-D Coöperatief U.A. | Dual mode depth estimator |
US10567739B2 (en) | 2016-04-22 | 2020-02-18 | Intel Corporation | Synthesis of transformed image views |
US20180068473A1 (en) * | 2016-09-06 | 2018-03-08 | Apple Inc. | Image fusion techniques |
JP7320352B2 (ja) * | 2016-12-28 | 2023-08-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置 |
EP3351899B1 (en) * | 2017-01-24 | 2020-06-17 | Leica Geosystems AG | Method and device for inpainting of colourised three-dimensional point clouds |
KR102006064B1 (ko) * | 2017-06-09 | 2019-07-31 | 숭실대학교산학협력단 | 추정된 시공간 배경 정보를 이용한 홀 채움 방법, 이를 수행하기 위한 기록매체 및 장치 |
EP3416371A1 (en) * | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method for displaying, on a 2d display device, a content derived from light field data |
EP3416381A1 (en) | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method and apparatus for providing information to a user observing a multi view content |
EP3422708A1 (en) * | 2017-06-29 | 2019-01-02 | Koninklijke Philips N.V. | Apparatus and method for generating an image |
EP3422711A1 (en) * | 2017-06-29 | 2019-01-02 | Koninklijke Philips N.V. | Apparatus and method for generating an image |
JP6985609B2 (ja) * | 2018-05-21 | 2021-12-22 | 日本電信電話株式会社 | 符号化装置、画像補間システム及び符号化プログラム |
CN109064429B (zh) * | 2018-08-02 | 2022-02-08 | 河北工业大学 | 一种融合gpu加速深度图像修复的伪激光数据生成方法 |
CN109462747B (zh) * | 2018-12-11 | 2020-06-26 | 成都美律科技有限公司 | 基于生成对抗网络的dibr系统空洞填充方法 |
US11335034B2 (en) * | 2019-01-16 | 2022-05-17 | Disney Enterprises, Inc. | Systems and methods for image compression at multiple, different bitrates |
CN110012310B (zh) * | 2019-03-28 | 2020-09-25 | 北京大学深圳研究生院 | 一种基于自由视点的编解码方法及装置 |
CN110008904A (zh) * | 2019-04-08 | 2019-07-12 | 万维科研有限公司 | 生成基于视频文件格式的形状识别列表的方法 |
CN110120009B (zh) * | 2019-05-09 | 2022-06-07 | 西北工业大学 | 基于显著物体检测和深度估计算法的背景虚化实现方法 |
CN110072113B (zh) * | 2019-05-17 | 2023-03-10 | 华侨大学 | 一种基于贝叶斯决策的3d-hevc深度图帧间快速算法 |
CN110310235B (zh) * | 2019-05-21 | 2021-07-27 | 北京至真互联网技术有限公司 | 眼底图像处理方法、装置及设备和存储介质 |
US11042969B2 (en) * | 2019-05-23 | 2021-06-22 | Adobe Inc. | Automatic synthesis of a content-aware sampling region for a content-aware fill |
US11030772B2 (en) | 2019-06-03 | 2021-06-08 | Microsoft Technology Licensing, Llc | Pose synthesis |
CN114341940A (zh) * | 2019-09-10 | 2022-04-12 | 欧姆龙株式会社 | 图像处理装置、三维测量系统、图像处理方法 |
CN110675356B (zh) * | 2019-09-30 | 2022-02-22 | 中国科学院软件研究所 | 一种基于用户意图推断的嵌入式图像合成方法 |
CN110933418B (zh) * | 2019-11-26 | 2021-12-21 | 支付宝(杭州)信息技术有限公司 | 一种视频数据处理方法、设备、介质以及装置 |
CN110913278B (zh) * | 2019-12-06 | 2022-04-08 | 深圳创维新世界科技有限公司 | 视频播放方法、显示终端及存储介质 |
US11328428B2 (en) * | 2019-12-18 | 2022-05-10 | Clarion Co., Ltd. | Technologies for detection of occlusions on a camera |
FR3106014A1 (fr) * | 2020-01-02 | 2021-07-09 | Orange | Synthèse itérative de vues à partir de données d’une vidéo multi-vues |
CN113327190A (zh) | 2020-02-28 | 2021-08-31 | 阿里巴巴集团控股有限公司 | 图像、数据处理的方法和装置 |
CN111369484B (zh) * | 2020-03-05 | 2023-05-09 | 中国铁道科学研究院集团有限公司基础设施检测研究所 | 钢轨廓形检测方法及装置 |
US11055879B1 (en) * | 2020-04-03 | 2021-07-06 | Varjo Technologies Oy | Encoder and encoding method for mitigating discrepancies in reconstructed images |
CN111489429A (zh) * | 2020-04-16 | 2020-08-04 | 诚迈科技(南京)股份有限公司 | 一种图像渲染控制方法、终端设备和存储介质 |
US20230224447A1 (en) | 2020-06-16 | 2023-07-13 | Dolby Laboratories Licensing Corporation | Supporting multi-view video operations with disocclusion atlas |
CN111724327A (zh) * | 2020-06-29 | 2020-09-29 | 成都数之联科技有限公司 | 图像修复模型训练方法及系统及图像修复方法 |
CN112561815B (zh) * | 2020-12-11 | 2024-03-05 | 浙江大华技术股份有限公司 | 一种图像处理方法、装置、存储介质及电子装置 |
CN112686865B (zh) * | 2020-12-31 | 2023-06-02 | 重庆西山科技股份有限公司 | 一种3d视图辅助检测方法、系统、装置及存储介质 |
WO2022212109A1 (en) * | 2021-03-31 | 2022-10-06 | Dathomir Laboratories Llc | Techniques for viewing 3d photos and 3d videos |
US11587208B2 (en) * | 2021-05-26 | 2023-02-21 | Qualcomm Incorporated | High quality UI elements with frame extrapolation |
CN113450295B (zh) * | 2021-06-15 | 2022-11-15 | 浙江大学 | 一种基于差分对比学习的深度图合成方法 |
US20220413433A1 (en) * | 2021-06-28 | 2022-12-29 | Meta Platforms Technologies, Llc | Holographic Calling for Artificial Reality |
WO2023133285A1 (en) * | 2022-01-07 | 2023-07-13 | Innopeak Technology, Inc. | Anti-aliasing of object borders with alpha blending of multiple segmented 3d surfaces |
CN114093012B (zh) * | 2022-01-18 | 2022-06-10 | 荣耀终端有限公司 | 人脸遮挡的检测方法和检测装置 |
US20230377236A1 (en) * | 2022-05-23 | 2023-11-23 | Lemon Inc. | Creation of videos using virtual characters |
WO2023235273A1 (en) * | 2022-06-02 | 2023-12-07 | Leia Inc. | Layered view synthesis system and method |
CN116596922B (zh) * | 2023-07-17 | 2023-09-12 | 山东龙普太阳能股份有限公司 | 一种太阳能热水器生产质量检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010218548A (ja) | 2009-03-17 | 2010-09-30 | Mitsubishi Electric Research Laboratories Inc | 仮想画像を合成する方法 |
JP2011501496A (ja) | 2007-10-11 | 2011-01-06 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 奥行きマップを処理する方法及び装置 |
US20130169749A1 (en) | 2006-06-23 | 2013-07-04 | Imax Corporation | Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition |
US20140002591A1 (en) | 2012-06-29 | 2014-01-02 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Apparatus, system, and method for temporal domain hole filling based on background modeling for view synthesis |
WO2014050830A1 (ja) | 2012-09-25 | 2014-04-03 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
US20150091900A1 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and Methods for Depth-Assisted Perspective Distortion Correction |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2605361A (en) | 1950-06-29 | 1952-07-29 | Bell Telephone Labor Inc | Differential quantization of communication signals |
US5351314A (en) * | 1991-10-04 | 1994-09-27 | Canon Information Systems, Inc. | Method and apparatus for image enhancement using intensity dependent spread filtering |
US5590065A (en) * | 1994-08-10 | 1996-12-31 | Crystal Semiconductor Corporation | Digital decimation filter for delta sigma analog-to-digital conversion with reduced hardware compelexity |
US6307959B1 (en) * | 1999-07-14 | 2001-10-23 | Sarnoff Corporation | Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation |
US6989840B1 (en) * | 2001-08-31 | 2006-01-24 | Nvidia Corporation | Order-independent transparency rendering system and method |
US7492848B2 (en) * | 2005-04-13 | 2009-02-17 | Texas Instruments Incorporated | Method and apparatus for efficient multi-stage FIR filters |
KR101367284B1 (ko) * | 2008-01-28 | 2014-02-26 | 삼성전자주식회사 | 시점 변화에 따른 영상 복원 방법 및 장치 |
CN100563340C (zh) * | 2008-07-07 | 2009-11-25 | 浙江大学 | 基于深度图像渲染的多通道视频流编码器和解码器 |
EP2301256A2 (en) * | 2008-07-21 | 2011-03-30 | Thomson Licensing | Multistandard coding device for 3d video signals |
DE112010005437T5 (de) * | 2010-04-02 | 2013-04-18 | Zoran (France) | Stereoskopischer Videosignalprozessor mit verbessertem 3D-Effekt |
KR101669820B1 (ko) * | 2010-07-02 | 2016-10-27 | 삼성전자주식회사 | 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법 |
KR20120049636A (ko) * | 2010-11-09 | 2012-05-17 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US8878950B2 (en) * | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
WO2012142048A2 (en) * | 2011-04-11 | 2012-10-18 | Flir Systems, Inc. | Techniques for selective noise reduction and imaging system characterization |
US8542933B2 (en) * | 2011-09-28 | 2013-09-24 | Pelican Imaging Corporation | Systems and methods for decoding light field image files |
US20130182184A1 (en) * | 2012-01-13 | 2013-07-18 | Turgay Senlet | Video background inpainting |
WO2013162735A1 (en) * | 2012-04-25 | 2013-10-31 | University Of Southern California | 3d body modeling from one or more depth cameras in the presence of articulated motion |
US9621869B2 (en) * | 2012-05-24 | 2017-04-11 | Sony Corporation | System and method for rendering affected pixels |
US8908919B2 (en) * | 2012-05-29 | 2014-12-09 | The Johns Hopkins University | Tactical object finder |
EP2808760B1 (en) * | 2013-05-29 | 2023-08-16 | Dassault Systèmes | Body posture tracking |
EP2887312A1 (en) * | 2013-12-18 | 2015-06-24 | Nokia Corporation | Method, apparatus and computer program product for depth estimation of stereo images |
US10089740B2 (en) * | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
US9407896B2 (en) * | 2014-03-24 | 2016-08-02 | Hong Kong Applied Science and Technology Research Institute Company, Limited | Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions |
US9361524B2 (en) * | 2014-10-20 | 2016-06-07 | King Abdullah University Of Science & Technology | System and method for crowd counting and tracking |
KR20160057590A (ko) * | 2014-11-13 | 2016-05-24 | 삼성디스플레이 주식회사 | 공통 부분식 소거 방법 및 이를 이용한 필터 |
US10346996B2 (en) * | 2015-08-21 | 2019-07-09 | Adobe Inc. | Image depth inference from semantic labels |
-
2016
- 2016-11-07 JP JP2018523453A patent/JP7012642B2/ja active Active
- 2016-11-07 CN CN201680078156.9A patent/CN108475330B/zh active Active
- 2016-11-07 WO PCT/CN2016/104887 patent/WO2017080420A1/en active Application Filing
- 2016-11-08 US US15/346,678 patent/US10404961B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130169749A1 (en) | 2006-06-23 | 2013-07-04 | Imax Corporation | Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition |
JP2011501496A (ja) | 2007-10-11 | 2011-01-06 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 奥行きマップを処理する方法及び装置 |
JP2010218548A (ja) | 2009-03-17 | 2010-09-30 | Mitsubishi Electric Research Laboratories Inc | 仮想画像を合成する方法 |
US20140002591A1 (en) | 2012-06-29 | 2014-01-02 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Apparatus, system, and method for temporal domain hole filling based on background modeling for view synthesis |
WO2014050830A1 (ja) | 2012-09-25 | 2014-04-03 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
US20150091900A1 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and Methods for Depth-Assisted Perspective Distortion Correction |
Also Published As
Publication number | Publication date |
---|---|
JP2019502295A (ja) | 2019-01-24 |
CN108475330A (zh) | 2018-08-31 |
WO2017080420A1 (en) | 2017-05-18 |
CN108475330B (zh) | 2022-04-08 |
US20170188002A1 (en) | 2017-06-29 |
US10404961B2 (en) | 2019-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7012642B2 (ja) | アーチファクトを意識したビュー合成のための補助データ | |
Zinger et al. | Free-viewpoint depth image based rendering | |
CN106068527B (zh) | 用于立体数据的深度感知增强 | |
Oh et al. | Depth reconstruction filter and down/up sampling for depth coding in 3-D video | |
CN102598674B (zh) | 用于2d视频数据到3d视频数据的转换的深度图产生技术 | |
US20130182184A1 (en) | Video background inpainting | |
EP2850835A1 (en) | Estimation, encoding and decoding of motion information in multidimensional signals through motion zones, and auxiliary information through auxiliary zones | |
Lee et al. | Discontinuity-adaptive depth map filtering for 3D view generation | |
Do et al. | Quality improving techniques for free-viewpoint DIBR | |
Farid et al. | Depth image based rendering with inverse mapping | |
Mao et al. | Expansion hole filling in depth-image-based rendering using graph-based interpolation | |
Mieloch et al. | Overview and efficiency of decoder-side depth estimation in MPEG immersive video | |
Zhang et al. | A unified scheme for super-resolution and depth estimation from asymmetric stereoscopic video | |
Lu et al. | A survey on multiview video synthesis and editing | |
JP6148154B2 (ja) | 画像処理装置及び画像処理プログラム | |
Pająk et al. | Perceptual depth compression for stereo applications | |
Luo et al. | Hole filling for view synthesis using depth guided global optimization | |
Lee et al. | View synthesis using depth map for 3D video | |
US9787980B2 (en) | Auxiliary information map upsampling | |
Colleu et al. | A polygon soup representation for multiview coding | |
Jung | Lossless embedding of depth hints in JPEG compressed color images | |
Zhang et al. | Efficient depth map compression for view rendering in 3D video | |
Bokov et al. | Toward efficient background reconstruction for 3D-view synthesis in dynamic scenes | |
Liu et al. | Stereoscopic view synthesis based on region-wise rendering and sparse representation | |
Rezaee Kaviani | Novel Image Interpolation Schemes with Applications to Frame Rate Conversion and View Synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201007 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7012642 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |