JP2013535898A - 3次元ビデオのための視覚ベースの品質メトリック - Google Patents
3次元ビデオのための視覚ベースの品質メトリック Download PDFInfo
- Publication number
- JP2013535898A JP2013535898A JP2013520767A JP2013520767A JP2013535898A JP 2013535898 A JP2013535898 A JP 2013535898A JP 2013520767 A JP2013520767 A JP 2013520767A JP 2013520767 A JP2013520767 A JP 2013520767A JP 2013535898 A JP2013535898 A JP 2013535898A
- Authority
- JP
- Japan
- Prior art keywords
- video data
- dibr
- view
- depth map
- distortion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
Claims (43)
- 深度画像ベースレンダリング(DIBR)ベース3次元(3D)ビデオデータの視覚的品質を定量化するために目標メトリック(36、60)を得るための方法であって、
DIBRベース3Dビデオデータ(138、156)を使用して歪み制限画像ビューを生成することになる理想深度マップ(62、70)を推定することと、
前記理想深度マップ(62、70)と前記DIBRベース3Dビデオデータ(34、140、158)の生成において使用される深度マップ(28、58)との定量比較に基づいて、1つ以上の歪みメトリック(64、72)を導出することと、
導出された前記1つ以上の歪みメトリック(64、142、160)に基づいて前記DIBRベース3Dビデオデータの視覚的品質を定量化するために前記目標メトリック(36、60)を計算することと、
を備える、方法。 - 前記歪みメトリックの各々が、前記DIBRベース3Dビデオデータを閲覧するときに予想される3D閲覧視覚的不快感の測定値を示す、請求項1に記載の方法。
- 前記理想深度マップを推定することが、以下の式に従って前記理想深度マップを推定することを含み、
- 前記理想深度マップを推定することが、以下の式に従って前記理想深度マップを推定することを含み、
関数f(IR,Ig)が、前記基準ビューIR中の画素の各ブロックと、前記基準ビューの前記ブロックに水平シフトを適用した後の生成された前記ビューIg中の画素の各対応するブロックとの間の強度の差を表し、
前記水平シフトの量が、その特定のブロックにおける平均視差であり、
前記平均視差が前記基準ビューの深度マップの関数である、請求項1に記載の方法。 - 前記1つ以上の歪みメトリックを導出することが、空間的誤差外れ値(SO)歪みメトリックと時間的誤差外れ値(TO)歪みメトリックとのうちの1つ以上を導出することを備える、請求項1に記載の方法。
- 前記1つ以上の歪みメトリックを導出することが、
理想深度マップと前記DIBRベース3Dビデオデータの前記深度マップとの間の差の標準偏差として空間的誤差外れ値(SO)歪みメトリックを導出することと、
前記理想深度マップと、前記3Dビデオの2つの連続するフレームのための前記DIBRベース3Dビデオデータの前記深度マップとの間の差の標準偏差として時間的誤差外れ値(TO)歪みメトリックを導出することと、
を備え、
前記方法が、DIBRベース3Dビデオデータと次のDIBRベース3Dビデオデータとを生成するために使用される深度マップ間の差の標準偏差として時間的不整合(TI)歪みメトリックを導出することを更に備え、
前記目標メトリックを計算することが、
前記SO、TO及びTI歪みメトリックの各々を0〜1の範囲に正規化することと、
以下の式に従って前記目標メトリックを計算することと
上式で、3VQMが前記目標メトリックを表し、SO、TO及びSIが、前記正規化されたSO、TO及びTI歪みメトリックを表し、a、b、及びcが、トレーニングシーケンスによって決定される定数を表し、kがスケーリングファクタを表す、請求項1に記載の方法。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
前記方法が、
1つ以上のパラメータに従って3Dビデオデータから前記深度マップを推定することであって、前記3Dビデオデータが左ビューと右ビューとを含み、与えられた前記ビューが前記左ビューと前記右ビューとのうちの1つから選択される、推定することと、
前記目標メトリックによって識別される欠陥を補正するために、前記3Dビデオデータのための前記深度マップを推定するために使用される前記1つ以上のパラメータを修正することと、
を更に備える、請求項1に記載の方法。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
前記方法が、
符号化DIBRベース3Dビデオデータを生成するために、1つ以上のパラメータに従って前記DIBRベース3Dビデオデータの前記深度マップと与えられた前記ビューとを符号化することと、
前記目標メトリックによって識別される欠陥を補正するために、前記深度マップと与えられた前記ビューとのうちの1つ以上を符号化するために使用される前記1つ以上のパラメータを修正することと、
を更に備える、請求項1に記載の方法。 - 前記3Dビデオデータが、与えられたビューを更に含み、
前記方法が、
前記深度マップと与えられた前記ビューとを生成するために、1つ以上のパラメータに従って前記深度マップの符号化バージョンと与えられた前記ビューの符号化バージョンとを復号することと、
前記目標メトリックによって識別される欠陥を補正するために、前記深度マップの前記符号化バージョンと与えられた前記ビューの前記符号化バージョンとを復号するために使用される前記1つ以上のパラメータを修正することと
を更に備える、請求項1に記載の方法。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
前記方法が、
前記3Dビデオデータを生成するために、1つ以上のパラメータに従って前記深度マップと与えられた前記ビューとから3Dビデオデータの左ビュー又は右ビューのいずれかを再構成することであって、与えられた前記ビューが前記3Dビデオデータの前記左ビュー又は前記右ビューのいずれかとして選択される、再構成することと、
前記目標メトリックによって識別される欠陥を補正するために、前記左ビュー又は前記右ビューのいずれかを再構成するために使用される前記1つ以上のパラメータを修正することと、
を更に備える、請求項1に記載の方法。 - 深度画像ベースレンダリング(DIBR)ベース3次元(3D)ビデオデータの視覚的品質を定量化するために目標メトリック(36、60)を得る機器であって、前記機器(12、14)が、
前記3D目標メトリック(36、60)を計算する3D分析ユニット(24、48)を備え、前記3D分析ユニット(24、48)が、
DIBRベース3Dビデオデータ(34)を使用して歪み制限画像ビューを生成することになる理想深度マップ(62、70)を推定する理想深度推定ユニット(82)と、
前記理想深度マップ(62、70)と前記DIBRベース3Dビデオデータ(34)の前記生成において使用される深度マップ(28、58)との定量比較に基づいて、1つ以上の歪みメトリック(64、72)を導出する歪みメトリック計算ユニット(84)と、
導出された前記1つ以上の歪みメトリック(64、72)に基づいてDIBRベースビデオデータ(34)の視覚的品質を定量化するために前記目標メトリック(36、60)を計算する目標メトリック計算ユニット(86)と
を含む、機器(12、14)。 - 前記歪みメトリックの各々が、前記DIBRベース3Dビデオデータを閲覧するときに予想される3D閲覧視覚的不快感の測定値を示す、請求項12に記載の機器。
- 前記理想深度マップ推定ユニットが、以下の式に従って前記理想深度マップを推定し、
- 前記理想深度マップ推定ユニットが、以下の式に従って前記理想深度マップを推定し、
関数f(IR,Ig)が、前記基準ビューIR中の画素の各ブロックと、前記基準ビューの前記ブロックに水平シフトを適用した後の生成された前記ビューIg中の画素の各対応するブロックとの間の強度の差を表し、
前記水平シフトの量が、その特定のブロックにおける平均視差であり、
前記平均視差が前記基準ビューの深度マップの関数である、請求項12に記載の機器。 - 前記歪みメトリック計算ユニットが、理想深度マップと前記DIBRベース3Dビデオデータの前記深度マップとの間の差の標準偏差として空間的誤差外れ値(SO)歪みメトリックを導出し、前記理想深度マップと、前記3Dビデオの2つの連続するフレームのための前記DIBRベース3Dビデオデータの前記深度マップとの間の差の標準偏差として時間的誤差外れ値(TO)歪みメトリックを導出し、DIBRベース3Dビデオデータと次のDIBRベース3Dビデオデータとを生成するために使用される深度マップ間の差の標準偏差として時間的不整合(TI)歪みメトリックを導出し、
前記目標メトリック計算ユニットが、前記SO、TO及びTI歪みメトリックの各々を0〜1の範囲に正規化し、以下の式に従って前記目標メトリックを計算し、
- 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
1つ以上のパラメータに従って3Dビデオデータから前記深度マップを推定することと、
前記目標メトリックによって識別される欠陥を補正するために、前記3Dビデオデータのための前記深度マップを推定するために使用される前記1つ以上のパラメータを修正することと、
を行い、前記3Dビデオデータが左ビューと右ビューとを含み、与えられた前記ビューが前記左ビューと前記右ビューとのうちの1つから選択される、深度推定ユニットを更に含む、請求項12に記載の機器。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
符号化DIBRベース3Dビデオデータを生成するために、1つ以上のパラメータに従って前記DIBRベース3Dビデオデータの前記深度マップと与えられた前記ビューとを符号化することと、前記目標メトリックによって識別される欠陥を補正するために、前記深度マップと与えられた前記ビューとのうちの1つ以上を符号化するために使用される前記1つ以上のパラメータを修正することと、
を行う3Dビデオエンコーダを更に含む、請求項12に記載の機器。 - 前記3Dビデオデータが、与えられたビューを更に含み、
前記深度マップと与えられた前記ビューとを生成するために、1つ以上のパラメータに従って前記深度マップの符号化バージョンと与えられた前記ビューの符号化バージョンとを復号することと、前記目標メトリックによって識別される欠陥を補正するために、前記深度マップの前記符号化バージョンと与えられた前記ビューの前記符号化バージョンとを復号するために使用される前記1つ以上のパラメータを修正することと、を行う3Dビデオデコーダを更に備える、請求項12に記載の機器。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
前記3Dビデオデータを生成するために、1つ以上のパラメータに従って前記深度マップと与えられた前記ビューとから3Dビデオデータの左ビュー又は右ビューのいずれかを再構成することと、前記目標メトリックによって識別される欠陥を補正するために、前記左ビュー又は前記右ビューのいずれかを再構成するために使用される前記1つ以上のパラメータを修正することとを行い、与えられた前記ビューが前記3Dビデオデータの前記左ビュー又は前記右ビューのいずれかとして選択される、ビュー再構成ユニットを更に備える、請求項12に記載の機器。 - 深度画像ベースレンダリング(DIBR)ベース3次元(3D)ビデオデータの視覚的品質を定量化するために目標メトリック(36、60)を得る装置であって、
DIBRベース3Dビデオデータ(34)を使用して歪み制限画像ビューを生成することになる理想深度マップ(62、70)を推定するための手段(82)と、
前記理想深度マップと前記DIBRベース3Dビデオデータ(34)の前記生成において使用される深度マップ(62、70)との定量比較に基づいて、1つ以上の歪みメトリック(64、72)を導出するための手段(84)と、
導出された前記1つ以上の歪みメトリック(64、72)に基づいて前記DIBRベース3Dビデオデータ(34)の視覚的品質を定量化するために前記目標メトリック(36、60)を計算するための手段(86)と、
を備える、装置(12、14)。 - 前記歪みメトリックの各々が、前記DIBRベース3Dビデオデータを閲覧するときに予想される3D閲覧視覚的不快感の測定値を示す、請求項22に記載の装置。
- 以下の式に従って前記理想深度マップを推定するための手段を更に備え、
- 以下の式に従って前記理想深度マップを推定するための手段を更に備え、
関数f(IR,Ig)が、前記基準ビューIR中の画素の各ブロックと、前記基準ビューの前記ブロックに水平シフトを適用した後の生成された前記ビューIg中の画素の各対応するブロックとの間の強度の差を表し、
前記水平シフトの量が、その特定のブロックにおける平均視差であり、
前記平均視差が前記基準ビューの深度マップの関数である、請求項22に記載の装置。 - 空間的誤差外れ値(SO)歪みメトリックと時間的誤差外れ値(TO)歪みメトリックとのうちの1つ以上を導出するための手段を更に備える、請求項22に記載の装置。
- 理想深度マップと前記DIBRベース3Dビデオデータの前記深度マップとの間の差の標準偏差として空間的誤差外れ値(SO)歪みメトリックを導出するための手段と、
前記理想深度マップと、前記3Dビデオの2つの連続するフレームのための前記DIBRベース3Dビデオデータの前記深度マップとの間の差の標準偏差として時間的誤差外れ値(TO)歪みメトリックを導出するための手段と、
DIBRベース3Dビデオデータと次のDIBRベース3Dビデオデータとを生成するために使用される深度マップ間の差の標準偏差として時間的不整合(TI)歪みメトリックを導出するための手段と、
前記SO、TO及びTI歪みメトリックの各々を0〜1の範囲に正規化するための手段と、
以下の式に従って前記目標メトリックを計算するための手段と
上式で、3VQMが前記目標メトリックを表し、SO、TO及びSIが、正規化された前記SO、TO及びTI歪みメトリックを表し、a、b、及びcが、トレーニングシーケンスによって決定される定数を表し、kがスケーリングファクタを表す、請求項22に記載の装置。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
1つ以上のパラメータに従って3Dビデオデータから前記深度マップを推定するための手段と、
前記目標メトリックによって識別される欠陥を補正するために、前記3Dビデオデータのための前記深度マップを推定するために使用される前記1つ以上のパラメータを修正するための手段と、を更に備え、前記3Dビデオデータが左ビューと右ビューとを含み、与えられた前記ビューが前記左ビューと前記右ビューとのうちの1つから選択される、請求項22に記載の装置。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
符号化DIBRベース3Dビデオデータを生成するために、1つ以上のパラメータに従って前記DIBRベース3Dビデオデータの前記深度マップと与えられた前記ビューとを符号化するための手段と、
前記目標メトリックによって識別される欠陥を補正するために、前記深度マップと与えられた前記ビューとのうちの1つ以上を符号化するために使用される前記1つ以上のパラメータを修正するための手段と、
を更に備える、請求項22に記載の装置。 - 前記3Dビデオデータが、与えられたビューを更に含み、
前記深度マップと与えられた前記ビューとを生成するために、1つ以上のパラメータに従って前記深度マップの符号化バージョンと与えられた前記ビューの符号化バージョンとを復号するための手段と、
前記目標メトリックによって識別される欠陥を補正するために、前記深度マップの前記符号化バージョンと与えられた前記ビューの前記符号化バージョンとを復号するために使用される前記1つ以上のパラメータを修正すための手段と、
を更に備える、請求項22に記載の装置。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
前記3Dビデオデータを生成するために、1つ以上のパラメータに従って前記深度マップと与えられた前記ビューとから3Dビデオデータの左ビュー又は右ビューのいずれかを再構成するための手段と、
前記目標メトリックによって識別される欠陥を補正するために、前記左ビュー又は前記右ビューのいずれかを再構成するために使用される前記1つ以上のパラメータを修正するための手段と、を更に備え、与えられた前記ビューが前記3Dビデオデータの前記左ビュー又は前記右ビューのいずれかとして選択される、請求項22に記載の装置。 - 実行されたとき、1つ以上のプロセッサに、
DIBRベース3Dビデオデータ(34)を使用して歪み制限画像ビューを生成することになる理想深度マップ(62、70)を推定することと、
前記理想深度マップ(62、70)と前記DIBRベース3Dビデオデータ(34)の前記生成において使用される深度マップ(28、58)との定量比較に基づいて、1つ以上の歪みメトリック(64、72)を導出することと、
導出された前記1つ以上の歪みメトリック(64、72)に基づいて前記DIBRベース3Dビデオデータの視覚的品質を定量化するために前記目標メトリック(36、60)を計算することと、
を行わせる命令を備える、非一時的コンピュータ可読媒体。 - 前記歪みメトリックの各々が、前記DIBRベース3Dビデオデータを閲覧するときに予想される3D閲覧視覚的不快感の測定値を示す、請求項33に記載の非一時的コンピュータ可読媒体。
- 前記1つ以上のプロセッサに、以下の式に従って前記理想深度マップを推定させる命令を更に備え、
- 前記1つ以上のプロセッサに、以下の式に従って前記理想深度マップを推定させる命令を更に備え、
関数f(IR,Ig)が、前記基準ビューIR中の画素の各ブロックと、前記基準ビューの前記ブロックに水平シフトを適用した後の生成された前記ビューIg中の画素の各対応するブロックとの間の強度の差を表し、
前記水平シフトの量が、その特定のブロックにおける平均視差であり、
前記平均視差が前記基準ビューの深度マップの関数である、請求項33に記載の非一時的コンピュータ可読媒体。 - 前記1つ以上のプロセッサに、空間的誤差外れ値(SO)歪みメトリックと時間的誤差外れ値(TO)歪みメトリックとのうちの1つ以上を導出させる命令を更に備える、請求項33に記載の非一時的コンピュータ可読媒体。
- 前記1つ以上のプロセッサに、
理想深度マップと前記DIBRベース3Dビデオデータの前記深度マップとの間の差の標準偏差として空間的誤差外れ値(SO)歪みメトリックを導出することと、
前記理想深度マップと、前記3Dビデオの2つの連続するフレームのための前記DIBRベース3Dビデオデータの前記深度マップとの間の差の標準偏差として時間的誤差外れ値(TO)歪みメトリックを導出することと、
DIBRベース3Dビデオデータと次のDIBRベース3Dビデオデータとを生成するために使用される深度マップ間の差の標準偏差として時間的不整合(TI)歪みメトリックを導出することと、
前記SO、TO及びTI歪みメトリックの各々を0〜1の範囲に正規化することと、
以下の式に従って前記目標メトリックを計算することと
上式で、3VQMが前記目標メトリックを表し、SO、TO及びSIが、正規化された前記SO、TO及びTI歪みメトリックを表し、a、b、及びcが、トレーニングシーケンスによって決定される定数を表し、kがスケーリングファクタを表す、請求項33に記載の非一時的コンピュータ可読媒体。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
前記1つ以上のプロセッサに、
1つ以上のパラメータに従って3Dビデオデータから前記深度マップを推定することであって、前記3Dビデオデータが左ビューと右ビューとを含み、与えられた前記ビューが前記左ビューと前記右ビューとのうちの1つから選択される、推定することと、
前記目標メトリックによって識別される欠陥を補正するために、前記3Dビデオデータのための前記深度マップを推定するために使用される前記1つ以上のパラメータを修正することとを行わせる命令を更に備える、請求項33に記載の非一時的コンピュータ可読媒体。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
前記1つ以上のプロセッサに、
符号化DIBRベース3Dビデオデータを生成するために、1つ以上のパラメータに従って前記DIBRベース3Dビデオデータの前記深度マップと与えられた前記ビューとを符号化することと、
前記目標メトリックによって識別される欠陥を補正するために、前記深度マップと与えられた前記ビューとのうちの1つ以上を符号化するために使用される前記1つ以上のパラメータを修正することとを行わせる命令を更に備える、請求項33に記載の非一時的コンピュータ可読媒体。 - 前記3Dビデオデータが、与えられたビューを更に含み、
前記1つ以上のプロセッサに、
前記深度マップと与えられた前記ビューとを生成するために、1つ以上のパラメータに従って前記深度マップの符号化バージョンと与えられた前記ビューの符号化バージョンとを復号することと、
前記目標メトリックによって識別される欠陥を補正するために、前記深度マップの前記符号化バージョンと与えられた前記ビューの前記符号化バージョンとを復号するために使用される前記1つ以上のパラメータを修正することとを行わせる命令を更に備える、請求項33に記載の非一時的コンピュータ可読媒体。 - 前記DIBRベース3Dビデオデータが、与えられたビューを更に含み、
前記1つ以上のプロセッサに、
前記3Dビデオデータを生成するために、1つ以上のパラメータに従って前記深度マップと与えられた前記ビューとから3Dビデオデータの左ビュー又は右ビューのいずれかを再構成することと、
前記目標メトリックによって識別される欠陥を補正するために、前記左ビュー又は前記右ビューのいずれかを再構成するために使用される前記1つ以上のパラメータを修正することとを行わせる命令を更に備え、与えられた前記ビューが前記3Dビデオデータの前記左ビュー又は前記右ビューのいずれかとして選択される、請求項33に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US36494010P | 2010-07-16 | 2010-07-16 | |
US61/364,940 | 2010-07-16 | ||
US13/094,607 | 2011-04-26 | ||
US13/094,607 US9406132B2 (en) | 2010-07-16 | 2011-04-26 | Vision-based quality metric for three dimensional video |
PCT/US2011/044277 WO2012009695A1 (en) | 2010-07-16 | 2011-07-15 | Vision-based quality metric for three dimensional video |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013535898A true JP2013535898A (ja) | 2013-09-12 |
JP5583850B2 JP5583850B2 (ja) | 2014-09-03 |
Family
ID=45466983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013520767A Expired - Fee Related JP5583850B2 (ja) | 2010-07-16 | 2011-07-15 | 3次元ビデオのための視覚ベースの品質メトリック |
Country Status (7)
Country | Link |
---|---|
US (1) | US9406132B2 (ja) |
EP (1) | EP2594078A1 (ja) |
JP (1) | JP5583850B2 (ja) |
KR (1) | KR101533162B1 (ja) |
CN (1) | CN103004214B (ja) |
IN (1) | IN2013CN00086A (ja) |
WO (1) | WO2012009695A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7527351B2 (ja) | 2019-09-12 | 2024-08-02 | コーニンクレッカ フィリップス エヌ ヴェ | シーンの画像キャプチャの品質を評価するための装置及び方法 |
Families Citing this family (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
JP2011523538A (ja) | 2008-05-20 | 2011-08-11 | ペリカン イメージング コーポレイション | 異なる種類の撮像装置を有するモノリシックカメラアレイを用いた画像の撮像および処理 |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
EP2502115A4 (en) | 2009-11-20 | 2013-11-06 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER |
US20120012748A1 (en) | 2010-05-12 | 2012-01-19 | Pelican Imaging Corporation | Architectures for imager arrays and array cameras |
CN102714749B (zh) * | 2010-11-30 | 2015-01-14 | 株式会社东芝 | 立体影像显示装置以及方法 |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
US20120162394A1 (en) * | 2010-12-23 | 2012-06-28 | Tektronix, Inc. | Displays for easy visualizing of 3d disparity data |
EP2708019B1 (en) | 2011-05-11 | 2019-10-16 | FotoNation Limited | Systems and methods for transmitting and receiving array camera image data |
GB2490886B (en) | 2011-05-13 | 2017-07-05 | Snell Advanced Media Ltd | Video processing method and apparatus for use with a sequence of stereoscopic images |
US20130070060A1 (en) | 2011-09-19 | 2013-03-21 | Pelican Imaging Corporation | Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
US8542933B2 (en) | 2011-09-28 | 2013-09-24 | Pelican Imaging Corporation | Systems and methods for decoding light field image files |
CN103108197A (zh) | 2011-11-14 | 2013-05-15 | 辉达公司 | 一种用于3d视频无线显示的优先级压缩方法和系统 |
US9661310B2 (en) * | 2011-11-28 | 2017-05-23 | ArcSoft Hanzhou Co., Ltd. | Image depth recovering method and stereo image fetching device thereof |
US9829715B2 (en) | 2012-01-23 | 2017-11-28 | Nvidia Corporation | Eyewear device for transmitting signal and communication method thereof |
WO2013126578A1 (en) | 2012-02-21 | 2013-08-29 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
JP5851330B2 (ja) * | 2012-05-02 | 2016-02-03 | 日本電信電話株式会社 | 3d映像品質評価装置及び方法及びプログラム |
JP5851331B2 (ja) * | 2012-05-02 | 2016-02-03 | 日本電信電話株式会社 | 3d映像品質評価装置及び方法及びプログラム |
JP5851332B2 (ja) * | 2012-05-02 | 2016-02-03 | 日本電信電話株式会社 | 3d映像品質評価装置及び方法及びプログラム |
CN104508681B (zh) | 2012-06-28 | 2018-10-30 | Fotonation开曼有限公司 | 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法 |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
US8619082B1 (en) | 2012-08-21 | 2013-12-31 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
US9578224B2 (en) | 2012-09-10 | 2017-02-21 | Nvidia Corporation | System and method for enhanced monoimaging |
US20140092281A1 (en) | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating Images from Light Fields Utilizing Virtual Viewpoints |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
US9774789B2 (en) | 2013-03-08 | 2017-09-26 | Fotonation Cayman Limited | Systems and methods for high dynamic range imaging using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
JP2016524125A (ja) | 2013-03-15 | 2016-08-12 | ペリカン イメージング コーポレイション | カメラアレイを用いた立体撮像のためのシステムおよび方法 |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
CN105144198B (zh) | 2013-04-02 | 2021-09-14 | 3M创新有限公司 | 用于便笺识别的系统和方法 |
WO2014165438A1 (en) | 2013-04-02 | 2014-10-09 | 3M Innovative Properties Company | Systems and methods for managing notes |
TWI547142B (zh) * | 2013-04-02 | 2016-08-21 | 杜比實驗室特許公司 | 引導的3d顯示器適配 |
US10127196B2 (en) | 2013-04-02 | 2018-11-13 | 3M Innovative Properties Company | Systems and methods for managing notes |
US8891862B1 (en) | 2013-07-09 | 2014-11-18 | 3M Innovative Properties Company | Note recognition and management using color classification |
US9292906B1 (en) * | 2013-09-06 | 2016-03-22 | Google Inc. | Two-dimensional image processing based on third dimension data |
JP6476658B2 (ja) | 2013-09-11 | 2019-03-06 | ソニー株式会社 | 画像処理装置および方法 |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
WO2015057778A1 (en) | 2013-10-16 | 2015-04-23 | 3M Innovative Properties Company | Note recognition and association based on grouping |
EP3058512B1 (en) | 2013-10-16 | 2022-06-01 | 3M Innovative Properties Company | Organizing digital notes on a user interface |
US9082184B2 (en) | 2013-10-16 | 2015-07-14 | 3M Innovative Properties Company | Note recognition and management using multi-color channel non-marker detection |
WO2015057781A1 (en) | 2013-10-16 | 2015-04-23 | 3M Innovative Properties Company | Note recognition for overlapping physical notes |
EP3058514B1 (en) | 2013-10-16 | 2020-01-08 | 3M Innovative Properties Company | Adding/deleting digital notes from a group |
US9274693B2 (en) | 2013-10-16 | 2016-03-01 | 3M Innovative Properties Company | Editing digital notes representing physical notes |
US9426343B2 (en) | 2013-11-07 | 2016-08-23 | Pelican Imaging Corporation | Array cameras incorporating independently aligned lens stacks |
WO2015074078A1 (en) | 2013-11-18 | 2015-05-21 | Pelican Imaging Corporation | Estimating depth from projected texture using camera arrays |
US9456134B2 (en) | 2013-11-26 | 2016-09-27 | Pelican Imaging Corporation | Array camera configurations incorporating constituent array cameras and constituent cameras |
US10935788B2 (en) | 2014-01-24 | 2021-03-02 | Nvidia Corporation | Hybrid virtual 3D rendering approach to stereovision |
EP3100208B1 (en) | 2014-01-31 | 2021-08-18 | 3M Innovative Properties Company | Note capture and recognition with manual assist |
US9626766B2 (en) * | 2014-02-28 | 2017-04-18 | Microsoft Technology Licensing, Llc | Depth sensing using an RGB camera |
US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
WO2016054089A1 (en) | 2014-09-29 | 2016-04-07 | Pelican Imaging Corporation | Systems and methods for dynamic calibration of array cameras |
CN104661013B (zh) * | 2015-01-27 | 2016-08-17 | 宁波大学 | 一种基于空间加权的虚拟视点绘制方法 |
US10334223B2 (en) | 2015-01-30 | 2019-06-25 | Qualcomm Incorporated | System and method for multi-view video in wireless devices |
CN108702478B (zh) * | 2016-02-22 | 2021-07-16 | 索尼公司 | 文件生成装置、文件生成方法、再现装置和再现方法 |
US9906981B2 (en) | 2016-02-25 | 2018-02-27 | Nvidia Corporation | Method and system for dynamic regulation and control of Wi-Fi scans |
CN106170086B (zh) * | 2016-08-19 | 2019-03-15 | 深圳奥比中光科技有限公司 | 绘制三维图像的方法及其装置、系统 |
GB2553148A (en) * | 2016-08-26 | 2018-02-28 | Nctech Ltd | Modelling system and method |
WO2018123801A1 (ja) * | 2016-12-28 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置 |
CN106817578B (zh) * | 2017-01-11 | 2018-05-22 | 清华大学深圳研究生院 | 一种分析裸眼3d显示系统立体深度影响因素的方法 |
TWI636427B (zh) * | 2017-05-31 | 2018-09-21 | 鈺立微電子股份有限公司 | 對應影像擷取裝置的深度圖品質的驗證方法及其驗證系統 |
US10282827B2 (en) * | 2017-08-10 | 2019-05-07 | Wipro Limited | Method and system for removal of rain streak distortion from a video |
WO2020068383A1 (en) * | 2018-09-27 | 2020-04-02 | Snap Inc. | Three dimensional scene inpainting using stereo extraction |
US11310475B2 (en) | 2019-08-05 | 2022-04-19 | City University Of Hong Kong | Video quality determination system and method |
MX2022003020A (es) | 2019-09-17 | 2022-06-14 | Boston Polarimetrics Inc | Sistemas y metodos para modelado de superficie usando se?ales de polarizacion. |
JP7330376B2 (ja) | 2019-10-07 | 2023-08-21 | ボストン ポーラリメトリックス,インコーポレイティド | 偏光によるセンサシステム及び撮像システムの増強のための方法 |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
KR20220132620A (ko) | 2020-01-29 | 2022-09-30 | 인트린식 이노베이션 엘엘씨 | 물체 포즈 검출 및 측정 시스템들을 특성화하기 위한 시스템들 및 방법들 |
CN115428028A (zh) | 2020-01-30 | 2022-12-02 | 因思创新有限责任公司 | 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法 |
US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005026756A (ja) * | 2003-06-30 | 2005-01-27 | Nippon Hoso Kyokai <Nhk> | 立体画像再現歪み出力装置、立体画像再現歪み出力方法および立体画像再現歪み出力プログラム |
JP2008505522A (ja) * | 2004-07-02 | 2008-02-21 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオ処理 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6046763A (en) | 1997-04-11 | 2000-04-04 | Nec Research Institute, Inc. | Maximum flow method for stereo correspondence |
US20030206652A1 (en) | 2000-06-28 | 2003-11-06 | David Nister | Depth map creation through hypothesis blending in a bayesian framework |
KR100603601B1 (ko) | 2004-11-08 | 2006-07-24 | 한국전자통신연구원 | 다시점 콘텐츠 생성 장치 및 그 방법 |
US8351685B2 (en) | 2007-11-16 | 2013-01-08 | Gwangju Institute Of Science And Technology | Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same |
EP2274920B1 (en) * | 2008-05-12 | 2019-01-16 | InterDigital Madison Patent Holdings | System and method for measuring potential eyestrain of stereoscopic motion pictures |
US20100053310A1 (en) | 2008-08-31 | 2010-03-04 | Maxson Brian D | Transforming 3d video content to match viewer position |
US20100182445A1 (en) | 2009-01-22 | 2010-07-22 | Upi Semiconductor Corporation | Processing Device, Method, And Electronic System Utilizing The Same |
-
2011
- 2011-04-26 US US13/094,607 patent/US9406132B2/en not_active Expired - Fee Related
- 2011-07-15 CN CN201180034708.3A patent/CN103004214B/zh not_active Expired - Fee Related
- 2011-07-15 IN IN86CHN2013 patent/IN2013CN00086A/en unknown
- 2011-07-15 JP JP2013520767A patent/JP5583850B2/ja not_active Expired - Fee Related
- 2011-07-15 KR KR1020137003932A patent/KR101533162B1/ko not_active IP Right Cessation
- 2011-07-15 EP EP11735754.1A patent/EP2594078A1/en not_active Withdrawn
- 2011-07-15 WO PCT/US2011/044277 patent/WO2012009695A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005026756A (ja) * | 2003-06-30 | 2005-01-27 | Nippon Hoso Kyokai <Nhk> | 立体画像再現歪み出力装置、立体画像再現歪み出力方法および立体画像再現歪み出力プログラム |
JP2008505522A (ja) * | 2004-07-02 | 2008-02-21 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオ処理 |
Non-Patent Citations (2)
Title |
---|
JPN5013009002; Chun-Chi Chen et al: 'A Synthesis-Quality-Oriented Depth Refinement Scheme for MPEG Free Viewpoint Television (FTV)' 2009 11TH IEEE INTERNATIONAL SYMPOSIUM ON MULTIMEDIA , 20091214, P171-178, IEEE * |
JPN5013009003; David J. Scherba et al: 'Depth Map Calibration by Stereo and Wireless Sensor Network Fusion' 2005 7TH INTERNATIONAL CONFERENCE ON INFORMATION FUSION V2, 20050725, P1540-1547, IEEE * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7527351B2 (ja) | 2019-09-12 | 2024-08-02 | コーニンクレッカ フィリップス エヌ ヴェ | シーンの画像キャプチャの品質を評価するための装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
IN2013CN00086A (ja) | 2015-07-03 |
WO2012009695A1 (en) | 2012-01-19 |
CN103004214A (zh) | 2013-03-27 |
US20120014456A1 (en) | 2012-01-19 |
KR101533162B1 (ko) | 2015-07-01 |
CN103004214B (zh) | 2015-11-25 |
EP2594078A1 (en) | 2013-05-22 |
US9406132B2 (en) | 2016-08-02 |
KR20130038386A (ko) | 2013-04-17 |
JP5583850B2 (ja) | 2014-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5583850B2 (ja) | 3次元ビデオのための視覚ベースの品質メトリック | |
US20200250798A1 (en) | Three-dimensional model encoding device, three-dimensional model decoding device, three-dimensional model encoding method, and three-dimensional model decoding method | |
US10484697B2 (en) | Simultaneous localization and mapping for video coding | |
JP5596146B2 (ja) | トランスポート・プロトコルに従って3次元ビデオデータをカプセル化すること | |
US11159824B1 (en) | Methods for full parallax light field compression | |
US20120014590A1 (en) | Multi-resolution, multi-window disparity estimation in 3d video processing | |
JP2019534606A (ja) | ライトフィールドデータを使用して場面を表す点群を再構築するための方法および装置 | |
US9225962B2 (en) | Stereo matching for 3D encoding and quality assessment | |
US11653023B2 (en) | Encoding device, encoding method, decoding device, and decoding method | |
US20120188334A1 (en) | Generating 3D stereoscopic content from monoscopic video content | |
US20100245372A1 (en) | Method and apparatus for frame interpolation | |
US20140363100A1 (en) | Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content | |
CN113784129A (zh) | 点云质量评估方法、编码器、解码器及存储介质 | |
WO2019211541A2 (fr) | Procédé et dispositif de décodage d'une vidéo multi-vue, et procédé et dispositif de traitement d'images | |
US20200195967A1 (en) | Point cloud auxiliary information coding | |
JP5858254B2 (ja) | 2次元コンテンツの3次元コンテンツへのリアルタイム変換の方法及び装置 | |
AU2017355533B2 (en) | Techniques for improving the quality of subjective data | |
Birkbeck et al. | Quantitative evaluation of omnidirectional video quality | |
KR20150037203A (ko) | 3차원 입체 영상용 깊이지도 보정장치 및 보정방법 | |
Zhong et al. | 3D hybrid just noticeable distortion modeling for depth image-based rendering | |
Lavrushkin et al. | Local method of color-difference correction between stereoscopic-video views | |
CN104767986A (zh) | 景深图校正方法及系统 | |
NAVEEN et al. | 3D Model Distortion Estimation Based on Rendering Process |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140128 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140428 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140508 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140617 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140716 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5583850 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |