JP2014528190A - カメラおよび/または深度パラメータのシグナリング - Google Patents
カメラおよび/または深度パラメータのシグナリング Download PDFInfo
- Publication number
- JP2014528190A JP2014528190A JP2014524967A JP2014524967A JP2014528190A JP 2014528190 A JP2014528190 A JP 2014528190A JP 2014524967 A JP2014524967 A JP 2014524967A JP 2014524967 A JP2014524967 A JP 2014524967A JP 2014528190 A JP2014528190 A JP 2014528190A
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- camera
- depth
- parameters
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
Abstract
Description
カメラパラメータと深度パラメータとのうちの上記少なくとも1つのどちらが経時的に変化しているかを検出し、
カメラパラメータと深度パラメータとのうちの上記少なくとも1つをそれぞれのモジュールへとモジュール化し、
各それぞれのモジュールを更新メッセージへと符号化し、
更新メッセージをデコーダに送信する
ように構成された処理回路を備える。
エンコーダから更新メッセージを受信し、更新メッセージは、カメラパラメータと深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備え、
カメラパラメータと深度パラメータとのうちの上記少なくとも1つを得るために、更新メッセージの各それぞれのモジュールを復号する
ように構成された処理回路を備える。
動作401
動作402
動作403
動作404
動作405
動作406
動作407
動作408
動作409
動作410
動作411
パラメータの更新においてパラメータ表現の一部(精度および/または指数)を再利用すること
パラメータのモジュール化(実施形態1〜3、5〜8)
カメラパラメータ更新メッセージ
カメラパラメータのインタービュー予測
SEI参照
実施形態1
実施形態2
実施形態3
実施形態5
実施形態6
実施形態7
実施形態8
カメラパラメータおよびz near、z far値の予測
時間スケーラビリティのサポート
実施形態4−階層B予測のケースにおけるz値の線形予測
動作701
動作702
動作703
動作704
動作705
動作706
動作707
カメラパラメータと深度パラメータとのうちの少なくとも1つをそれぞれのモジュールへとモジュール化し、
各それぞれのモジュールを更新メッセージへと符号化し、
更新メッセージをデコーダ320に送信する
ように構成されたプロセッサのような、処理回路311を備える。
モジュール化する前に、第1および第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、第1および第2のフレームに近接する第3のフレームのためのカメラパラメータおよび/または深度パラメータを線形予測する
ように構成され得る。
動作901
動作902
動作903
動作904
動作905
エンコーダ310から更新メッセージを受信し、更新メッセージは、カメラパラメータと深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備え、
カメラパラメータおよび/または深度パラメータを得るために、更新メッセージの各それぞれのモジュールを復号する
ように構成されたプロセッサのような、処理回路321を備える。
Claims (54)
- カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを提供するためのエンコーダ(310)における方法であって、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、デコーダ(320)に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つと、に基づいて合成することを可能にさせ、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記第2のビューに関連し、前記方法は、
前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つのどちらが経時的に変化しているかを検出すること(401)と、
前記カメラパラメータと前記深度パラメータとのうちの検出された前記少なくとも1つをそれぞれのモジュールへとモジュール化すること(402)と、
各それぞれのモジュールを前記更新メッセージへと符号化すること(406)と、
前記更新メッセージを前記デコーダ(320)に送信すること(407)と
を備える、方法。 - 前記カメラパラメータが、内部パラメータ、外部パラメータを備え、および/または、前記深度パラメータが、znearおよび/またはzfar値を備える、請求項1に記載の方法。
- 前記それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連する、請求項1または2に記載の方法。
- 前記それぞれのモジュールは、変換パラメータのx成分に関連する、請求項1乃至3のいずれか一項に記載の方法。
- 各それぞれのモジュールの前記符号化は、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つの精度の符号化を除く、請求項1乃至4のいずれか一項に記載の方法。
- 前記方法はさらに、前記モジュール化すること(402)の前に、
第1のフレームおよび第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、前記第1および第2のフレームに近接する第3のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを線形予測すること(403)
を備える、請求項1乃至5のいずれか一項に記載の方法。 - 各それぞれのモジュールは、予測された前記カメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された前記深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含む、請求項6に記載の方法。
- 各それぞれのモジュールの前記符号化は、前記予測された深度パラメータの符号化を除く、請求項7に記載の方法。
- 前記更新メッセージは、第1のメッセージおよび第2のメッセージを備え、前記第1のメッセージは、前記カメラパラメータを備え、前記第2のメッセージは、前記深度パラメータを備える、請求項1または2に記載の方法。
- 前記カメラパラメータは、回転行列を備え、前記更新メッセージは、前記回転行列が単位行列であることを示すためのインジケーションを備える、請求項1乃至9のいずれか一項に記載の方法。
- 各それぞれのモジュールの前記符号化は、前記カメラパラメータおよび/または前記深度パラメータが関連するフレームのコーディング順序に従う、請求項1乃至10のいずれか一項に記載の方法。
- 前記方法はさらに、
カメラのための前記カメラパラメータおよび/または前記深度パラメータを、さらなるカメラのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測すること(404)
を備える、請求項1乃至11のいずれか一項に記載の方法。 - 前記方法はさらに、
第4のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを、さらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測すること(405)
を備える、請求項1乃至12のいずれか一項に記載の方法。 - カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを復号するためのデコーダ(320)における方法であって、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記デコーダに、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つと、に基づいて合成することを可能にさせ、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記第2のビューに関連し、前記方法は、
エンコーダ(310)から前記更新メッセージを受信すること(407)であって、前記更新メッセージは、前記カメラパラメータと前記深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備えることと、
更新される前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを得るために、前記更新メッセージの各それぞれのモジュールを復号すること(408)と
を備える、方法。 - 前記カメラパラメータが、内部パラメータ、外部パラメータ、および/または変換パラメータを備え、および/または、前記深度パラメータが、znearおよび/またはzfar値を備える、請求項14に記載の方法。
- 前記それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連する、請求項14または15に記載の方法。
- 前記それぞれのモジュールは、変換ベクトルのx成分に関連する、請求項14乃至16のいずれか一項に記載の方法。
- 各それぞれのモジュールの前記復号は、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つの精度の復号を除く、請求項14乃至17のいずれか一項に記載の方法。
- 前記方法はさらに、前記復号すること(408)の後に、
第1のフレームおよび第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、前記第1および第2のフレームに近接する第3のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを抽出すること(409)
を備える、請求項14乃至18のいずれか一項に記載の方法。 - 各それぞれのモジュールは、予測された前記カメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された前記深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含む、請求項19に記載の方法。
- 各それぞれのモジュールの前記復号は、前記予測された深度パラメータの復号を除く、請求項20に記載の方法。
- 前記更新メッセージは、第1のメッセージおよび第2のメッセージを備え、前記第1のメッセージは、前記カメラパラメータを備え、前記第2のメッセージは、前記深度パラメータを備える、請求項14または15に記載の方法。
- 前記カメラパラメータは、回転行列を備え、前記更新メッセージは、前記回転行列が単位行列であることを示すためのインジケーションを備える、請求項14乃至22のいずれか一項に記載の方法。
- 各それぞれのモジュールの前記復号は、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つが関連するフレームのコーディング順序に従う、請求項14乃至23のいずれか一項に記載の方法。
- 前記方法はさらに、
カメラのための前記カメラパラメータおよび/または前記深度パラメータを、さらなるカメラのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて抽出すること(410)
を備える、請求項14乃至24のいずれか一項に記載の方法。 - 前記方法はさらに、
第4のフレームのための前記カメラパラメータおよび/または前記深度パラメータを、同一のカメラのさらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて抽出すること(411)
を備える、請求項14乃至25のいずれか一項に記載の方法。 - カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを提供するように構成されたエンコーダ(310)であって、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、デコーダ(320)に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つと、に基づいて合成することを可能にさせ、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記第2のビューに関連し、前記エンコーダ(310)は、
前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つのどちらが経時的に変化しているかを検出し、
前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つをそれぞれのモジュールへとモジュール化し、
各それぞれのモジュールを前記更新メッセージへと符号化し、
前記更新メッセージを前記デコーダ(320)に送信する
ように構成された処理回路(311)を備える、エンコーダ(310)。 - 前記カメラパラメータが、内部パラメータ、外部パラメータを備え、および/または、前記深度パラメータが、znearおよび/またはzfar値を備える、請求項27に記載のエンコーダ(310)。
- 前記それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連する、請求項27または28に記載のエンコーダ(310)。
- 前記それぞれのモジュールは、変換パラメータのx成分に関連する、請求項27乃至29のいずれか一項に記載のエンコーダ(310)。
- 前記処理回路(311)は、各それぞれのモジュールを符号化する際に、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つの精度の符号化を除くように構成される、請求27乃至30のいずれか一項に記載のエンコーダ(310)。
- 前記処理回路(311)はさらに、
前記モジュール化する前に、第1のフレームおよび第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、前記第1および第2のフレームに近接する第3のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを線形予測する
ように構成される、請求項27乃至31のいずれか一項に記載のエンコーダ(310)。 - 各それぞれのモジュールは、予測された前記カメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された前記深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含む、請求項32に記載のエンコーダ(310)。
- 前記処理回路(311)はさらに、各それぞれのモジュールを符号化する際に、前記予測された深度パラメータの符号化を除くように構成される、請求項33に記載のエンコーダ(310)。
- 前記更新メッセージは、第1のメッセージおよび第2のメッセージを備え、前記第1のメッセージは、前記カメラパラメータを備え、前記第2のメッセージは、前記深度パラメータを備える、請求項27または28に記載のエンコーダ(310)。
- 前記カメラパラメータは、回転行列を備え、前記更新メッセージは、前記回転行列が単位行列であることを示すためのインジケーションを備える、請求項27乃至35のいずれか一項に記載のエンコーダ(310)。
- 前記処理回路(311)は、各それぞれのモジュールを符号化する際に、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つが関連するフレームのコーディング順序に従うように構成される、請求項27乃至36のいずれか一項に記載のエンコーダ(310)。
- 前記処理回路(311)はさらに、カメラのための前記カメラパラメータおよび/または前記深度パラメータを、さらなるカメラのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測するように構成される、請求項27乃至37のいずれか一項に記載のエンコーダ(310)。
- 前記処理回路(311)はさらに、第4のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを、さらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて予測するように構成される、請求項27乃至38のいずれか一項に記載のエンコーダ(310)。
- 請求項27乃至39のいずれか一項に記載のエンコーダ(310)を備える第1のデバイス(800)。
- カメラパラメータと深度パラメータとのうちの少なくとも1つに関連する更新メッセージを復号するように構成されたデコーダ(320)であって、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記デコーダ(320)に、第1のカメラ位置のための第1のビューを、第2のカメラ位置のための第2のビューと、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つと、に基づいて合成することを可能にさせ、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つは、前記第2のビューに関連し、前記デコーダ(320)は、
エンコーダ(310)から前記更新メッセージを受信し、前記更新メッセージは、前記カメラパラメータと前記深度パラメータとのうちの少なくとも1つのためのそれぞれのモジュールを備え、
前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを得るために、前記更新メッセージの各それぞれのモジュールを復号する
ように構成された処理回路(321)を備える、デコーダ(320)。 - 前記カメラパラメータが、内部パラメータ、外部パラメータ、および/または変換パラメータを備え、および/または、前記深度パラメータが、znearおよび/またはzfar値を備える、請求項41に記載のデコーダ(320)。
- 前記それぞれのモジュールは、内部パラメータ、外部パラメータ、または深度パラメータに関連する、請求項41または42に記載のデコーダ(320)。
- 前記それぞれのモジュールは、変換パラメータのx成分に関連する、請求項41乃至43のいずれか一項に記載のデコーダ(320)。
- 前記処理回路(321)は、各それぞれのモジュールを復号する際に、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つの精度の復号を除くように構成される、請求項41乃至44のいずれか一項に記載のデコーダ(320)。
- 前記処理回路(321)は、前記復号の後、第1のフレームおよび第2のフレームのためのカメラパラメータおよび/または深度パラメータに基づいて、前記第1および第2のフレームに近接する第3のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを抽出するように構成される、請求項41乃至45のいずれか一項に記載のデコーダ(320)。
- 各それぞれのモジュールは、予測されたカメラパラメータと現実のカメラパラメータとの間の差分、および/または、予測された深度パラメータと現実の深度パラメータとの間の差分を示す、それぞれの差分パラメータを含む、請求項46に記載のデコーダ(320)。
- 前記処理回路(321)は、各それぞれのモジュールの前記復号の際に、前記予測された深度パラメータの復号を除くように構成される、請求項47に記載のデコーダ(320)。
- 前記更新メッセージは、第1のメッセージおよび第2のメッセージを備え、前記第1のメッセージは、前記カメラパラメータを備え、前記第2のメッセージは、前記深度パラメータを備える、請求項41または42に記載のデコーダ(320)。
- 前記カメラパラメータは、回転行列を備え、前記更新メッセージは、前記回転行列が単位行列であることを示すためのインジケーションを備える、請求項41乃至49のいずれか一項に記載のデコーダ(320)。
- 前記処理回路(321)はさらに、各それぞれのモジュールを復号する際に、前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つが関連するフレームのコーディング順序に従うように構成される、請求項41乃至50のいずれか一項に記載のデコーダ(320)。
- 前記処理回路(321)はさらに、カメラのための前記カメラパラメータおよび/または前記深度パラメータを抽出するように構成され、前記抽出は、さらなるカメラのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づく、請求項41乃至51のいずれか一項に記載のデコーダ(320)。
- 前記処理回路(321)はさらに、第4のフレームのための前記カメラパラメータと前記深度パラメータとのうちの前記少なくとも1つを、さらなるフレームのためのさらなるカメラパラメータおよび/またはさらなる深度パラメータに基づいて抽出するように構成される、請求項41乃至52のいずれか一項に記載のデコーダ(320)。
- 請求項41乃至53のいずれか一項に記載のデコーダ(320)を備える第2のデバイス(1000)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161522756P | 2011-08-12 | 2011-08-12 | |
US61/522,756 | 2011-08-12 | ||
PCT/SE2012/050587 WO2013025151A1 (en) | 2011-08-12 | 2012-06-01 | Signaling of camera and/or depth parameters |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014528190A true JP2014528190A (ja) | 2014-10-23 |
Family
ID=46551836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014524967A Withdrawn JP2014528190A (ja) | 2011-08-12 | 2012-06-01 | カメラおよび/または深度パラメータのシグナリング |
Country Status (5)
Country | Link |
---|---|
US (1) | US9414047B2 (ja) |
EP (1) | EP2742688A1 (ja) |
JP (1) | JP2014528190A (ja) |
CN (1) | CN103875250A (ja) |
WO (1) | WO2013025151A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021524214A (ja) * | 2018-05-03 | 2021-09-09 | オランジュ | マルチビュービデオのデコードの方法及び装置、並びに画像処理の方法及び装置 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106851239B (zh) * | 2012-02-02 | 2020-04-03 | 太阳专利托管公司 | 用于使用视差信息的3d媒体数据产生、编码、解码和显示的方法和装置 |
CN103379333B (zh) * | 2012-04-25 | 2018-12-04 | 浙江大学 | 编解码方法、视频序列码流的编解码方法及其对应的装置 |
US9584792B2 (en) | 2013-01-04 | 2017-02-28 | Qualcomm Incorporated | Indication of current view dependency on reference view in multiview coding file format |
KR20170069957A (ko) * | 2014-10-08 | 2017-06-21 | 엘지전자 주식회사 | 3d 비디오 코딩에서 카메라 파라미터 처리 방법 및 장치 |
WO2016089093A1 (ko) * | 2014-12-04 | 2016-06-09 | 엘지전자 주식회사 | 방송 신호 송수신 방법 및 장치 |
US10104415B2 (en) * | 2015-01-21 | 2018-10-16 | Microsoft Technology Licensing, Llc | Shared scene mesh data synchronisation |
US10477247B2 (en) * | 2015-11-18 | 2019-11-12 | Electronics And Telecommunications Research Institute | Method for decoding video using in-loop filter, and device therefor |
FR3046321B1 (fr) * | 2015-12-29 | 2018-01-26 | B<>Com | Procede de codage d'une image numerique, procede de decodage, dispositifs, terminal d'utilisateur et programmes d'ordinateurs associes |
CN106550230A (zh) * | 2016-08-31 | 2017-03-29 | 深圳小辣椒虚拟现实技术有限责任公司 | 一种3d图像拍摄装置和方法 |
US10812818B2 (en) * | 2018-12-14 | 2020-10-20 | Tencent America LLC | Network abstraction unit layer type classes in network abstraction layer unit header |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009512316A (ja) * | 2005-10-11 | 2009-03-19 | サムスン エレクトロニクス カンパニー リミテッド | カメラパラメータを利用した多視点動画符号化及び復号化装置並びに方法と、これを行うためのプログラムの記録された記録媒体 |
US20100079598A1 (en) * | 2008-09-03 | 2010-04-01 | University Of South Carolina | Robust Stereo Calibration System and Method for Accurate Digital Image Correlation Measurements |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10148858A (ja) * | 1996-11-19 | 1998-06-02 | Canon Inc | 防振制御装置 |
JP4698831B2 (ja) * | 1997-12-05 | 2011-06-08 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | 画像変換および符号化技術 |
JP2002024084A (ja) * | 2000-07-12 | 2002-01-25 | Mitsubishi Electric Corp | 半導体集積回路装置および電子システム |
US20020122117A1 (en) * | 2000-12-26 | 2002-09-05 | Masamichi Nakagawa | Camera device, camera system and image processing method |
US7423666B2 (en) * | 2001-05-25 | 2008-09-09 | Minolta Co., Ltd. | Image pickup system employing a three-dimensional reference object |
US7295609B2 (en) * | 2001-11-30 | 2007-11-13 | Sony Corporation | Method and apparatus for coding image information, method and apparatus for decoding image information, method and apparatus for coding and decoding image information, and system of coding and transmitting image information |
US20060165315A1 (en) * | 2003-01-06 | 2006-07-27 | Ernst Fabian E | Method and apparatus for depth ordering of digital images |
US7577636B2 (en) * | 2003-05-28 | 2009-08-18 | Fernandez Dennis S | Network-extensible reconfigurable media appliance |
US7286689B2 (en) * | 2003-06-07 | 2007-10-23 | Hewlett-Packard Development Company, L.P. | Motion estimation for compression of calibrated multi-view image sequences |
EP1591963B1 (en) * | 2004-04-29 | 2008-07-09 | Mitsubishi Electric Information Technology Centre Europe B.V. | Adaptive quantisation of a depth map |
KR101199498B1 (ko) * | 2005-03-31 | 2012-11-09 | 삼성전자주식회사 | 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체 |
US7706478B2 (en) * | 2005-05-19 | 2010-04-27 | Signalspace, Inc. | Method and apparatus of source separation |
US8190425B2 (en) * | 2006-01-20 | 2012-05-29 | Microsoft Corporation | Complex cross-correlation parameters for multi-channel audio |
US7705970B2 (en) * | 2006-06-05 | 2010-04-27 | The Regents Of The University Of Colorado | Method and system for optical imaging and ranging |
CN101166282B (zh) * | 2006-10-16 | 2010-12-08 | 华为技术有限公司 | 摄像机参数编码传输的方法 |
JP5060798B2 (ja) * | 2007-02-23 | 2012-10-31 | 任天堂株式会社 | 情報処理プログラムおよび情報処理装置 |
KR101483660B1 (ko) * | 2007-07-26 | 2015-01-16 | 코닌클리케 필립스 엔.브이. | 깊이-관련 정보 전파를 위한 방법 및 장치 |
US8218855B2 (en) * | 2007-10-04 | 2012-07-10 | Samsung Electronics Co., Ltd. | Method and apparatus for receiving multiview camera parameters for stereoscopic image, and method and apparatus for transmitting multiview camera parameters for stereoscopic image |
EP2048599B1 (en) * | 2007-10-11 | 2009-12-16 | MVTec Software GmbH | System and method for 3D object recognition |
JP5163233B2 (ja) * | 2008-03-31 | 2013-03-13 | 富士通株式会社 | 情報処理装置、プログラム、方法、処理回路及び通信システム |
EP2269378A2 (en) * | 2008-04-25 | 2011-01-05 | Thomson Licensing | Multi-view video coding with disparity estimation based on depth information |
KR101490689B1 (ko) * | 2008-05-27 | 2015-02-06 | 삼성전자주식회사 | 카메라 파라미터를 이용한 스테레오스코픽 영상데이터스트림 생성 방법 및 그 장치와 스테레오스코픽 영상복원 방법 및 그 장치 |
ATE494529T1 (de) * | 2008-07-04 | 2011-01-15 | Sick Ivp Ab | Kalibrierung eines profilmesssystems |
FR2937936B1 (fr) * | 2008-11-03 | 2011-09-02 | Valeo Vision Sas | Procede d'assistance a la conduite pour vehicule automobile |
KR101158491B1 (ko) * | 2008-12-08 | 2012-06-20 | 한국전자통신연구원 | 다시점 영상 부호화, 복호화 방법 및 그 장치. |
EP2360930A4 (en) * | 2008-12-18 | 2015-03-25 | Lg Electronics Inc | METHOD FOR THREE-DIMENSIONAL IMAGE SIGNAL PROCESSING AND IMAGE DISPLAY SCREEN FOR PROCESS IMPLEMENTATION |
US20110310982A1 (en) * | 2009-01-12 | 2011-12-22 | Lg Electronics Inc. | Video signal processing method and apparatus using depth information |
WO2010083259A2 (en) * | 2009-01-13 | 2010-07-22 | Meimadtek Ltd. | Method and system for operating a self-propelled vehicle according to scene images |
US9124874B2 (en) * | 2009-06-05 | 2015-09-01 | Qualcomm Incorporated | Encoding of three-dimensional conversion information with two-dimensional video sequence |
WO2010142929A1 (en) * | 2009-06-11 | 2010-12-16 | Toshiba Research Europe Limited | 3d image generation |
US20110150271A1 (en) * | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
KR101623062B1 (ko) * | 2010-02-23 | 2016-05-20 | 니폰덴신뎅와 가부시키가이샤 | 움직임 벡터 추정 방법, 다시점 영상 부호화 방법, 다시점 영상 복호 방법, 움직임 벡터 추정 장치, 다시점 영상 부호화 장치, 다시점 영상 복호 장치, 움직임 벡터 추정 프로그램, 다시점 영상 부호화 프로그램 및 다시점 영상 복호 프로그램 |
KR101717787B1 (ko) * | 2010-04-29 | 2017-03-17 | 엘지전자 주식회사 | 디스플레이장치 및 그의 음성신호 출력 방법 |
CA2797434C (en) * | 2010-05-12 | 2017-09-19 | Shell Internationale Research Maatschappij B.V. | Seismic p-wave modelling in an inhomogeneous transversely isotropic medium with a tilted symmetry axis |
US8665321B2 (en) * | 2010-06-08 | 2014-03-04 | Lg Electronics Inc. | Image display apparatus and method for operating the same |
RU2010123652A (ru) * | 2010-06-10 | 2011-12-20 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." (KR) | Система и способ визуализации стереоизображений и многовидовых изображений для управления восприятием глубины стереоскопического изображения, создаваемого телевизионным приемником |
KR20120000485A (ko) * | 2010-06-25 | 2012-01-02 | 삼성전자주식회사 | 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법 |
US8589318B2 (en) * | 2011-07-15 | 2013-11-19 | Microsoft Corporation | Location determination using generalized fingerprinting |
-
2012
- 2012-06-01 US US14/238,341 patent/US9414047B2/en active Active
- 2012-06-01 JP JP2014524967A patent/JP2014528190A/ja not_active Withdrawn
- 2012-06-01 EP EP12738249.7A patent/EP2742688A1/en not_active Ceased
- 2012-06-01 WO PCT/SE2012/050587 patent/WO2013025151A1/en active Application Filing
- 2012-06-01 CN CN201280050210.0A patent/CN103875250A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009512316A (ja) * | 2005-10-11 | 2009-03-19 | サムスン エレクトロニクス カンパニー リミテッド | カメラパラメータを利用した多視点動画符号化及び復号化装置並びに方法と、これを行うためのプログラムの記録された記録媒体 |
US20100079598A1 (en) * | 2008-09-03 | 2010-04-01 | University Of South Carolina | Robust Stereo Calibration System and Method for Accurate Digital Image Correlation Measurements |
Non-Patent Citations (5)
Title |
---|
JPN6013059495; 大久保榮監修: 「インプレス標準教科書シリーズ 改訂三版H.264/AVC教科書」 第1版, 20090101, 第306〜323頁, 株式会社インプレスR&D * |
JPN6016011710; "ITU-T Recommendation H.264(03/2010)" , 201003, 第H.13.1.5節,第H.13.2.5節, [online], ITU-T * |
JPN6016011711; Dong Tian, et.al.: '"On Spatially Interleaved Pictures SEI Message"' [online] Document: JVT-AD017, 20090129, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE * |
JPN6016011712; Taka Senoh, et.al.: '"Requirements for depth information"' [online] Document: JVT-Y031, 20071025, Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCE * |
JPN6016011713; Dave Marshall: "Differential Encoding" , 20010410, [online] * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021524214A (ja) * | 2018-05-03 | 2021-09-09 | オランジュ | マルチビュービデオのデコードの方法及び装置、並びに画像処理の方法及び装置 |
JP7371090B2 (ja) | 2018-05-03 | 2023-10-30 | オランジュ | マルチビュービデオのデコードの方法及び装置、並びに画像処理の方法及び装置 |
US11889115B2 (en) | 2018-05-03 | 2024-01-30 | Orange | Method and device for multi-view video decoding and method and device for image processing |
US11910015B2 (en) | 2018-05-03 | 2024-02-20 | Orange | Method and device for multi-view video decoding and method and device for image processing |
US11910016B2 (en) | 2018-05-03 | 2024-02-20 | Orange | Method and device for multi-view video decoding and method and device for image processing |
Also Published As
Publication number | Publication date |
---|---|
US9414047B2 (en) | 2016-08-09 |
WO2013025151A1 (en) | 2013-02-21 |
US20140192165A1 (en) | 2014-07-10 |
CN103875250A (zh) | 2014-06-18 |
EP2742688A1 (en) | 2014-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11240478B2 (en) | Efficient multi-view coding using depth-map estimate for a dependent view | |
US9414047B2 (en) | Signaling change of camera parameter and/or depth parameter using update message | |
RU2611240C2 (ru) | Устройство, способ и компьютерная программа для трехмерного видеокодирования | |
US9743110B2 (en) | Method of 3D or multi-view video coding including view synthesis prediction | |
US9191646B2 (en) | Apparatus, a method and a computer program for video coding and decoding | |
EP3029939B1 (en) | Prediction parameter inheritance for 3d video coding | |
KR101726534B1 (ko) | 3d 비디오 코딩을 위한 조화된 인터-뷰 및 뷰 합성 예측 | |
JP2021052440A (ja) | ビデオ符号化及び復号化におけるタイリング | |
US10158838B2 (en) | Methods and arrangements for supporting view synthesis | |
US20110298895A1 (en) | 3d video formats | |
US20150172544A1 (en) | Panorama based 3d video coding | |
US20110001792A1 (en) | Virtual reference view | |
KR20110133532A (ko) | 다시점 영상 부호화, 복호화 방법 및 그 장치. | |
KR20140120900A (ko) | 심도를 갖는 3d 비디오 코딩에서의 멀티-가설 디스패리티 벡터 구성 | |
US10477183B2 (en) | Method and apparatus of camera parameter signaling in 3D video coding | |
JPWO2013031575A1 (ja) | 画像処理装置および画像処理方法 | |
WO2013159330A1 (en) | An apparatus, a method and a computer program for video coding and decoding | |
WO2013022401A2 (en) | Method and apparatus for creating a disocclusion map used for coding a three-dimensional video | |
Rusanovskyy et al. | Depth-based coding of MVD data for 3D video extension of H. 264/AVC | |
Zhang et al. | Block-based in-loop view synthesis for 3-D video coding | |
KR20160002194A (ko) | 적응적 병합후보 선택방법 및 장치 | |
KR20150043164A (ko) | 2d 비디오 기반 3d 비디오 코딩을 위한 병합 움직임 후보 리스트를 구성하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150501 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160329 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160628 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20160912 |