JP2011505771A - 3次元ビデオ通信の端末、システム、および方法 - Google Patents

3次元ビデオ通信の端末、システム、および方法 Download PDF

Info

Publication number
JP2011505771A
JP2011505771A JP2010536313A JP2010536313A JP2011505771A JP 2011505771 A JP2011505771 A JP 2011505771A JP 2010536313 A JP2010536313 A JP 2010536313A JP 2010536313 A JP2010536313 A JP 2010536313A JP 2011505771 A JP2011505771 A JP 2011505771A
Authority
JP
Japan
Prior art keywords
video
unit
camera
data
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010536313A
Other languages
English (en)
Inventor
リュウ、ユアン
ワン、ジン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2011505771A publication Critical patent/JP2011505771A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

3次元ビデオ通信の端末、システム及び方法が開示される。3次元ビデオ通信端末は、送信装置および受信装置を含む。送信装置は、カメラおよび映像処理ユニット、符号化ユニットおよび送信ユニットを含む。受信装置は、受信ユニット、復号ユニット、再構成ユニットおよびレンダリングユニットを含む。3次元ビデオ通信システムは、3次元ビデオ通信端末、2次元ビデオ通信端末およびパケット網を含む。3次元ビデオ通信方法は、双方向の3次元ビデオ通信の形で処理され、該方法は、ビデオデータを撮影して取得し、撮影対象の深度および/または視差の情報をビデオデータから取得し、ビデオデータならびに深度および/または視差の情報を符号化し、リアルタイム伝送プロトコルに従って符号化されたデータをデータパケットにパケット化し、パケット網を介してデータパケットを伝送する、ことを含む。リアルタイム遠隔ビデオストリームの双方向通信が実現される。

Description

本発明は、3次元(3D)の分野に関し、詳細には、3Dビデオ通信の端末、システム、および方法に関する。
3Dビデオ技術は、ビデオ技術における開発の趨勢であるが、対象世界の場面を正確に再現し、かつ場面の深度、階層構造、および現実感を正確に表す、3D視覚原理に適合する深度情報を有する映像を提供するのに役立つ。
現在、ビデオの研究は、両眼3Dビデオ、および多視点符号化(multi-view coding、MVC)という2つの領域に集中している。図1に示されるように、両眼3Dビデオの基本原理は、人間の目の収差の原理をシミュレートする。2台のカメラシステムを使い、左目および右目の映像が得られる。左目は左目チャネルの映像を見て、一方、右目は右目チャネルの映像を見る。最終的に、3D映像が合成される。MVCは、少なくとも3台のカメラにより撮影され、多数のビデオチャネルを有する。異なるカメラが異なる角度でMVCを撮影する。図2はこのビデオ技術を使用した単一視点カメラシステム、平行多視点カメラシステム、および収束多視点カメラシステムの構造を示す。MVCが再生されるとき、異なる角度の場面および映像がTVスクリーンなどのユーザ端末に送られ、その結果、ユーザが様々な角度で異なる場面を含む映像を見ることができる。
従来技術でのMVC技術の場合、ユーザが動的場面を見て、静止、スロー再生、および巻き戻しなどの対話を行い、視野角を変えることができる。この技術を使用するシステムは、多数のカメラを採用して、記憶されたビデオストリームを取り込み、多視点3D再構成ユニットおよびインターリーブ技術を使用して、階層的なビデオフレームを作成し、それにより、動的場面の効果的な圧縮および対話型再生を行う。このシステムは、計算装置を有するレンダリングおよび受信装置を含む。レンダリングプログラムは、受信装置により受信された、各フレームからなる対話型の視点映像を、顧客により選択された視野角で描画し受信するために使用される。
従来技術での別の対話型MVC技術が、新しいビデオ取込システムで使用されている。このシステムは、関連するビデオを取り込むためのビデオカメラ、制御パーソナルコンピュータ(PC)、サーバ、ネットワーク構成要素、顧客、およびビデオ構成要素を含む。多数のカメラがマスタ・スレーブ方式で動作する。これらのカメラは、1つまたは複数の制御PCにより制御され、多数の視点から異なる方向でデータを収集する。取り込まれたビデオデータは、PCにより圧縮され、1つまたは複数の記憶用サーバに送られる。サーバは、圧縮されたデータをエンドユーザに分配するか、またはデータをさらに圧縮して、時間領域および空間領域の関連性を取り除く。
本発明を生み出すにあたり、本発明者は、既存のMVC技術に少なくとも以下の問題を見いだした。
MVC技術の場合、単機能が現在の顧客の実際の要件を満たすことなく実装されている。たとえば、従来技術のMVC技術は、記憶された動的場面の対話型再生に集中している。既存技術のマルチビデオ技術は、取り込まれたマルチビデオデータをサーバ上に記憶し、その後そのデータを端末に分配することに集中している。どの関連するシステム、方法、または装置も、MVCの遠隔リアルタイム伝送、およびリアルタイムでの双方向対話型3Dビデオの再生をサポートしない。
本発明の様々な実施形態が、3Dビデオ通信端末、方法、および送信装置を提供することを対象とし、これらは、ビデオデータの遠隔リアルタイム双方向通信、およびMVCのMVC遠隔リアルタイム放送を行うように提供される。
本発明の一実施形態が、3Dビデオ通信端末を提供する。端末は送信装置および受信装置を含む。
送信装置は、ビデオデータならびにビデオデータの深度および/または視差の情報を撮影し出力するように構成されるカメラおよび映像処理ユニットと、カメラおよび映像処理ユニットにより出力されるビデオデータならびに深度および/または視差の情報を符号化するように構成される符号化ユニットと、符号化ユニットにより出力された符号化されたデータをリアルタイム伝送プロトコルに適合するパケットにカプセル化し、パケット網を介してパケットをリアルタイムで送信するように構成された送信ユニットと、を含む。
受信装置は、パケットを送信ユニットから受信し、パケットのプロトコルヘッダを取り除いて、符号化されたデータを取得するように構成された受信ユニットと、受信ユニットにより出力された符号化されたデータを復号して、ビデオデータならびに深度および/または視差の情報を取得するように構成された復号ユニットと、復号ユニットにより出力された深度および/または視差の情報ならびに復号ユニットにより出力されたビデオデータに従ってユーザの角度で映像を再構成し、映像データをレンダリングユニットに送信するように構成された再構成ユニットと、再構成ユニットにより出力された再構成された映像のデータを3D表示装置に描画するように構成されたレンダリングユニットと、を含む。
本発明の一実施形態が、3Dビデオ通信システムを提供する。このシステムは、2次元(2D)ビデオ通信または3Dビデオ通信を実現するように構成された3Dビデオ通信端末と、2Dビデオ通信を実現するように構成された2Dビデオ通信端末と、3Dビデオ通信端末間または2Dビデオ通信端末間で伝送された2Dまたは3Dのビデオデータを運ぶように構成されたパケット網と、を含む。
本発明の一実施形態が、3Dビデオ通信端末を提供する。この端末は、撮影を行い、ビデオデータならびに深度および/または視差の情報を出力するように構成されたカメラおよび映像処理ユニットと、カメラおよび映像処理ユニットにより出力されたビデオデータならびに深度および/または視差の情報を符号化するように構成された符号化ユニットと、符号化ユニットにより出力された符号化されたデータをリアルタイム伝送プロトコルに適合するパケットにカプセル化し、パケット網を介してパケットをリアルタイムで送信するように構成された送信ユニットと、を含む。
本発明の一実施形態が、別の3Dビデオ通信端末を提供する。この端末は、送信ユニットからパケットを受信し、パケットのプロトコルヘッダを取り除いて、符号化されたデータを取得するように構成された受信ユニットと、受信ユニットにより出力された符号化されたデータを復号して、ビデオデータならびに深度および/または視差の情報を取得するように構成された復号ユニットと、復号ユニットにより出力された深度および/または視差の情報ならびに復号ユニットにより出力されたビデオデータに従ってユーザの角度で映像を再構成し、その映像データをレンダリングユニットに送信するように構成された再構成ユニットと、再構成ユニットにより出力された再構成された映像のデータを3D表示装置に描画するように構成されたレンダリングユニットと、を含む。
本発明の一実施形態が、3Dビデオ通信方法を提供する。この方法は、撮影してビデオデータを取得するなどの双方向3Dビデオ通信を行い、撮影対象の深度および/または視差の情報をビデオデータから取得し、ビデオデータならびに深度および/または視差の情報を符号化し、リアルタイム伝送プロトコルを使用することにより符号化されたデータをパケットにカプセル化し、パケット網を介してパケットを伝送する、ことを含む。
本発明の一実施形態が、別の3Dビデオ通信方法を提供する。この方法は、パケット網を介してリアルタイムで伝送されたビデオパケットを受信し、パケットのプロトコルヘッダを取り除いて、符号化された3Dビデオデータを取得し、符号化されたビデオデータを復号して、ビデオデータならびに深度および/または視差の情報を取得し、深度および/または視差の情報ならびにビデオデータに従ってユーザの角度で映像を再構成し、再構成された映像のデータを3D表示装置に描画する、ことを含む。
上記の技術的解決策は、3Dビデオ通信端末が、受信装置を使用して、3Dビデオストリームをリアルタイムで受信してストリームを描画する、またはパケット網を介して相手端末にリアルタイムで3Dビデオデータを伝送することができることを示す。したがって、ユーザが、遠隔でリアルタイム3D映像を見て、遠隔3Dビデオ通信を実現し、ユーザ体験を改善することができる。
従来技術を使用する両眼3Dビデオ撮影の原理図である。 従来技術を使用する、単一視点カメラシステム、平行多視点カメラシステム、および収束多視点カメラシステムの構成を示す図である。 本発明の一実施形態による3Dビデオ通信端末の原理図である。 本発明の一実施形態による3Dビデオ通信システムの原理図である。 図4に示されたパケット網の送信側、受信側、および両側の装置の原理図である。 図4に示されたパケット網の送信側、受信側、および両側の装置の原理図である。 本発明の一実施形態による3Dビデオ通信システムの原理図である。 送信装置および受信装置上のビデオデータの符号化および復号が混在した流れ図である。 視差、深度、およびユーザの視距離の関係を示す図である。 本発明の一実施形態による、送信側の3Dビデオ通信方法の流れ図である。 本発明の一実施形態による、受信側の3Dビデオ通信方法の流れ図である。
以下の部分は、図を参照することにより実施形態を取り上げて、本発明の目的、技術的解決策、および利点を詳細に説明する。
図3は、本発明の一実施形態を示す。多数の視点をサポートする双方向リアルタイム3Dビデオ通信端末が、本実施形態で提供される。この端末を使用するとき、両方の通信当事者が、安定したリアルタイム3Dビデオ映像を多数の角度で見ることができる。
3Dビデオ通信端末が第1の実施形態で提供される。この端末は送信装置、パケット網、および受信装置を含む。
送信装置は、撮影を行い、ビデオデータならびに深度および/または視差の情報を出力するように構成されるカメラおよび映像処理ユニット312と、カメラおよび映像処理ユニット312により出力されたビデオデータならびに深度および/または視差の情報を符号化するように構成された符号化ユニット313と、符号化ユニット313により出力された符号化されたデータをリアルタイム伝送プロトコルに適合するパケットにカプセル化し、パケット網を介してパケットをリアルタイムで送信するように構成された送信ユニット314と、を含む。
受信装置は、送信ユニット314からパケットを受信し、パケットのプロトコルヘッダを取り除いて、符号化されたデータを取得するように構成された受信ユニット321と、受信ユニット321により出力された符号化されたデータを復号して、ビデオデータならびに深度および/または視差の情報を取得するように構成された復号ユニット322と、復号ユニット322により出力された深度および/または視差の情報ならびに復号ユニット322により出力されたビデオデータに基づいてユーザの角度で映像を再構成し、映像データをレンダリングユニット324に送信するように構成された再構成ユニット323と、復号ユニット322により出力される復号されたデータまたは再構成ユニット323により出力された再構成された映像を3D表示装置上に描画するように構成されたレンダリングユニット324と、を含む。
双方向通信機能を実装するためには、送信装置の片側が受信装置をさらに含むことができ、受信装置の片側が送信装置をさらに含むことができる。
カメラおよび映像処理ユニット312は、多視点カメラおよび映像処理ユニットとすることができる。送信装置および受信装置は、全体として扱われる、または個々に使用される。本実施形態では、3Dビデオデータの遠隔リアルタイム双方向通信が現場放送(on-site broadcasting)または娯楽の場面(entertainment scene)で行われる。
前述では、送信ユニット314が、カメラおよび映像処理ユニット312により撮影されたビデオデータを送信し、ビデオデータがパケット網を介してリアルタイムで伝送された後に、受信側の受信ユニットがビデオデータをリアルタイムで受信し、次に、必要に応じてビデオデータを再構成するまたは描画することができることを示す。この方法では、ユーザが3D映像を遠隔でリアルタイムに見て、遠隔3Dビデオ通信を実現し、ユーザ体験を改善することができる。
図4は、H.323プロトコルに基づく、ネットワーキングのための3Dビデオ通信システムの一実施形態を示す。本発明のこの実施形態では、3Dビデオ通信システムが、第1の実施形態における、送信側、パケット網、および受信側を含む。
ビデオデータは、パケット網を介してリアルタイムで伝送することができる。
図5に示すように、送信側は送信装置および受信装置を含む。
送信装置は、
撮影を行い、ビデオデータを出力するように構成され、単一視点モード、多視点モード、または単一視点モードと多視点モードとの両方をサポートするユニットとすることができるカメラおよび映像処理ユニット510と、
指令に従ってカメラおよび映像処理ユニット510の動作を制御する、たとえば、ビデオ操作ユニット531により送られる指令に従ってカメラおよび映像処理ユニットの動作を制御するように構成された収集制御ユニット511と、
同期信号を生成し、その信号をカメラおよび映像処理ユニット510に送信して、同期収集を制御するか、または、その信号を収集制御ユニット511に送信して、ユニット511にカメラおよび映像処理ユニット510による同期収集を制御することを通知するように構成された同期ユニット512と、
カメラおよび映像処理ユニット510内のカメラの内部パラメータおよび外部パラメータを取得して、補正指令を収集制御ユニット511に送信するように構成された較正ユニット513と、
収集制御ユニット511により出力されたビデオデータ、および関連するカメラパラメータを受信し、前処理アルゴリズムに従ってビデオデータを前処理するように構成された前処理ユニット514と、
撮影対象の3D情報を前処理ユニット514により出力されたビデオデータから取得して、3D情報およびビデオデータを符号化ユニット516に送信するように構成されたマッチング/深度抽出ユニット515と、
前処理ユニット514により出力されたビデオデータ、ならびにマッチング/深度抽出ユニット515により出力された深度および/または視差の情報を符号化するように構成された符号化ユニット516と、
符号化ユニット516により出力された符号化されたデータを多重化するように構成された多重化ユニット517と、
多重化ユニット517により出力された符号化されたデータをリアルタイム伝送プロトコルに適合するパケットにカプセル化し、パケット網を介してパケットをリアルタイムで伝送するように構成された送信ユニット518と、
を含む。
受信側は送信装置および受信装置を含む。受信装置は、
パケットを送信ユニット518から受信し、パケットのプロトコルヘッダを取り除いて、符号化されたデータを取得するように構成された受信ユニット520と、
受信ユニット520により受信されたデータを逆多重化するように構成された逆多重ユニット521と、
逆多重ユニット521により出力された符号化されたデータを復号するように構成された復号ユニット522と、
復号ユニット522により出力され、3Dマッチング技術で処理された復号されたデータに基づき、映像を再構成し、映像データをレンダリングユニット524に送信するように構成された再構成ユニット523と、
復号ユニット522または再構成ユニット523により出力されたデータを3D表示装置上に描画するように構成されたレンダリングユニット524と、
を含む。
別の実施形態では、受信装置は、
復号ユニット522により出力された3Dビデオデータを2Dビデオデータに変換するように構成された変換ユニット525と、
変換ユニット522により出力された2Dビデオデータを表示するように構成されたパネル表示装置526と、
をさらに含む。
パケット網の両側の通信端末は、通信を行い、送信装置および3D受信装置を制御するように構成されている。端末は、
カメラおよび映像処理ユニット510の能力情報と共にミーティング開始指令などの指令を送信し、カメラおよび映像処理ユニット510内の特定のカメラスイッチを制御するか、または特定の角度で撮影を行う指令などの送信装置制御指令を収集制御ユニット511から反対の当事者に送信ユニット518を介して送信するように構成された指令送信ユニット530と、
たとえば、ミーティング確認メッセージを受信した後に、送信装置および受信装置の電源を入れるなど、送信装置および受信装置を操作するように構成されたビデオ操作ユニット531と、
パケット網に接続され、多地点ミーティング接続を制御するように構成された多地点制御ユニット(MCU)532であって、
通信端末からミーティング開始指令を受信したときに、その指令により運ばれる能力情報に従ってミーティングの両側に3D撮影および3D表示の能力があるか否かを判断するように構成された能力判断ユニット5320(別の実施形態では、この機能はまた、端末に組み込まれることができる。すなわち、どのMCUもミーティングの両側また多数の側の能力を判断するために使用されず、端末自身が判断する。)と、
両側に3D撮影および3D表示の能力があると能力判断ユニット5320が決定したときに、パケット網を介したミーティングの両側の通信端末間のミーティング接続を確立するように構成されたミーティング確立ユニット5321(たとえば、ユニット5321は、ミーティング確認メッセージを両側の通信端末のビデオ操作ユニット531に送信して、送信装置および受信装置の電源を入れ、受信側の通信端末のアドレスを送信側の送信装置上の送信ユニット518に送信する。)と、
を含む多地点制御ユニット(MCU)532と、
データフォーマットを変換するように構成された変換ユニット533(たとえば、ユニット533は、一方の側の送信装置上の送信ユニット518により受信されたビデオデータを2Dビデオデータに変換する。)と、
変換ユニット533により出力されたビデオデータを反対側の送信装置520上の受信ユニット520に送信するように構成された転送ユニット534と、
を含む。
MCUシステム内の能力判断ユニット5320が、ミーティングの両側のうちの一方に3D表示能力がないという結果を得るとき、変換ユニット533は動作を開始する。通信端末もまた能力判断機能を有する。
この実施形態では、H.323プロトコルに基づいてビデオ通信システムネットワーキングが行われる。ビデオ通信システムは、ローカルエリアネットワーク(LAN)、E1、狭帯域サービス統合デジタル網(ISDN)、または広帯域ISDNなどのパケット網上に確立されている。このシステムは、H.323ゲートキーパ、H.323ゲートウェイ、H.323MCU、一般の2Dカメラ装置、ならびにカメラおよび映像処理ユニットを含む。
ネットワーク上のH.323エンティティとしてのゲートキーパは、H.323通信端末、ゲートウェイ、およびMCUにアドレス変換およびネットワークアクセス制御を提供する。ゲートキーパはまた、帯域幅管理およびゲートウェイ探索などの別のサービスを通信端末、ゲートウェイ、およびMCUに提供する。
H.323ゲートウェイは、パケット網上のH.323端末、パケット交換網上の別のITU端末、または別のH.323ゲートウェイに双方向リアルタイム通信を提供する。
H.323MCUは、前述のように、ミーティング接続を制御するように構成されている。ネットワーク上のエンドポイントとしてのこのユニットは、多地点ミーティングに参加する3台以上の端末およびゲートウェイの役に立つ、または2台の通信端末に接続されて、ポイントツーポイントのミーティングを保持し、次に多地点ミーティングに拡張する。MCUは、必須のマルチポイントコントローラ(MC)、および任意選択のマルチポイントプロセッサ(MP)からなる。MCは、多地点ミーティングのために制御機能を提供し、通信端末との能力交渉を行い、ミーティング資源を制御する。MCにより制御されたMPは、統合モードにおける多地点ミーティングの音声、ビデオ、および/またはデータストリームを混合し切り換える。
2Dカメラ装置は、2Dビデオ通信端末、または、テレビ電話、テレビ会議端末、およびPCビデオ通信端末などの2Dの映像収集および表示能力しか持たないビデオ通信端末とすることができる。
上記の実施形態は、既存のH.323ビデオ通信ネットワークと比べて、本発明のこの実施形態のMCUは、多視点3D通信システムに基づき改良され、多視点3D通信システムと一般の2Dビデオ通信システムとの間のミーティングを制御し、3Dビデオストリームを処理することを示す。
H.323プロトコルのほかに、リアルタイム伝送に適合する、本発明の実施形態で提供されたプロトコルはまた、H.261プロトコル、H.263プロトコル、H.264プロトコル、セッション開始プロトコル(SIP)、リアルタイム・トランスポート・プロトコル(RTP)、およびリアルタイム・ストリーミング・プロトコル(RTSP)を含むことが理解できる。これらのプロトコルは、本発明を限定するために使用されるのではない。
図6は、3Dビデオ通信システムの別の実施形態を示す。カメラおよび映像処理ユニット610、収集制御ユニット611、同期ユニット612、および較正ユニット613が、多視点3Dビデオ通信システムのビデオ収集部分を構成する。カメラおよび映像処理ユニットは、深度および/または視差の情報からなるビデオデータを送信するように構成された3Dカメラおよび映像処理ユニット、または、分離されたカメラおよびマッチング/深度抽出ユニット、のうちの1つとすることができる。カメラは撮影を行い、ビデオデータを出力するように構成されている。
マッチング/深度抽出ユニットは、撮影対象の深度および/または視差の情報をカメラにより出力されたビデオデータから取得して、その情報を送信するように構成されている。
カメラおよび映像処理ユニット610のカメラはグループ分けされ、各グループ内のカメラの数Nは1または2以上である。カメラは、平行多視点カメラ方式、または環状多視点カメラ方式で並べられ、異なる視点から場面を撮影するために使用されている。収集制御ユニット611は、カメラのグループ分けを制御する。カメラが、ビデオストリームを伝送するためのCameraLink、IEEE 1394ケーブル、または同軸ケーブルを介して収集制御ユニット611に接続されている。さらに、カメラはまた、遠隔制御データ回線を介して指令送信ユニットに接続され、その結果、ユーザが遠隔で、カメラを移動および回転し、カメラをズームインおよびズームアウトすることができる。カメラおよび映像処理ユニット610では、カメラグループの数Mは1または2以上であり、実際の適用場面の要件に従って設定することができる。図6では、2グループの平行多視点カメラがビデオストリームを送信するために使用されている。
同期ユニット612は、前述のように、カメラ間のビデオストリームの同期収集を制御するように構成されている。同期ユニット612により、多視点カメラおよび映像処理ユニット610により撮影された高速で移動する対象の映像に違いが発生するのを防ぐことができるが、これは高速で撮影された映像は各視点で大きく異なるか、または同時に同じ視点で見ても左目および右目で見え方が異なるためである。この場合、ユーザは、ゆがんだ3Dビデオを見る。同期ユニット612は、ハードウェアまたはソフトウェアのクロックにより同期信号を生成し、その信号をカメラの外部同期インタフェースに送信して、カメラの同期収集を制御する。または、同期ユニット612は、その信号を収集制御ユニット611に送信し、次に収集制御ユニット611は制御ケーブルを介してカメラの同期収集を制御する。同期ユニット612はまた、カメラのビデオ出力信号を制御信号として使用し、同期収集制御のためにその信号を別のカメラに送信することができる。同期収集は、フレーム同期、または水平同期および垂直同期を必要とする。
較正ユニット613は、前述のように、多数のカメラを較正するように構成されている。3Dビデオシステムでは、場面の深度または視差の情報は、世界空間座標系内の座標と撮影点座標との間の投影での点の撮影関係に基づく3Dマッチングおよび場面再構成のために必要とされている。映像中心、焦点距離、およびレンズ収差などのカメラの内部パラメータ、ならびにカメラの外部パラメータが、撮影関係の決定に重要である。これらのパラメータは不明、一部不明、または原理上不確定である。したがって、カメラの内部パラメータおよび外部パラメータを決まった方法で取得する必要がある。この過程はカメラ較正と呼ばれる。カメラにより3Dビデオを収集する間の、収差を考慮しない、点での理想的撮影方程式は、アフィン変換原理に従って以下のように表される。
Figure 2011505771
上式で、u、vは、撮影点座標を表し、Xは世界空間座標を表し、sは映像の倍率を表し、映像の水平単位ピクセルの数fと垂直単位ピクセルの数fとの比を示し、fは焦点距離を表し、u、vは映像中心座標を表し、Rはカメラの回転行列を表し、tはカメラの移動ベクトルを表し、Kはカメラの内部パラメータを表し、Rおよびtはカメラの外部パラメータを表す。平行2カメラシステムについては、この方程式は以下のように表される。
Figure 2011505771
上式で、fは焦点距離を表し、Zは点から撮影面までの距離を表し、Bは2台のカメラの光心間の距離を表し、dは視差を表す。焦点距離fは深度Zに大きく影響を及ぼすことを理解することができる。さらに、映像中心および収差係数などの内部パラメータでも、深度および/または視差の計算に影響を及ぼすものがある。これらのパラメータは、映像補正に必要である。
この実施形態では、カメラが従来の較正法および自己較正法など多くの方法で較正することができる。従来の較正法は、1970年代に提案された直接線形変換(direct linear transformation、DLT)較正法、および放射状整列制約(radial alignment constraint、RAC)に基づく較正法を含む。基本的方法では、カメラ撮影モデルの線形方程式のシステムが設定され、シナリオ内の1組の点の世界空間座標、および撮影面上の対応する座標が測定され、次にこれらの座標値が線形方程式のシステムに導入されて、内部パラメータおよび外部パラメータを得る。自己較正は、較正ブロックのない映像点間の対応に基づいてカメラを較正する過程を指し、多くの映像内の撮影点間の極性制約などの特殊な制約関係に基づく。したがって、シナリオの構造情報は必要ない。自己較正法には、融通性があり、かつ使いやすいという利点がある。
本発明のこの実装方法では、較正ユニット613は、多数のカメラを較正し、各カメラの内部パラメータおよび外部パラメータを取得するように機能する。様々な適用シナリオで異なる較正アルゴリズムが使用されている。たとえば、テレビ会議のシナリオでは、較正ユニット613は、較正のために改良された従来の較正法を使用して、従来の較正法の複雑な取扱過程を簡略化し、精度を改善し、自己較正法と比べて較正時間を短縮する。基本的な考え方は、テレビ会議のシナリオでのユーザの名札、およびそのシナリオでのカップなど、永続的に存在し撮影場面の中に溶け込んだ対象が基準として提供されるか、または見つけられるということである。これらの対象は、端、単語、名札のデザイン、およびカップの同心円の特徴など、抽出することができる物理的寸法、および豊富な特徴を提供する。関連するアルゴリズムが較正のために使用されている。たとえば、較正のための面較正法は、既知の物理サイズを有する面較正基準を提供すること、撮影を行って、異なる角度の面較正基準の映像を取得すること、言葉およびデザインの特徴など、面較正基準の映像の特徴を自動的にマッチングおよび検出すること、面較正アルゴリズムに従ってカメラの内部パラメータおよび外部パラメータを取得すること、および、最適化のための収差係数を取得することを含む。
カメラの焦点距離および外部パラメータなど、異なるカメラのパラメータが大きく異なるのを避けるために、これらのパラメータのうちの内部パラメータおよび外部パラメータが、本発明の多くの実施形態でフィードバック情報として収集制御ユニットに提供される。収集制御ユニットは、現在のパラメータの違いに基づいてカメラを調節し、その結果、繰り返しの過程で受け入れ可能な水準まで違いは縮小される。
収集制御ユニット611は、前述のように、カメラのグループを制御して、ビデオ映像を収集し送信するように構成されている。カメラのグループの数は、一定の要件を満たすように場面に従って設定されている。1つのグループのカメラが設定されたとき、収集制御ユニットは2Dビデオストリームを送信する。2つのグループのカメラが設定されたとき、収集制御ユニットは両眼3Dビデオストリームを送信する。3つ以上のグループのカメラが設定されたとき、MVCストリームを送信する。アナログカメラについては、収集制御ユニットはアナログ映像信号をデジタルビデオ映像に切り換える。映像は収集制御ユニットのキャッシュにフレームの形式で保存されている。さらに、収集制御ユニット611は、カメラの較正のために、収集された映像を較正ユニット613に提供する。較正ユニット613は、カメラの内部パラメータおよび外部パラメータを収集制御ユニット611に送り返す。収集制御ユニット611は、これらのパラメータに基づいてビデオストリームと収集されたカメラの属性との間の対応を確立する。これらの属性は、カメラの一意のシーケンス番号、カメラの内部パラメータおよび外部パラメータ、ならびに各フレームを収集したタイムスタンプを含む。これらの属性、およびビデオストリームは、決まった形式で送信されている。前述の機能のほかに、収集制御ユニット611はまた、カメラを制御し、同期して映像を収集する機能も提供する。収集制御ユニット611は、較正されたパラメータに従ってカメラの遠隔制御インタフェースを介してカメラの移動、回転、ズームイン、およびズームアウトを行うことができる。このユニットはまた、同期収集を行うために、カメラの同期インタフェースを介してカメラに同期クロック信号を提供することができる。さらに、収集制御ユニット611はまた、入力制御ユニット620により制御することができる。たとえば、ユーザにより選択された視点情報に従ってカメラの不必要なビデオ収集が打ち切られる。
前処理ユニット614は、前述のように、収集されたビデオデータを前処理するように構成されている。特に、前処理ユニット614は、収集された映像キャッシュおよび該当するカメラパラメータを収集制御ユニット614から受信し、前処理アルゴリズムに従ってキャッシュされた映像を処理する。前処理される内容は、映像のノイズを取り除くこと、たとえば、異なるカメラの設定により引き起こされた映像のクロミナンスおよび輝度の違いを調節するなど、異なるカメラによる映像の違いを除去すること、放射収差補正など、カメラのパラメータの収差計数に従って映像を補正すること、および/または、走査線のマッチングに基づいて、ダイナミックプログラミングなどの3Dマッチングアルゴリズムのために走査線の位置合わせをすること、を含む。前処理された映像では、大部分の収集過程の間に引き起こされた映像ノイズ、およびカメラの違いにより引き起こされた映像間の好ましくない不一致が除去されて、その後の3Dマッチングおよび深度/視差の抽出に役立つ。
マッチング/深度抽出ユニット615は、前述のように、前処理ユニット614により出力されたビデオデータから撮影対象の3D情報を取得して、3D情報およびビデオデータをビデオ符号化/復号ユニット616に送信するように構成されている。3D映像マッチングは3Dビデオの重要な技術である。3Dビデオの再構成には、撮影対象の3D情報が必要である。重要な深度情報は、多数の映像から取得しなければならない。深度情報を取得するためには、まず、撮影点が、場面内の1点に対応する多数の映像で見つけられ、多数の映像内のその点の座標に従って空間内のその点の座標が取得でき、その点の深度情報を取得する。映像マッチング技術を用いて、場面内の1点に対応する、異なる映像内の撮影点が見つけられる。
本発明の一実施形態により利用可能な3Dマッチング技術は、ウィンドウに基づくマッチング法、特徴に基づくマッチング法、および動的計画(dynamic planning)法を含む。ウィンドウに基づくマッチング法、および動的計画法は、グレーに基づくマッチングアルゴリズムを使用する。グレーに基づくアルゴリズムの基本的な考え方は、映像が小さなサブエリアに分割され、テンプレートとしてのこれらの小さなサブエリアのグレー値に基づいて、グレー値が前の値と最も似ている小さなサブエリアが別の映像から見つけられることである。両方のサブエリアが類似要件を満たす場合、これらのサブエリア内の点は互いに一致する。マッチングの過程で、関連する関数群が使用されて、両方のサブエリアの類似性を確認することができる。一般に、グレーに基づくマッチングの過程で、映像の密な深度図が取得できる。特徴に基づくマッチングの過程で、マッチングがより良い安定性を達成するように、映像のグレーの代わりに、映像のグレー情報に基づきエクスポートされた映像の特徴が使用されている。マッチする特徴は、端、および端の交点(端点)など、場面内の3D構造の潜在的に重要な特徴として役立てられることができる。特徴に基づくマッチングの過程で、一般に、まばらな深度情報図が取得でき、次に、内挿値の方法を使い映像の密な深度情報図が取得できる。
マッチング/深度抽出ユニット615は、2台の隣接するカメラにより収集されたビデオ映像のマッチングを行い、視差/深度情報を計算により取得するように構成されている。マッチング/深度抽出ユニット615は、2台の隣接するカメラにより撮影された映像の最大視差を制限する。最大視差を超える場合、マッチングアルゴリズムの効率が非常に低くなるので、高精度の視差/深度情報が取得することができない。最大視差は、あらかじめシステムにより設定することができる。本発明の一実施形態では、マッチング/深度抽出ユニット615により使用されたマッチングアルゴリズムは、ウィンドウマッチング法および動的計画法などの多数のマッチングアルゴリズムから選択され、実際の適用シナリオに従って設定されている。マッチング操作の後、マッチング/深度抽出ユニット615は、映像の視差、およびカメラのパラメータに従って場面内の深度情報を取得する。以下の段落に、グレーに基づくウィンドウ・マッチング・アルゴリズムの一例を示す。
(x、y)およびf(x、y)が、左カメラおよび右カメラにより撮影された2つの映像であり、(x、y)がf(x、y)内の点とする。(x、y)を中心と見なし、サイズがm×nのテンプレートTを形成する。テンプレートが水平にΔx、垂直にΔyの距離にf(x、y)内で移動され、テンプレートがf(x、y)内のk番目の領域Sを覆う場合、SとTの従属性は、関連する関数群により測定することができる。
Figure 2011505771
D(S、T)が最小の場合、最大マッチングが達成されている。SおよびTが同じである場合、D(S、T)=0である。
Figure 2011505771
Figure 2011505771
ここで、E(S)およびE(T)は、それぞれSおよびTのグレー値を示す。C(Δx、Δy)が極大の場合、D(S、T)は極小である。(x、y)は点(x+Δx、y+Δy)と一致すると考えることができる。Δx、Δyはそれぞれ2つの映像間の水平視差および垂直視差を表す。上記の視差カメラシステムについては、垂直視差は0に近く、水平視差はΔx=fB/Zと表すことができる。この場合、場面内の点の深度はZ=fB/Δxと表すことができる。
別の実施形態では、マッチング/深度抽出ユニット615は、たとえば、システムのリアルタイム性能を保証する視差計算によってマッチングアルゴリズムを最適化することができる。
ビデオ符号化/復号ユニット616は、前述のように、ビデオデータを符号化および復号するように構成されている。ユニット616は、ビデオ符号化ユニット、およびビデオ復号ユニットを含む。本発明の一実施形態では、3Dビデオ符号は、ブロックベース符号およびオブジェクトベース符号に分類されている。3D映像符号では、フレーム内予測およびフレーム間予測により、空間および時間の領域でのデータ冗長性が除去され、空間データ冗長性はまた、多チャネル映像間で除去することができる。たとえば、多チャネル映像間の時間領域冗長性は、視差の推定および補償により除去される。視差の推定および補償の核心は、2つ以上の映像間の依存性を見つけることである。視差の推定および補償は、動きの推定および補償と似ている。
本発明の一実施形態で説明されるビデオ符号化および復号ユニットは、MVCデータを以下のモードのうちの1つで符号化および復号する。
1)異なる視点間の映像の視差が、設定された最大視差以下の場合、データは1フレーム+視差/深度値+偏残差からなるフレームの混合モードで符号化されている。視差/深度値は、MPEGパート3:補助ビデオデータ表現標準を使用する。図7は、両眼3Dビデオのための混合符号化方式を実装する基本処理例を示す。図7では、符号化側は左映像および右映像、ならびに深度/視差情報を取得する。左映像、およびその視差/深度情報は、従来方式で符号化される。右映像は、左映像の符号化方式を参考にすることにより推定され、符号化され、次に、符号化されたデータは復号側に送られる。復号側は、左映像のデータ、視差/深度情報、および右映像の残差データを復号し、前のデータを3D映像に結合する。
2)異なる視点間の映像の視差が、設定された最大視差よりも大きい場合、ビデオストリームは、H.263およびH.264の符号化および復号標準などの従来方式で別々に符号化される。混合符号化および復号方式は隣接映像間の依存性を十分に利用して、高い圧縮効率を達成し、隣接映像間の時間領域および空間領域のデータ冗長性を大きく低減する。さらに、視差/深度符号は、映像の再構成に役立つ。映像内のある領域が隠され、視差/深度データが抽出できない場合、再構成された映像の品質を改善するために残差符号が使用される。異なる視点間の映像の視差が抽出できない場合、異なる視点でのビデオストリームは、MPEG委員会により規定されたMVC符号化標準などの従来の動き推定および補償方式で別々に符号化される。さらに、本発明で説明される符号化および復号ユニットはまた、スケーラビリティビデオ符号化(scalability video coding、SVC)標準をサポートし、その結果、システムは異なるネットワーク条件にさらによく適用可能である。
さらに、ビデオ符号化および復号ユニットは、入力制御ユニット620の逆方向チャネルからデータを受信し、ユーザの情報に従って符号化および復号の動作を制御する。その基本制御は、
符号化のためにユーザにより選択された視点に従ってビデオストリームを見つけ、ユーザに見られていない視点でのビデオストリームを符号化せずに、ビデオ符号化および復号ユニットの処理能力を効果的に節約すること、および、
ユーザ端末の表示能力に従ってビデオストリームを符号化および復号すること、
を含む。2D表示能力しかない端末については、2Dビデオストリームの経路が符号化され、送られる。この方法では、多視点3Dビデオ通信システムと一般のビデオ通信システムとの間の互換性は改善され、不必要なデータが送られることが少ない。
多重化/逆多重化ユニット617は、前述のように、多重化ユニットおよび逆多重化ユニットを含む。多重化ユニットは、復号されたビデオストリームをビデオ符号化および復号ユニットから受信し、フレーム/フィールド単位でビデオストリームの多数の経路を多重化する。ビデオストリームがフィールド単位で多重化される場合、一方のビデオストリームが奇数フィールドに符号化され、他方のビデオストリームが偶数フィールドに符号化される。奇数/偶数フィールドのビデオストリームは、フレームとして送信される。逆多重化ユニットは、逆多重化のためにパケットデータを受信ユニットから受信し、多数の経路の符号化されたビデオストリームを復元する。
送信/受信ユニット618は、前述のように、送信ユニットおよび受信ユニットを含む。送信/受信ユニット618はネットワーク伝送ユニットと呼ばれる。送信側の送信ユニットは、多重化されたデータストリームを多重ユニットから受信し、データストリームをパケット化し、データストリームをRTPに適合するパケットの中にカプセル化し、次に、イーサネット(登録商標)インタフェース、またはISDNインタフェースなどのネットワークインタフェースを介してデータストリームを送出する。さらに、送信側の送信ユニットはまた、符号化されたビデオ・データ・ストリームをオーディオ符号化/復号ユニット621から受信し、信号方式データストリームをシステム制御ユニット622から受信し、送信されるファイルデータなどのユーザデータをユーザ・データ・ユニット623から受信する。このデータはパケット化され、ネットワークインタフェースを介して受信側に送信される。受信側の受信ユニットが送信側からパケットデータを受信した後に、プロトコルヘッダが削除され、有効なユーザデータが取っておかれ、次にデータは、データ種別に従って逆多重化ユニット、オーディオ復号ユニット、システム制御ユニット622、およびユーザ・データ・ユニット623に送られる。さらに、メディア種別ごとに適切な論理フレーミング、シーケンス番号付け、エラー検出、およびエラー訂正が行われる。
再構成ユニット630は、復号ユニットにより出力された復号されたデータを再構成し、次にそのデータをレンダリングユニットに送信するように構成されている。再構成ユニット630の機能は、
カメラが置かれていない視点でのビデオ映像をユーザが見ることができない問題を解決すること(カメラの数が限られているためにすべての視点がカバーされているわけではないので、カメラが置かれていない視点でユーザが場面を見る必要がある場合がある。再構成ユニット630は、ユーザにより見られる視点情報を入力制御ユニット620から取得することができる。ユーザがカメラの既存の視点を選択した場合、再構成ユニット630は、映像を再構成しない。ユーザが、アナログ視野角のない、2つの隣接するグループのカメラ間、またはグループ内の2台の隣接するカメラ間の視点を選択した場合、再構成ユニット630は、隣接するカメラにより撮影された映像に従ってユーザにより選択された視点で映像を再構成する。カメラの撮影視点での視差/深度情報、隣接するカメラの位置パラメータ情報、および投影方程式に従って決定される、場面のアナログ視野角での映像点座標に基づいて、アナログ視野角でのビデオ映像が再構成される。)と、および、
3D表示を通じて変化した位置のために、視差で変化する3D映像をユーザが見る問題を解決すること、
を含む。自動3D表示により、ユーザが眼鏡をかけることなく3D映像を見ることができるようになる。しかしこのときまでには、ユーザから自動3D表示までの距離が変化されることがあり、映像の視差が変化することとなる。
ユーザの視差、深度、および見る距離の間の関係を示す必要がある。図8は、視差カメラシステムでの映像視差p、対象深度z、およびユーザから表示器までの距離Dの間の関係を示す。簡単な幾何学的関係に基づき、以下の式が得られる。
Figure 2011505771
上記の式は、映像の視差pは、ユーザから表示器までの距離Dに依存することを示す。3Dビデオ受信側で受信された3Dビデオ映像には、通常、基準視差prefの役割を果たすことができる固定視差がある。Dが変化するとき、再構成ユニットは視差prefを調節して、新しい視差p´を生成し、次に新しい視差に基づいて別の映像を再構成する。この場合、ユーザから表示器表面までの距離が変化するとき、適切な映像が見られることができる。ユーザから表示器表面までの距離が、深度図が取得された後にカメラを介して自動的に検出するか、または入力制御ユニット620を介して手動で制御することができる。
入力制御ユニット620は、通信端末から入力データを受信し、次に、多数のビデオストリームの符号化および再構成を制御するために、そのデータを収集制御ユニット611、符号化ユニット、および再構成ユニット630にフィードバックするように構成されている。入力制御ユニット620は、視点に関する情報、および表示器とユーザの間の距離に関する情報を含む。エンドユーザが、グラフィカル・ユーザ・インタフェース(GUI)または遠隔制御装置を介して、視点、距離、および表示モードなどの入力制御ユニット620に関する情報を入力することができる。または、端末自身が、端末の表示能力情報などの関連する情報を検出する。
レンダリングユニット631は、前述のように、ビデオ・データ・ストリームを再構成ユニット630から受信し、ビデオ映像を表示装置に描画する。本発明で説明された多視点3Dビデオ通信システムは、一般の2Dビデオ表示装置、自動3D表示装置、1対の3D眼鏡、およびホログラフィック表示装置を含む多数の表示端末をサポートする。
さらに、他の実施形態では、システムは、
通信端末でマイクロホンからの送信用オーディオ信号を符号化し、受信ユニットにより受信されたオーディオ信号を復号し、オーディオデータをスピーカに送るように構成されたオーディオ符号化/復号ユニット621(D.711およびG.729)と、
電子ホワイトボード、静止画伝送、ドキュメント交換、データベースアクセス、およびオーディオ・グラフィック・ミーティングなどの遠隔情報処理アプリケーションをサポートするように構成されたユーザ・データ・ユニット623と、
端末が正しく動作するための信号方式を提供するように構成されたシステム制御ユニット622(このユニットは、呼制御、能力交換、指令および指示された信号方式、ならびにメッセージを提供する。)と、
をさらに含む。
このネットワーク構成では、ビデオ通信セッションを開始するとき、当事者がMCUを介してまたは当事者自身でピア端末(peer end)と能力交渉を行う。両当事者が多視点3Dビデオ通信システムを使用する場合、これらの当事者は異なる視点でリアルタイム3Dビデオを見ることができる。当事者が一般の2Dビデオ通信端末の場合、3Dビデオ通信条件が満たされることができないので、端末がMCUにより制御される場合、両者は2Dモードでビデオ通信を行うことができる。
MVC通信の過程では、多視点3D通信システムが以下の表示モードで動作する。
(1)単一ビデオ映像表示モードでは、受信側のユーザが、GUIインタフェース上でまたは指令送信ユニットの遠隔制御により視点を選択することができ、次に、通信端末は、視点の情報を信号方式によりピア端末に送信する。信号方式を受信後、ピア端末の収集制御ユニット611は、カメラおよび映像処理ユニット610で関連する動作を行うか、または、受信されたビデオデータから、対応する視点でのビデオストリームを選択し、次に、選択されたビデオストリームを符号化し、最後にビデオストリームを受信側の表示装置に送り返す。ユーザにより見られるビデオ映像は、左映像および右映像を含み、MVCカメラ内の2台のカメラおよび映像処理ユニットにより収集された3D映像、2D映像でありうる。
(2)多数のビデオ映像表示モードでは、送信側のMVCカメラおよび映像処理ユニットが動作するとき、受信側のユーザが、異なる視点で反対側の場面を見ることができ、多数の映像がシステムに表示されている。
本発明の第2の実施形態で提供された3Dビデオ通信端末内の各ユニットは、処理モジュールに統合できることに留意されたい。たとえば、収集制御ユニット611、前処理ユニット614、マッチング/深度抽出ユニット615、ビデオ符号化/復号ユニット616、多重化/逆多重化ユニット617、および送信/受信ユニット618は、処理モジュールに統合されている。同様に、本発明の別の実施形態で提供された3Dビデオ通信端末内の各ユニット、およびMVC装置の各ユニットは、処理モジュールに統合できる。または、各実施形態での2つ以上のユニットが、処理モジュールに統合できる。
本発明の一実施形態で提供される各ユニットは、ハードウェア形態で実装でき、ソフトウェアは、ソフトウェア機能モジュールの形態で実装できることに留意されたい。それに対応して、本発明の一実施形態で提供されたテレフォニーゲートウェイは、独立した製品として使用することができ、そのソフトウェアは、使用のために、PCが読出し可能な記憶媒体に記憶することができる。
図9および図10は、一実施形態で提供された3Dビデオ通信方法を示す。3Dビデオ通信方法が、本発明の第1の実施形態で提供されている。図9および図10は、それぞれ送信側および受信側の処理を示す。この処理は、ビデオデータを送信および受信する処理を含む双方向3Dビデオ通信を行うステップを含む。
図9に示すように、ビデオデータを送信する処理は、以下のステップを含む。
ステップ802:ビデオデータを取得するために撮影が行われる。
ステップ806:撮影対象の視差/深度情報がビデオデータから取得される。
ステップ807:ビデオデータ、および深度/視差情報が符号化される。
ステップ808:符号化されたビデオデータが多重化される。
ステップ809:符号化されたデータが、リアルタイム伝送プロトコルに適合するパケットにカプセル化され、次に、パケットはパケット網を介して伝送される。
他の実施形態では、ビデオデータを取得するための撮影の処理は、MVCデータを取得するための多視点撮影を行う処理により置き換えられる。
ビデオストリームが符号化されるステップ807が実行される前に、この処理は以下を含む。
ステップ801:多視点撮影モードで取得された映像の同期処理が行われる。
同期して撮影された映像が収集されるステップ802が実行された後に、この処理は以下を含む。
ステップ803:多数の収集された映像に対してカメラ較正が行われ、映像収集および処理のためのカメラパラメータが送り返される、すなわち、カメラの内部パラメータおよび外部パラメータが取得され、これらのパラメータに基づいて撮影処理が補正される。
ステップ804:収集された映像が前処理される。
ステップ805:視差制限条件が満たされるか否かに関する判断が行われる。
ステップ806:視差制限条件が満たされる場合、3Dマッチングが行われ、視差/深度情報が抽出される、すなわち、撮影対象の3D情報が抽出され、次に、ビデオストリームが符号化される。
ステップ807:視差制限条件が満たされない場合、ビデオストリームは直接符号化される。
別の実施形態では、カプセル化されたデータが送信される前に、この処理は以下を含む。
ステップ808:符号化されたビデオストリームが多重化される。
双方向3Dビデオ通信が行われる処理はまた、カメラおよび映像処理ユニットの能力情報と共にミーティング開始指令を送信するステップを含む。
パケット網を介してパケットが伝送されるステップ809が実行された後に、この処理は、さらに、受信されたミーティング開始指令、および搬送された能力情報に従って両側の当事者に3D撮影能力および3D表示能力があるか否かを判断すること、両側に3D撮影能力および3D表示能力がある場合、パケット網を介した両側の通信端末間のミーティングを確立して、カメラおよび映像処理ユニット、ならびに両側の受信装置を起動すること、を含む。
両側のうちの一方にその撮影能力がない場合、この処理は、さらに、送信側のビデオデータを2Dビデオデータに変換し、そのデータを受信側に送信することを含む。
図10に示されるように、ビデオデータを受信する処理は以下を含む。
ステップ901:パケット網を介してリアルタイム伝送用ビデオパケットが受信され、次に、パケットのプロトコルヘッダが取り除かれて、符号化された3Dビデオ符号化データを取得する。
ステップ903:符号化されたビデオデータが復号されて、ビデオデータ、および関連する深度および/または視差の情報を取得する。
ステップ905:ユーザの視野角での映像が、深度および/または視差の情報ならびにビデオデータに従って再構成される。
ステップ906および907:再構成された映像データが3D表示装置上に描画される。
別の実施形態では、パケットのプロトコルヘッダが取り除かれた後で、かつパケットが復号される前に、この処理は以下のステップをさらに含む。
ステップ902:パケットが多重化されたビデオデータを含むか否かに関する判断が行われる。含まれる場合、多重化されたパケットが逆多重化される。
別の実施形態では、データが3D表示装置に描画されるステップが実行される前に、この処理は以下のステップをさらに含む。
ステップ904:復号されたデータを含む映像が再構成される必要があるか否かに関する判断が行われる。
映像が再構成される必要がある場合、この処理はステップ905に進み、映像が再構成される。そうでない場合、この処理はステップ906および907に進み、復号されたデータが3D表示装置に描画される。
さらに、符号化されたビデオデータが復号された後に、この処理は、さらに、ローカル側の表示装置に3D表示能力があるか否か判断し、能力がない場合、復号された3Dビデオデータが2Dビデオデータに変換され、次にパネル表示装置に送信されることを含む。
要約すると、ビデオの通信端末、システム、および方法により、少なくとも以下の技術的効果を本発明で達成することができる。
3Dビデオの遠隔双方向リアルタイム通信が、ライブ場面または娯楽場面で達成される。双方向リアルタイム多視点3Dビデオ通信が、家庭の通信または企業のミーティングの場面で達成される。ネットワーク資源が十分利用され、ユーザが、MVC通信の過程で、多視点で場面を見ることができる。この技術は既存の技術的ビデオ通信方式と完全に異なる。この環境では、ユーザは現場にいるように感じることができ、したがってユーザの体験が改善される。
この分野の一般的な専門家は、関連するハードウェアをガイドすることにより、プログラムにより実行可能である3Dビデオ通信方法の前述の実施形態で提供されるすべてまたは一部の手順を理解し実装することができる。記載されている手順は、コンピュータが読出し可能な記憶媒体に記憶することができる。したがって、このプログラムが実装されるとき、それは本発明の各実装方法で提供される3Dビデオ通信方法の内容を含む。記憶媒体は、ROM/RAMでも、磁気ディスクでも、コンパクトディスクでもよい。
本発明の実施形態で提供される3Dビデオ通信の端末、システム、および方法が上記に記載されている。本発明の方法および精神が、前述の実施形態を通じて記載されている。当業者は、本発明の特定の実施形態および適用範囲に、本発明の精神に適合する様々な修正を行うことができる。本発明は、修正形態および変形形態が以下の特許請求の範囲、またはその均等物により定義される保護の範囲に入る前提で、修正形態および変形形態を含むものとする。
本出願は、全体を参照により本明細書に組み込まれる、2007年12月3日に中国特許庁に提出された「3次元ビデオ通信の端末、システム、および方法」と題する中国特許出願第200710187586.7の優先権を主張する。

Claims (28)

  1. 3次元(3D)ビデオ通信端末であって、送信装置および受信装置を含み、
    前記送信装置は、
    撮影を行い、ビデオデータならびに深度および/または視差の情報を出力するように構成されるカメラおよび映像処理ユニットと、
    前記カメラおよび映像処理ユニットにより出力される前記ビデオデータならびに前記深度および/または視差の情報を符号化するように構成される符号化ユニットと、
    前記符号化ユニットにより出力される前記符号化されたデータをリアルタイム伝送プロトコルに適合するパケットにカプセル化し、該パケットをパケット網を介してリアルタイムで送信するように構成される送信ユニットと、
    を含み、
    前記受信装置は、
    ピア端末の前記送信ユニットから前記パケットを受信し、前記符号化されたデータを得るために前記パケットのプロトコルヘッダを取り除いて、前記符号化されたデータを取得するように構成される受信ユニットと、
    前記受信ユニットにより出力される前記符号化されたデータを復号して、前記ビデオデータならびに前記深度および/または視差の情報を取得するように構成される復号ユニットと、
    前記復号ユニットにより出力される前記深度および/または視差の情報ならびに前記復号ユニットにより出力される前記ビデオデータに従ってユーザの角度で映像を再構成し、前記映像をレンダリングユニットに送信するように構成される再構成ユニットと、
    前記再構成ユニットにより出力される前記再構成された映像のデータを3D表示装置上に描画するように構成される前記レンダリングユニットと、
    を含む、
    3Dビデオ通信端末。
  2. 前記カメラおよび映像処理ユニットは、単一視点モード、多視点モード、または単一視点モードと多視点モードとの両方をサポートするユニットである、請求項1に記載の3Dビデオ通信端末。
  3. 通信を行い、前記送信装置および前記受信装置を制御するように構成される、前記パケット網の両側の通信端末をさらに含み、前記通信端末は、
    前記カメラおよび映像処理ユニットに関する能力を運ぶミーティング開始指令を送信することを含む指令を送信するように構成される指令送信ユニットと、
    ミーティング確認メッセージを受信した後に、前記送信装置および前記受信装置の電源を入れることを含み、前記送信装置および前記受信装置を操作するように構成されるビデオ操作ユニットと、
    を含む、請求項1に記載の端末。
  4. 前記送信装置は、
    前記ビデオ操作ユニットにより送信される指令に従って前記カメラおよび映像処理ユニットの動作を制御することを含む、前記カメラおよび映像処理ユニットの動作を制御する前記指令に従うように構成される収集制御ユニット
    をさらに含む、請求項3に記載の端末。
  5. 前記指令送信ユニットは、さらに、前記送信装置を制御するための指令を前記ピア端末に送信するように構成される、請求項1に記載の端末。
  6. 前記送信装置を制御するための前記指令は、前記カメラおよび映像処理ユニットのカメラのための特定のスイッチ、または撮影の特定の視野角を制御するための指令を含む、請求項5に記載の端末。
  7. 前記送信装置は、
    前記カメラおよび映像処理ユニット内の前記カメラの内部パラメータおよび外部パラメータを取得して、前記カメラを較正するための指令を前記収集制御ユニットに送信するように構成される較正ユニット
    をさらに含む、請求項4に記載の3Dビデオ通信端末。
  8. 前記送信装置は、
    前記収集制御ユニットにより出力される、前記カメラの前記ビデオデータおよび関連するパラメータを受信し、前処理アルゴリズムに従って前記ビデオデータを前処理するように構成される前処理ユニット
    をさらに含む、請求項4に記載の端末。
  9. 前記送信装置は、
    同期信号を生成し、該信号を、同期収集を制御するために前記カメラおよび映像処理ユニットに送信するか、または、
    該信号を前記収集制御ユニットに送信し、同期収集を行うために前記カメラおよび映像処理ユニットを制御することを前記収集制御ユニットに通知する、
    ように構成される同期ユニット
    をさらに含む、請求項4に記載の3Dビデオ通信端末。
  10. 前記送信装置は、前記符号化ユニットにより出力される前記符号化されたデータを多重化し、該データを前記送信ユニットに送るように構成される多重化ユニットをさらに含み、
    前記受信装置は、前記受信ユニットにより出力される前記多重化されたデータを逆多重化し、該データを前記復号ユニットに送るように構成される逆多重ユニットをさらに含む、
    請求項1に記載の端末。
  11. 前記カメラおよび映像処理ユニットは、
    前記深度および/または視差の情報を含む前記ビデオデータを送信するように構成される3Dカメラおよび映像処理ユニットであるか、または、
    分離されたカメラおよびマッチング/深度抽出ユニットであって、カメラは撮影を行い、前記ビデオデータを出力するように構成され、マッチング/深度抽出ユニットは、撮影対象の前記深度および/または視差の情報を、前記カメラにより出力される前記ビデオデータから取得して、該情報を送信するように構成される、カメラおよびマッチング/深度抽出ユニットである、
    請求項1に記載の端末。
  12. 3次元(3D)ビデオ通信システムであって、
    2次元(2D)ビデオ通信または3Dビデオ通信を行うように構成される3D通信端末と、
    前記2Dビデオ通信を行うように構成される2Dビデオ通信端末と、
    前記3Dビデオ通信端末間または前記2Dビデオ通信端末間で伝送される2Dビデオデータまたは3Dビデオデータを運ぶように構成されるパケット網と、
    を含む、3Dビデオ通信システム。
  13. 前記2Dビデオ通信端末間および/または前記3Dビデオ通信端末間の多地点ミーティング接続を制御するように構成される多地点制御システムをさらに含み、該多地点制御システムは、
    前記通信端末により送信されるミーティング開始指令が受信されたとき、該指令により運ばれる能力情報に従ってミーティングの両側に3D撮影能力および3D表示能力があるか否かを判断するように構成される能力判断ユニットと、
    前記両側に前記3D撮影能力および3D表示能力があると前記能力判断ユニットが判断したとき、前記ミーティングの前記両側の前記通信端末間で前記パケット網を介してミーティング接続を確立するように構成されるミーティング確立ユニットと、
    を含む、請求項12に記載のシステム。
  14. 前記多地点制御システムは、
    一方の端末から受信された前記ビデオデータを前記2Dビデオデータに変換することを含み、データ形式を変換するように構成される変換ユニットと、および、
    前記変換ユニットにより出力される前記2Dビデオデータをピア端末に送信するように構成される転送ユニットと、
    を含み、
    前記多地点制御システムの前記能力判断ユニットが、前記ミーティングの前記両側の一方に3D表示能力がないと判断したとき、前記変換ユニットが動作を開始する、
    請求項13に記載のシステム。
  15. 前記パケット網は、有線パケット網、または無線パケット網である、請求項12に記載のシステム。
  16. 前記有線パケット網は、ローカルエリアネットワーク(LAN)、E1、狭帯域サービス統合デジタル網(ISDN)、または広帯域ISDNである、請求項15に記載のシステム。
  17. 前記パケット網は、
    前記パケット網上の各ユニットのアドレス変換、およびネットワークアクセス制御を提供するように構成されるゲートキーパと、
    前記パケット網での通信の両者間の双方向通信、または別のゲートウェイとの双方向通信をリアルタイムで達成するように構成されるゲートウェイと、
    を含む、請求項12に記載のシステム。
  18. 3次元(3D)ビデオ通信端末であって、
    撮影を行い、ビデオデータならびに深度および/または視差の情報を出力するように構成されるカメラおよび映像処理ユニットと、
    前記カメラおよび映像処理ユニットにより出力される前記ビデオデータならびに前記深度および/または視差の情報を符号化するように構成される符号化ユニットと、
    前記符号化ユニットにより出力される前記符号化されたデータをリアルタイム伝送プロトコルに適合するパケットにカプセル化し、パケット網を介して前記パケットをリアルタイムで送信するように構成される送信ユニットと、
    を含む、3Dビデオ通信端末。
  19. 3次元(3D)ビデオ通信端末であって、
    送信ユニットからパケットを受信し、前記パケットのプロトコルヘッダを取り除いて、復号されたデータを取得するように構成される受信ユニットと、
    前記受信ユニットにより出力される前記符号化されたデータを復号して、ビデオデータならびに深度および/または視差の情報を取得するように構成される復号ユニットと、
    前記復号ユニットにより出力される前記深度および/または視差の情報ならびに前記ビデオデータに基づいて、ユーザの角度で映像を再構成し、前記映像をレンダリングユニットに送信するように構成される再構成ユニットと、
    前記再構成ユニットにより出力される前記再構成された映像のデータを3D表示装置上に描画するように構成されるレンダリングユニットと、
    を含む、3Dビデオ通信端末。
  20. 前記復号ユニットにより出力される3Dビデオデータを2次元(2D)ビデオデータに変換するように構成される変換ユニットと、
    前記変換ユニットにより出力される前記2Dビデオデータを表示するように構成されるパネル表示装置と、
    をさらに含む、請求項19に記載の端末。
  21. 双方向3次元(3D)ビデオ通信を行うための3Dビデオ通信方法であって、
    ビデオデータを取得するために撮影を行い、
    撮影対象の深度および/または視差の情報を前記ビデオデータから取得し、
    前記ビデオデータならびに前記深度および/または視差の情報を符号化し、
    前記符号化されたデータをリアルタイム伝送プロトコルに適合するパケットにカプセル化し、
    パケット網を介して前記パケットを伝送する、
    ことを含む、方法。
  22. さらに、多視点符号化(MVC)データを取得するために多視点撮影を行うことを含む、請求項21に記載の方法。
  23. 前記双方向3Dビデオ通信は、さらに、カメラおよび映像処理ユニットの能力情報を運ぶミーティング開始指令を送信することを含み、
    前記パケット網を介して前記パケットを送信した後に、前記方法は、さらに、
    受信された前記ミーティング開始指令および運ばれた前記能力情報に従って両側の当事者に3D撮影能力および3D表示能力があるか否かを判断し、
    両側に前記3D撮影能力および3D表示能力があるか否かの判断が行われたとき、前記パケット網を介して前記両側の通信端末間でミーティングを確立して、前記カメラおよび映像処理ユニットおよび前記両側の受信装置を起動する、
    ことを含む、請求項21に記載の方法。
  24. 前記ビデオデータを取得するために撮影することは、カメラの内部パラメータおよび外部パラメータを取得して、該内部パラメータおよび外部パラメータに従って撮影動作を補正することを含む、請求項21に記載の方法。
  25. 3次元(3D)ビデオ通信方法であって、
    ビデオデータを受信することを含み、該ビデオデータを受信することは、
    パケット網を介してビデオパケットをリアルタイム伝送で受信し、次に、パケットのプロトコルヘッダを取り除いて、符号化された3Dビデオ符号化データを取得し、
    前記符号化されたビデオデータを復号して、ビデオデータならびに関連する深度および/または視差の情報を取得し、
    前記深度および/または視差の情報ならびに前記ビデオデータに従ってユーザの視野角での映像を再構成し、
    前記再構成された映像のデータを3D表示装置上に描画する、
    ことを含む、3Dビデオ通信方法。
  26. 前記符号化されたビデオデータを復号する後に、前記方法は、さらに、
    ローカル側の表示装置に3D表示能力があるか否かを判断し、表示能力がない場合、前記復号された3Dビデオデータは2次元(2D)ビデオデータに変換され、パネル表示装置に送られることを含む、請求項25に記載の方法。
  27. 前記パケットのプロトコルヘッダを取り除いた後で、かつ、前記データを復号する前に、前記方法は、さらに、
    前記パケットが、多重化されたビデオデータを含むか否かを判断し、多重化されたビデオデータを含む場合、前記パケットは逆多重化される、請求項25に記載の方法。
  28. 前記データを3D表示装置上に描画する前に、前記方法は、さらに、
    前記復号されたデータを含む映像が再構成される必要があるか否かを判断し、
    前記映像が再構成される必要があるときに、前記復号されたデータを含む映像を再構成する、
    ことを含む、請求項25に記載の方法。
JP2010536313A 2007-12-03 2008-12-03 3次元ビデオ通信の端末、システム、および方法 Pending JP2011505771A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2007101875867A CN101453662B (zh) 2007-12-03 2007-12-03 立体视频通信终端、系统及方法
PCT/CN2008/073310 WO2009076853A1 (zh) 2007-12-03 2008-12-03 立体视频通信终端、系统及方法

Publications (1)

Publication Number Publication Date
JP2011505771A true JP2011505771A (ja) 2011-02-24

Family

ID=40735635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010536313A Pending JP2011505771A (ja) 2007-12-03 2008-12-03 3次元ビデオ通信の端末、システム、および方法

Country Status (6)

Country Link
US (1) US20100238264A1 (ja)
EP (1) EP2234406A4 (ja)
JP (1) JP2011505771A (ja)
KR (1) KR20100085188A (ja)
CN (1) CN101453662B (ja)
WO (1) WO2009076853A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013509103A (ja) * 2009-11-06 2013-03-07 ソニー株式会社 2次元(2d)ビデオメッセンジャアプリケーションのための3次元(3d)ビデオ
JPWO2017154606A1 (ja) * 2016-03-10 2019-01-10 ソニー株式会社 情報処理装置および情報処理方法

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010025655A1 (zh) * 2008-09-02 2010-03-11 华为终端有限公司 3d视频通信方法、发送设备、系统及图像重构方法和系统
JP5446913B2 (ja) * 2009-06-29 2014-03-19 ソニー株式会社 立体画像データ送信装置および立体画像データ送信方法
KR101594048B1 (ko) * 2009-11-09 2016-02-15 삼성전자주식회사 카메라들의 협력을 이용하여 3차원 이미지를 생성하는 방법 및 상기 방법을 위한 장치
US8325757B2 (en) * 2009-12-17 2012-12-04 Silicon Image, Inc. De-encapsulation of data streams into multiple links
CN102195894B (zh) * 2010-03-12 2015-11-25 腾讯科技(深圳)有限公司 即时通信中实现立体视频通信的系统及方法
EP2628301A1 (en) * 2010-10-14 2013-08-21 Thomson Licensing Remote control device for 3d video system
US20130208090A1 (en) * 2010-10-26 2013-08-15 Korean Broadcasting System Hierarchical broadcasting system and method for 3d broadcasting
US20140132736A1 (en) * 2010-11-01 2014-05-15 Hewlett-Packard Development Company, L.P. Image capture using a virtual camera array
CN103202027B (zh) * 2010-11-05 2016-01-20 富士胶片株式会社 图像处理装置、图像处理程序、图像处理方法及存储介质
KR20120055991A (ko) * 2010-11-24 2012-06-01 삼성전자주식회사 영상처리장치 및 그 제어방법
KR20120058700A (ko) 2010-11-27 2012-06-08 전자부품연구원 디지털 방송의 전송 모드 제공 및 인지 방법
KR20120058702A (ko) 2010-11-27 2012-06-08 전자부품연구원 디지털 방송에서 서비스 호환 방식 전송 방법
US20120242795A1 (en) * 2011-03-24 2012-09-27 Paul James Kane Digital 3d camera using periodic illumination
KR101569602B1 (ko) * 2011-05-05 2015-11-16 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 렌즈형 지향성 디스플레이
CN103650492B (zh) 2011-07-15 2017-02-22 Lg电子株式会社 用于处理3d服务的方法和装置
CN103718563B (zh) * 2011-08-12 2019-03-15 三星电子株式会社 接收装置及其接收方法
CN102325254B (zh) * 2011-08-25 2014-09-24 深圳超多维光电子有限公司 一种立体视频的编、解码方法及装置
CN102427544A (zh) * 2011-10-13 2012-04-25 南京大学 基于可编程器件的立体视频显示方法与装置
CN103096014B (zh) * 2011-10-28 2016-03-30 华为技术有限公司 一种视频呈现方法和系统
EP2797327A4 (en) * 2011-11-14 2015-11-18 Nat Inst Inf & Comm Tech STEREOSCOPIC VIDEO ENCODING DEVICE, STEREOSCOPIC VIDEO DECODING DEVICE, STEREOSCOPIC VIDEO ENCODING METHOD, STEREOSCOPIC VIDEO DECODING METHOD, STEREOSCOPIC VIDEO ENCODING PROGRAM, AND STEREOSCOPIC VIDEO DECODING PROGRAM
CN103313073B (zh) * 2012-03-12 2016-12-14 中兴通讯股份有限公司 用于三维图像数据发送、接收、传输的方法和装置
TWI586143B (zh) 2012-04-05 2017-06-01 皇家飛利浦電子股份有限公司 用於提供用於傳送至三維[3d]目標裝置之3d視訊信號之3d源裝置、方法及記錄載體以及用於自3d源裝置接收3d視訊信號之3d目標裝置
JP5970609B2 (ja) * 2012-07-05 2016-08-17 聯發科技股▲ふん▼有限公司Mediatek Inc. 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
EP2875636A1 (en) * 2012-07-20 2015-05-27 Koninklijke Philips N.V. Metadata for depth filtering
CN102802003A (zh) * 2012-08-15 2012-11-28 四川大学 基于gpu与网络摄像机的实时拍摄与实时自由立体显示系统
CN102855660B (zh) * 2012-08-20 2015-11-11 Tcl集团股份有限公司 一种确定虚拟场景景深的方法及装置
CN103634561A (zh) * 2012-08-21 2014-03-12 徐丙川 会议通信装置和系统
CN102868901A (zh) * 2012-10-12 2013-01-09 歌尔声学股份有限公司 一种3d视频通讯装置
US10271034B2 (en) 2013-03-05 2019-04-23 Qualcomm Incorporated Simplified depth coding
US9241103B2 (en) * 2013-03-15 2016-01-19 Voke Inc. Apparatus and method for playback of multiple panoramic videos with control codes
CN103428520A (zh) * 2013-08-16 2013-12-04 深圳市鑫航世电子科技有限公司 一种3d图像合成方法和系统
US10491916B2 (en) * 2013-10-01 2019-11-26 Advanced Micro Devices, Inc. Exploiting camera depth information for video encoding
US9667948B2 (en) 2013-10-28 2017-05-30 Ray Wang Method and system for providing three-dimensional (3D) display of two-dimensional (2D) information
CN103606149B (zh) * 2013-11-14 2017-04-19 深圳先进技术研究院 一种双目摄像机的标定方法、装置及双目摄像机
CN104219493B (zh) * 2013-11-14 2017-10-20 成都时代星光科技有限公司 密拍包式无线图像采集和传输系统
CN103997640B (zh) * 2014-05-13 2016-01-27 深圳超多维光电子有限公司 带宽优化方法和带宽优化装置
US10419703B2 (en) 2014-06-20 2019-09-17 Qualcomm Incorporated Automatic multiple depth cameras synchronization using time sharing
CN105812922A (zh) * 2014-12-30 2016-07-27 中兴通讯股份有限公司 多媒体文件数据的处理方法及系统、播放器和客户端
CN104753747B (zh) * 2014-12-31 2019-06-04 海尔优家智能科技(北京)有限公司 一种连接网关与设备的方法、装置及网关设备
CN105812950A (zh) * 2014-12-31 2016-07-27 鸿富锦精密工业(深圳)有限公司 多媒体装置及视频通信方法
EP3274986A4 (en) 2015-03-21 2019-04-17 Mine One GmbH METHODS, SYSTEMS, AND SOFTWARE FOR VIRTUAL 3D
WO2017008137A1 (en) * 2015-07-13 2017-01-19 Synaptive Medical (Barbados) Inc. System and method for providing a contour video with a 3d surface in a medical navigation system
CN105100775B (zh) * 2015-07-29 2017-12-05 努比亚技术有限公司 一种图像处理方法及装置、终端
BR112018009070A8 (pt) * 2015-11-11 2019-02-26 Sony Corp aparelhos de codificação e de decodificação, e, métodos para codificação por um aparelho de codificação e para decodificação por um aparelho de decodificação.
CN105491288B (zh) * 2015-12-08 2017-11-24 深圳市阿格斯科技有限公司 图像调整方法、装置及系统
CN106921857A (zh) * 2015-12-25 2017-07-04 珠海明医医疗科技有限公司 立体显示系统及立体显示方法
CN105763848B (zh) * 2016-03-03 2019-06-11 浙江宇视科技有限公司 鱼眼摄像机后端接入方法及系统
JP6894687B2 (ja) * 2016-10-11 2021-06-30 キヤノン株式会社 画像処理システム、画像処理装置、制御方法、及び、プログラム
CN106454204A (zh) * 2016-10-18 2017-02-22 四川大学 一种基于网络深度相机的裸眼立体视频会议系统
CN107146205B (zh) * 2017-03-21 2019-12-13 北京建筑大学 一种畸变图像校正方法、触控位置识别方法及装置
CN107277486A (zh) * 2017-07-19 2017-10-20 郑州中原显示技术有限公司 四信道图像的编码、传输、解码系统及方法
CN107547889B (zh) * 2017-09-06 2019-08-27 新疆讯达中天信息科技有限公司 一种基于即时通信进行立体视频的方法及装置
CN107707865B (zh) * 2017-09-11 2024-02-23 深圳传音通讯有限公司 一种通话方式开启方法、终端及计算机可读存储介质
CN107846566A (zh) * 2017-10-31 2018-03-27 努比亚技术有限公司 一种信息处理方法、设备和计算机可读存储介质
US10735826B2 (en) * 2017-12-20 2020-08-04 Intel Corporation Free dimension format and codec
CN110198457B (zh) * 2018-02-26 2022-09-02 腾讯科技(深圳)有限公司 视频播放方法及其设备、系统、存储介质、终端、服务器
CN111971955A (zh) * 2018-04-19 2020-11-20 索尼公司 接收装置、接收方法、发送装置和发送方法
CN108632376B (zh) * 2018-05-10 2021-10-08 Oppo广东移动通信有限公司 一种数据处理方法、终端、服务器和计算机存储介质
CN111147868A (zh) * 2018-11-02 2020-05-12 广州灵派科技有限公司 一种自由视点视频导播系统
WO2020145668A1 (ko) * 2019-01-08 2020-07-16 삼성전자주식회사 3차원 컨텐츠의 처리 및 전송 방법
US20200288099A1 (en) 2019-03-07 2020-09-10 Alibaba Group Holding Limited Video generating method, apparatus, medium, and terminal
CN110381111A (zh) * 2019-06-03 2019-10-25 华为技术有限公司 一种显示方法、位置确定方法及装置
CN110881027A (zh) * 2019-10-22 2020-03-13 中国航空工业集团公司洛阳电光设备研究所 一种Camera Link-ARINC818协议的视频传输系统及转换方法
CN113141494A (zh) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 3d图像处理方法、装置和3d显示终端
CN111526323B (zh) * 2020-03-24 2023-05-23 视联动力信息技术股份有限公司 一种全景视频的处理方法和装置
JP2021190937A (ja) * 2020-06-03 2021-12-13 キヤノン株式会社 伝送処理装置、伝送処理方法、及びプログラム
WO2022147698A1 (zh) * 2021-01-06 2022-07-14 华为技术有限公司 三维视频通话方法及电子设备
CN113160298B (zh) * 2021-03-31 2024-03-08 奥比中光科技集团股份有限公司 一种深度真值获取方法、装置、系统及深度相机
CN114050926A (zh) * 2021-11-09 2022-02-15 南方电网科学研究院有限责任公司 一种数据报文深度检测方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09116882A (ja) * 1995-10-13 1997-05-02 Ricoh Co Ltd オーディオビジュアル通信端末装置
JP2002027419A (ja) * 2000-07-05 2002-01-25 Hitachi Ltd 画像端末装置及びそれを用いる通信システム
JP2004530218A (ja) * 2001-05-29 2004-09-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視覚通信信号
JP2005500757A (ja) * 2001-08-15 2005-01-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dビデオ会議システム
JP2005157921A (ja) * 2003-11-27 2005-06-16 Sony Corp 画像処理装置及び方法
JP2006114023A (ja) * 2004-10-14 2006-04-27 Sony Corp 画像処理装置及び方法
JP2006135747A (ja) * 2004-11-08 2006-05-25 Canon Inc 三次元画像変換装置ならびに制御方法
JP2006191357A (ja) * 2005-01-06 2006-07-20 Victor Co Of Japan Ltd 再生装置および再生プログラム
JP2006304065A (ja) * 2005-04-22 2006-11-02 Fuji Xerox Co Ltd 遠隔会議に用いられるサーバ、クライアントコンピュータ、制御方法及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
CN1134175C (zh) * 2000-07-21 2004-01-07 清华大学 多摄像头视频目标提取的视频图象通信系统及实现方法
JP2005025388A (ja) * 2003-06-30 2005-01-27 Toppan Printing Co Ltd 3次元コンピュータグラフィック映像の生成方法、生成装置、および生成プログラム
KR100585966B1 (ko) * 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
US7839804B2 (en) * 2004-07-15 2010-11-23 Qualcomm Incorporated Method and apparatus for performing call setup for a video call in 3G-324M
CN100403795C (zh) * 2004-12-31 2008-07-16 华为技术有限公司 一种实现ngn网络与移动网络视频互通的方法
WO2007037645A1 (en) * 2005-09-29 2007-04-05 Samsung Electronics Co., Ltd. Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method
KR100747598B1 (ko) * 2005-12-09 2007-08-08 한국전자통신연구원 디지털방송 기반의 3차원 입체영상 송수신 시스템 및 그방법
JP4463215B2 (ja) * 2006-01-30 2010-05-19 日本電気株式会社 立体化処理装置及び立体情報端末
CN101052121B (zh) * 2006-04-05 2010-04-21 中国科学院自动化研究所 视频系统参数动态标定方法及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09116882A (ja) * 1995-10-13 1997-05-02 Ricoh Co Ltd オーディオビジュアル通信端末装置
JP2002027419A (ja) * 2000-07-05 2002-01-25 Hitachi Ltd 画像端末装置及びそれを用いる通信システム
JP2004530218A (ja) * 2001-05-29 2004-09-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視覚通信信号
JP2005500757A (ja) * 2001-08-15 2005-01-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dビデオ会議システム
JP2005157921A (ja) * 2003-11-27 2005-06-16 Sony Corp 画像処理装置及び方法
JP2006114023A (ja) * 2004-10-14 2006-04-27 Sony Corp 画像処理装置及び方法
JP2006135747A (ja) * 2004-11-08 2006-05-25 Canon Inc 三次元画像変換装置ならびに制御方法
JP2006191357A (ja) * 2005-01-06 2006-07-20 Victor Co Of Japan Ltd 再生装置および再生プログラム
JP2006304065A (ja) * 2005-04-22 2006-11-02 Fuji Xerox Co Ltd 遠隔会議に用いられるサーバ、クライアントコンピュータ、制御方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013509103A (ja) * 2009-11-06 2013-03-07 ソニー株式会社 2次元(2d)ビデオメッセンジャアプリケーションのための3次元(3d)ビデオ
JPWO2017154606A1 (ja) * 2016-03-10 2019-01-10 ソニー株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
KR20100085188A (ko) 2010-07-28
WO2009076853A1 (zh) 2009-06-25
US20100238264A1 (en) 2010-09-23
CN101453662A (zh) 2009-06-10
EP2234406A1 (en) 2010-09-29
CN101453662B (zh) 2012-04-04
EP2234406A4 (en) 2010-10-20

Similar Documents

Publication Publication Date Title
JP2011505771A (ja) 3次元ビデオ通信の端末、システム、および方法
Domański et al. Immersive visual media—MPEG-I: 360 video, virtual navigation and beyond
Stankiewicz et al. A free-viewpoint television system for horizontal virtual navigation
US11303826B2 (en) Method and device for transmitting/receiving metadata of image in wireless communication system
KR102343700B1 (ko) 독립적으로 인코딩된 배경 업데이트들에 기초한 비디오 송신
CN101651841B (zh) 一种立体视频通讯的实现方法、系统和设备
US9060165B2 (en) 3D video communication method, sending device and system, image reconstruction method and system
Akar et al. Transport methods in 3DTV—a survey
EP2469853B1 (en) Method and device for processing video image data, system and terminal for video conference
CN103220543B (zh) 基于kinect的实时3d视频通信系统及其实现方法
US10511766B2 (en) Video transmission based on independently encoded background updates
CA2795694A1 (en) Video content distribution
CN105847778B (zh) 360°多视点3d全息视频采集方法、设备及实现方法
US20230319371A1 (en) Distribution of Multiple Signals of Video Content Independently over a Network
CN107534797B (zh) 一种增强媒体记录的方法和系统
CN109451293B (zh) 一种自适应立体视频传输系统和方法
Hu et al. Mobile edge assisted live streaming system for omnidirectional video
Domański et al. Emerging imaging technologies: trends and challenges
US20230146498A1 (en) A Method, An Apparatus and a Computer Program Product for Video Encoding and Video Decoding
Debono et al. 3D video coding and transmission
CN115174942A (zh) 一种自由视角切换方法及交互式自由视角播放系统
WO2022219229A1 (en) A method, an apparatus and a computer program product for high quality regions change in omnidirectional conversational video
Domański et al. Efficient transmission of 3d video using MPEG-4 AVC/H. 264 compression technology
Macq et al. Interim Specification of Generic Data Representation and Coding Scheme
KR20120041532A (ko) 양안식 비디오 송신 장치 및 그 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130226