JP2024504050A - 3dストリーム処理 - Google Patents

3dストリーム処理 Download PDF

Info

Publication number
JP2024504050A
JP2024504050A JP2023540906A JP2023540906A JP2024504050A JP 2024504050 A JP2024504050 A JP 2024504050A JP 2023540906 A JP2023540906 A JP 2023540906A JP 2023540906 A JP2023540906 A JP 2023540906A JP 2024504050 A JP2024504050 A JP 2024504050A
Authority
JP
Japan
Prior art keywords
image data
data stream
stream
modified
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023540906A
Other languages
English (en)
Inventor
エッサイリ, アリ エル
ナタリア テュディナ,
Original Assignee
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エルエム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Publication of JP2024504050A publication Critical patent/JP2024504050A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/013Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the incoming video signal comprising different parts having originally different frame rate, e.g. video and graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本出願は、無線ネットワークを通じてエクステンデッドリアリティデバイスに送信するため、3D画像データストリームを処理するように設定された、処理エンティティを動作させるための方法であって、実世界オブジェクトの構造を表現する第1の画像データストリームと、実世界オブジェクトの視覚的外観を表現する第2の画像データストリームとを含む、3Dストリームを受信することと、対応する送信時間指示を、第1の画像データストリームおよび第2の画像データストリームのそれぞれに追加し、それにより、修正された第1のストリームおよび修正された第2のストリームを含む修正されたストリームをもたらすことと、修正されたストリームを、ネットワークを通じてエクステンデッドリアリティデバイスに送信することと、修正された第1のストリームおよび修正された第2のストリームのそれぞれに対する処理時間指示を受信することと、処理時間指示に基づいて、3D画像データストリームおよび修正されたストリームのうち少なくとも一方の適合を開始することとを含む、方法に関する。【選択図】図10

Description

本出願は、処理エンティティを動作させるための方法、および対応する処理エンティティに関する。さらに、コンピュータプログラム、およびコンピュータプログラムを備えるキャリアが提供される。特に、本明細書の実施形態は、無線ネットワークを通じて送信するための、3D画像ストリームデータの処理に関する。
近年、リモート会議および仮想通信の重要性が急速に増してきた。これに関連して、点群または任意の3D画像データストリームは、デプスカメラから、拡張現実(AR)デバイス、複合現実(MR)デバイス、または仮想現実(VR)デバイスなどの、XR(エクステンデッドリアリティ)デバイスにストリーミングされる。3Dコンテンツの点群(例えば、3D画像フレーム)は、Intel RealsenseまたはMicrosoft Kinectなどのデプスカメラによってキャプチャされる。
一般に、キャプチャされた3Dコンテンツを表現するのに、メッシュ、テクスチャ、およびUVマップが使用される。メッシュは、AR/VR内のオブジェクトの形状を規定するデータ構造である。異なるメッシュトポロジーのタイプ、例えば、三角形メッシュ、線メッシュ、または点メッシュがある。タイプは、メッシュ面が、三角測量、点、または線を使用して作成される手法を示し、各線は、2つの頂点インデックスなどで構成される。メッシュは、3Dコンテンツの形状を規定するエッジおよび頂点を含む。
UVマッピングは、2D画像を3Dモデルの表面に投影してテクスチャマッピングを行う、3Dモデリングプロセスである。UVマッピングにより、3Dオブジェクトを構成する多角形に色を加えることが可能である。UVマッピングプロセスは、画像内のピクセルを多角形上の表面マッピングに割り振ることを伴う。レンダリング演算は、UVテクスチャ座標を使用して、三次元表面をどのようにペイントするかを決定する。
テクスチャは、オブジェクトのデジタル2Dピクチャ(RGB画像とも呼ばれる)である。メッシュ、テクスチャ、およびUVの組合せが、3D画像ストリーム内で表現されるシーンの3D表現を作成する。メッシュおよびテクスチャから人間を抽出し、UVを適用することによって、異なる角度からキャプチャすることができる、人間の3D表現を作成することが可能である。
3D画像データのストリーミングは帯域幅集約的である。メッシュ、UV、およびテクスチャを含む1フレームの解像度が480×640の場合、平均データ量は11MBであり、したがって、毎秒60フレームの場合のデータ量は毎秒600MBとなる。HDまたはUHD解像度の場合、毎秒当たりのビットレートはGB単位である。3D画像データの圧縮はまだ十分に発達していない。結果として、モバイルネットワークを通じて600MB/秒の帯域幅要件を有する3D画像データのストリーミングを行うことが課題である。圧縮が利用可能になったとしても、品質に対する影響があり、また3D画像データの送達を最適化するための方策が依然として必要である。図1は、デプスカメラによって生成された点群を、AR眼鏡などのXRデバイスにオーバーザトップストリーミングするための、高レベルシステムアーキテクチャを提供する。ネットワークに対する要件は、帯域幅、レイテンシ、およびジッタ(レイテンシの変動)の点で非常に高い。
3Dまたはデプスカメラ80は、3D画像データストリームを生成し、点群の生成および符号化は、コンピュータもしくはゲーミングコンソール20で、またはデプスカメラで実施されてもよい。ストリームは、無線(例えば、セルラ)ネットワーク40を通じてモバイルエンティティまたはUE 30に送信され、モバイルエンティティまたはUE 30で復号およびレンダリングが実施される。エクステンデッドリアリティデバイス70を着用し、UEに接続されているユーザは、デバイス70を使用して3D画像データストリームを観ることができる。
3D画像データストリームはまた、純粋な2D画像のレンダリングと比較してメッシュレンダリング時間が長いため、データの同期に関して問題がある。テクスチャおよびUV処理はメッシュ処理の8倍の速度であり、そのことが、メッシュによって規定される表面と対応するテクスチャとの不整合につながる。例として、人間の画像をレンダリングする際、人間の頭部が左から右に素早く移動した場合、メッシュは頭部が正面位置に残ったままであるが、テクスチャおよび人間の画像と関連付けられたUVマップは既に左を向いている。結果として、左向きの位置で、人間の画像は鼻を頬の形状でレンダリングする。
したがって、上述の問題を克服するとともに、上述した不整合が最小限に抑えられるように、無線ネットワークを通じて送信される3D画像データストリームの処理および表示を改善する必要がある。
この必要性は、独立請求項の特徴によって満たされる。さらなる態様は従属請求項に記載される。
第1の態様によれば、無線ネットワークを通じてエクステンデッドリアリティデバイスに送信するため、3D画像データストリームを処理するように設定された、処理エンティティを動作させるための方法が提供される。方法は、3D画像データストリームを受信するステップを含み、3D画像データストリームは、少なくとも1つの実世界オブジェクトの構造を表現する第1の画像データストリームを含み、3D画像データストリームは、少なくとも1つの実世界オブジェクトの視覚的外観を表現する第2の画像データストリームを含む。処理エンティティは、対応する送信時間指示を第1の画像データストリームおよび第2の画像データストリームのそれぞれに追加し、それにより、修正された第1のストリームおよび修正された第2のストリームを含む修正されたストリームが生成される。修正されたストリームは、無線ネットワークを通じてエクステンデッドリアリティデバイスに送信され、処理エンティティは、エクステンデッドリアリティデバイスから、修正された第1のストリームおよび修正された第2のストリームのそれぞれに対する処理時間指示を受信する。さらに、修正された第1のストリームおよび修正された第2のストリームの処理時間指示に基づいて、3D画像データストリームおよび修正されたストリームのうち少なくとも一方の適合が開始される。
さらに、上述したように、またはさらに詳細に後述するように働くように動作する、対応する処理エンティティが提供される。
代替例として、3D画像データストリームを処理して、無線ネットワークを通じてエクステンデッドリアリティデバイスに送信するように設定された、処理エンティティが提供され、処理エンティティは、3D画像データストリームを受信するように設定された第1のモジュールを備え、3D画像データストリームは、少なくとも1つの実世界オブジェクトの構造を表現する第1の画像データストリームと、少なくとも1つの実世界オブジェクトの視覚的外観を表現する第2の画像データストリームとを含む。処理エンティティは、対応する送信時間指示を第1の画像データストリームおよび第2の画像データストリームのそれぞれに追加するように設定された第2のモジュールを備え、それにより、修正された第1のストリームおよび修正された第2のストリームを含む修正されたストリームが生成される。処理エンティティは、修正されたストリームを、無線ネットワークを介してエクステンデッドリアリティデバイスに送信するように設定された、第3のモジュールを備える。修正された第1のストリームおよび修正された第2のストリームのそれぞれに対する処理時間指示を、エクステンデッドリアリティデバイスから受信するように設定された、第4のモジュールが提供される。処理エンティティの第5のモジュールは、修正された第1のストリームおよび修正された第2のストリームの処理時間指示に基づいて、3D画像データストリームのエンティティで修正されたストリームのうち少なくとも1つの適合を開始するように設定される。
送信時間指示を含み、処理時間を受信することにより、処理エンティティは、エクステンデッドリアリティデバイスにおける送信および処理状況を推測することができる。例として、修正されたストリーム部分、修正された第1のストリームおよび修正された第2のストリーム、ならびに対応する送信時間指示と対応する処理時間を比較することによって、現在の条件に対して反応し、3D画像データストリーム、修正されたストリームのどちらか、または両方のストリームを修正して、エクステンデッドリアリティデバイスにおける修正された第1のストリームおよび修正された第2のストリームの同期が維持されるようにすることが可能である。例として、実世界オブジェクトは、人間および1つまたは複数の背景オブジェクトを表現するシーンを含むことができる。
加えて、無線ネットワークを通じて3Dカメラによって生成された3D画像データストリームを受信するように設定された、処理エンティティを動作させるための方法が提供され、3D画像データストリームは、少なくとも1つの実世界オブジェクトの構造を表現する第1の画像データストリームと、少なくとも1つの実世界オブジェクトの視覚的外観を表現する第2の画像データストリームとを含む。方法は、3Dカメラから、3Dカメラの解像度を示す解像度インジケータを受信するステップと、3D画像データストリームに示される少なくとも実世界オブジェクトの活動を決定し、解像度インジケータ、送信帯域幅、および決定された活動を考慮に入れて、第1の画像データストリームに対して3Dカメラによって使用される第1のフレームレートと、第2の画像データストリームに対して3Dカメラによって使用される第2のフレームレートとを決定するステップと、を含む。3Dカメラには、決定された第1のフレームレートに基づいて決定されたスケーリングパラメータ、および第2のフレームレートが通知される。
加えて、上述したように、またはさらに詳細に後述するように働くように動作する、対応する処理エンティティが提供される。
代替例として、無線ネットワークを通じて、3Dカメラによって生成された3D画像データストリームを受信するように設定された、処理エンティティが提供され、データストリームは、少なくとも1つの実世界オブジェクトの構造を表現する第1の画像データストリームと、少なくとも1つの実世界オブジェクトの視覚的外観を表現する第2の画像データストリームとを含み、処理エンティティは、3Dカメラから、3Dカメラの解像度を示す解像度インジケータを受信するように設定された、第1のモジュールを備える。3D画像データストリームに示される少なくとも実世界オブジェクトの活動を決定するように設定された、第2のモジュールが提供される。処理エンティティは、3D画像データストリームを処理エンティティに送信するのに使用される、さらなる無線ネットワークの送信帯域幅を決定するように設定された、第3のモジュールを備える。処理エンティティの第4のモジュールは、解像度インジケータ、送信帯域幅、および決定された活動を考慮に入れて、第1の画像データストリームに対して3Dカメラによって使用される第1のフレームレートと、第2の画像データストリームに対して3Dカメラによって使用される第2のフレームレートとを決定するように設定される。処理エンティティの第5のモジュールは、3Dカメラに、決定された第1のフレームレートに基づいて決定されたスケーリングパラメータ、および第2のフレームレートを通知するように設定される。
さらに、プログラムコードを備え、プログラムコードを実行することによって、処理エンティティの少なくとも1つの処理ユニットに、上述したような、またはさらに詳細に後述するような方法を実行させる、コンピュータプログラムが提供される。
さらに、コンピュータプログラムを含むキャリアであって、電子信号、光学信号、無線信号、またはコンピュータ可読記憶媒体のうち1つである、キャリアが提供される。
上述した特徴、および以下で説明する特徴は、示唆されるそれぞれの組合せだけではなく、本発明の範囲から逸脱することなく、他の組合せまたは単独でも使用できることが理解されるべきである。上述した態様および後述する実施形態の特徴は、別段の明示がない限り、他の実施形態で互いに組み合わされてもよい。
本出願の上記および追加の特徴ならびに効果は、以下の詳細な記載を添付図面と併せ読むことで明らかとなるであろう。図面中、同様の参照番号は同様の要素を指す。
当該技術分野で知られているような、セルラネットワーク上におけるエクステンデッドリアリティデバイスへの3D画像データストリームのストリーミングを示す概略図である。 当該技術分野で知られている問題を克服するとともに、本発明の特徴を備える、3D画像データストリームの処理を含むアーキテクチャを示す概略図である。 当該技術分野で知られている問題を克服するとともに、本発明の特徴を備える、3D画像データストリームを処理するためのアーキテクチャを示す別の概略図である。 図2および図3に示されるようなシステムにおける3D画像データストリームのストリーミングを改善する助けとなる、情報の交換をさらに詳細に示す図である。 ネットワーク帯域幅に応じたメッシュおよびテクスチャのスケーリングを示す概略図である。 3D画像データストリーム内に存在するシーンに示されるユーザ活動に応じた、メッシュおよびテクスチャのスケーリングを示す概略図である。 画像データストリーム内に示される人間の活動の決定を概略的に示す図である。 現在の条件に基づいて3D画像データストリームを生成する、エンティティ間の通信のシーケンスを示す概略図である。 テクスチャがメッシュよりも高速で処理されたときに起こり、レンダリングされた3D画像上での不整合につながる、問題を示す概略図である。 エクステンデッドリアリティデバイスにおいてレンダリングされた3D画像上での不整合が回避されるように、図9に示される問題を克服するための、関与するエンティティ間でのメッセージ交換を示す概略図である。 図2~図10に関連して考察されるような処理に関与する処理エンティティによって実施される方法のフローチャート例を示す図である。 プロセスの始まりにおいて関与するエンティティを設定するように、処理エンティティによって実施される方法のフローチャート例を示す図である。 3D画像データストリームの異なる部分を同期させるように設定された処理エンティティを示す一例の概略図である。 3D画像データストリームの異なる部分を同期させるように設定された処理エンティティを示す別の例の概略図である。 ストリームスケーリングを実施するように設定された処理エンティティを示す一例の概略図である。 ストリームスケーリングを実施するように設定された処理エンティティを示す別の例の概略図である。
以下、添付図面を参照しながら本発明の実施形態について詳細に記載する。実施形態についての以下の記載は限定的な意味で解釈されるべきでないことが理解されるべきである。本発明の範囲は、単なる例証であるべきものである、以下に記載する実施形態によって、または図面によって、限定されないものとする。
図面は概略的表現とみなされるべきものであり、図面に示される要素は必ずしも縮尺通りには示されない。それよりもむしろ、様々な要素は、要素の機能および一般的目的が当業者にとって明白となるようにして表される。図面に示され以下に記載される、物理的ユニットまたは機能的ユニットの機能ブロック、デバイス、構成要素の間の接続または結合はいずれも、間接的な接続または結合によって実現されてもよい。機能ブロックは、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組合せの形で実現されてもよい。
本出願の文脈内において、モバイルエンティティまたはユーザ機器(UE)という用語は、例えば、人間、ユーザによって、個人的通信のために使用される、デバイスを指す。デバイスは、電話タイプのデバイス、セルラ電話、移動局、コードレス電話、または無線データ接続を装備した、ラップトップ、ノートブック、ノートパッド、もしくはタブレットのような携帯情報端末タイプのデバイスであることができる。UEは、UEを使用するユーザと関連付けられた、国際移動体加入者識別情報(International Mobile Subscriber Identity:IMSI)、一時的移動体加入者識別情報(Temporary Mobile Subscriber Identity:TMSI)、または世界的に一意の一時的UE識別情報(Globally Unique Temporary UE Identity:GUTI)などの固有の識別情報を含む、加入者識別情報モジュール(SIM)または電子SIMを装備してもよい。UE内にSIMが存在することにより、UEがユーザのサブスクリプションによって一意的にカスタマイズされる。
明瞭にするため、ユーザと加入者との間には違いがあるが、緊密なつながりもあることが注目される。ユーザは、ネットワークへのサブスクリプションを獲得することによってネットワークへのアクセスを得て、そのことによってネットワーク内の加入者となる。ネットワークは次に、例として、IMSI、TMSI、またはGUTIなどを使用して、加入者を認識し、関連付けられたサブスクリプションを使用して関連するサブスクリプションデータを識別する。ユーザは、UEエンティティの実際のユーザであることができ、またサブスクリプションを所有する者であってもよいが、ユーザおよびサブスクリプションの所有者は異なることもある。
以下、デプスカメラまたは3Dカメラによってキャプチャされ、最適化され、後でエクステンデッドリアリティデバイスに送信される、点群ストリームまたは3D画像データストリームの送信について考察する。以下、点群ストリームまたは3D画像データストリームは互換可能に使用される。同じように、3Dカメラはデプスカメラに対応する。
以下で説明するように、好ましくはクラウド機能として実現される処理エンティティが提供され、処理エンティティは、ネットワーク条件、デバイス能力、および3D画像データストリームで提示されるシーンに示されるユーザの移動(即ち、ユーザ活動)に基づいて、メッシュおよびテクスチャを含む3D画像データストリームをスケーリングし同期するのに使用することができる。ネットワーク情報およびユーザ活動は、メッシュおよびテクスチャを送信し、3D画像データストリームを適宜スケーリングするための、要件を決定するのに使用されることがある。さらに、レンダリング時間を含む実際の処理時間に関する、エクステンデッドリアリティデバイスからのフィードバックが、3D画像データストリームの異なるコンポーネントについて考慮されて、新しいメッシュなどの3D画像データストリームの新しい部分がどこで必要とされるか、またはメッシュ更新がいつ提供されるべきかに関してインスタンスが決定される。
本出願は、リアルタイム3D通信に対する2つの課題領域に対処する。まず最初に、メッシュなど、画像データストリーム内で示される構造を送信するフレームレート(第1の画像データストリームとも呼ばれる)、およびテクスチャなど、視覚的外観を表現する画像データストリームの部分(第2の画像データストリームとも呼ばれる)は、ネットワーク帯域幅およびユーザ活動に基づいてスケーリングするように適合される。第二に、3D画像データストリームの異なる部分、つまり画像データストリームのシーン内に示されるオブジェクトの構造を表現する部分もしくはデータストリーム(以下、第1の修正されたストリームとも称される)、または視覚的外観を含むストリーム(以下、第2の修正されたストリームとも称される)は、XRデバイスにおける処理またはレンダリング時間に基づいて、異なるフレームレートで送信される。本出願はさらに、図2および図3と関連してさらに詳細に考察されるように、好ましくはクラウドのエッジに位置する処理エンティティを提供することによって、3D通信のためのアップリンクまたはプロダクションエッジ機能およびダウンリンク/ディストリビューションエッジ機能の必要性に対処する。
図2は、3D画像データストリームまたは点群を3Dカメラ80からXRデバイス70にストリーミングする、エンドツーエンドシステムの概観を提供し、クラウドコンポーネントは通信経路に提供される。通信経路は、エクステンデッドリアリティデバイスにおいて生じる(第1の画像データストリームおよび第2の画像データストリームの)処理時間の差が考慮に入れられるようにして、3D画像データストリームを処理する、3Dカメラからインターネットまたは処理エンティティ100へのアップリンク接続を説明する、無線ネットワーク50の第1の無線リンクまたは部分を含んでもよい。さらに、無線リンク60、ダウンリンク無線リンク、または無線ネットワークが、エクステンデッドリアリティデバイス70に向けて提供される。図2は、3Dカメラに近い第1のクラウドコンポーネントまたはサーバと、XRデバイス70に近いさらなるクラウドサーバまたはコンポーネントとの、2つのクラウドコンポーネントを示している。
ネットワーク条件、ユーザ活動、およびデバイス特性に基づいて、最適化された3D点ストリームを提供するために、点群ストリームスケーリングおよび/または点群ストリーム同期が提案される。3D画像データストリームの生成は3Dカメラで行われ、ストリームレンダリングはXRデバイス70で実施される。カメラは、例えばUSBケーブルを介して、PCに接続されてもよく、カメラおよびデバイス70は、セルラまたは無線ネットワークに接続するため、何らかのUEに接続することができる。また、ストリームレンダリングが接続されたユーザ機器(UE)で行われて、デバイス70がテザリングデバイスとして動作するようにすることが可能である。
図2に示される実施形態では、後述するように、ネットワーク帯域幅およびユーザ活動に基づいて送信するためのフレームレートの適合は、デバイス70における処理時間に基づいて、3D画像データストリームの異なる部分を同期するのと同じエンティティで実施される。
処理時間は、デバイス70でのレンダリングを含む、送信、バッファリング、および任意の復号または処理などのいくつかの時間成分を含む、3D画像データストリームのフレームを受信した後、フレームをレンダリングするまでの持続時間である。
図3は、図2に示されるのと同様の状況を示しているが、現在の環境条件に照らしてフレームレートを適合させることを含む機能ステップが異なっており、レンダリング時間または処理時間に基づいて、異なるストリーム部分の送信が異なる構成要素200または100で実施される。処理エンティティ200は、デバイス、送信帯域幅などのネットワーク設定、およびユーザ活動に基づいて、3D画像データストリーム内のメッシュおよびテクスチャのスケーリングを担う。処理エンティティ100は、レンダリングがXRデバイス70におけるひずみまたは遅延を引き起こさないように、3D画像データストリームの異なる部分の異なるフレームレートの制御を担う。
以下のセクションでは、第1の部分について、つまり、デバイス設定、ネットワーク条件、およびユーザ活動に基づいた、3D画像データストリームのスケーリングについて記載する。図2の実施形態では、スケーリングは処理エンティティ100によって実施され、図3の実施形態では、スケーリングは処理エンティティ200によって実施される。3D画像データストリームに最適なスケーリングは、処理エンティティ100または200において、クラウドによって実施される。3D画像データストリームは、人間などの実世界オブジェクトの構造または幾何学形状を表現する第1の画像データストリーム(部分)を備え、データストリームはさらに、視覚的外観を表現する第2の画像データストリーム(部分)を備える。第1の画像データストリームはメッシュを含むことができ、第2の画像データストリームはテクスチャおよびUVを備えることができる。スケーリングは、現在のネットワーク条件(例えば、ネットワーク帯域幅)に基づいて、3Dストリーム内のメッシュおよびテクスチャに必要とされる適切なスケールを決定することによって行われる。スケールはまた、XRデバイス70における同期の問題を回避するために、ユーザ活動から導き出される、メッシュおよびテクスチャを更新するための要件によって決定される。同期の問題は、図9に関連してやはり考察されるようなネットワークの問題により、テクスチャが早く到着し、メッシュが更新されないときに起こり得る。スケーリング(ストリーム内のメッシュコンポーネントの送信の低減など)も、メッシュのストリーミングを実行可能にするために、ユーザの移動が少ないことによってメッシュの更新が不要なときに、ネットワーク上における帯域幅の要件を低減するのに必要なことがある。
点群ストリームが非常に複雑なため、点群圧縮は、実際上、作成側におけるクラウドのエッジで起こる可能性がある。問題は圧縮前にあり、多量のデータを、無線アップリンクを通じてエッジまたはクラウドにアップロードする必要がある。1つの具体例は、図2に示される処理エンティティ100によって、または図3に示される処理エンティティ200によって実施される、エッジにおける点群処理である。ここで、アーチファクトまたは背景が除去されてもよく、各点群データストリームに対して複雑な動作を実施することができる。活動を特性決定するため、3Dカメラ80との閉ループを確立することによって、新しいメッシュが必要なときのみ更新されてもよく、それによって多くのアップリンク帯域幅および処理時間を節約することができる。圧縮は無線アップリンクの後に適用されてもよい。
スケーリングプロセスについて、図4と関連してさらに詳細に考察する。3Dカメラ80は、デバイス解像度、ネットワーク条件、およびユーザ活動を、処理エンティティ100、200に送信する。ユーザ活動は、眼球運動、表情の変化、もしくは姿勢の変化、または他のあらゆる運動を含むことができる。これらのパラメータの少なくとも一部は、3Dカメラの最適な設定を決定するための入力として使用されてもよい。メッシュのフレームレートとテクスチャ/UVのフレームレートとの比に対応するスケーリング比が、カメラ80に提供され、エクステンデッドリアリティデバイスにも提供される。エクステンデッドリアリティデバイス70はまた、自身の解像度、表示解像度を、処理エンティティ100、200に提供してもよい。
図5は、測定されたネットワーク条件に基づいた、3D画像データストリームのメッシュコンポーネントおよびテクスチャコンポーネントのマッピングを示している。メッシュは、構造を表現するデータストリームの部分であり、超高帯域幅でのより高いフレームレートを許容することができるが、低帯域幅になるほど高フレームレートが許容しづらくなって、指数関数的な減衰につながる。視覚的外観、ここではテクスチャを表現する他の部分のフレームレートは、帯域幅の要件がより低いため、フレームレートの減少がより緩やかである。
図6は、構造的表現および視覚的外観のフレームレート、即ちメッシュおよびテクスチャのフレームレートが、眼球運動、頭部の姿勢変化、または表情の変化など、3D画像データストリームのシーン内で示されるユーザの運動などのユーザ活動に基づいて適合される、一例を示している。ユーザ活動が大きいほど、ユーザ体感の需要を満たすため、より高いメッシュレートが必要になる。視覚的外観、ここではテクスチャを表現するデータ部分の場合、ユーザ活動が少ない場合の没入品質を維持するため、比較的高いフレームレートが必要とされる。
ユーザ活動は、図7に示されるような、連続するメッシュフレーム間のメッシュまたは点群の座標の差を考慮することによって決定されてもよい。各点群座標「P」は、X、Y、およびZ座標によって特性決定されてもよい。すべての点群の差の合計が、活動閾値に基づいてユーザ活動スコアを決定する、スケーリングされたシステムに供給される。出力は1~100でスケーリングされてもよく、スケール1は「活動なし」を表し、スケール100は「最大活動」を示す。一般性を失うことなく、かかるスケーリングモデルを、コンテンツタイプ、複雑さなどの異なるパラメータに基づいて、訓練し調節することができる。図7に示されるように、処理エンティティ100は、ユーザ活動スコアの計算を実施することができる。さらなる最適化されたスケーリングの例は、以下のように、唇の動き、姿勢の変化などの一般化された活動特性決定を考慮することができる。
低活動スコア=10→メッシュフレームレート(20fps)
中活動スコア=50→メッシュフレームレート(40fps)
高活動スコア=90→メッシュフレームレート(60fps)
別の最適化されたスケーリング測定基準は、フレームレートを一定に保った場合のメッシュ密度であることができ、または以下の組合せであることができる。
低活動スコア=10→メッシュ密度(X/4データポイント)
中活動スコア=50→メッシュ密度(X/2データポイント)
高活動スコア=90→メッシュ密度(Xデータポイント)
ここで、Xは、1フレーム内のデータポイントの数、例えば10kのデータポイントに対応する。
図8は、処理エンティティにおいて実施される、メッシュおよびテクスチャの最適なスケーリングのためのメッセージ交換を説明している。図8は、アップリンク帯域幅が限定され、全点群ストリームをリアルタイムでXRデバイスに提供することができないシナリオに対処する。
ステップS81で、処理エンティティは、メッシュおよびテクスチャのための解像度に関して3Dカメラからの入力を収集し、ステップS82で、処理エンティティはまた、任意に、表示解像度に関してXRデバイスからの入力を受信する。XRデバイスはヘッドマウントディスプレイであってもよいが、XRデバイスはヘッドマウントディスプレイに限定されず、他のいずれのXRデバイスも使用されてもよいことが理解されるべきである。さらに、処理エンティティは、図7と関連して上述したような、ユーザの運動、メッシュの回転および並進移動など、ユーザ活動の入力をカメラから収集する(S83)。さらに、処理エンティティ100または200は、帯域幅およびレイテンシ情報などのネットワーク情報を受信する。ネットワーク情報は、ステップS84およびS85によって示されるように、カメラ、UEによって、またはネットワークによって提供することができる。ステップS86で、処理エンティティは、受信した情報に基づいて最適なスケーリングを決定し、それにより、後述するように、メッシュおよびテクスチャまたは点群ストリームのレートを規定する。ステップS87で、1秒当たりのメッシュおよびテクスチャの比である、結果として得られる最適なスケーリングが、3Dカメラに、また任意にステップS88でXRデバイスに提供される。
以下、点群ストリーム同期のための方策が、XRデバイス70へのダウンリンク方向で、処理エンティティにおいて実施される。後述する方策では、XRデバイスへのデータストリームの送信は、XRデバイスの処理時間に基づいて適合される。この処理時間は、チャネル上での送信時間、バッファリング、復号、メッシュ再構成、およびレンダリングなど、XRデバイス70における追加の遅延を含むことができる。3D画像データストリームの処理の間、以下の典型的な遅延が観察されることがある。一例では、XRデバイスにおけるメッシュ全体の処理またはレンダリングには最大で200msかかる可能性がある。XRデバイスにおけるメッシュのレンダリング更新または部分は約30msかかる場合がある。テクスチャおよびUVのレンダリングは最大で30msかかる可能性がある。
図9は、テクスチャがメッシュよりも高速で処理される場合の、ピクチャ内の表面の不整合の問題に対処する。処理エンティティでは、入力されるメッシュおよびテクスチャまたはUVは同期されている。メッシュおよびテクスチャまたはUVの送信時間は、メッシュ全体を送信するときにばらつく場合がある。XRデバイスにおいて、テクスチャまたはUVは(テクスチャまたはUVのデータ量がより少ないことに照らして)メッシュよりも高速で受信される。さらに、メッシュ全体のレンダリング時間はテクスチャまたはUVに対する時間よりも長く、そのため、メッシュに対して追加の遅延がもたらされる。したがって、フレームn+3のテクスチャは既にレンダリングされており、一方でフレームn+1のメッシュがほぼ同時にレンダリングされる、図9に示されるような状況が起こり得る。したがって、レンダリング時間、データストリームの対応する部分が表示される時間は、テクスチャとメッシュとで異なる。
図10は、デバイス70から受信されるようなレンダリング時間または所有のフィードバックに基づいて、処理エンティティ100がメッシュ更新を送出することができる、同期の方策を示している。この状況では、3Dカメラからデバイス70にストリーミングされるデータの量も大幅に低減される。それに加えて、同期によって、最適な形で、接続中断の後に機能を回復することが可能になる。
図10のステップS101で、3Dカメラは、メッシュ、テクスチャ、およびUVを包含する3D画像データストリームをクラウドに送出する。ステップS102で、処理エンティティは、メッシュ、テクスチャ、およびUVを整合させ、それぞれに特定のフォーマットでタイムスタンプを付け、後でXRデバイス70に送出されるキューにストリームを追加する。可能なタイムスタンプは次のフォーマットを有することができる。
yyyy-MM-dd HH:mm:ss.SSS (1)
ステップS103で、フレームのうち第1のフレームの間、処理エンティティは、メッシュ全体、テクスチャ、およびUVを、タイムスタンプまたは送信時間指示を含めて、XRデバイス70に送出する。
ステップS104で、XRデバイス70は、点群ストリームを受信した後、受信データを処理し、エンドユーザのために同じタイムスタンプを用いてデータをレンダリングする。
ステップS105で、XRデバイス70は、メッシュ、テクスチャ、およびUVを含む各要素に対して処理時間(処理時間指示)を報告する。処理時間またはレンダリング時間は、XRデバイス70上の要素を処理し、ユーザに対して表示するのにかかる時間として規定される。
Rt[e]=t_s-t_d (2)
Rt:レンダリング時間
e:要素(メッシュ、テクスチャ、UV)
t_s:データ処理が開始したときのタイムスタンプ
t_d:データがXRデバイス内部で表示されたときのタイムスタンプ
ステップS106で、処理エンティティ100は、処理時間指示を受信し、受信した情報を実際のタイムスタンプと比較する。ステップS107で、処理エンティティ100は、フレームが同期しているか否かをチェックする。フレーム間の遅延があらかじめ規定された時間量よりも小さい場合、処理エンティティは、テクスチャおよびUVとともに(全メッシュデータの代わりに)メッシュ更新のみを送出することができる。この方策により、カメラからエクステンデッドリアリティデバイスにストリーミングされるデータの量が低減される。さらなる選択肢として、遅延の差があらかじめ規定された閾値よりも大きい場合、処理エンティティはコマンドをデバイス70に送出して、3Dデータストリームの現在のキューを落とし、全メッシュデータ、テクスチャ、およびUVを包含する最新キューを再送信する。これにより、最適な形で、接続中断の後に機能を回復することが可能になる。
上述したスケーリングおよび同期の方策は、現在のレンダリング時間に関する情報がデバイス70から3Dカメラ80に提供されるように、組み合わせることができる。メッシュ更新のみが必要な場合、処理エンティティは、フィードバックを3Dカメラに提供して、カメラが最適化されたストリームをXRデバイス70に提供し、一対一の会議に有用なことがあるアップリンク帯域幅を保存するようにすることができる。処理エンティティはさらに、メッシュのどの領域が更新を要しているか、フィードバックを3Dカメラ80に提供することができる。例として、ユーザ運動を示しているストリーム内の領域のみが更新されてもよい。さらに、物体または人間または顔の移動を予測し、物体または人間または顔が移動もしくは転回したときにその像を外挿することが可能である。この方策は人工知能に基づいてもよい。予測のためのこの方策は、処理エンティティにおいて、例としてアップリンク帯域幅の限定に照らして、メッシュを3Dカメラから検索できない場合、またはダウンリンク帯域幅の限定がある場合にリアルタイムでXRデバイスに送出されてもよい事例を補償するものとみなすことができる。
図11は、画像データストリームの、つまり、この3D画像データストリームに包含される構造を表現する第1のストリームおよび視覚的外観を表現する第2のストリームの、異なる部分を同期する例において、処理エンティティ100によって実施されるステップの一部を概説している。ステップS111で、処理エンティティ100は、人間など、少なくとも1つの実世界オブジェクトの構造を表現する第1の部分または第1の画像データストリームを含む、この実データストリームを受信し、3Dデータストリームは、第2のストリーム部分、つまりオブジェクトの視覚的外観を表現する第2の画像データストリームを含む。ステップS112で、処理エンティティは、対応する送信時間指示をストリーム部分それぞれに、つまり第1の画像データストリームおよび第2の画像データストリームに追加し、それにより、修正された第1のストリームおよび修正された第2のストリームを含む修正されたストリームが生成される。これについては、図10に関連してステップS102で上述した。移行時間指示は、両方のストリーム、第1のストリームまたは第2のストリームで同じであることができるが、ストリームそれぞれに対して別個かつ特異的でもあり得る。ステップS113で、ここでは送信時間を含んでいる修正されたストリームは、ステップS103でも考察したように、エクステンデッドリアリティデバイスに送信される。ステップS114で、処理エンティティは次に、修正されたストリームの異なる部分それぞれについて処理時間指示を受信する。これについては、ステップS105で上述した。修正されたストリームおよび受信したストリームの異なるコンポーネントについて、送信時間指示および処理時間指示が分かっているので、処理ユニットによって受信されたような、受信した3D画像データストリームの適合、あるいは処理エンティティによって修正されたようなストリームの適合を開始することが可能である。さらに、3D画像データストリームおよび修正されたストリーム両方が適合されることが可能である。
図12は、図4および図8と関連して、処理エンティティ100または200によって実施されるステップを概説している。
ステップS121は、3Dカメラによって受信されるような、解像度の受信を説明している。さらに、ステップS122で、3D画像データストリームのシーンに示されるオブジェクトの活動が決定される。この活動は、カメラの側から受信されてもよく、または3D画像データストリームが既に受信されている場合、処理エンティティの内部で決定されてもよい。さらに、ステップS123で、処理エンティティに対するデータストリームのアップリンク送信に使用される、無線ネットワークの送信帯域幅が決定される。受信した情報に基づいて、処理エンティティは、ステップS124で、構造を表現する画像データストリーム部分に対して3Dカメラによって使用されるべきフレームレート、およびストリーム内に示されるオブジェクトの視覚的外観を表現する画像データストリームの部分に対してカメラによって使用されるべきフレームレートを決定することができる。ステップS125で、処理エンティティは、構造を含むストリーム部分のフレームレートと、視覚的外観を含むストリーム部分のフレームレートとの比を説明する、スケーリングパラメータを3Dカメラに通知する。
図13は、処理エンティティが関与する上述したステップを実施することができる、処理エンティティの概略図を示している。上述したように、処理エンティティは、処理能力を提供するのに使用されるハードウェア構成要素または仮想マシンがクラウド環境の異なるノードにわたって分散されるように、クラウド環境で実現されてもよい。いずれにせよ、明瞭にするため、異なる構成要素は単一のモジュールとして図12に示されている。処理エンティティ100は、修正されたストリームをXRデバイスに送信するなど、3Dデータストリームまたは制御メッセージを他のエンティティに送信するのに使用される、インターフェース110を備える。インターフェース110はさらに、ストリームを3Dカメラから受信するように設定され、またカメラ解像度、ユーザ活動、または無線ネットワークの送信帯域幅などのデータを受信するように設定される。処理エンティティはさらに、処理エンティティ100の動作を担う処理ユニット120を備える。処理ユニット120は、1つまたは複数のプロセッサを備えることができ、メモリ130に格納された命令を実施することができ、メモリは、読出し専用メモリ、ランダムアクセスメモリ、大容量記憶装置、ハードディスクなどを含んでもよい。メモリはさらに、処理エンティティが関与する上述の機能を実現するように、処理ユニット120によって実行される好適なプログラムコードを含むことができる。
図14は、2つの部分を含む3D画像データストリームを受信するように設定された第1のモジュールを備える、処理エンティティの別の概略的アーキテクチャ図を示している。個々の送信時間指示を異なるストリーム部分それぞれに追加するように設定された、モジュール320が提供される。送信時間指示を含む修正されたストリームをXRデバイスに送信するように設定された、モジュール330が提供される。モジュール340は、修正されたストリーム部分それぞれに対する処理時間を受信するように設定される。受信した情報に基づいて、データストリームの少なくとも1つ(第1のデータストリームまたは第2のデータストリーム)の適合を開始するように設定された、モジュール350が提供される。
図15は、図8と関連して考察したようなストリームスケーリングを実施するのみであってもよい、処理エンティティの一例の概略図を示している。図13と関連して上述したように、異なるハードウェア構成要素または仮想マシンがクラウド内で分散されるようにして、処理エンティティ200をクラウド環境内で実現することができる。いずれにせよ、処理エンティティ200は、データストリームまたは制御メッセージを他のエンティティに送信するために提供され、データストリームまたは制御メッセージを他のエンティティから受信するように設定された、インターフェース210を備える。インターフェースは、カメラセッティングまたはユーザ活動またはネットワーク条件などの情報を受信するように設定される。さらに、インターフェースは、スケーリングをカメラまたはXRデバイスに送信することができる。エンティティ200はさらに、エンティティ200の動作を担う処理ユニット220を備える。処理エンティティ220は、1つまたは複数のプロセッサを備え、メモリ230に格納された命令を実施することができ、メモリは、読出し専用メモリ、ランダムアクセスメモリ、大容量記憶装置、ハードディスクなどを含んでもよい。メモリはさらに、処理エンティティ200が関与する上述の機能を実現するように、処理ユニット220によって実行される好適なプログラムコードを含むことができる。
図16は、ストリームスケーリングを実施するように設定された処理エンティティ400のさらなる一例の表現を示している。エンティティ400は、3Dカメラの解像度を受信するように設定された第1のモジュール410を備える。さらに、モジュール420は、画像データストリーム内に示されるシーンに存在するユーザ活動を受信するように設定される。3D画像データストリームを処理エンティティに送信するのに使用される、無線ネットワークの送信帯域幅をさらに決定する、モジュール430が提供される。ストリームの異なる部分のフレームレートを決定するように設定された、モジュール440が提供され、フレームレートの比がどのようにレーティングして、メッシュを含むストリームの部分がテクスチャまたはUVを含むストリームの部分のフレームレートに対してレーティングされるかを示すスケーリングパラメータを、少なくともカメラに通知するように設定された、モジュール450が提供される。
上記の考察から、いくつかの一般的な結論を導き出すことができる。処理エンティティ100はさらに、修正された第1および第2のストリームの処理時間指示に基づいて、エクステンデッドリアリティデバイスにおいて、修正された第1および第2のストリームの処理時間の一方が他方よりも短いと決定することができる。適合が開始されると、エクステンデッドリアリティデバイスにおける第1および第2の修正されたストリームの同期を開始することが可能である。
同期が開始されると、これは、2つの修正されたストリームから、修正されたストリームの一方のフレームレートが低減されること、つまり、エクステンデッドリアリティデバイスにおいて他方よりも低速で処理される、修正されたストリームを意味することができる。さらに、エクステンデッドリアリティデバイスに、エクステンデッドリアリティデバイスにおいて表示のためにバッファリングされる、修正されたデータストリームのペンディング部分を落とすように要求することが可能である。
さらに、3D画像データストリームを生成するように設定された3Dカメラ80に、対応する第1および第2の修正されたストリームがエクステンデッドリアリティデバイスにおいてより高速で処理される、第1および第2の画像データストリームのうち一方のフレームレートを、対応する修正されたストリームがエクステンデッドリアリティデバイスにおいてより低速で処理される、受信した3D画像データストリームの他方のフレームレートに適合させるように要求することが可能である。
さらに、修正された第1のストリームおよび修正された第2のストリームの送信時間指示の現在の値を、修正された第1のストリームおよび修正された第2のストリームの受信した処理時間指示と比較することが可能であり、適合は比較に基づいて開始される。
ここで、修正された第1のストリームの送信時間指示の現在の値と、修正された第1のストリームの受信した処理時間指示との第1の差を生成し、修正された第2のストリームの送信時間指示の現在の値と、修正された第2のストリームの受信した処理時間指示との第2の差を生成することが可能である。そのため、適合は第1の差および第2の差に基づいて開始される。これについては、上記した式2によってさらに詳細に上述している。
第1の差および第2の差のうち少なくとも一方が、第1の時間間隔よりも大きいが第2の時間間隔よりも小さい場合、エクステンデッドリアリティデバイスに送信される修正されたストリームの送信レートが低減されてもよい。さらに、第1の差および第2の差の少なくとも一方が第2の時間間隔よりも大きい場合、エクステンデッドリアリティデバイスは、エクステンデッドリアリティデバイスにおいて表示のためにペンディングしているペンディング中のデータストリームフレームを落とすように求められ、その際、送信のために処理エンティティに現在存在している修正されたストリームの現在の部分は、エクステンデッドリアリティデバイスに送信される。
第1の画像データストリームは、メッシュおよび点群のうち少なくとも1つを含むことができ、第2の画像データストリームは、メッシュおよび点群のうち少なくとも1つのテクスチャを含むことができ、UVマッピングを含んでもよい。さらに、音声データも含む、第3のストリーム部分または第3のストリームなどのさらなるストリーム部分が提供されてもよい。
エクステンデッドリアリティデバイスにおいてコンテンツをレンダリングするレンダリング時間は、処理時間に基づいて決定されてもよく、レンダリング時間は3Dカメラに送信される。
さらに、3D画像データストリームの他の領域と比較して、少なくとも1つの実世界オブジェクトの運動の増加が検出された、3D画像データストリームにおいて表現されるシーン内の関心領域を決定することが可能である。次に、関心領域に関する情報は、3Dデータストリームを生成するように設定された3Dカメラに送信される。
さらに、既に決定された関心領域、および少なくとも1つの実世界オブジェクトの決定された運動に基づいて、少なくとも1つの実世界オブジェクトの運動の増加が予期される、3D画像データストリームにおいて表現されるシーン内の将来の関心領域を決定することが可能であり、将来の関心領域に関する情報は3Dカメラに送信される。
3Dカメラは次に、この情報を使用し、将来の関心領域内のメッシュの送信に集中するかまたは送信を制限することができる。
さらに、関心領域において示される活動の度合いを反映して、関心領域に基づいて活動スコアを決定することが可能である。次に、活動スコアに基づいた、また3Dカメラに送信される、第1の画像データストリームに対して提案されるフレームレートが決定され、それにより、次いで3Dカメラが提案されたフレームレートを使用することができる。
3D画像データストリームは、アップリンク無線ネットワークを介して3Dカメラ80から受信することができ、ダウンリンク無線ネットワークを介してエクステンデッドリアリティデバイス70に送信される。処理デバイス100は、3Dカメラで使用される解像度を示す、解像度インジケータを3Dカメラ80から受信することができる。さらに、3D画像データストリーム内に示される少なくとも1つの実世界オブジェクトの活動を決定することができ、決定は、カメラ自体から受信されてもよく、または3D画像データストリームの連続フレームに基づいて処理エンティティ内で決定されてもよい。さらに、3D画像データストリームを処理エンティティ100に送信するのに使用される、アップリンク無線ネットワークの送信帯域幅が決定されてもよい。さらに、幾何学形状を含むストリームの部分である第1の画像データストリームに対して、3Dカメラによって使用されるべき、第1のフレームレートを決定することができ、視覚的外観を含む部分である第2の画像データストリームに対して、3Dカメラ80によって使用されるべき、第2のフレームレートが決定され、2つのフレームレートは、解像度インジケータ、送信帯域幅、および決定された活動を考慮に入れて決定されてもよい。さらに、3Dカメラには、第1のフレームレートおよび第2のフレームレートに基づいて決定されるパラメータである、スケーリングパラメータが通知されてもよい。
フレームレートは、3D画像データストリーム内の第1の画像データストリームのフレームレートと第2の画像データストリームのフレームレートの比として決定されてもよい。
少なくとも1つの実世界オブジェクトは、人間などの生物を含んでもよい。
示されるように、3D画像データストリームは、音声データを含む第3のストリームを含んでもよい。
上述の解決策は、3D画像データストリームのストリーミングの際に起こることがある、帯域幅およびレイテンシの問題に対処し、結果としてユーザ体験の改善をもたらす。最適化された解決策を、実時間の制約下で働くXR会議のシナリオに使用することができる。

Claims (42)

  1. 無線ネットワーク(60)を通じてエクステンデッドリアリティデバイス(70)に送信するため、3D画像データストリームを処理するように設定された、処理エンティティ(100)を動作させるための方法であって、
    少なくとも1つの実世界オブジェクトの構造を表現する第1の画像データストリームと、前記少なくとも1つの実世界オブジェクトの視覚的外観を表現する第2の画像データストリームとを含む、前記3D画像データストリームを受信することと、
    対応する送信時間指示を、前記第1の画像データストリームおよび前記第2の画像データストリームのそれぞれに追加し、それにより、修正された第1のストリームおよび修正された第2のストリームを含む修正されたストリームをもたらすことと、
    前記修正されたストリームを、前記無線ネットワークを通じて前記エクステンデッドリアリティデバイスに送信することと、
    前記修正された第1のストリームおよび前記修正された第2のストリームのそれぞれに対する処理時間指示を、前記エクステンデッドリアリティデバイスから受信することと、
    前記修正された第1のストリームおよび前記修正された第2のストリームの前記処理時間指示に基づいて、前記3D画像データストリームおよび前記修正されたストリームのうち少なくとも一方の適合を開始することと
    を含む、方法。
  2. 前記修正された第1および第2のストリームの前記処理時間指示に基づいて、前記エクステンデッドリアリティデバイスにおいて、前記修正された第1および第2のストリームの前記処理時間の一方が他方よりも短いと決定することをさらに含み、適合を開始することが、前記エクステンデッドリアリティデバイスにおける前記第1および第2の修正されたストリームの同期を開始することを含む、請求項1に記載の方法。
  3. 前記同期を開始することが、
    2つの前記修正されたストリームのうち他方よりも低速で処理される、前記修正されたストリームの一方のフレームレートを低減すること、
    前記エクステンデッドリアリティデバイスに、前記エクステンデッドリアリティデバイスにおいて表示のためにバッファリングされる、修正されたデータストリームのペンディング部分を落とすように要求すること、
    受信した前記3D画像データストリームを生成するように設定された3Dカメラに、対応する前記第1または第2の修正されたストリームが前記エクステンデッドリアリティデバイスにおいてより高速で処理される、前記第1および第2の画像データストリームのうち一方のフレームレートを、対応する前記修正されたストリームが前記エクステンデッドリアリティデバイスにおいてより低速で処理される、受信した前記3D画像データストリームの他方のフレームレートに適合させるように要求すること
    のうち少なくとも1つを含む、請求項2に記載の方法。
  4. 前記修正された第1のストリームおよび前記修正された第2のストリームの前記送信時間指示の現在の値を、前記修正された第1のストリームおよび前記修正された第2のストリームの受信した前記処理時間指示と比較することをさらに含み、前記適合が前記比較に基づいて開始される、請求項1から3のいずれか一項に記載の方法。
  5. 前記修正された第1のストリームの前記送信時間指示の現在の値と、前記修正された第1のストリームの受信した前記処理時間指示との第1の差が生成され、前記修正された第2のストリームの前記送信時間指示の前記現在の値と、前記修正された第2のストリームの前記受信した処理時間指示との第2の差が生成され、前記適合が、前記第1の差および前記第2の差に基づいて開始される、請求項4に記載の方法。
  6. 前記第1の差および前記第2の差のうち少なくとも一方が、第1の時間間隔よりも大きいが第2の時間間隔よりも小さい場合、前記エクステンデッドリアリティデバイスに送信される前記修正されたストリームの送信レートが低減される、請求項5に記載の方法。
  7. 前記第1の差および前記第2の差の少なくとも一方が第2の時間間隔よりも大きい場合、前記エクステンデッドリアリティデバイスが、前記エクステンデッドリアリティデバイスにおいて表示のためにペンディングしている前記修正されたストリームのペンディング中のデータストリームフレームを落とすように求められ、前記処理エンティティに現在存在している前記修正されたストリームの現在の部分が、前記エクステンデッドリアリティデバイスに送信される、請求項5または6に記載の方法。
  8. 前記第1の画像データストリームが、メッシュおよび点群のうち少なくとも1つを含み、前記第2の画像データストリームが、メッシュおよび点群のうち少なくとも1つのテクスチャと、UVマッピングとを含む、請求項1から7のいずれか一項に記載の方法。
  9. 前記処理時間を決定することが、レンダリング時間を決定することを含み、前記レンダリング時間が前記3Dカメラに送信される、請求項1から8のいずれか一項に記載の方法。
  10. 前記3D画像データストリームの他の領域と比較して前記少なくとも1つの実世界オブジェクトの運動の増加が検出された、前記3D画像データストリームにおいて表現されるシーン内の関心領域をさらに決定し、前記関心領域に関する情報が、前記3D画像データストリームを生成するように設定された3Dカメラに送信される、請求項1から9のいずれか一項に記載の方法。
  11. 前記関心領域、および前記少なくとも1つの実世界オブジェクトの決定された運動に基づいて、前記少なくとも1つの実世界オブジェクトの前記運動の増加が予期される、前記3D画像データストリームにおいて表現されるシーン内の将来の関心領域をさらに決定し、前記将来の関心領域に関する情報が前記3Dカメラに送信される、請求項10に記載の方法。
  12. 前記関心領域において示される活動の度合いを反映して、前記関心領域に基づいて活動スコアが決定され、前記活動スコアに基づいて、前記第1の画像データストリームに対して提案されるフレームレートが決定され、前記3Dカメラに送信される、請求項10または11に記載の方法。
  13. 前記3D画像データストリームが、さらなる無線ネットワークを介して、受信した前記3D画像データストリームを生成するように設定された3Dカメラから受信され、
    前記3Dカメラから、前記3Dカメラの解像度を示す解像度インジケータを受信するステップと、
    前記3D画像データストリームに示される前記少なくとも1つの実世界オブジェクトの活動を決定するステップと、
    前記3D画像データストリームを前記処理エンティティに送信するのに使用される、前記さらなる無線ネットワークの送信帯域幅を決定するステップと、
    前記解像度インジケータ、前記送信帯域幅、および決定された前記活動を考慮に入れて、前記第1の画像データストリームに対して前記3Dカメラによって使用される第1のフレームレートと、前記第2の画像データストリームに対して前記3Dカメラによって使用される第2のフレームレートとを決定するステップと、
    決定された前記第1のフレームレートに基づいて決定されたスケーリングパラメータ、および前記第2のフレームレートを、前記3Dカメラに通知するステップと
    をさらに含む、請求項1から12のいずれか一項に記載の方法。
  14. 前記スケーリングパラメータが、前記3D画像データストリーム内の前記第1の画像データストリームのフレームレートと前記第2の画像データストリームのフレームレートの比として決定される、請求項13に記載の方法。
  15. 前記少なくとも1つの実世界オブジェクトが生物を含む、請求項1から14のいずれか一項に記載の方法。
  16. 前記3D画像データストリームが、音声データを含む第3のストリームをさらに含む、請求項1から15のいずれか一項に記載の方法。
  17. 無線ネットワークを通じて3Dカメラによって生成された、少なくとも1つの実世界オブジェクトの構造を表現する第1の画像データストリームと、前記少なくとも1つの実世界オブジェクトの視覚的外観を表現する第2の画像データストリームとを含む、3D画像データストリームを受信するように設定された、処理エンティティ(200)を動作させるための方法であって、
    前記3Dカメラから、前記3Dカメラの解像度を示す解像度インジケータを受信することと、
    前記3D画像データストリームに示される前記少なくとも実世界オブジェクトの活動を決定することと、
    前記3D画像データストリームを前記処理エンティティに送信するのに使用される、さらなる無線ネットワークの送信帯域幅を決定することと、
    前記解像度インジケータ、前記送信帯域幅、および決定された前記活動を考慮に入れて、前記第1の画像データストリームに対して前記3Dカメラによって使用される第1のフレームレートと、前記第2の画像データストリームに対して前記3Dカメラによって使用される第2のフレームレートとを決定することと、
    決定された前記第1のフレームレートに基づいて決定されたスケーリングパラメータ、および前記第2のフレームレートを、前記3Dカメラに通知することと
    を含む、方法。
  18. 前記3D画像データストリームが表示されるエクステンデッドリアリティデバイスに、前記スケーリングパラメータをさらに通知する、請求項17に記載の方法。
  19. 前記スケーリングパラメータが、前記3D画像データストリーム内の前記第1の画像データストリームのフレームレートと前記第2の画像データストリームのフレームレートの比を含む、請求項17または18に記載の方法。
  20. 無線リンクを通じて3D画像データをエクステンデッドリアリティデバイスに送信するように設定された処理エンティティであって、処理デバイスが、
    少なくとも1つの実世界オブジェクトの構造を表現する第1の画像データストリームと、前記少なくとも1つの実世界オブジェクトの視覚的外観を表現する第2の画像データストリームとを含む、3D画像データストリームを受信し、
    対応する送信時間指示を、前記第1の画像データストリームおよび前記第2の画像データストリームのそれぞれに追加し、それにより、修正された第1のストリームおよび修正された第2のストリームを含む修正されたストリームをもたらし、
    前記修正されたストリームを、無線ネットワークを通じて前記エクステンデッドリアリティデバイスに送信し、
    前記修正された第1のストリームおよび前記修正された第2のストリームのそれぞれに対する処理時間指示を、前記エクステンデッドリアリティデバイスから受信し、
    前記修正された第1のストリームおよび前記修正された第2のストリームの前記処理時間指示に基づいて、前記3D画像データストリームおよび前記修正されたストリームのうち少なくとも一方の適合を開始する
    ように動作する、処理エンティティ。
  21. 前記修正された第1および第2のストリームの前記処理時間指示に基づいて、前記エクステンデッドリアリティデバイスにおいて、前記修正された第1および第2のストリームの前記処理時間の一方が他方よりも短いと決定するようにさらに動作し、適合を開始することが、前記エクステンデッドリアリティデバイスにおける前記第1および第2の修正されたストリームの同期を開始することを含む、請求項20に記載の処理エンティティ。
  22. 前記同期を開始するため、
    2つの前記修正されたストリームのうち他方よりも低速で処理される、前記修正されたストリームの一方のフレームレートを低減し、
    前記エクステンデッドリアリティデバイスに、前記エクステンデッドリアリティデバイスにおいて表示のためにバッファリングされる、修正されたデータストリームのペンディング部分を落とすように要求し、
    受信した前記3D画像データストリームを生成するように設定された3Dカメラに、対応する前記第1または第2の修正されたストリームが前記エクステンデッドリアリティデバイスにおいてより高速で処理される、前記第1および第2の画像データストリームのうち一方のフレームレートを、対応する前記修正されたストリームが前記エクステンデッドリアリティデバイスにおいてより低速で処理される、受信した3D画像データストリームの他方のフレームレートに適合させるように要求する
    ようにさらに動作する、請求項21に記載の処理エンティティ。
  23. 前記修正された第1のストリームおよび前記修正された第2のストリームの前記送信時間指示の現在の値を、前記修正された第1のストリームおよび前記修正された第2のストリームの受信した前記処理時間指示と比較し、前記比較に基づいて前記適合を開始するようにさらに動作する、請求項20から22のいずれか一項に記載の処理エンティティ。
  24. 前記修正された第1のストリームの前記送信時間指示の現在の値と、前記修正された第1のストリームの受信した前記処理時間指示との第1の差を生成し、前記修正された第2のストリームの前記送信時間指示の前記現在の値と、前記修正された第2のストリームの前記受信した処理時間指示との第2の差を生成し、前記第1の差および前記第2の差に基づいて前記適合を開始するようにさらに動作する、請求項23に記載の処理エンティティ。
  25. 前記第1の差および前記第2の差のうち少なくとも一方が、第1の時間間隔よりも大きいが第2の時間間隔よりも小さい場合、前記エクステンデッドリアリティデバイスに送信される前記修正されたストリームの送信レートを低減するようにさらに動作する、請求項24に記載の処理エンティティ。
  26. 前記第1の差および前記第2の差の少なくとも一方が第2の時間間隔よりも大きい場合、前記エクステンデッドリアリティデバイスにおいて表示のためにペンディングしている前記修正されたストリームのペンディング中のデータストリームフレームを落とすように前記エクステンデッドリアリティデバイスに求め、前記処理エンティティに現在存在している前記修正されたストリームの現在の部分を、前記エクステンデッドリアリティデバイスに送信するようにさらに動作する、請求項24または25に記載の処理エンティティ。
  27. 前記第1の画像データストリームが、メッシュおよび点群のうち少なくとも1つを含み、前記第2の画像データストリームが、メッシュおよび点群のうち少なくとも1つのテクスチャと、UVマッピングとを含む、請求項20から26のいずれか一項に記載の処理エンティティ。
  28. 前記処理時間に基づいてレンダリング時間を決定し、前記レンダリング時間を前記3Dカメラに送信するようにさらに動作する、請求項20から27のいずれか一項に記載の処理エンティティ。
  29. 前記3D画像データストリームの他の領域と比較して前記少なくとも1つの実世界オブジェクトの運動の増加が検出された、前記3D画像データストリームにおいて表現されるシーン内の関心領域を決定し、前記関心領域に関する情報を、前記3D画像データストリームを生成するように設定された3Dカメラに送信するようにさらに動作する、請求項20から28のいずれか一項に記載の処理エンティティ。
  30. 前記関心領域、および前記少なくとも1つの実世界オブジェクトの決定された運動に基づいて、前記少なくとも1つの実世界オブジェクトの前記運動の増加が予期される、前記3D画像データストリームにおいて表現されるシーン内の将来の関心領域を決定し、前記将来の関心領域に関する情報を前記3Dカメラに送信するようにさらに動作する、請求項29に記載の処理エンティティ。
  31. 前記関心領域において示される活動の度合いを反映して、前記関心領域に基づいて活動スコアを決定し、前記活動スコアに基づいて、前記第1の画像データストリームに対して提案されるフレームレートを決定し、提案された前記フレームレートを前記3Dカメラに送信するようにさらに動作する、請求項29または30に記載の処理エンティティ。
  32. 前記3D画像データストリームが、さらなる無線ネットワークを介して、受信した前記3D画像データストリームを生成するように設定された3Dカメラから受信され、
    前記3Dカメラから、前記3Dカメラの解像度を示す解像度インジケータを受信し、
    前記3D画像データストリームに示される前記少なくとも1つの実世界オブジェクトの活動を決定し、
    前記3D画像データストリームを前記処理エンティティに送信するのに使用される、前記さらなる無線ネットワークの送信帯域幅を決定し、
    前記解像度インジケータ、前記送信帯域幅、および決定された前記活動を考慮に入れて、前記第1の画像データストリームに対して前記3Dカメラによって使用される第1のフレームレートと、前記第2の画像データストリームに対して前記3Dカメラによって使用される第2のフレームレートとを決定し、
    決定された前記第1のフレームレートに基づいて決定されたスケーリングパラメータ、および前記第2のフレームレートを、前記3Dカメラに通知する
    ように動作する、請求項20から31のいずれか一項に記載の処理エンティティ。
  33. 前記3D画像データストリーム内の前記第1の画像データストリームのフレームレートと前記第2の画像データストリームのフレームレートの比として、前記スケーリングパラメータを決定するようにさらに動作する、請求項32に記載の処理エンティティ。
  34. 前記少なくとも1つの実世界オブジェクトが生物を含む、請求項20から33のいずれか一項に記載の処理エンティティ。
  35. 前記3D画像データストリームが、音声データを含む第3のストリームをさらに含む、請求項20から34のいずれか一項に記載の処理エンティティ。
  36. メモリと少なくとも1つの処理ユニットとをさらに備え、前記メモリが、前記少なくとも1つの処理ユニットによって実行可能な命令を含み、前記命令が前記少なくとも1つの処理ユニットによって実行されると、前記処理エンティティが、請求項1から16のいずれか一項に記載の方法を実施するように動作する、請求項20から34のいずれか一項に記載の処理エンティティ。
  37. 無線ネットワークを通じて3Dカメラによって生成された、少なくとも1つの実世界オブジェクトの構造を表現する第1の画像データストリームと、前記少なくとも1つの実世界オブジェクトの視覚的外観を表現する第2の画像データストリームとを含む、3D画像データストリームを受信するように設定された、処理エンティティ(200)であって、
    前記3Dカメラから、前記3Dカメラの解像度を示す解像度インジケータを受信し、
    前記3D画像データストリームに示される前記少なくとも実世界オブジェクトの活動を決定し、
    前記3D画像データストリームを前記処理エンティティに送信するのに使用される、さらなる無線ネットワークの送信帯域幅を決定し、
    前記解像度インジケータ、前記送信帯域幅、および決定された前記活動を考慮に入れて、前記第1の画像データストリームに対して前記3Dカメラによって使用される第1のフレームレートと、前記第2の画像データストリームに対して前記3Dカメラによって使用される第2のフレームレートとを決定し、
    決定された前記第1のフレームレートおよび前記第2のフレームレートに基づいて決定されたスケーリングパラメータを、前記3Dカメラに通知する
    ように動作する、処理エンティティ。
  38. 前記3D画像データストリームが表示されるエクステンデッドリアリティデバイスに、前記スケーリングパラメータを通知するようにさらに動作する、請求項37に記載の処理エンティティ。
  39. 前記スケーリングパラメータが、前記3D画像データストリーム内の前記第1の画像データストリームのフレームレートと前記第2の画像データストリームのフレームレートの比を含む、請求項37または38に記載の処理エンティティ。
  40. メモリと少なくとも1つの処理ユニットとをさらに備え、前記メモリが、前記少なくとも1つの処理ユニットによって実行可能な命令を含み、前記命令が前記少なくとも1つの処理ユニットによって実行されると、前記処理エンティティが、請求項17から19のいずれか一項に記載の方法を実施するように動作する、請求項37から39のいずれか一項に記載の処理エンティティ。
  41. 処理エンティティの少なくとも1つの処理ユニットによって実行されるプログラムコードを含み、前記プログラムコードを実行することによって、前記少なくとも1つの処理エンティティに、請求項1から19のいずれか一項に記載の方法を実施させる、コンピュータプログラム。
  42. 電子信号、光信号、無線信号、およびコンピュータ可読記憶媒体のうちの1つである、請求項41に記載のコンピュータプログラムを含むキャリア。
JP2023540906A 2021-01-05 2021-01-05 3dストリーム処理 Pending JP2024504050A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2021/050045 WO2022148524A1 (en) 2021-01-05 2021-01-05 3d stream processing

Publications (1)

Publication Number Publication Date
JP2024504050A true JP2024504050A (ja) 2024-01-30

Family

ID=74175881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023540906A Pending JP2024504050A (ja) 2021-01-05 2021-01-05 3dストリーム処理

Country Status (8)

Country Link
US (1) US20240070958A1 (ja)
EP (1) EP4275181B1 (ja)
JP (1) JP2024504050A (ja)
CN (1) CN116830585A (ja)
AU (1) AU2021418118B2 (ja)
CO (1) CO2023009156A2 (ja)
IL (1) IL304216A (ja)
WO (1) WO2022148524A1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112740282B (zh) * 2018-09-18 2024-05-24 Vid拓展公司 用于点云压缩比特流格式的方法和装置
CN111435991B (zh) * 2019-01-11 2021-09-28 上海交通大学 基于分组的点云码流封装方法和系统

Also Published As

Publication number Publication date
AU2021418118B2 (en) 2023-11-09
EP4275181C0 (en) 2024-04-03
WO2022148524A1 (en) 2022-07-14
US20240070958A1 (en) 2024-02-29
EP4275181A1 (en) 2023-11-15
CO2023009156A2 (es) 2023-07-21
AU2021418118A9 (en) 2024-05-09
EP4275181B1 (en) 2024-04-03
IL304216A (en) 2023-09-01
AU2021418118A1 (en) 2023-07-20
CN116830585A (zh) 2023-09-29

Similar Documents

Publication Publication Date Title
US20220291742A1 (en) Image processing apparatus, image data transfer apparatus, image processing method, and image data transfer method
US20220353555A1 (en) Image display system, moving image distribution server, image processing apparatus, and moving image distribution method
CN112671994A (zh) 视频通话期间实现的方法、用户终端及可读存储介质
US20220368945A1 (en) Image data transfer apparatus and image data transfer method
WO2020207487A1 (zh) 一种处理方法、装置和系统
US20220345721A1 (en) Image data transfer apparatus, image display system, and image compression method
CN110083235A (zh) 交互系统及数据处理方法
US20220377349A1 (en) Image data transfer apparatus and image compression
CN113515193B (zh) 一种模型数据传输方法及装置
US20220329772A1 (en) Image processing apparatus, image display system, image data transfer apparatus, and image processing method
JP2024504050A (ja) 3dストリーム処理
CN111064981B (zh) 一种视频串流的系统及方法
WO2022004234A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20220337851A1 (en) Image data transfer apparatus and image compression method
JP2023551181A (ja) 仮想会議において送信参加者の3d表現を提供すること
WO2023232267A1 (en) Supporting an immersive communication session between communication devices
CN113940043B (zh) 控制装置、网络控制方法以及计算机可读记录介质
CN117456113B (zh) 一种云端离线渲染交互应用实现方法及系统
EP4156109A1 (en) Apparatus and method for establishing a three-dimensional conversational service
WO2022268340A1 (en) Interactive processing of 3d image data stream
WO2021117482A1 (ja) 情報処理装置および方法、プログラム、並びに、情報処理システム
WO2021095537A1 (ja) 情報処理装置、情報処理方法、並びにプログラム
US20240196065A1 (en) Information processing apparatus and information processing method
CN115052030A (zh) 一种虚拟数字人的操控方法及其系统
CN117784933A (zh) 一种基于云渲染的多人ar交互方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230831