JP7490772B2 - 遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラム - Google Patents

遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラム Download PDF

Info

Publication number
JP7490772B2
JP7490772B2 JP2022533006A JP2022533006A JP7490772B2 JP 7490772 B2 JP7490772 B2 JP 7490772B2 JP 2022533006 A JP2022533006 A JP 2022533006A JP 2022533006 A JP2022533006 A JP 2022533006A JP 7490772 B2 JP7490772 B2 JP 7490772B2
Authority
JP
Japan
Prior art keywords
server
rendering
terminal
image
sensor state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022533006A
Other languages
English (en)
Other versions
JPWO2022003966A1 (ja
Inventor
真也 玉置
稔久 藤原
友宏 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2022003966A1 publication Critical patent/JPWO2022003966A1/ja
Priority to JP2024079442A priority Critical patent/JP2024100839A/ja
Application granted granted Critical
Publication of JP7490772B2 publication Critical patent/JP7490772B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、ゲーム又はAR若しくはVR等のサービスをストリーミング提供する遠隔レンダリングシステムであって、端末からサーバに対してセンサやコマンド情報が送信され、それらの情報に対応した結果の画像がサーバでレンダリングされ、端末に対して画像が応答され、端末の画面に出力されるような遠隔レンダリングシステムにおいて、通信やレンダリングにかかる時間を補償する技術に関する。
近年、クラウド技術の発達と高速な通信環境の普及、およびスマートフォンやタブレット端末の普及により、ゲームや3D CAD(Computer Aided Design)等のアプリケーションにおける画像レンダリング処理をサーバ側で行い、ネットワークを介して接続された端末に対して画像を送信するストリーミングサービスが注目されている。ストリーミングサービスでは、GPU(Graphics Processing Unit)を搭載した高機能なコンピュータをユーザのローカル環境に配置することなく様々なアプリケーションを提供することが可能であり、例えば、スマートフォンのような安価で小型な端末でも、ユーザに高品質な仮想3D空間を体験させることができると考えられ、ゲームやデジタルカタログサービスへの活用が期待されている。
ところで、ゲーム等のストリーミングサービスにおいては、端末から送信されたセンサ情報に基づいたカメラ視点の画像がサーバで描画され、画像が端末画面に表示されるまでの遅延(Motion-to-Photon Latency等と呼ばれる)がユーザ体感品質に大きく影響する。特に、ネットワークを介してストリーミングサービス提供を行う場合、ローカル環境(ゲーミングPCや高性能なワークステーション)でレンダリングする場合に比べ、ネットワーク遅延又は映像データのエンコード若しくはデコード遅延の増加、遠隔サーバのリソース不足等が避けられない。
特に、AR又はVRサービス等の遠隔レンダリングに関しては、ユーザの視線方向とレンダリングされた画像とのずれが生じるとVR酔いの原因となる為、当該ずれの原因である遅延を削減することが重要となる。
Daia, Xuefeng, Hanjiang Xionga, and Xianwei Zhenga. "A Cache Design Method For Spatial Information Visualization In 3D Real-Time Rendering Engine." International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences 39 (2012): B2 「Head and Body Motion Prediction to Enable Mobile VR Experiences with Low Latency」 2019年12月、カリフォルニア大、Samsung 「Furion: Engineering High-Quality Immersive Virtual Reality on Today’s Mobile Devices」 2017年10月、パデュー大ほか 「FlashBack: Immersive Virtual Reality on Mobile Devices via Rendering Memoization」 2016年6月、マイクロソフト研ほか
関連技術では、レンダリングにかかる時間を削減する方法として、事前レンダリングした画像をストリーミングする方法が挙げられる(例えば、非特許文献1。)。ユーザ視点に応じた画像を、予め描画され、保存されたメモリ領域から読み出すことにより、レンダリング処理にかかる時間を削除することができる。
しかし、非特許文献1の事前レンダリング方式には、次のような課題がある。事前レンダリング方式は、あらゆるユーザ視点を想定してレンダリングを行うため、膨大な処理時間を要するという課題がある。また、デザイン変更等が生じた場合は再び同じ時間かけて再レンダリングする必要があるという課題もある。さらに、事前レンダリングされた全ての画像を保存するための膨大なストレージを要するという課題もある。加えて、事前レンダリング方式は、ネットワーク遅延又はエンコード若しくはデコード遅延を削減することができないという課題もある。
前記課題を解決するために、本発明は、事前レンダリングを効率的に行い、かつ、ユーザへの画像の表示の遅延を削減し、ユーザの視線方向とレンダリングされた画像とのずれを低減できる遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラムを提供することを目的とする。
上記目的を達成するため、本開示の遠隔レンダリングシステムは、センサを有する端末からのセンサ状態の情報に基づいて、直近の未来に取りうるポジション(座標)を複数予測し、予測した各ポジションに応じて画像を予めレンダリングする。
具体的には、本開示に係る遠隔レンダリングシステムは、センサを有する端末と、サーバとを備え、前記端末がセンサ状態の情報を前記サーバに送信し、前記サーバが前記センサ状態に対応するレンダリング画像を前記端末に送信する遠隔レンダリングシステムであって、前記端末は、現在の前記センサ状態の情報を前記サーバに送信し、前記サーバは、受信した現在の前記センサ状態の情報に基づいて直近の未来に取り得る前記センサ状態の候補を複数予測し、予測された前記センサ状態の候補に対応するレンダリングを実行し、前記レンダリングにより生成した複数の前記レンダリング画像を記憶する。
本開示に係る画像処理方法では、センサを有する端末と、サーバとを備え、前記端末がセンサ状態の情報を前記サーバに送信し、前記サーバが前記センサ状態に対応するレンダリング画像を前記端末に送信する画像処理方法であって、前記端末から前記サーバに現在の前記センサ状態の情報を送信すること、前記サーバで、受信した現在の前記センサ状態の情報に基づいて直近の未来に取り得る前記センサ状態の候補を複数予測すること、予測された前記センサ状態の候補に対応するレンダリングを実行すること、及び前記レンダリングにより生成した複数の前記レンダリング画像を記憶する。
本開示に係る遠隔レンダリングシステム及び画像処理方法は、直近の未来に取りうるポジション(座標)についてのみ画像を事前レンダリングすることにより、事前レンダリング処理や事前レンダリングにより生成する画像を減らすことができる。その結果、事前レンダリングに必要となる時間やストレージを削減することができる。また、事前レンダリングの画像を保存しておくことにより、現在のセンサ状態に応じて逐次レンダリング処理をする必要がなく、レンダリング処理時間を削減できる。従って、本発明により、事前レンダリングを効率的に行い、かつ、ユーザへの画像の表示の遅延を削減し、ユーザの視線方向とレンダリングされた画像とのずれを低減できる遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラムを提供することができる遠隔レンダリングシステム及び画像処理方法を提供することができる。
本開示に係る遠隔レンダリングシステムでは、アプリケーション管理部をさらに備えており、前記アプリケーション管理部は、前記サーバが複数ある場合、複数の前記サーバの一部を選択し、選択した前記サーバのうち1つをマスタサーバ、他をスレーブサーバと指定し、前記端末は、現在の前記センサ状態の情報を前記マスタサーバに送信し、前記マスタサーバは、直近の未来に取り得る前記センサ状態の候補を複数予測し、前記マスタサーバと前記スレーブサーバの少なくとも1つは、予測された前記センサ状態の候補に基づいて前記レンダリングを実行し、前記レンダリング画像を記憶する。
本開示に係る画像処理方法では、前記サーバが複数ある場合、複数の前記サーバの一部を選択し、選択した前記サーバのうち1つをマスタサーバ、他をスレーブサーバとすること、前記端末からの現在の前記センサ状態の情報は前記マスタサーバに送信されること、直近の未来に取り得る前記センサ状態の候補を複数予測することは前記マスタサーバで行うこと、前記レンダリングを実行することと前記レンダリング画像を記憶することは前記マスタサーバと前記スレーブサーバの少なくとも1つで行う。
本開示に係る遠隔レンダリングシステム及び画像処理方法は、複数のサーバを用いて事前レンダリングを行うことにより、サーバの空きリソースを有効活用できる。また、端末の位置情報に基づいて、端末の近傍にあるサーバから画像を送信することにより、通信による遅延を削減することができる。
本開示に係る遠隔レンダリングシステムでは、前記サーバは、記憶されている複数の前記レンダリング画像から、現在の前記センサ状態に対応する前記レンダリング画像を選択し、選択された前記レンダリング画像を前記端末に送信する。
本開示に係る画像処理方法では、前記サーバで記憶されている複数の前記レンダリング画像から、現在の前記センサ状態に対応する前記レンダリング画像を選択し、選択された前記レンダリング画像を前記端末に送信する。
本開示に係る遠隔レンダリングシステム及び画像処理方法は、現在のセンサ状態に応じて、事前レンダリングされた画像を選択することで、レンダリング処理をせずに必要な画像を送信することができるので、レンダリング処理による遅延を削減することができる。また、複数のサーバを用いる場合には、端末の位置情報に基づいて、端末の近傍にあるサーバから画像を送信することにより、通信による遅延を削減することができる。
本開示に係るサーバ装置では、センサを有する端末から受信した前記センサ状態に対応するレンダリング画像を前記端末に送信するサーバ装置であって、前記端末からの現在の前記センサ状態の情報を受信するセンサ情報受信部と、受信した現在の前記センサ状態の情報に基づいて直近の未来に取り得る前記センサ状態の候補を複数予測する予測部と、予測された前記センサ状態の候補に対応するレンダリングを実行するレンダリング部と、前記レンダリングにより生成した複数の前記レンダリング画像を記憶する記憶部と、前記記憶部に記憶されている複数の前記レンダリング画像から、現在の前記センサ状態に対応する前記レンダリング画像を選択する画像選択部と、選択された前記レンダリング画像を前記端末に送信する画像送信部と、を備える。
本開示に係るプログラムでは、前記サーバ装置としてコンピュータを機能させる。
本開示に係るサーバ装置及びプログラムは、直近の未来に取りうるポジション(座標)についてのみ画像を事前レンダリングすることにより、事前レンダリング処理や事前レンダリングにより生成する画像を減らすことができる。その結果、事前レンダリングに必要となる時間やストレージを削減することができる。また、現在のセンサ状態に応じて、事前レンダリングされた画像を選択することで、レンダリング処理をせずに必要な画像を送信することができるので、レンダリング処理による遅延を削減することができる。
なお、上記各発明は、可能な限り組み合わせることができる。
本開示によれば、事前レンダリングを効率的に行い、かつ、ユーザへの画像の表示の遅延を削減し、ユーザの視線方向とレンダリングされた画像とのずれを低減できる遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラムを提供することができる。
本発明に係る遠隔レンダリングシステムの概要を説明する図である。 本発明に係る遠隔レンダリングシステムの概要を説明する図である。 本発明に係る遠隔レンダリングシステムの概要を説明する図である。 本発明に係る遠隔レンダリングシステムの概略構成の一例を示す。 本発明に係る遠隔レンダリングシステムの画像処理方法の一例を示す。 本発明に係る遠隔レンダリングシステムの動作フローの一例を示す。 本発明に係る遠隔レンダリングシステムの概略構成の一例を示す。 本発明に係る遠隔レンダリングシステムの概略構成の一例を示す。 本発明に係る遠隔レンダリングシステムの画像処理方法の一例を示す。
以下、本開示の実施形態について、図面を参照しながら詳細に説明する。なお、本発明は、以下に示す実施形態に限定されるものではない。これらの実施の例は例示に過ぎず、本開示は当業者の知識に基づいて種々の変更、改良を施した形態で実施することができる。なお、本明細書及び図面において符号が同じ構成要素は、相互に同一のものを示すものとする。
(発明の概要)
本発明の概要を図1から図3を用いて説明する。図1において、(a)は従来の技術を示し、(b)は本発明を示す。
図1(a)では、ユーザ端末(例えば、ヘッドマウントディスプレイ等。)が、複数のサーバ11を経由して、クラウドレンダリングサーバとつながっている。以下、「ユーザ端末」を「端末30」と略記する。端末30は、自身が取得したポジション情報を複数のサーバ11を経由してクラウドレンダリングサーバに送信する。クラウドレンダリングサーバは、ポジション情報に応じてGPUで逐次レンダリングを行う。そして、レンダリングした画像を再び複数のサーバ11を経由して端末に表示させる。従来の技術においては、ポジション情報に応じて逐次レンダリングを行うため、端末30がポジション情報を送信してからポジション情報に対応した画像が端末30に表示されるまでの間に、レンダリング処理の時間が必要となり、遅延が発生してしまう。また、レンダリングされた画像の取得には、端末30が複数のサーバ11を経由してクラウドレンダリングサーバにアクセスする必要があるため、通信距離が長くなり、ネットワークの遅延が発生する。これらの遅延が大きくなると、ユーザの体感品質に悪影響を及ぼす。
図1(b)を用いて本発明の概要を説明する。本発明は、複数のサーバ11を有し、端末30の在圏エリア、アプリケーションの許容遅延、各ネットワーク区間の可用帯域、エッジサーバリソースその他のネットワーク状況に応じて最適な一又は複数の遠隔レンダリング用エッジサーバ又はレンダリングされた画像をキャッシュするサーバを選択する。遠隔レンダリング用エッジサーバと画像をキャッシュするサーバは同一でもよいし、別々でもよい。以下、「遠隔レンダリング用エッジサーバまたはレンダリングされた画像をキャッシュするサーバ」を「サーバ11」と呼ぶ。
選択された各サーバ11は、レンダリングサーバアプリを有する。レンダリングサーバアプリは、事前レンダリング及び画像送信をする。事前レンダリング及び画像送信は、1つのサーバ11のみで行う場合と複数のサーバ11が行う場合がある。事前レンダリングについて説明する。端末30は、自身が取得したポジション情報(例えば、ヘッドマウントディスプレイ装着者の頭部ポジション情報等)を選択されたサーバ11に送信する。ポジション情報を受信したサーバ11のレンダリングサーバアプリは、端末30のポジション情報に応じて直近の未来に取りうるポジション(座標)を複数予測する。さらに、選択されたサーバ11のレンダリングサーバアプリは、その予測したポジションに応じてレンダリングして画像を作成し、その画像を一時記憶領域に格納する。また、画像は、触覚情報、聴覚情報等でもよい。
画像送信について説明する。端末30は、自身が取得したポジション情報を選択されたサーバ11に送信する。選択されたサーバ11は、受信したポジション情報に応じた画像を一時記憶領域から呼び出し、端末30に送信する。事前にレンダリング画像を用意しておくことで、端末30がポジション情報を送信してからポジション情報に対応した画像が端末30に表示されるまでの間のレンダリング処理時間が不要となり、計算遅延を削減できる。
最適なサーバ(例えば、端末に最も近いサーバ)がレンダリング及び画像送信を行うことにより、通信距離が短くなり、端末がポジション情報を送信してからポジション情報に対応した画像が端末に表示されるまでのネットワーク遅延を低減することができる。
図2及び図3を用いて本発明における最適なサーバの選択について具体的に説明する。図2に示すように、サーバ11の選択は、アプリケーション管理部50(図面では、「アプリケーション管理部」を「アプリ管理部」と略記する。)が行ってもよい。アプリケーション管理部50は、同アプリケーションを利用する他の端末や他のサービスによるリソース使用状況も含めたインフラ全体(ネットワーク、サーバリソース(CPU、メモリ、ストレージ、GPU、等))の情報を得ながら、ユーザエクスペリエンスを損なうことなく、かつ、エッジサーバリソースを浪費しないよう、総コスト(サーバ利用コスト、ネットワーク利用コスト等)が低くなるようなサーバ11を選択する。
遠隔レンダリングシステムは、アプリケーションの許容遅延を満たす範囲内に存在する別のサーバの計算及び一時記憶リソースも活用する。図3を用いて使用可能なサーバについて説明する。例えば、次の(1)から(3)までの条件が成立する場合を考える。(1)アプリケーションの許容遅延が18msである。(2)一時記憶領域から画像を検索し読み出すのにかかる最大時間が10msである。(3)ネットワーク経路1ホップあたりの伝送又は伝播遅延が1msである。そうすると、(1ms×4(ホップ)×2(往復)+10ms≦18ms)が成立するため、遠隔レンダリングシステムは、端末30から最大4ホップ遠隔地にあるサーバ11までのリソースが使える。
アプリケーション管理部50は、ネットワーク遅延を最小化するよう端末30に最も近いサーバ11(サーバコストが高いと想定される)を単純に選択するだけではなく、前述したように許容遅延を満たす範囲で遠隔地に存在する低コストであるサーバ11の選択も考慮に入れる。遠隔レンダリングシステムは、サービス品質を維持(VR酔いを防止)しつつ、低コストであるサーバリソース利用が可能となる。
さらに、アプリケーションの許容遅延を満たす範囲内に存在するサーバ11は、直近に読み出される確率に応じて使い分けられる。例えば、直近に読み出される確率の高い座標と対応する画像はより端末30に近いサーバ11で計算され、該サーバ11内の一時記憶領域に格納される、などが考えられる。許容遅延範囲の中でも、更に低遅延で高確率に画像を返すことができる為、体感品質が向上する。
また、許容遅延(遅延のバジェット)は、遠サーバ11又は近サーバ11の選択によってだけでなく、例えばエンコード方式を変更することなどによっても調整される。例えば、スループットガイダンスやRNI(Radio Network Information)などにより得られたネットワーク可用帯域情報を元に、可用帯域に余裕のある場合は、使用帯域が増加することと引き換えに、エンコード又はデコード時間がより短くて済む圧縮方式に変更することで、遅延のバジェットを拡大することが可能となる。
(実施形態1)
本実施形態に係る遠隔レンダリングシステムの構成について図4を用いて具体的に示す。遠隔レンダリングシステム10は、センサを有する端末30と、サーバ11とを備え、端末30がセンサ状態の情報をサーバ11に送信し、サーバ11がセンサ状態に対応するレンダリング画像を端末30に送信する。
端末30は、センサ情報取得部31と、センサ情報送信部32と、画像受信部33と、デコード部34と、画像表示部35とを備える。端末30は、ヘッドマウントディスプレイであってもよい。
センサ情報取得部31は、端末30が有するセンサから現在のセンサ状態の情報を取得する。センサ情報送信部32は、取得したセンサ状態の情報をサーバ11に送信する。送信方法は、無線通信を用いることが望ましい。
画像受信部33は、サーバ11から送信された画像を受信する。受信方法は、無線通信を用いることが望ましい。デコード部34は、受信した画像を端末30で表示できる形式に変換する。画像表示部35は、変換された画像を表示する。
サーバ11は、センサを有する端末30から受信したセンサ状態に対応するレンダリング画像を端末30に送信するサーバ装置であって、端末30からの現在のセンサ状態の情報を受信するセンサ情報受信部12と、受信した現在の前記センサ状態の情報に基づいて直近の未来に取り得る前記センサ状態の候補を複数予測する予測部14と、予測された前記センサ状態の候補に対応するレンダリングを実行するレンダリング部15と、前記レンダリングにより生成した複数の前記レンダリング画像を記憶する記憶部として機能する画像一時保存処理部16及び画像一時保存領域部17と、前記記憶部に記憶されている複数の前記レンダリング画像から、現在の前記センサ状態に対応する前記レンダリング画像を選択する画像選択部18と、選択された前記レンダリング画像を端末30に送信する画像送信部20と、を備える。さらに、サーバ11は、センサ情報複製部13と、エンコード部19とを備えてもよい。
センサ情報受信部12は、センサ情報送信部32が送信した現在のセンサ状態の情報を受信する。センサ情報複製部13は、受信した現在のセンサ状態の情報を複製して2つにし、1つを予測部14へ、もう1つを画像選択部18へ送信する。
予測部14は、センサ情報複製部13からの現在のセンサ状態を受信する。予測部14は、受信した現在のセンサ状態の情報に基づいて直近の未来に取り得るセンサ状態の候補を複数予測する。この予測には、非特許文献2に記載する方法を用いてもよい。また、予測には、静的予測、アルファ・ベータ・ガンマ法、カルマンフィルタ等を用いてもよい。予測部14は、予測した候補をレンダリング部15に送信する。
レンダリング部15は、予測部14からセンサ状態の候補を受信する。レンダリング部15は、受信したセンサ状態の候補それぞれに対応するレンダリングを実行する。レンダリングでは、カルマンフィルタなどの予測テクニックを用いてもよい。また、状況に応じて、予め特定のセンサ状態のみに絞り込んでもよいし、ありえないセンサ状態は除外してもよい。例えば、座って利用するシーン(自動車車内など)であれば座席視点近傍、立って利用するシーンであればヒトの視線高さ(地上1.5m近傍)などに絞り込んでもよい。また、空高くからの視点又は壁若しくは地中など有りえない視点は除外してもよい。レンダリング部15は、非特許文献3の内容を利用することで、読み出される確率の低い視点のレンダリング処理を行わないようにして、負荷を軽減することができる。さらに、非特許文献3の内容は、画像一時保存処理部16が、直近読み出される確率が一定以上低くなった事前レンダリング画像を破棄する為の判断基準にも利用することができる。レンダリング部15は、レンダリング画像を画像一時保存処理部16に送信する。
画像一時保存処理部16及び画像一時保存領域部17は記憶部として機能する。画像一時保存処理部16は、レンダリングされた画像及び対応するセンサ状態の候補の情報を受信する。画像一時保存処理部16は、レンダリングされた画像を、対応するセンサ状態の候補の情報とともに、画像一時保存領域部17に一時保存する。非特許文献4の内容を利用することで、事前にレンダリングした画像を、画像選択部18が効率的に読み出すことができる。
画像選択部18は、センサ情報複製部13から現在のセンサ状態を受信する。画像選択部18は、画像一時保存領域部17に一時保存されている複数の前記レンダリング画像から、受信した現在のセンサ状態に対応するレンダリング画像を検索して、選択する。画像選択部18は、現在のセンサ状態に対応するレンダリング画像が画像一時保存領域部17にない場合には、レンダリング部15に現在のセンサ状態に対するレンダリングをさせて、作成されたレンダリング画像を選択してもよい。また、画像選択部18は、現在のセンサ状態に対応するレンダリング画像が画像一時保存領域部17にない場合において、レンダリングして新たに画像を作成することができないときは、既存技術(Time-Warp等)を利用してもよいし、選択する画像を真黒な画像としてもよい。初回センサ情報受信時、将来座標予測ができない時又は複数並列事前レンダリングするリソースが確保できない時も、現在のセンサ状態に対応するレンダリング画像が画像一時保存領域部17にない場合と同様の処理を行ってもよい。画像選択部18は、選択した画像をエンコード部19に送信する。
エンコード部19は、受信したレンダリング画像を送信するための形式に変換する。画像送信部20は、変換されたレンダリング画像を端末30に送信する。
遠隔レンダリングシステム10の動作の一例を図5に示す。遠隔レンダリングシステム10の画像処理方法は、センサを有する端末30と、サーバ11とを備え、端末30がセンサ状態の情報をサーバ11に送信し、サーバ11がセンサ状態に対応するレンダリング画像を端末30に送信する画像処理方法であって、端末30からサーバ11に現在のセンサ状態の情報を送信すること(ステップS101)、サーバ11で、受信した現在のセンサ状態の情報に基づいて直近の未来に取り得るセンサ状態の候補を複数予測すること(ステップS102及びS103)、予測されたセンサ状態の候補に対応するレンダリングを実行すること(ステップS104)、及びレンダリングにより生成した複数のレンダリング画像を記憶すること(ステップS105)を特徴とする。
画像処理方法は、サーバ11で記憶されている複数のレンダリング画像から、現在のセンサ状態に対応するレンダリング画像を選択し(ステップS201)、選択されたレンダリング画像を端末30に送信する(ステップS202)ことをさらに行うことが望ましい。画像処理方法は、ステップS202の後に、端末30がレンダリング画像を表示する(ステップS203)。ステップS103からS105とステップS201からS203までのステップは並行して行ってもよいし、どちらかを先に行ってもよい。以下、ステップS101からS105及びステップS201からS203を詳細に説明する。
(ステップS101)
センサ情報送信部32は、前述したように、センサ状態の情報の送信を行う。
(ステップS102)
センサ情報受信部12は、前述したように、センサ状態の情報の受信を行う。センサ情報複製部13は、前述したように、センサ状態の情報の複製及び送信を行う。
(ステップS103)
予測部14は、前述したように、直近の未来に取り得るセンサ状態の候補の予測を行う。
(ステップS104)
レンダリング部15は、前述したように、センサ状態の候補に基づくレンダリングを行う。
(ステップS105)
画像一時保存処理部16は、前述したように、レンダリングされた画像及び対応するセンサ状態の候補の情報を画像一時保存領域部17に一時保存する。
(ステップS201)
画像選択部18は、前述したように、現在のセンサ状態に対応するレンダリング画像を画像一時保存領域部17から選択する。
(ステップS202)
エンコード部19は、前述したように、レンダリング画像のエンコードを行い、画像送信部20は、その送信を行う。
(ステップS203)
画像受信部33は、前述のようにエンコードされたレンダリング画像を受信する。デコード部34は、受信したレンダリング画像をデコードする。画像表示部35は、前述したように、デコードしたレンダリング画像を表示する。
図6は、遠隔レンダリングシステム10の動作フローを示す。CASE1は、事前レンダリングを行わず、現在のセンサ状態に対して逐次レンダリングをする動作フローを示す。CASE1では、現在のセンサ状態の情報を取得してから、レンダリング部15が逐次レンダリングをするため、レンダリング画像を送信する前にレンダリング処理の時間が必要となる。
図6のCASE2は、事前レンダリングを行う場合の動作フローを示す。CASE2のポイントは、ユーザへ応答する画像の検索をするため及び直近の将来にユーザ端末がとりうる座標を予測するために、ユーザ端末からのセンサ情報をセンサ情報複製部13で2つに複製することである。センサ情報を複製することで、検索と予測を並行して行うことができる。事前レンダリングし、予めレンダリングされた画像を用意することで、現在のセンサ状態に応じて逐次レンダリング処理をする必要がなく、レンダリング処理時間を削減できる。
本開示に係る遠隔レンダリングシステム、画像処理方法及びサーバ装置は、直近の未来に取りうるポジション(座標)についてのみ画像を事前レンダリングすることにより、事前レンダリング処理や事前レンダリングにより生成する画像を減らすことができる。その結果、事前レンダリングに必要となる時間やストレージを削減することができる。
以上説明したように、本開示に係る遠隔レンダリングシステム、画像処理方法及びサーバ装置は、事前レンダリングを効率的に行い、かつ、ユーザへの画像の表示の遅延を削減し、ユーザの視線方向とレンダリングされた画像とのずれを低減できる遠隔レンダリングシステム、画像処理方法及びサーバ装置を提供することができる。
(実施形態2)
以下、本実施形態に係る遠隔レンダリングシステム10の全体構成を図7に示す。遠隔レンダリングシステム10は、端末30と、複数のサーバ11と、アプリケーション管理部50(図面では、「アプリケーション管理部」を「アプリ管理部」と略記する。)と、アプリ配備実行ノード51と、ネットワーク管理ノード52と、サーバインフラ管理ノード53と、を備える。
ネットワーク管理ノード52は、サーバ11間のネットワーク状況や、サーバ11と端末30とのネットワーク状況を管理し、アプリケーション管理部50に報告する。
サーバインフラ管理ノード53は、各サーバ11のインフラ状況を管理し、アプリケーション管理部50に報告する。サーバ11のインフラ状況として、CPU、メモリ、ストレージ、GPU等のサーバリソースを例示することができる。
アプリケーション管理部50について図2を用いて説明する。アプリケーション管理部50は、ネットワーク管理ノード52及びサーバインフラ管理ノード53から報告された情報に基づき、複数のサーバ11のうち、レンダリングを行うサーバ11を選択し、選択したサーバ11のうち1つをマスタサーバ21、他をスレーブサーバ22と指定する。アプリケーション管理部50は、マスタサーバ21又はスレーブサーバ22として指定したサーバ11に対して、適切なアプリケーションをアプリ配備実行ノード51により配備させる。アプリケーション管理部50は、アプリケーションを配備することで、選択されたサーバ11をマスタサーバ21又はスレーブサーバ22として機能させる。アプリケーション管理部50は、ネットワーク状況やインフラ情報が変わった場合には、それらの変化に応じた変更を加えたアプリケーションを再配備することにより、サーバ11の機能に変更を加えてもよい。例えば、端末30の位置に最も近いサーバ11をマスターサーバ21とする場合を考える。この場合において、端末30の位置が変化したときは、その変化に応じて、今までマスターサーバ21として機能していたサーバ11に代えて、位置が変化した後の端末30と最も近いサーバ11に、マスターサーバアプリを配備し、マスターサーバ21として機能させてもよい。
端末30の構成について図8を用いて説明する。端末30の構成は、実施形態1と同様とする。センサ情報送信部32は、取得した現在の前記センサ状態の情報をマスタサーバ21に送信する。
マスタサーバ21及びスレーブサーバ22の構成について図8を用いて説明する。マスタサーバ21は、センサ情報受信部12と、センサ情報複製部13と、予測部14と、レンダリング部15と、画像一時保存処理部16と、画像一時保存領域部17と、画像選択部18と、エンコード部19と、画像送信部20と、サーバ振り分け部23と、インデックス保存処理部24と、インデックス保存領域部25と、サーバ検索部26と、サーバ問い合わせ部27と、を備える。センサ情報受信部12、画像一時保存処理部16、画像一時保存領域部17、エンコード部19及び画像送信部20は実施形態1と同様である。
スレーブサーバ22は、レンダリング部15と、画像一時保存処理部16と、画像一時保存領域部17と、画像選択部18と、エンコード部19と、画像送信部20とを備える。スレーブサーバ22の構成要素の符号は、マスタサーバ21の構成要素の符号と対応しており、同一のものは、同一の内容とする。
以下、マスターサーバ21またはスレーブサーバ22について、実施形態1と異なる機能を持つ構成要素や新たに追加する構成要素について説明する。具体的には、センサ情報複製部13、予測部14、レンダリング部15、画像選択部18、サーバ振り分け部23、インデックス保存処理部24、インデックス保存メモリ部25、サーバ検索部26及びサーバ問い合わせ部27について詳細に説明する。
センサ情報複製部13は、受信した現在のセンサ状態の情報を複製して2つにし、1つを予測部14へ、もう1つをサーバ検索部26へ送信する。
予測部14は、実施形態1と同様に、現在のセンサ状態の情報に基づいて直近の未来に取り得るセンサ状態の候補を複数予測する。予測部14は、予測した候補をサーバ振り分け部23に送信する。
サーバ振り分け部23は、予測部14からセンサ状態の候補を受信する。受信したセンサ状態の候補のそれぞれについて、レンダリングを行うマスタサーバ21又はスレーブサーバ22を選択する。例えば、マスタサーバ21又はスレーブサーバ22は、予測された候補(座標)に基づく画像が直近読み出される確率に応じて使い分けられる。直近読み出される確率の高い座標と対応する画像はより端末30に近いマスタサーバ21又はスレーブサーバ22でレンダリングされ、そのサーバ内の一時記憶領域に格納される等が考えられる。サーバ振り分け部23は、選択したマスタサーバ21又はスレーブサーバ22に対し、そのサーバでレンダリングされるセンサ状態の候補を送信する。
レンダリング部15は、サーバ振り分け部23からセンサ状態の候補を受信する。レンダリング部15は、実施形態1と同様に、受信したセンサ状態の候補に基づきレンダリングを行い、レンダリング画像を画像一時保存処理部16に送信する。
インデックス保存処理部24は、「3次元座標及び向き」の情報等該当するアングルの画像を画像一時保存領域部17から検索するためのキーとなる見出し情報(以下、「インデックス」と呼ぶ。)をインデックス保存領域部25に一時保存させる。例えば、インデックスは、センサ状態の候補及びその候補についてレンダリングを行うサーバのIDとしてもよい。インデックスは、計算効率化のためハッシュ化されていてもよい。
サーバ検索部26は、インデックス保存領域部25で、現在のセンサ状態に対応するインデックスを検索し、現在のセンサ状態に対応するレンダリング画像を保有するマスタサーバ21又はスレーブサーバ22を選択する。
サーバ問い合わせ部27は、サーバ検索部26で選択されたマスタサーバ21又はスレーブサーバ22の画像選択部18に現在のセンサ状態を送信する。
画像選択部18は、サーバ問い合わせ部27から現在のセンサ状態を受信する。画像選択部18は、実施形態1と同様に、受信した現在のセンサ状態に対応するレンダリング画像を画像一時保存領域部17から選択し、選択した画像をエンコード部19に送信する。
遠隔レンダリングシステム10の動作の一例を図9に示す。遠隔レンダリングシステム10の画像処理方法は、センサを有する端末30と、サーバ11と、アプリケーション管理部50とを備え、端末30がセンサ状態の情報をサーバ11に送信し、サーバ11がセンサ状態に対応するレンダリング画像を端末30に送信する画像処理方法であって、サーバ11が複数ある場合、複数のサーバ11の一部を選択し、選択したサーバ11のうち1つをマスタサーバ21、他をスレーブサーバ22とすること(ステップS301)、端末30からの現在のセンサ状態の情報はマスタサーバ21に送信されること(ステップS101)、直近の未来に取り得るセンサ状態の候補を複数予測することはマスタサーバ21で行うこと(ステップS102及びS103)、レンダリングを実行することとレンダリング画像を記憶することはマスタサーバ21とスレーブサーバ22の少なくとも1つで行うこと(ステップS104及びS105)を特徴とする。さらに、ステップS103とステップS104との間において、サーバ振り分けステップS302及びインデックス保存S303を行ってもよい。
画像処理方法は、ステップS102の後に、現在のセンサ状態に対応するレンダリング画像を保存しているマスターサーバ21又はスレーブサーバ22を検索して選択すること(ステップS304)及び選択したマスターサーバ21又はスレーブサーバ22に現在のセンサ状態を送信すること(ステップS305)を行ってもよい。画像処理方法は、ステップS305の後に、マスターサーバ21又はスレーブサーバ22で記憶されている複数のレンダリング画像から、現在のセンサ状態に対応するレンダリング画像を選択し(ステップS201)、選択されたレンダリング画像を端末30に送信する(ステップS202)ことをさらに行うことが望ましい。さらに、画像処理方法は、ステップS202の後に、端末30がレンダリング画像を表示する(ステップS203)。以下、各ステップについて順に説明する。ただし、ステップS103以降のステップとステップS304以降のステップは、平行しても行ってもよいし、どちらを先に行ってもよい。
(ステップS301)
アプリケーション管理部50は、本実施形態で前述したように、マスタサーバ21及びスレーブサーバ22と指定する。
(ステップS101)
センサ情報送信部32は、本実施形態で前述したように、取得したセンサ状態の情報をマスタサーバ21に送信する。
(ステップS102)
センサ情報受信部12は、実施形態1のステップS101と同様に、現在の前記センサ状態の情報を受信する。センサ情報複製部13は、本実施形態で前述したように、受信した現在のセンサ状態の情報を予測部14及びサーバ検索部26に送信する。
(ステップS103)
予測部14は、本実施形態で前述したように、直近の未来に取り得るセンサ状態の候補の予測を行う。
(ステップS302)
サーバ振り分け部23は、本実施形態で前述したように、レンダリングを行うマスタサーバ21又はスレーブサーバ22を選択し、センサ状態の候補を送信する。
(ステップS303)
インデックス保存処理部24は、本実施形態で前述したように、インデックスをインデックス保存領域部25に一時保存させる。
(ステップS104)
ステップS302で選択されたマスタサーバ21又はスレーブサーバ22のレンダリング部15は、本実施形態で前述したように、センサ状態の候補に基づくレンダリングを行う。ステップS303及びステップS104は、並行して行ってもよいし、どちらを先に行ってもよい。
(ステップS105)
ステップS302で選択されたマスタサーバ21又はスレーブサーバ22は、実施形態1のステップS105を行う。
(ステップS304)
サーバ検索部26は、本実施形態で前述したように、現在のセンサ状態に対応するレンダリング画像を保有するマスタサーバ21又はスレーブサーバ22を選択する。
(ステップS305)
サーバ問い合わせ部27は、本実施形態で前述したように、ステップS304で選択されたマスタサーバ21又はスレーブサーバ22の画像選択部18に現在のセンサ状態を送信する。
(ステップS201)
ステップS304で選択されたマスタサーバ21又はスレーブサーバ22の画像選択部18は、本実施形態で前述したように、現在のセンサ状態に対応するレンダリング画像を画像一時保存領域部17から選択する。
(ステップS202)
ステップS304で選択されたマスタサーバ21又はスレーブサーバ22において、実施形態1のステップS202を行う。
(ステップS203)
ステップS304で選択されたマスタサーバ21又はスレーブサーバ22からレンダリング画像を受信した端末30は、実施形態1のステップS203を行う。
以上説明したように、本開示に係る遠隔レンダリングシステム及び画像処理方法は、複数のサーバを用いて事前レンダリングを行うことにより、サーバの空きリソースを有効活用できる。また、端末の位置情報に基づいて、端末の近傍にあるサーバから画像を送信することにより、通信による遅延を削減することができる。
(実施形態3)
本実施形態に係るプログラムは、サーバ装置としてコンピュータを機能させるためのプログラムである。サーバ装置は、コンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。当該プログラムをインストールされたコンピュータは、図4や図8で説明したサーバ装置として機能する。
なお、上記各発明は、可能な限り組み合わせることができる。
本開示に係る遠隔レンダリングシステムは、情報通信産業に適用することができる。
10:遠隔レンダリングシステム
11:サーバ
12:センサ情報受信部
13:センサ情報複製部
14:予測部
15:レンダリング部
16:画像一時保存処理部
17:画像一時保存領域部
18:画像選択部
19:エンコード部
20:画像送信部
21:マスタサーバ
22:スレーブサーバ
23:サーバ振り分け部
24:インデックス保存処理部
25:インデックス保存領域部
26:サーバ検索部
27:サーバ問い合わせ部
30:端末
31:センサ情報取得部
32:センサ情報送信部
33:画像受信部
34:デコード部
35:画像表示部
50:アプリケーション管理部
51:アプリ配備実行ノード
52:ネットワーク管理ノード
53:サーバインフラ管理ノード

Claims (6)

  1. センサを有する端末と、複数のサーバと、アプリケーション管理部とを備え、前記端末がセンサ状態の情報を前記サーバに送信し、前記サーバが前記センサ状態に対応するレンダリング画像を前記端末に送信する遠隔レンダリングシステムであって、
    前記アプリケーション管理部は、前記複数のサーバの一部を選択し、選択した前記複数のサーバのうち1つをマスタサーバ、他をスレーブサーバと指定し、
    前記端末は、現在の前記センサ状態の情報を前記マスタサーバに送信し、
    前記マスタサーバは、受信した現在の前記センサ状態の情報に基づいて直近の未来に取り得る前記センサ状態の候補を複数予測し、
    前記マスタサーバ及び前記スレーブサーバのうち前記端末により近接する前記サーバは、予測された前記センサ状態の候補に対応し近接した時間内に前記端末によって読み出される確率の高い座標と対応する画像のレンダリングを実行し前記レンダリングにより生成した複数の前記レンダリング画像を記憶する
    ことを特徴とする遠隔レンダリングシステム。
  2. 前記サーバは、記憶されている複数の前記レンダリング画像から、現在の前記センサ状態に対応する前記レンダリング画像を選択し、
    選択された前記レンダリング画像を前記端末に送信する
    ことを特徴とする請求項に記載の遠隔レンダリングシステム。
  3. センサを有する端末と、複数のサーバとを備え、前記端末がセンサ状態の情報を前記サーバに送信し、前記サーバが前記センサ状態に対応するレンダリング画像を前記端末に送信する画像処理方法であって、
    前記複数のサーバの一部を選択し、選択した前記複数のサーバのうち1つをマスタサーバ、他をスレーブサーバと指定し、
    前記端末から前記マスタサーバに現在の前記センサ状態の情報を送信すること、
    前記マスタサーバで、受信した現在の前記センサ状態の情報に基づいて直近の未来に取り得る前記センサ状態の候補を複数予測すること、
    前記マスタサーバ及び前記スレーブサーバのうち前記端末により近接する前記サーバで、予測された前記センサ状態の候補に対応し近接した時間内に前記端末によって読み出される確率の高い座標と対応する画像のレンダリングを実行し、前記レンダリングにより生成した複数の前記レンダリング画像を記憶すること
    を特徴とする画像処理方法。
  4. 前記サーバで記憶されている複数の前記レンダリング画像から、現在の前記センサ状態に対応する前記レンダリング画像を選択し、
    選択された前記レンダリング画像を前記端末に送信する
    ことを特徴とする請求項に記載の画像処理方法。
  5. センサを有する端末から受信したセンサ状態に対応するレンダリング画像を前記端末に送信する複数のサーバ装置であって、
    前記複数のサーバ装置のうち1つがマスタサーバ、他がスレーブサーバと指定され、
    前記マスタサーバは、前記端末からの現在の前記センサ状態の情報を受信するセンサ情報受信部と受信した現在の前記センサ状態の情報に基づいて直近の未来に取り得る前記センサ状態の候補を複数予測する予測部と、を備え、
    前記マスタサーバ及び前記スレーブサーバのうち前記端末により近接する前記サーバ装置は、予測された前記センサ状態の候補に対応し近接した時間内に前記端末によって読み出される確率の高い座標と対応する画像のレンダリングを実行するレンダリング部と前記レンダリングにより生成した複数の前記レンダリング画像を記憶する記憶部と前記記憶部に記憶されている複数の前記レンダリング画像から、現在の前記センサ状態に対応する前記レンダリング画像を選択する画像選択部と選択された前記レンダリング画像を前記端末に送信する画像送信部と、
    を備えるサーバ装置。
  6. 請求項に記載のサーバ装置としてコンピュータを機能させるためのプログラム。
JP2022533006A 2020-07-03 2020-07-03 遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラム Active JP7490772B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024079442A JP2024100839A (ja) 2020-07-03 2024-05-15 遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/026248 WO2022003966A1 (ja) 2020-07-03 2020-07-03 遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024079442A Division JP2024100839A (ja) 2020-07-03 2024-05-15 遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2022003966A1 JPWO2022003966A1 (ja) 2022-01-06
JP7490772B2 true JP7490772B2 (ja) 2024-05-27

Family

ID=79315673

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022533006A Active JP7490772B2 (ja) 2020-07-03 2020-07-03 遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラム
JP2024079442A Pending JP2024100839A (ja) 2020-07-03 2024-05-15 遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024079442A Pending JP2024100839A (ja) 2020-07-03 2024-05-15 遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラム

Country Status (3)

Country Link
US (1) US20230298130A1 (ja)
JP (2) JP7490772B2 (ja)
WO (1) WO2022003966A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12132634B2 (en) * 2021-10-21 2024-10-29 At&T Intellectual Property I, L.P. Managing extended reality experience
WO2023187885A1 (ja) * 2022-03-28 2023-10-05 日本電信電話株式会社 サーバ選択システム、サーバ選択方法、サーバ選択装置、接続ノード、および、プログラム
CN117472371B (zh) * 2023-10-09 2024-07-05 北京趋动智能科技有限公司 远程渲染方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014521150A (ja) 2011-07-06 2014-08-25 マイクロソフト コーポレーション 予測マルチレイヤキャッシュアーキテクチャ
WO2018225187A1 (ja) 2017-06-07 2018-12-13 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理装置、サーバ装置、画像提供方法および画像生成方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6441426B1 (ja) * 2017-08-28 2018-12-19 株式会社エイビック キャラクタ動画表示システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014521150A (ja) 2011-07-06 2014-08-25 マイクロソフト コーポレーション 予測マルチレイヤキャッシュアーキテクチャ
WO2018225187A1 (ja) 2017-06-07 2018-12-13 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理装置、サーバ装置、画像提供方法および画像生成方法

Also Published As

Publication number Publication date
US20230298130A1 (en) 2023-09-21
JP2024100839A (ja) 2024-07-26
JPWO2022003966A1 (ja) 2022-01-06
WO2022003966A1 (ja) 2022-01-06

Similar Documents

Publication Publication Date Title
JP7490772B2 (ja) 遠隔レンダリングシステム、画像処理方法、サーバ装置及びプログラム
US11252430B2 (en) Exploiting camera depth information for video encoding
US8224099B2 (en) Screen data transmitting system, screen data transmitting server, screen data transmitting method and program recording medium
CN111788611A (zh) 密集3d重建数据的缓存和更新
KR101885408B1 (ko) 예측 다층 캐싱 아키텍처들
WO2020060984A1 (en) Cross layer traffic optimization for split xr
US10699361B2 (en) Method and apparatus for enhanced processing of three dimensional (3D) graphics data
US8654151B2 (en) Apparatus and method for providing augmented reality using synthesized environment map
CN103688240A (zh) 用于发送数字场景描述数据的方法以及发送器和接收器场景处理设备
US20120005630A1 (en) Highly Responsive Screen Output Device, Screen Output System, and Screen Output Method
CN113826029B (zh) 点云信息编码方法、装置、计算机设备及存储介质
US8379016B2 (en) Geospatial data system for selectively retrieving and displaying geospatial texture data in successive additive layers of resolution and related methods
KR20160108158A (ko) 3차원 배경 콘텐트를 합성하는 방법 및 디바이스
CN104599315A (zh) 一种三维场景的构建方法及系统
US20130332476A1 (en) Vector road network simplification
TW201939959A (zh) 用於產生影像資料位元流的設備及方法
Li et al. DeltaVR: Achieving high-performance mobile VR dynamics through pixel reuse
Yoo et al. Real-time parallel remote rendering for mobile devices using graphics processing units
JPWO2011077550A1 (ja) 画面中継装置
KR102181859B1 (ko) 홀로포테이션 제공 시스템 및 방법
CN107450860B (zh) 一种基于分布式存储的地图文件预读方法
US11025880B2 (en) ROI-based VR content streaming server and method
KR20190099954A (ko) 이미지 타일 가시화 정보의 계층적 표현을 이용한 이미지 표현 방법, 이를 이용하는 디바이스 및 시스템
CN116820651A (zh) 一种界面显示方法、装置、电子设备及存储介质
US11217011B2 (en) Providing semantic-augmented artificial-reality experience

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240515

R150 Certificate of patent or registration of utility model

Ref document number: 7490772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150