JP2021520579A - オブジェクトのロード方法及び装置、記憶媒体、電子装置、並びにコンピュータプログラム - Google Patents

オブジェクトのロード方法及び装置、記憶媒体、電子装置、並びにコンピュータプログラム Download PDF

Info

Publication number
JP2021520579A
JP2021520579A JP2020562114A JP2020562114A JP2021520579A JP 2021520579 A JP2021520579 A JP 2021520579A JP 2020562114 A JP2020562114 A JP 2020562114A JP 2020562114 A JP2020562114 A JP 2020562114A JP 2021520579 A JP2021520579 A JP 2021520579A
Authority
JP
Japan
Prior art keywords
visible
subspace
type
target
types
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020562114A
Other languages
English (en)
Other versions
JP7125512B2 (ja
Inventor
ウエイ,ズィシアオ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2021520579A publication Critical patent/JP2021520579A/ja
Application granted granted Critical
Publication of JP7125512B2 publication Critical patent/JP7125512B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本出願はオブジェクトのロード方法及び装置、記憶媒体、電子装置を開示している。該方法は、仮想シーンにおいて画像採集装置の採集範囲内にある可視空間を決定し、画像採集装置は仮想シーンにおける第1位置にある採集装置であり;第1位置に基づいて、可視空間において複数のタイプのうちのターゲットタイプにより指示される可視距離閾値内にあるターゲットサブ空間を決定し、複数のタイプのうちの各タイプは仮想シーンのサブ空間内オブジェクトの1つの可視距離閾値を指示し;ターゲットサブ空間において可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトをレンダリングオブジェクトとして取得し;及び、ターゲットアプリケーションがインストールされたユーザ端末のストレージリソースにレンダリングオブジェクトをロードし、ユーザ端末は仮想シーンの画像をレンダリングするステップを含む。

Description

本出願は、2018年11月15日にて、中国特許庁に提出され、出願番号が201811361060.0であり、出願の名称が「オブジェクトのロード方法及び装置、記憶媒体、電子装置」である中国特許出願の優先権を主張し、その全ての内容は本出願に援用される。
本出願は、インターネット技術分野に関し、具体的に、オブジェクトのロード(Loading)技術に関する。
3次元(3Dimensions、3D)は空間の概念であり、X、Y、Zという3つの軸からなる空間は、長さと幅のみを有する2次元(2Dimensions、2D)の平面に対するものである。
3D仮想シーンの構築は、3Dの重要の応用の1つであり、例えば、大型ゲームにおいて、一般的に大きなシーンが配置され、シーン内には、人間、動物、家屋、樹木、石などのようなユニットの数が多くて、ゲームの過程において、ゲーム画面は1フレームを更新するたびに、シーン内のオブジェクトに対して1回の、レンダリングと動画などを含む逐次処理を行う。
本出願の実施例は、オブジェクトのロード方法及び装置、記憶媒体、電子装置を提供し、少なくとも関連技術において、仮想シーンにおけるオブジェクトのレンダリングに多いハードウェアリソースを占有するという技術問題を解決する。
本出願の実施例の1つの態様に基づき、オブジェクトのロード方法を提供し、該方法は、仮想シーンにおいて、画像採集機器の採集範囲内にある可視空間を決定するステップであって、画像採集機器は仮想シーンにおける第1位置にある採集機器であるステップと、第1位置に基づいて、可視空間において、複数のタイプのうちのターゲットタイプが指示する可視距離閾値内にあるターゲットサブ空間を決定するステップであって、複数のタイプのうちの各タイプは、仮想シーンのサブ空間内のオブジェクトの1つの可視距離閾値を指示するステップと、レンダリングオブジェクトとして、ターゲットサブ空間において、可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトを取得するステップと、レンダリングオブジェクトをロードするステップと、を有する。
本出願の実施例の他の態様によれば、さらに、オブジェクトのロード装置を提供し、該装置は、仮想シーンにおいて、画像採集機器の採集範囲内にある可視空間を決定するための第1決定ユニットであって、画像採集機器は仮想シーンにおける第1位置にある採集機器である第1決定ユニットと、第1位置に基づいて、可視空間において、複数のタイプのうちのターゲットタイプが指示する可視距離閾値内にあるターゲットサブ空間を決定するための第2決定ユニットであって、複数のタイプのうちの各タイプは、仮想シーンのサブ空間内のオブジェクトの1つの可視距離閾値を指示する第2決定ユニットと、レンダリングオブジェクトとして、ターゲットサブ空間において、可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトを取得するための取得ユニットと、レンダリングオブジェクトをロードするためのロードユニットと、を備える。
本出願の実施例の他の態様によれば、さらにプログラムが記憶されている記憶媒体を提供し、該プログラムは、実行される場合、前記方法を実行する。
本出願の実施例の他の態様に基づき、さらに電子装置を提供し、該電子装置は、メモリと、プロセッサと、及びメモリに記憶されるとともにプロセッサに実行されるコンピュータプログラムとを含み、プロセッサはコンピュータプログラムにより前記方法を実行する。
本出願の実施例の他の態様に基づき、さらに命令を有するコンピュータプログラムを提供し、該コンピュータプログラムは、コンピュータに実行される場合、前記コンピュータに前記方法を実行させる。
本出願の実施例において、仮想シーンにおいて、画像採集機器の採集範囲内にある可視空間を決定し、レンダリングオブジェクトとして、ターゲットサブ空間において、可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトを取得し、レンダリングオブジェクトをロードし、異なる位置にある可視空間に対して、ユーザにとって実際に見えるオブジェクトのみをロードし、このように、関連技術において、仮想シーンにおけるオブジェクトのレンダリングが多いハードウェアリソースを占有するという技術問題を解決し、メモリリソースに対する占有を著しく低減させ、さらに、中央処理装置(Central Processing Unit、CPU)及びグラフィックスプロセッシングユニット(Graphics Processing Unit、GPU)などのようなハードウェアリソースに対する消費を低減させる。
本出願の実施例または従来技術における技術案をより明らかに説明するために、以下は実施例または従来技術の記載における必要な図面を簡単に紹介し、明らかに、以下の記載における図面は本出願の実施例に過ぎず、当業者にとって、進歩性に値する労働をしない前提で、提供した図面に基づき、他の図面を取得できる。
本出願の実施例に基づくオブジェクトのロード方法のハードウェア環境の模式図である。 本出願の実施例に基づく選択可能なオブジェクトのロード方法のフローチャートである。 本出願の実施例に基づく選択可能なシーンにおけるグリッドブロックの模式図である。 本出願の実施例に基づく選択可能なシーンにおけるグリッドブロックの模式図である。 本出願の実施例に基づく選択可能なシーンにおけるグリッドブロックの模式図である。 本出願の実施例に基づく選択可能なシーンにおけるグリッドブロックの模式図である。 本出願の実施例に基づく選択可能なシーンにおける座標系の模式図である。 本出願の実施例に基づく選択可能なシーンの前処理のフローチャートである。 本出願の実施例に基づく選択可能なシーンにおける境界ボックスの模式図である。 本出願の実施例に基づく選択可能なシーンにおけるグリッドの模式図である。 本出願の実施例に基づく選択可能なシーンの模式図である。 本出願の実施例に基づく選択可能なシーンの模式図である。 本出願の実施例に基づく選択可能なシーンの模式図である。 本出願の実施例に基づく選択可能なシーンのオブジェクトロードのフローチャートである。 本出願の実施例に基づく選択可能なオブジェクトのロード装置の模式図である。 本出願の実施例に基づく端末の構成ブロック図である。
当業者に本出願の技術案をよりよく理解させるために、以下は本出願の実施例の図面を参照して、本出願の実施例の技術案を明らか且つ完全に記載し、明らかに、記載の実施例は全ての実施例ではなく、本出願の一部の実施例に過ぎない。本出願の実施例に基づき、当業者が進歩性に値する労働をしない前提で取得した他の全ての実施例は、いずれも本出願の保護範囲に属する。
なお、本出願の明細書、請求項、及び前記図面における「第1」、「第2」などの用語は、特定の順序または前後順番に対して説明するためのものではなく、類似の対象を区別するためのものである。このように利用されるデータは適切な場合、互いに置き換えられてもよく、ここで記載される本出願の実施例は、ここに図示または記載以外の順序で実施されてもよい。また、用語「含む」、「具備」、及びこれらのいずれの変形は、非排他的な包含をカバーし、例えば、一連のステップまたはユニットを含む過程、方法、システム、製品または機器は、明らかに挙げられたステップまたはユニットに限定されず、明らかに挙げられていないまたはこれらの過程、方法、製品または機器に対して固有の他のステップまたはユニットを含んでもよい。
本出願は主に、大型3Dシーンの性能が有限である機器における動的ロード及び連続表示という問題を解決し、例えば、コンピュータゲームにおいて、ユーザに仮想の超大型3D世界を表示し、一般的に、1つの3Dシーンには大量のポイント、サーフェス、ピクチャデータがあり、大型3Dシーンは、少なくとも数平方キロメートル以上の仮想世界をシミュレーションするから、性能が有限である機器に全部ロードして処理することができない。
前記問題を克服するために、本出願の実施例の1つの態様に基づいて、オブジェクトのロード方法の方法実施例を提供し、本出願の技術案を利用して、処理過程で、可視範囲内にあるシーンコンテンツがロードされ、性能オーバーヘッドを最小化するように保証し、見られるべきではないシーンコンテンツは、メモリなどのハードウェアリソースからアンロードされ、シーンコンテンツが連続的に出現し、つまり、可視オブジェクトのインプレッションによるビジョンのフリーズが出現することはない。
本出願の実施例が提供するオブジェクトのロード方法は、端末機器、サーバのような画像処理機器(画像処理装置とも言う)に応用される。該方法は端末機器に応用され、端末機器は、例えばインテリジェント端末、コンピュータ、パーソナルデジタルアシススタント(Personal Digital Assistant、PDAと略称される)、タブレットなどの機器であってもよい。該方法はさらにサーバに応用されてもよく、該サーバは独立のサーバであってもよいし、クラスタにおけるサーバであってもよい。
例えば、本実施例において、前記オブジェクトのロード方法は、図1に示した、サーバ101及び/またはユーザ端末103からなるハードウェア環境に応用される。図1に示すように、サーバ101はネットワークを介してユーザ端末103に接続され、ユーザ端末またはユーザ端末にインストールされたクライアントにサービス(例えばゲームサービス、アプリケーションサービスなど)を提供し、サーバに、またはサーバとは独立して、サーバ101にデータの記憶及びデータの読取サービスを提供するためのデータベース105を配置することができる。前記ネットワークは、広域エリアネットワーク、メトロポリタンエリアネットワークまたはローカルエリアネットワークを含むが、これらに限定されず、ユーザ端末103はPC、携帯電話、タブレットなどに限定されない。
本出願の実施例のオブジェクトのロード方法は、ユーザ端末103によって実行されてもよく、ユーザ端末103は本出願の実施例のオブジェクトのロード方法を実行することは、ユーザ端末103にインストールされたクライアントにより実行されてもよい。本出願の応用シーンは、いろんなコンピュータ機器(PCパソコン、携帯電話、タブレット、埋込型機器、サーバ、ゲームホストなどの機器が含まれるが、これらに限定されない)において、ターゲットアプリケーションというソフトウェアによるレンダリングされた3D大きなシーン(例えば、大型3Dゲーム、3D動画、VR展示におけるシーンのレンダリング)を利用でき、ここで、レンダリングは、コンピュータがデジタル化のアートコンテンツを処理するとともに、それを表示機器に描画するという過程として理解すればよい。本出願の技術案を適用するシーンは、以下のシーンを含むが、これらに限定されない。
(1)拡張現実(Augmented Reality、AR)、仮想現実(Virtual Reality、VR)などを利用するソーシャルネットワークアプリケーションにおいて、ユーザがログインした後、その視野範囲内に大量のオブジェクト(例えば、シーンのうちの風景、建築、他のユーザ、ユーザペットのようなオブジェクトなど)が出現すると、大量のオブジェクトに対して画像のレンダリングを行うことは、長期間で大量の性能リソース(オブジェクト情報のメモリにおけるロード、CPU及び画像処理装置GPUによるレンダリングなどの操作を含む)を占有するため、この場合、本出願の技術案を利用して、大量のオブジェクトをスクリーニングして現在のユーザにとって見られるオブジェクトを選出するとともに、これらの見られるオブジェクトをロード及びレンダリングすることで、画像レンダリングが占有するハードウェアリソース(例えばCPU、メモリ、GPU)を低減させるという目的に達する。
(2)ゲームアプリケーションにおいて、プレイヤーのゲーム中に、その可視範囲内で、大量の他のプレイヤーキャラクター、ノンプレイヤーキャラクター(Non Player Character、NPC)、風景建築などのオブジェクトが突然出現する可能性があり、端末の性能リソースが限られているから、この場合、端末の性能リソースは大量にレンダリング操作に占有され、端末の利用可能な性能リソースが大量に降下し、ユーザ側は、端末のフリーズ、遅い応答、ドロップフレームなどを感じ、この際、本出願の技術案を利用して、大量のオブジェクトをスクリーニングして現在のユーザにとって見られるオブジェクトを選出するとともに、これらの見られるオブジェクトをロード及びレンダリングすることで、画像レンダリングが占有するハードウェアリソースを低減させるという目的に達する。
(3)軍事戦争類、医学などのシミュレーションアプリケーションにおいて、軍事戦争のシミュレーションアプリケーションを例として、可視範囲内に、大量の軍事人員、軍事機器、軍事シーンなどのオブジェクトが存在する場合、端末は、大量のオブジェクトをスクリーニングして現在ユーザにとって見られるオブジェクトを選出するとともに、これらの見られるオブジェクトをロード及びレンダリングすることで、画像レンダリングが占有するハードウェアリソースを低減させる。
前記実施例のシーンは、一般的に以下のような特性を有し、即ち、大規模の3Dシーン(一般的に、数平方キロメートルを超える)をレンダリングする必要があり、シーンに含まれるオブジェクトが多く(数量は一般的に数万以上である)、細部が複雑であり、ひいては製品によっては、無限に見える真実の超大世界をシミュレーションする必要もあるが、事実として、機器のメモリ及びプロセッサの性能は有限で、特に、モバイル機器において、メモリ及びプロセッサの性能はさらに有限であるから、シーン全体を全てロード及び処理することができないため、可視のシーン領域を動的にロードし、不可視のシーン領域をアンロードすることで、レンダリングという目的を果たす必要がある。本出願の技術案は、このような製品において、シーン領域に対する動的ロード及びアンロードという問題を解決するとともに、最適化の技術案を利用して、動的ロード及びアンロードの過程で、なるべく最小化のメモリ占有を保証し、新たに視野に入ったアイテムを滑らかに表示できる。
以下、ユーザ端末を画像処理機器とすることを例として、本出願の実施例が提供するオブジェクトのロード方法を説明する。図2は、本出願の実施例に基づく選択可能なオブジェクトのロード方法のフローチャートであり、図2に示すように、該方法は、以下のステップを含む。
S202:ユーザ端末は、仮想シーンにおいて、画像採集機器(画像採集装置又は画像採取装置とも言う)の採集範囲内にある可視空間を決定し、画像採集機器は仮想シーンにおける第1位置にある採集機器である。
前記仮想シーンは、ターゲットアプリケーションにより提供される仮想シーンであり、前記ターゲットアプリケーションはAR、VRを利用したソーシャルネットワークアプリケーション、ゲームアプリケーション、軍事戦争類、医学類のシミュレーションアプリケーションなどのアプリケーションであり、該ターゲットアプリケーションはユーザ端末にインストールされて、クライアントを形成し、仮想シーンはソーシャルネットワークシーン、ゲームシーン、シミュレーションシーンなどであってもよく、これらのシーンはユーザ端末におけるクライアントにより現れる。
前記画像採集機器は、一人称視点、三人称視点(視点は視野角とも呼ばれ、現在シーンの位置を観察しているユーザである観察者の視野を定量化する角度である)などをシミュレーションして画像を採集するための、仮想の画像採集機器であってもよく、画像採集機器の可視範囲は、ユーザの可視範囲であり、該画像採集機器は具体的に、レンダリングエンジンから呼び出される機能アセンブリであってもよく、例えば、ゲームエンジンUnityにおけるカメラCameraである。
前記仮想シーンは、3Dシーンであり、コンピュータ機器(例えば前記サーバまたはユーザ端末)によりシミュレーション計算されるとともに、表示機器に描画される仮想シーンコンテンツであり、ある間隔単位(例えば1メートル、10メートルなどの間隔) で、仮想シーンを若干のサブ空間(またはグリッドとも呼ばれる)に区画し、前記可視空間は、画像採集機器の採集範囲内にあるサブ空間のセット(少なくとも1つのサブ空間を有してもよい)であり、例えば、画像採集機器の採集可能な距離を設定すると、決定された距離に応じて、該採集可能な距離内にあるサブ空間を可視空間とする。
S204:ユーザ端末は、第1位置に基づいて、可視空間内において、複数のタイプのうちのターゲットタイプが指示する可視距離閾値内にあるターゲットサブ空間を決定し、複数のタイプのうちの各タイプは、仮想シーンのサブ空間内に、オブジェクトの1つの可視距離閾値を指示する。
S206:ユーザ端末は、レンダリングオブジェクト(レンダリング待ちオブジェクトとも言う)ととして、ターゲットサブ空間において、可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトを取得する。
好ましくは、仮想シーンにおけるオブジェクト(シーンオブジェクトは、例えば風景建築、他のユーザ、ペットなどである)に対して、一定の可視距離(即ち、該オブジェクトを見れる最も遠い距離)があり、言い換えれば、該可視距離を超えると、ユーザに見えず、前記複数のタイプのうちの各タイプは1つの可視距離閾値に対応し、即ち、可視距離に従って仮想シーンのサブ空間を分類し、同じタイプのサブ空間に対して、同じ方式で、可視距離が対応する可視距離閾値より大きいオブジェクトをフィルタリングし、その中の可視距離が可視距離閾値以下であるオブジェクト、即ち、ターゲットサブ空間内にあるオブジェクトを取得し、つまり、ユーザにとって実際に見えるオブジェクトのみを取得する。
S208:レンダリングオブジェクトをロードし、例えば、ユーザ端末は、ターゲットアプリケーションがインストールされたユーザ端末のストレージリソースに、レンダリングオブジェクトをロードすることができる。ユーザ端末は仮想シーンの画像をレンダリングし、レンダリングは、コンピュータ機器がデジタル化のアートコンテンツを処理するとともに、表示機器に描画するという過程を指す。
関連技術において、シーン全体のオブジェクトをロードするか、または、ユーザの可視範囲内にある全てのオブジェクトをロードすることに対して、本出願の技術案は、ユーザにとって見えるオブジェクトのみをロードするから、メモリに対する需求を著しく低減させ(即ち、オブジェクトロードの必要なメモリがより小さくなる)、その同時に、CPUとGPUとが処理するオブジェクトもより少なくなり、さらにCPU及びGPUに対するハードウェアリソースの消費を低減させる。
前記実施例は、本出願の実施例のオブジェクトのロード方法が、ユーザ端末103により実行されることを例として説明し、本出願の実施例のオブジェクトのロード方法はサーバ101により実行されてもよく、該実施例と前記実施例との相違点は、実行主体がユーザ端末から、サーバに置き換えられることにあり、本出願の実施例のオブジェクトのロード方法はさらに、サーバ101と端末103により共同で実行されてもよい。
前記ステップを介して、ターゲットアプリケーションが提供する仮想シーンにおいて、画像採集機器の採集範囲内にある可視空間を決定し、第1位置に基づいて、可視空間において、複数のタイプのうちのターゲットタイプが指示する可視距離閾値内にあるターゲットサブ空間を決定し、レンダリングオブジェクトとして、ターゲットサブ空間において、可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトを取得し、ターゲットアプリケーションがインストールされたユーザ端末のストレージリソースに、レンダリングオブジェクトをロードし、ロードされるのは、ユーザのとって実際に見えるオブジェクトであるから、関連技術において、仮想シーンにおけるオブジェクトのレンダリングに多いハードウェアリソースを占有するという技術問題を解決し、メモリリソースに対する占有を著しく低減させ、CPU及びGPUに対するハードウェアリソースの消費を低減させる。
本出願は、大型3Dシーン(即ち前記仮想シーン)を自動的に多段階(各段階は、1つのタイプと見なし、多段階は、前記複数のタイプである)の細部グリッド構成として処理し、該グリッドの特点は、各階層のグリッドの密度及び大きさは不一致であり、オブジェクトはその可視距離状況に基づき、適切な階層に配置され、ロード中に、細部層ごとに、観察位置周囲のグリッドに対して可視性を決定した後、グリッドにおけるオブジェクトを動的にロードし及びアンロードする。以下は図2に示すステップを参照し、本出願の技術案をゲームシーンに応用することを例として、本出願の技術案を詳しく記載する。
S202が提供する技術案において、ユーザがゲームアプリケーションに入った後、ユーザ端末はターゲットアプリケーションが提供する仮想シーンにおいて、画像採集機器の採集範囲内にある(または、ユーザに表示しようとする)可視空間を決定し、該画像採集機器は、仮想シーンにおける第1位置にあり、ユーザ視野をシミュレーションするための採集機器である。
仮想シーン全体から、ユーザの可視範囲内にある可視空間を分離するための、本出願の技術案はシーンアイテムの可視状況を事前に定量化するとともに、空間データ構成に組織し、該構成は、細部のシーンアイテムであるほど、ロードされる範囲が小さくなるように保証し、大きなシーンにおいて、同時にロード及びアンロード処理が行われる空間領域は常に一定の数量以下であり、ほとんどのアイテムは可視化判定及びロード処理に参加せず、可視範囲内にあるアイテムは、必ず正確にロードされるように保証するとともに、機器にロードされるリソースをなるべく最小化する。以下はステップ1〜ステップ2を参照して、詳しく記載する。
ステップ1:ユーザ端末は、ターゲットアプリケーションが提供する仮想シーンにおいて、画像採集機器の採集範囲内にある可視空間を決定する前に、複数のタイプのうちの各タイプに対応するグリッド密度を決定し、言い換えれば、複数のタイプのうちの各タイプは、1つのグリッド密度(即ち、1つの仮想シーンの空間区画粒度である)を示し、このように、何種類のグリッド密度があれば、何種類のタイプが存在する。
好ましくは、ユーザ端末は、複数のタイプのうちの各タイプに対応するグリッド密度を決定する場合、以下に示すステップ11〜ステップ12を介して実現できる。
ステップ11、ユーザ端末は、仮想シーンにおいて、全てのオブジェクトの可視距離のうちの最大可視距離及び最小可視距離を取得する。
ユーザ端末は、仮想シーンにおける全てのオブジェクトの可視距離のうちの、最大可視距離及び最小可視距離を取得する場合、以下の方式に従って、仮想シーンにおける各オブジェクトの可視距離を取得でき、即ち、オブジェクトの最小可視スクリーン占有率Smin(即ち、所定パラメータ)を事前に決定し、スクリーン占有率閾値(または可視スクリーン占有率Sminとも呼ばれる)と画像採集機器のターゲット視点の正接値の2倍との間の積を演算し、第2の積として表記するとともに、各オブジェクトの、三次元座標系における3つの次元での座標の最大値(即ち、X軸、Y軸及びZ軸での座標の最大値)とプリセットパラメータ(プリセットパラメータは、事前に設定された正数のパラメータと見なされてもよく、例えば、1.1)との間の積を計算し、第1の積として表記し、そして、各オブジェクトの第1の積と第2の積との間の比を計算し、該比は各オブジェクトの可視距離であり、前記方式に従って各オブジェクトの可視距離を計算した後、仮想シーンにおける全てのオブジェクトの可視距離から、最大可視距離と最小可視距離を検索できる。
前記実施例において、アイテムのスクリーン占有率である場合、アイテムが最終的に、スクリーンにレンダリングされることによる、占有する領域の長さと幅の画素はhとwであると想定し、現在のスクリーン全体の長さと幅の画素を、それぞれSh、Swにして、アイテムの現在のスクリーン占有率として、h/Shとw/Swとの最小値を取って、最小可視スクリーン占有率は、ユーザの可視化の最小スクリーン占有率である。
ステップ12:ユーザ端末は、最大可視距離及び最小可視距離に従って、複数のタイプのうちの各タイプに対応するグリッド密度を決定する。
ユーザ端末が、全てのオブジェクトの可視距離のうちの、最大可視距離Dmax及び最小可視距離Dminを求める目的は、最大可視距離と最小可視距離との間の距離に対して等分処理を行うことであり、ここで、等分数は、m部に事前に決定され、即ち、部数の数値mは事前に決定され、第i種(iの値は1の以上、且つm+1の以下である)タイプに対応する可視距離はDmin+i*(Dmax−Dmin)/mである。
好ましくは、等分数は最大可視距離Dmaxと最小可視距離Dminに基づき決定されてもよく、例えば、最大可視距離及び最小可視距離に従って、複数のタイプのうちの各タイプに対応するグリッド密度を決定する場合、最大可視距離と最小可視距離との間の比を切り捨てすることで、第1閾値(即ち、等分数であり、ここでnを利用して示す)を取得し、該第1閾値は複数のタイプのタイプ数量を示してもよく、そして(最大可視距離Dmax−最小可視距離Dmin)/最小可視距離Dminを、ターゲット距離として、複数のタイプのうちの第iタイプに対応するグリッド密度が示すグリッドピッチを、ターゲットピッチのi倍にして、iは0より大きく、且つ第1閾値の以下の整数である。
本出願において、ユーザ端末は異なる方式で、多層グリッドを区画し、例えば、多層グリッドのうちの各層のロード距離を1つのDsequece={Dl、Dl*2、Dl*3、…、Dl*n}シーケンスとして定義し、無論、他のタイプの距離シーケンスを定義してもよく、ロード及びアンロードの効果に差がある可能性もあるが、多層グリッド距離の間の関係シーケンスに関わらず、いずれも複数の階層ロード距離グリッドに設計され、これらの距離の間には一定の関係が存在するか、または関係がない技術案は、いずれも本技術案に類似する。
好ましくは、必ずしも、D=1.1*max(Bx、By、Bz)/(2*Smin*tan(fov/2))ではなく、ユーザ端末は他の方式を利用してオブジェクトのロード距離を測定してもよく、アイテムにロード距離を測定し、そして、ロード距離に基づいて、多層細部グリッドでロードする全ての方案は、いずれも本技術案に類似すると理解すべきである。
ステップ2:ユーザ端末は、複数のタイプのうちの各タイプに対応するグリッド密度に従って、複数のタイプのうちの各タイプのために構成情報を作成し、複数のタイプのうちの各タイプの構成情報をプロファイル(構成ファイルとも言う)に保存し、構成情報には、相応的なグリッド密度に従って区画されたサブ空間内のオブジェクトと、サブ空間の所在する第2位置とが記録される。
好ましくは、ユーザ端末は、前記内容に従って、各タイプに対応するグリッド密度を決定した後、複数のタイプのうちの各タイプに対応するグリッド密度に従って、複数のタイプのうちの各タイプのために構成情報を作成する場合、以下の方式で実現できる。
ステップ21:ユーザ端末は、仮想シーンにおいて、複数のタイプのうちの各タイプに対応するグリッド密度に従って区画することで得られるサブ空間(各グリッドは1つのサブ空間に相当する)を決定し、即ち、各タイプに対して、該タイプに対応するグリッド密度に従って、仮想シーン全体を区画するとともに、仮想シーンにおけるグリッドに対して順次に番号を付け(各格子は、三次元空間のうちの1つの単位に相当する)、ユーザ端末は、仮想シーンにおいて、各サブ空間内で、可視距離が各タイプにより指示される可視距離閾値にマッチするオブジェクトを検索し、第iタイプに対して、可視距離が[i*Dmin、(i−1)Dmin) 内にあるオブジェクトを、第iタイプが指示する可視距離閾値にマッチするオブジェクトとするとともに、該オブジェクトの、仮想シーンにおいて所在するグリッドを位置決めし、1つの構成情報に各サブ空間と検索されたオブジェクトとの間の関連付けが保存され、複数のタイプのうちの各タイプに対して、1つの構成情報に保存し、各構成情報には、相応的なグリッド密度での全てのグリッド内のオブジェクトが保存される。
選択可能な実施例において、あるタイプで、対応するグリッド密度で、可視のオブジェクトが存在しないと、記憶空間を節約するように、該タイプでの構成情報を削除できる。
S204が提供する技術案において、ユーザ端末は第1位置に基づいて、可視空間において、複数のタイプのうちのターゲットタイプが指示する可視距離閾値内にあるターゲットサブ空間を決定し、複数のタイプのうちの各タイプは、仮想シーンのサブ空間におけるオブジェクトの1つの可視距離閾値を指示する。
前記ターゲットタイプは、複数のタイプのうちの任意のタイプであり、言い換えれば、各タイプに対して、1つの対応するターゲットサブ空間が存在し、即ち、第iタイプに対して、第1位置との間のピッチがi*Dmin内であるサブ空間を、第iタイプに対応するターゲットサブ空間とする。
好ましくは、ユーザ端末が第1位置に基づいて、可視空間において、複数のタイプのうちのターゲットタイプが指示する可視距離閾値内にあるターゲットサブ空間を決定する場合、以下の方式に従って実現できる。
好ましくは、ユーザ端末は、可視空間のサブ空間と第1位置との間の間隔距離を取得し、可視空間において、第1位置との間の間隔距離が、ターゲットタイプが指示する可視距離閾値以下であるサブ空間を、ターゲットサブ空間とする。
S206が提供する技術案において、ユーザ端末は、レンダリングオブジェクトとして、ターゲットサブ空間において、可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトを取得する。
該実施例において、ユーザ端末はレンダリングオブジェクトとして、ターゲットサブ空間において、可視距離はターゲットタイプが指示する可視距離閾値以下であるオブジェクトを取得することは、以下の方式で実現でき、ユーザ端末はプロファイルを取得し、プロファイルには、仮想シーンが以上に記載のグリッド密度に従って区画する際のサブ空間(またはグリッドと呼ばれる)内で、複数のタイプのうちの各種タイプに関連付けられるオブジェクトが記録され、仮想シーンのサブ空間内にある各オブジェクトは、複数のタイプのうちの、指示される可視距離閾値以下であるタイプに関連付けられるように配置され、レンダリングオブジェクトとして、プロファイルに記録された、ターゲットサブ空間内でターゲットタイプに関連付けられるオブジェクトを取得する。
ユーザ端末は、プロファイルに記録された、可視空間内でターゲットタイプに関連付けられるオブジェクトに基づき、レンダリングオブジェクトを決定する場合、可視空間内にある、ターゲットタイプに関連付けられる全てのオブジェクトを、レンダリングオブジェクトとしてもよい。
S208が提供する技術案において、ユーザ端末はターゲットアプリケーションがインストールされたユーザ端末のストレージリソースに、レンダリングオブジェクトをロードし、ユーザ端末は仮想シーンの画像をレンダリングし、レンダリングは、コンピュータ機器がデジタル化のアートコンテンツを処理するとともに、表示機器に描画するという過程を指す。
好ましくは、ユーザ端末は、ターゲットアプリケーションがインストールされたユーザ端末のストレージリソースに、レンダリングオブジェクトをロードする際、ユーザ端末のストレージリソースに現在保存されているオブジェクトに、レンダリングオブジェクトが含まれる場合、ユーザ端末のストレージリソースにレンダリングオブジェクトを引き続いて保存するとともに、ユーザ端末のストレージリソースにおける、レンダリングオブジェクト以外のオブジェクトを削除し、即ち、今回のレンダリングと前回のレンダリングに、一部または全部で同じであるオブジェクトが存在する場合、前回には存在しなかったレンダリングオブジェクトを追加するとともに、前回にはレンダリングを必要としたが今回レンダリングを必要としないオブジェクトを削除すればよく、ユーザ端末のストレージリソースに現在保存されているオブジェクトに、レンダリングオブジェクトが含まれていない場合、ユーザ端末のストレージリソースに保存されているオブジェクトを削除するとともに、レンダリングオブジェクトをユーザ端末のストレージリソースにロードし、即ち、今回のレンダリングと前回レンダリングとが全部異なる場合、前回の全てのオブジェクトを直接的に削除してから、今回のレンダリングオブジェクトを追加する。
好ましくは、ユーザ端末は、ターゲットアプリケーションがインストールされたユーザ端末のストレージリソースに、レンダリングオブジェクトをロードした後、ターゲットタイプに対応するグリッド密度にマッチするようにターゲットサブ空間のグリッド密度を配置するとともに、グリッド密度が配置されたターゲットサブ空間において、レンダリングオブジェクトをレンダリングし、複数のタイプのうちのいずれかのタイプは、いずれかのタイプに対応するグリッド密度に従って、仮想シーンのサブ空間において、可視距離がいずれかのタイプが指示する可視距離閾値以下であるオブジェクトをレンダリングするように指示するものであり、複数のタイプのうちの第1タイプに対応するグリッド密度は、複数のタイプのうちの第2タイプに対応するグリッド密度より大きく、第1タイプが指示する可視距離閾値は、第2タイプが指示する可視距離閾値より小さい。
本出願の技術案によれば、ユーザ端末はシーンにおける全てのオブジェクトの可視距離を定量化するとともに、多段階シーングリッドのデータ構成に組織し、オブジェクトの可視距離を基本ユニットとして、プログラムが実行される場合、各階層の観察位置周囲にある固定数量のグリッドを視認性の調査範囲とし、オブジェクトの視認性を判定するとともにロードし、細いオブジェクトほど、スケールがより小さいシーングリッドにあるから、細部のアイテムであるほど、視認性の判定範囲も小さくなり、ロードされるメモリの量も小さくなり、システム記憶、CPU及びGPUに対するリソース占有が小さくなる。
選択可能な実施例として、以下は本出願の技術案がゲームの仮想シーンに応用されることを例として、本出願の技術案をさらに詳しく記載する。
3D大きなシーンをロードするという関連技術案において、例えば、Unity3Dエンジンにおいて、大きなシーンを人工的にいくつかの分離された独立の小さいシーンに区画して製造し、簡単に空間位置に従って区画し、プログラムの実行中に、これらの小さいシーンを動的にロード及びアンロードする。UnrealEngine4エンジンにおいて、大きなシーンを人工的にいくつかのサブレベルに区画し、各サブレベルに対して、ロード距離及びシーンにおけるオブジェクトをそれぞれ配置し、サブレベルの間に必然の空間関係がなく、プログラムの実行中に、各サブレベルのロード距離をトラバース(traversal)し、そのロード及びアンロードを決定する。
前記関連技術案において、シーン全体をロードするという方式を利用して、超大型シーンのロード機器に対して、メモリの占有はボトルネックであり、Unity3DとUnrealEngine4を代表とする主流の商用ゲームエンジンにおいて、これらの技術案は、大きなシーンにおけるオブジェクトのロードの正確性を実現できるが、技術案は、シーンの機器メモリに対する占有を最小化しにくく、即ち、オーバーロードという状況が生じる。
出願人は、理想の状況で、可視オブジェクトのみをロードすればよく、ロードの正確性を保証するとともに、ハードウェアリソースに対する消費を最も低くすることを発見し、関連技術において、技術案はいずれも空間位置を基本ユニットとして、ロードまたは編集を行って、同じ空間領域にも体積及び細部程度が異なるアイテムが存在し、所定の観察距離で、体積及び細部が異なるアイテムの視認性も異なり、関連する領域全体をロードすることは、メモリを無駄に浪費する。
人工的にシーンに対してサブシーンの区画を行うと、シーンが一定の規模に達すると、このような人工区画にかかる時間は長すぎ、そして、アイテムを完全に正確に最も適切なグリッド内に配置しにくく、本技術案はアイテムの可視距離を根拠として、アルゴリズムで自動的にシーンに対して多段階のグリッド区画を行って、より科学的で、且つ人力を節約する。
本出願の技術案の核は以下の通りであり、即ち、シーンアイテムのロード距離がアイテムの可視距離に関し、空間位置を基本ユニットとしてロードするのではなく、アイテムの可視距離を基本ユニットとし、まず、シーンにおける全てのアイテムの可視距離を定量化するとともに、多段階シーングリッドのデータ構成に組織し、プログラムが実行される場合、各階層の観察位置周囲にある固定数量のグリッドを視認性の調査範囲とし、アイテムの視認性を判定するとともにロードし、細いオブジェクトほど、スケールがより小さいシーングリッドにあるから、細部のアイテムであるほど、視認性の判定範囲も小さくなり、ロードされるメモリの量も小さくなり、細いアイテムであるほど、可視距離も近くなるという規則に合う。
本技術案は主に、シーンに対する前処理と、処理後のシーンで一部のシーンを動的にロード及びアンロードするという2つの段階の実現を含む。以下、続けてユーザ端末を画像処理機器とすることを例として説明する。
ユーザ端末による前処理の過程は、シーンを自動的に本出願に係る多段階の細部グリッド構成として処理でき、シーンをこのような多段階の細部グリッドとして処理する技術案は、本出願の重要の構成部分であり、シーンの動的ロードの際、アイテムの細部程度に基づきロードし、ロードする際機器を占有するリソースを最小化し、シーンの前処理の結果として、シーンにおける各オブジェクトはある階層Lのある空間ブロックに区画される。図3〜図6は、異なる階層のグリッドブロック内に含まれるシーンアイテムを示し、図3〜図6に示すグリッドのスケールはだんだん小さくなり、図から分かるように、グリッドのスケールが小さいグリッドであるほど、収容するシーンアイテムのサイズも小さくなり、シーンアイテムのロード距離も近くなり、スケールが大きいグリッド階層内に含まれるのは、粒度がより粗いシーンアイテムであり、スケールが小さいグリッド階層内に含まれるのは、より細部のシーンアイテムである。
以下の計算ステップにおいて、以下のようないくつかの式の定義を行う。
<座標系の定義>
本出願の技術案が所在する座標系は3Dカルテシアン座標系であり、図7に示すように、座標系は、X軸、Y軸及びZ軸という3つの軸を有する。
max(n0、n1、n2、…)は、該シーケンスn0、n1、n2などのうちの最大値を求めることを示す。
tan(x)は、x(単位はラジアンである)の正接値を求めることを示す。
floor(x)は、x以下である全ての整数のうちの、最大の整数を示す。
ceil(x)は、x以上である全ての整数のうちの、最小の整数を示す。
abs(x)は、xの絶対値を示す。
ユーザ端末の、シーンに対する前処理段階の処理フローは、図8に示すように、左側は、ユーザ端末がシーンにおける各アイテム(またはオブジェクトと呼ばれる)を処理し、右側は、ユーザ端末がシーンの空間グリッドを処理する。
詳しいステップは以下の通りである。
S801:ユーザ端末は、境界ボックスと最小スクリーンの表示比例(即ち、最小スクリーン占有率)に基づいて、ロード距離を計算する。
前処理の入力は、アートデザイナーが各種シーンエディタを利用して編集したオリジナル大きなシーンにおけるシーンリソースオブジェクトであり、シーンリソースは多いシーンアイテムからなり、1つのシーンアイテムは、シーンにおける相対的に独立する1つのレンダリングオブジェクトエンティティ(例えば、石、樹木、建築など)であり、シーンアイテムは一般的に、所在するシーンの世界座標位置Pを含み、Pは1つの三次元座標(Px、Py、Pz)で示すことができ、また、各シーンアイテムはさらに、1つの境界ボックスBounds(xmin、ymin、zmin、length、height、width)を含み、その最小の可視スクリーン占有率Sminについて、一般的にレンダリングにおいて、アイテムの現在のスクリーン占有率はSminより小さいと、該アイテムは見えないと見なされてもよい(例えば、観察位置から遠いアイテムのスクリーン占有率が小さい)。シーンの規模が大きく、即ち、シーンにおけるアイテムの分布領域が大きく、数キロよりも大きい可能性があり、且つシーンのアイテムの数量が多く、一般的に、数万個より多い。図9は、典型の入力シーンであり、図9における立方体は、該建築の境界ボックスを示す。
アイテムの境界ボックス、即ち、1つのアイテムを含む体積が最も小さい立方体は、その境界ボックスと呼ばれる。アイテムの境界ボックスは、6次元の数値Bounds(xmin、ymin、zmin、length、height、width)として示し、xmin、ymin、zminはそれぞれ、該境界ボックスの包含領域において世界座標軸x、y、zでの最小値を代表し、length、height、widthはそれぞれ、境界ボックスの包含領域の世界座標軸x、y、zという3つの方向でのスバンの長さを代表する。
S802:アイテムのロードプロキシオブジェクトProxyを生成する。
ユーザ端末は、シーンの全てのアイテムをトラバースし計算し、トラバースされた各アイテムに対して、そのロード距離Dを計算する。現在観察位置の視野角をfov(単位はラジアンである)とし、Dの計算方式をD=1.1*max(Bx、By、Bz)/(2*S min*tan(fov/2))として定義する。その意味は、アイテムと観察位置との距離がDより大きい場合、該オブジェクトは見えないと見なされてもよく、Dの計算は、現在の観察位置、 オブジェクトの最小スクリーン占有率に関する。
ユーザ端末は、シーンの全てのアイテムをトラバースし計算し、トラバースされた各アイテムに対して、1つのロードプロキシオブジェクトProxyを生成し、Proxyには、以下の括弧におけるいくつかのエレメント(Path、P、R、S、D、B、id)が含まれ、Pathは該アイテムのリソースパスであり、Dはロード距離であり、Pはシーンにおける位置であり、Rは回転であり、Sはスケールであり、Bは境界ボックスであり、idは該シーンアイテムの一意の識別子である。
S803:アイテムのロード距離分布に基づき、多層グリッドにおける最小、及び最大のグリッドの大きさGmin、Gmaxを計算するとともに、その間に一連のグリッドの大きさ{Gmin、Gmin*2、Gmin*3、…、Gmax}を均一に発生させる。
ユーザ端末は、全てのシーンアイテムのロード距離を統計し、そのうちの最小のロード距離Dmin及び最大のロード距離Dmaxを見つけて、DminとDmaxに基づき、1組のシーケンスDsequece={Dl、Dl*2、Dl*3、…、Dl*n}を生成し、n=ceil(Dmax/D min)であり、D1はDminであってもよく、シーン全体の境界ボックスの大きさBsceneを計算し、Bsceneの大きさは、シーンの全てのアイテムを包含できる最小の立方体である。Bsceneの6次元数値は、 (Bscene_x、Bscene_y、Bscene_z、Bscene_length、Bscene_height、Bscene_width) として表記される。
S804:各階層に対して、該階層のグリッドの大きさに従って、シーン空間の全体を均一に区画することで、一連のシーングリッドを生成する。
ユーザ端末は、Dsequeceに基づいて、1組のグリッド階層を生成し、Dsequeceのうちの各エレメントDi(1≦i≦n)は、第i層グリッドを代表して、各階層をトラバースし、以下のように操作し、即ち、第l層で、図10に示すように、シーンを複数のブロックからなるグリッド構成に均一に分けて、x軸方向の第i列、z軸方向の第k行にあるブロックはBlock(l、i、k)として示し、各Blockは少なくとも2つのエレメントを有し、シーンアイテムプロキシオブジェクトidリスト、及び境界ボックスBounds(l、i、k)を含み、Bounds(l、i、k)の6次元数値は、[(i+0.5)*Dl+Bscene_x、Bscene_y、(k+0.5)*Dl+Bscene_z、Dl、Bscene_height、Dl]として表記される。
S805:ロード距離に基づき、収容に適するグリッドの大きさGを計算し、大きさがGである1層のグリッドに帰属させる。
ユーザ端末は、シーンにおける全てのプロキシオブジェクトProxyをトラバースし、まず、そのロード距離Dに基づき、所在するグリッド階層Lを選択し、LはDsequeceのうちの、D以上である全てのエレメントにおける最小の1つである。
S806:大きさがGであるグリッド層で、それと空間の重なりを有する全てのグリッドセットSを見つけて、セットの各グリッドに対して、ProxyのIdを記録する。
そして、ユーザ端末は、再び第L層での全てのブロックをトラバースし、各ブロックの境界ボックスBounds(l、i、k)とプロキシオブジェクトProxyの境界ボックスBとの一致度Sを計算し、2つの境界ボックスの一致度に対する計算は、それらの重なる空間領域を計算することである。S>0であれば、該プロキシオブジェクトの関するシーンアイテムが、該ブロックBlock(l、i、k)の空間内にあることを示し、Block(l、i、k)とProxyとの一致度Sが0より大きいと、Proxyのidを該Block(l、i、k)のidリスト内に記録する。
S807:いずれのシーンアイテムも収容していない空間グリッド及び階層を除去する。
ユーザ端末は、各階層グリッドの各空間ブロックBounds(l、i、k)をトラバースし、idリスト内容が空であるブロックを見つけて、それを削除する。各階層のグリッドをトラバースし、空間ブロックの数量が0である階層を削除する。
S808:各階層のグリッド、及びそれに含まれるオブジェクトのProxy情報をシーケンス化に、現在シーンに保存する。
ユーザ端末は、現在残っている全ての空間グリッドブロックBounds(l、i、k)を、シーンファイルに保存する。
S809:現在シーンの全ての表示アイテムをクリアし、新たなシーン(即ち、処理後のシーン)として保存する。
ユーザ端末は、全てのプロキシオブジェクトProxy情報をシーンファイルに保存し、シーンにおける全てのシーンアイテムをクリアし、新たなシーンファイルとして保存する。
本出願の技術案の実行の際の部分は、シーンが事前に処理された後、実行する際に、動的にロード及びアンロードされることを指し、即ち、現在観察者の位置(またはカメラ位置)に基づき、現在可視のアイテムを正確に見つけてロードする。シーンの観察位置に従うロード及びアンロードの過程について、図11〜図13を参照すればよく、シーンの1つの固定領域を示し、観察位置(カメラ)のシーンにおける移動に連れて、該シーン領域内にロードされるアイテムは変化し、図11〜図13の変化傾向は、観察位置が該領域に近接するほど、該領域の細部程度がより豊かになり、該領域から離れるほど、該領域内にロードされるのは、高いアイテムのみである。これは真実の状況に合って、即ち、1つの領域から離れると、該領域の明らかなアイテムしかが見えず、細部アイテムはだんだん消える。空間細部階層を考慮しないシーンのロード方法に比べると、本技術案は現在シーンにロードされるアイテムの数量を最大限節約できる。
シーンのロード段階の実行の際、ロード及びアンロードのフローは、図14に示すように、実行する際、フレームごとに、フローチャートの処理を行って、各フレームの処理過程はさらに2つの部分に分けられ、第1部分は、各層のグリッドで、視点に基づいて、現在の可視のシーングリッドを判定するとともに、それを調査リストに追加し、第2部分は、調査リスト範囲内の各アイテムに対して、そのロード距離に基づき、ロードされるべきであるかどうかを判定する。
選択可能な実現ステップは以下の通りである。
S1401:ユーザ端末は、多層細部グリッド構成情報を含むシーンに対して、初期化グリッド情報をロードする。
ユーザ端末は、プログラムの起動(またはシーンの初期化)の際、シーンファイルをロードし、現在シーンの全ての空間グリッドブロックBounds(l、i、k)及びシーンアイテムプロキシオブジェクトProxyをメモリに保存する。
プログラムが実行するフレーム(または定時に)ごとに、以下の第3ステップ及び以下のフローを行う。
まず、層レベルLごとに対して、グリッドが調査リストCに追加されるかどうかを判定する。
S1402:ユーザ端末は、現在視点が所在する現在グリッド番号idを計算する。
S1403:ユーザ端末は、現在idとid_oldとが同じであるかどうかを判定し、同じであれば、S1408を実行し、さもなければ、S1404を実行する。
S1404:ユーザ端末は、id_old=idになるように配置する。
S1405:ユーザ端末は、現在グリッドidの付近にある、空ではない9つのグリッドセットSを見つける。
S1406:ユーザ端末は、SとS_oldを比較して、Sにあるが、S−oldにないグリッドを、調査グリッドリストCに追加し、Sにないが、S_oldにあるグリッドを、Cから除去するとともに、その中のオブジェクトをアンロードする。
S1407:ユーザ端末は、S_old=Sになるように配置する。
前記技術案によれば、現在所在する観察位置の3D座標をLocationとして取得し、現在の各層グリッドをトラバースし、以下のように計算し、即ち、第l層グリッドで、Locationが所在するシーングリッド座標P_locationを計算し、P_locationの、x軸でのグリッド番号Liはfloor((Location.x−Bscene_x)/Dl)であり、z軸でのグリッド番号Lkはfloor((Location.z−Bscene_z)/Dl)であり、abs(Li−i)≦1、且つabs(Lk−k)≦1を満たす全てのグリッドブロックBlock(l、i、k)を見つけて、これらのBlockにおけるidリストに記録された全てのProxyを、現在シーンのロードリストLoadListに追加する。
調査グリッドにおける各アイテムの視認性を判定する。
S1408:ユーザ端末は、アイテムから現在視点までの距離の平方D1を計算する。
S1409:ユーザ端末は、D1を、該アイテムのロード距離の平方D2と比較する。
S1410:比較結果がD1≦D2であれば、アイテムがロードされていないと、ロードする。
S1411:比較結果がD1>D2であれば、アイテムが既にロードされ且つそれが含まれる全てのグリッドで見えないと、アンロードする。
前記技術案において、現在シーンにおける、既にロードされた全てのproxyに対して、ユーザ端末は、それがLoadListにあるかどうかを検査し、もしなければ、それをアンロードするかまたは隠す。現在のLoadListにおける各シーンアイテムプロキシオブジェクトProxyをトラバースし、該アイテムから現在観察位置までの距離Dを計算し、D<Proxy.Dであれば、該アイテムをロードし、即ち、Proxyのアイテムリソースパス及び位置情報を読み取り、それをロードするとともに該位置に表示する。現在のLoadListをクリアする。
本出願の技術案によれば、少なくとも以下の技術効果を有し、即ち、本技術案は、シーン領域コンテンツを動的にロード及びアンロードするという技術案により、超大型3Dシーンの、性能が有限であるハードウェア機器(例えば携帯電話)でのロード及び連続表示を実現し、本技術案は業界の従来の他の方案に比べると、最大の性能改善は以下の通りであり、即ち、従来の主流となる技術案のように、シーン領域に対して、細部程度を考量せず、同一の空間距離に従って統一にロードするのではなく、シーンを多層の細部グリッド構成として構築することで、シーンにおける異なるアイテムの細部程度情報を表現し、可視距離に基づいてアイテムをロードし、実際に見えない細部アイテムのロードを最大限低減させ、シーンのロードによるメモリの占有を低減させ、グラフィックレンダリングの複雑度を低下させ、同一のシーン観察位置で、カメラの離れに連れて、高い建築は相変わらずロードされるが、より細部のアイテムはだんだん消えて、関連技術案において、細部レベルを考慮しないブロックロード技術案は、細部のアイテムが高いアイテムより先に消えるように保証しにくく、一般的に、遠距離で高い建築物を観察するために、ロードするブロックの大きさを大きくして、見えない細部アイテムのロードが大量に増える。本技術案のシーンの細部階層構成に対する区画及び処理は、完全に自動化処理し、実際のプロジェクト応用において、シーンのアートデザイナーはシーンアイテムのブロック区画、またはブロック設計を考量する必要がなく、制作フローが簡単である。
なお、前記各方法の実施例に対して、記載を簡単にするために、一連の動作の組み合わせとして説明したが、本出願は記載の動作順序に限定されず、なぜならば、本出願に基づいて、いくつかのステップは他の順序を利用して、または同時に行ってもよいからである。そして、明細書に記載の実施例はいずれも好適な実施例であり、関わる動作及びモジュールは、必ずしも本出願にとって必要なものではない。
以上の実施形態に対する記載によれば、前記実施例に基づく方法は、ソフトウェア及び必要な汎用ハードウェアプラットフォームという方式で実現されてもよく、無論、ハードウェアを介してもよいが、一般的に、前者はより好適な実施形態である。このような理解に基づき、本出願の技術案の本質、または従来技術に対して貢献となる部分は、ソフトウェア製品という形式で表現され、該コンピュータソフトウェア製品は記憶媒体(例えば、ROM/RAM、磁気ディスク、光ディスク)に記憶され、1台の端末機器(携帯電話、コンピュータ、サーバ、またはネットワーク機器などであってもよい)に、本出願の各実施例に記載の方法を実行させるための、若干の命令を有する。
本出願の実施例の他の態様に基づき、さらに、前記オブジェクトのロード方法を実施するためのオブジェクトのロード装置を提供する。図15は、本出願の実施例に基づく選択可能なオブジェクトのロード装置の模式図であり、図15に示すように、該装置は、第1決定ユニット1501と、第2決定ユニット1503と、取得ユニット1505と、ロードユニット1507とを備える。
第1決定ユニット1501は、仮想シーンにおいて、画像採集機器の採集範囲内にある可視空間を決定し、画像採集機器は仮想シーンにおける第1位置にある採集機器であり、
第2決定ユニット1503は、第1位置に基づいて、可視空間において、複数のタイプのうちのターゲットタイプが指示する可視距離閾値内にあるターゲットサブ空間を決定し、複数のタイプのうちの各タイプは、仮想シーンのサブ空間内にあるオブジェクトの1つの可視距離閾値を指示し、
取得ユニット1505は、レンダリングオブジェクトとして、ターゲットサブ空間において、可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトを取得し、
ロードユニット1507は、レンダリングオブジェクトをロードする。
なお、該実施例における第1決定ユニット1501は、本出願の実施例におけるS202を実行し、該実施例における第2決定ユニット1503は、本出願の実施例におけるS204を実行し、該実施例における取得ユニット1505は、本出願の実施例におけるS206を実行し、該実施例におけるロードユニット1507は、本出願の実施例におけるS208を実行する。
ここで、前記モジュールと対応するステップとが実現する示例及び応用シーンは同様であるが、前記実施例に開示された内容に限定されない。なお、前記モジュールは装置の一部として、図1に示したハードウェア環境で実行でき、ソフトウェアにより実現されてもよく、ハードウェアにより実現されてもよい。
前記モジュールにより、ターゲットアプリケーションが提供する仮想シーンにおいて、画像採集機器の採集範囲内にある可視空間を決定し、第1位置に基づいて、可視空間において、複数のタイプのうちのターゲットタイプが指示する可視距離閾値内にあるターゲットサブ空間を決定し、レンダリングオブジェクトとして、ターゲットサブ空間において、可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトを取得し、ターゲットアプリケーションがインストールされたユーザ端末のストレージリソースにレンダリングオブジェクトをロードし、ロードされるのは、ユーザに実際に見えるオブジェクトであるから、関連技術において、仮想シーンにおけるオブジェクトのレンダリングが多いハードウェアリソースを占有するという技術問題を解決でき、メモリリソースに対する占有を著しく低減させ、さらに、CPU及びGPUに対するハードウェアリソースの消費を低減させる。
好ましくは、第2決定ユニットは、可視空間のサブ空間と第1位置との間の間隔距離を取得するための第1取得モジュールと、可視空間で、第1位置との間の間隔距離が、ターゲットタイプが指示する可視距離閾値以下であるサブ空間を、ターゲットサブ空間とするための検索モジュールとを備える。
好ましくは、取得ユニットは、プロファイルを取得するための第2取得モジュールであって、プロファイルには、仮想シーンのサブ空間内で、複数のタイプのうちの各タイプに関連付けられるオブジェクトが記録され、仮想シーンのサブ空間内にある各オブジェクトは、可視距離に基づき、複数のタイプのうちの1つのタイプに関連付けられるように配置される第2取得モジュールと、プロファイルに記録されたターゲットサブ空間内で、ターゲットタイプに関連付けられるオブジェクトをレンダリングオブジェクトとして取得するための決定モジュールと、を備える。
好ましくは、ロードユニットは、保存しているオブジェクトにレンダリングオブジェクトが含まれる場合、レンダリングオブジェクトを引き続いて保存するとともに、レンダリングオブジェクト以外のオブジェクトを削除するための第1ロードモジュールと、保存しているオブジェクトに、レンダリングオブジェクトが含まれていない場合、保存しているオブジェクトを削除するとともに、レンダリングオブジェクトをロードするための第2ロードモジュールと、を備える。
好ましくは、本出願の装置はさらに、ターゲットアプリケーションがインストールされたユーザ端末のストレージリソースにレンダリングオブジェクトをロードした後、ターゲットタイプに対応するグリッド密度にマッチするように、ターゲットサブ空間のグリッド密度を配置し、グリッド密度を配置した後のターゲットサブ空間において、レンダリングオブジェクトをレンダリングするためのレンダリングユニットを備え、複数のタイプのうちのいずれかのタイプは、いずれかのタイプに対応するグリッド密度に従って、仮想シーンのサブ空間において、可視距離がいずれかのタイプが指示する可視距離閾値以下であるオブジェクトをレンダリングするように指示するものであり、複数のタイプのうちの第1タイプに対応するグリッド密度は、複数のタイプのうちの第2タイプに対応するグリッド密度より大きく、第1タイプが指示する可視距離閾値は、第2タイプが指示する可視距離閾値より小さい。
好ましくは、該装置はさらに、ターゲットアプリケーションが提供する仮想シーンにおいて、画像採集機器の採集範囲内にある可視空間を決定する前に、複数のタイプのうちの各タイプに対応するグリッド密度を決定するための第3決定ユニットと、複数のタイプのうちの各タイプに対応するグリッド密度に従って、複数のタイプのうちの各タイプのために構成情報を作成するとともに、複数のタイプのうちの各タイプの構成情報をプロファイルに保存するための作成ユニットであって、構成情報には、相応的なグリッド密度に従って区画されたサブ空間内のオブジェクトと、サブ空間の所在する第2位置とが記録される作成ユニットと、を備える。
好ましくは、前記第3決定ユニットは、仮想シーンにおける全てのオブジェクトの可視距離のうちの最大可視距離及び最小可視距離を取得するための第3取得モジュールと、最大可視距離及び最小可視距離に従って、複数のタイプのうちの各タイプに対応するグリッド密度を決定するための密度決定モジュールと、を備える。
前記第3取得モジュールは、さらに、仮想シーンにおける各オブジェクトの可視距離を取得し、各オブジェクトの可視距離は、各オブジェクトの第1の積と第2の積との比であり、第1の積は、各オブジェクトの、三次元座標系における3つの次元での座標の最大値とプリセットパラメータとの積であり、第2の積は、スクリーン占有率閾値と画像採集機器のターゲット視点の正接値の2倍との積であり、仮想シーンにおける全てのオブジェクトの可視距離から、最大可視距離と最小可視距離を検索する。
前記密度決定モジュールはさらに、最大可視距離と最小可視距離との比を切り捨てすることで、第1閾値を得て、第1閾値は、複数のタイプのタイプ数量を示し、複数のタイプのうちの第iタイプに対応するグリッド密度が示すグリッドピッチを、ターゲットピッチのi倍にして、iは0より大きく、且つ第1閾値以下の整数である。
前記作成ユニットはさらに、仮想シーンにおいて、複数のタイプのうちの各タイプに対応するグリッド密度に従って区画することで得られたサブ空間を決定し、仮想シーンにおいて、各サブ空間で、可視距離が各タイプにより指示される可視距離閾値にマッチするオブジェクトを検索するとともに、1つの構成情報に各サブ空間と検索されたオブジェクトとの間の関連付けを保存する。
ここで、前記モジュールと対応するステップが実現する示例及び応用シーンは同様であるが、前記実施例に開示された内容に限定されない。なお、前記モジュールは装置の一部として、図1に示したハードウェア環境で実行でき、ソフトウェアにより実現されてもよく、ハードウェアにより実現されてもよく、ハードウェア環境はネットワーク環境を含む。
本出願の実施例の他の態様によれば、さらに、前記オブジェクトのロード方法を実施するためのサーバまたは端末を提供する。
図16は、本出願の実施例に基づく端末の構成ブロック図であり、図16に示すように、該端末は、1つまたは複数の(図16は1つのみを示す)プロセッサ1601と、メモリ1603と、転送装置1605とを備え、図16に示すように、該端末はさらに入出力機器1607を備えてもよい。
メモリ1603は、本出願の実施例におけるオブジェクトのロード方法及び装置に対応するプログラム命令/モジュールのような、ソフトウェアプログラム及びモジュールを記憶し、プロセッサ1601はメモリ1603内に記憶されるソフトウェアプログラム及びモジュールを実行することで、各機能アプリケーション及びデータ処理を実行し、即ち、前記オブジェクトのロード方法を実現する。メモリ1603は高速ランダムメモリ、不揮発性メモリを有してもよく、例えば1つまたは複数の磁気記憶装置、フラッシュメモリ、または他の不揮発性固体メモリである。いくつかの例示において、メモリ1603はさらに、プロセッサ1601に対してリモートで配置されたメモリを有してもよく、これらのリモートメモリは、ネットワークを介して端末に接続される。前記ネットワークの例示は、インターネット、社内イントラ、ローカルエリアネットワーク、モバイル通信ネットワーク及びその組み合わせが含むが、これらに限定されない。
前記転送装置1605は、1つのネットワークを介してデータを受信または送信し、さらに、プロセッサとメモリとの間のデータ転送にも適用されてもよい。前記ネットワークの具体的な例示は、有線ネットワーク及び無線ネットワークを含んでもよい。1つの例示において、転送装置1605は、ケーブルを介して他のネットワーク機器及びルータに接続されることで、インターネットまたはローカルエリアネットワークと通信できる1つのネットワークインタフェースコントローラ(Network Interface Controller、NIC)を含む。1つの例示において、転送装置1605は無線方式でインターネットと通信するための無線周波(Radio Frequency、RF)モジュールである。
具体的に、メモリ1603はアプリケーションプログラムを記憶する。
プロセッサ1601は転送装置1605により、メモリ1603に記憶されたアプリケーションプログラムムを呼び出すことで、
仮想シーンにおいて、画像採集機器の採集範囲内にある可視空間を決定するステップであって、画像採集機器は仮想シーンにおける第1位置にある採集機器であるステップと、
第1位置に基づいて、可視空間において、複数のタイプのうちのターゲットタイプが指示する可視距離閾値内にあるターゲットサブ空間を決定するステップであって、複数のタイプのうちの各タイプは、仮想シーンのサブ空間内に、オブジェクトの1つの可視距離閾値を指示するステップと、
レンダリングオブジェクトとして、ターゲットサブ空間において、可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトを取得するステップと、
レンダリングオブジェクトをロードするステップと、を実行する。
プロセッサ1601はさらに、
可視空間のサブ空間と第1位置との間の間隔距離を取得するステップと、
可視空間内で、第1位置との間の間隔距離が、ターゲットタイプが指示する可視距離閾値以下であるサブ空間を、ターゲットサブ空間とするステップと、を実行する。
好ましくは、本実施例における具体的な例示について、前記実施例に記載の例示を参照すればよいから、本実施例はここで、贅言しない。
当業者が理解できるように、図16に示した構成は例示に過ぎず、端末はスマートフォン(例えばAndroidフォン、iOSフォンなど)、タブレット、パームトップ及びモバイルインターネットデバイス(Mobile Internet Devices、MID)、PADなどの端末機器であってもよい。図16は前記電子装置の構成を限定しない。例えば、端末はさらに、図16の図示より多いまたは少ないユニット(例えばネットワークインターフェース、表示装置など)を有してもよく、または図16の図示と異なる配置を有してもよい。
当業者が理解できるように、前記実施例の各方法における全てまたは一部のステップは、プログラムが端末機器の関するハードウェアを命令することで完成され、該プログラムはコンピュータ読み取り可能な記憶媒体に記憶され、記憶媒体は、フラッシュドライブ、読み取り専用メモリ(Read−Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスクまたは光学ディスクなどを含んでもよい。
本出願の実施例はさらに記憶媒体を提供する。好ましくは、本実施例において、前記記憶媒体は、オブジェクトのロード方法を実行するためのプログラムコードに適用される。
好ましくは、本実施例において、前記記憶媒体は、前記実施例に示されるネットワークにおける複数のネットワーク機器のうちの、少なくとも1つのネットワーク機器に位置してもよい。
好ましくは、本実施例において、記憶媒体は、以下のステップを実行するためのプログラムコードを記憶するように配置され、
仮想シーンにおいて、画像採集機器の採集範囲内にある可視空間を決定するステップであって、画像採集機器は仮想シーンにおける第1位置にある採集機器であるステップと、
第1位置に基づいて、可視空間において、複数のタイプのうちのターゲットタイプが指示する可視距離閾値内にあるターゲットサブ空間を決定するステップであって、複数のタイプのうちの各タイプは、仮想シーンのサブ空間内に、オブジェクトの1つの可視距離閾値を指示するステップと、
レンダリングオブジェクトとして、ターゲットサブ空間において、可視距離がターゲットタイプにより指示される可視距離閾値以下であるオブジェクトを取得するステップと、
レンダリングオブジェクトをロードするステップと、を有する。
好ましくは、記憶媒体はさらに、以下のステップを実行するためのプログラムコードを記憶するように配置され、
可視空間のサブ空間と第1位置との間の間隔距離を取得するステップと、
可視空間内で、第1位置との間の間隔距離が、ターゲットタイプが指示する可視距離閾値以下であるサブ空間を、ターゲットサブ空間とするステップと、を有する。
好ましくは、本実施例における具体的な例示について、前記実施例に記載の例示を参照すればよいから、本実施例はここで、贅言しない。
好ましくは、本実施例において、前記記憶媒体には、Uディスク、読み取り専用メモリ(Read−Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、モバイルハードドライブ、磁気ディスクまたは光ディスクなどのような、プログラムコードを記憶できる媒体が含まれるが、これらに限定されない。
本出願の実施例はさらに、命令を有するコンピュータプログラム製品を提供し、コンピュータに実行される場合、前記コンピュータに前記オブジェクトのロード方法を実行させる。
前記本出願の実施例の番号は実施例の優劣を代表せず、ただ記載のためのものである。
前記実施例における集積されたユニットは、ソフトウェア機能ユニットという形式で実現されるとともに、独立の製品として販売または使用される場合、前記コンピュータ読み取り可能な記憶媒体に記憶される。このような理解に基づき、本出願の技術案の本質、または従来技術に対して貢献となる部分、または該技術案の全てまたは一部は、ソフトウェア製品という形式で表現され、該コンピュータソフトウェア製品は記憶媒体に記憶され、1台または複数台のコンピュータ機器(パソコン、サーバまたはネットワーク機器などであってもよい)に、本出願の各実施例の前記方法の全てまたは一部のステップを実行させるための、若干の命令を有する。
本出願の前記実施例において、各実施例に対する記載はいずれも重点があり、ある実施例において、詳しく記載されていない部分について、他の実施例の関する記載を参照すればよい。
本出願が提供したいくつかの実施例において、開示のクライアントは、他の方式で実現できる。以上に記載の装置の実施例は例示に過ぎず、例えば、前記ユニットに対する区画は、ただ論理機能の区画であり、実際に実現する場合、他の区画方式があってもよく、例えば、複数のユニットまたはアセンブリは他のシステムに結合または集積されてもよく、或いはいくつかの特徴を無視して、または実行しなくてもよい。また、表示或いは論述した互いの間の結合、または直接的な結合、或いは通信接続は、いくつかのインターフェース、ユニットまたはモジュールによる間接的な結合または通信接続であってもよいし、電気または他の形式であってもよい。
前記別体部品として説明したユニットは、物理的に離間してもよく、そうでなくてもよく、ユニットとして示した部品は、物理ユニットであってもよく、そうでなくてもよく、即ち、1つの箇所に位置してもよく、または複数のネットワークユニットに分布されてもよい。実際の必要に基づいて、そのうちの一部または全てのユニットを選択して、本実施例の技術案の目的を実現できる。
また、本出願の各実施例における各機能ユニットは、1つの処理ユニットに集積されてもよく、各ユニットが単独で物理的に存在してもよく、または、2つまたは2つ以上のユニットが1つのユニットに集積されてもよい。前記集積されたユニットについて、ハードウェアという形式で実現されてもよく、ソフトウェア機能ユニットという形式で実現されてもよい。
以上は本出願の好適な実施形態であり、当業者にとって、本出願の原理から逸脱していない前提で、さらに若干の改良及び修飾を行ってもよく、これらの改良及び修飾も本出願の保護範囲に該当すべきである。

Claims (15)

  1. 画像処理装置によって実行されるオブジェクトのロード方法であって、
    前記画像処理装置が、
    仮想シーンにおいて画像採集装置の採集範囲内にある可視空間を決定するステップであって、前記画像採集装置は、前記仮想シーンにおける第1位置にある採集装置である、ステップと、
    前記第1位置に基づいて、前記可視空間において複数のタイプのうちのターゲットタイプにより指示される可視距離閾値内にあるターゲットサブ空間を決定するステップであって、前記複数のタイプのうちの各タイプは、前記仮想シーンのサブ空間内オブジェクトの1つの可視距離閾値を指示するものである、ステップと、
    前記ターゲットサブ空間において可視距離が前記ターゲットタイプにより指示される可視距離閾値以下であるオブジェクトをレンダリングオブジェクトとして取得するステップと、
    前記レンダリングオブジェクトをロードするステップと、
    を含む、方法。
  2. 前記第1位置に基づいて、前記可視空間において複数のタイプのうちのターゲットタイプにより指示される可視距離閾値内にあるターゲットサブ空間を決定する前記ステップは、
    前記可視空間のサブ空間と、前記第1位置との間の間隔距離を取得するステップと、
    前記可視空間において前記第1位置との間の間隔距離が前記ターゲットタイプにより指示される可視距離閾値以下であるサブ空間を前記ターゲットサブ空間とするステップと、
    を含む、請求項1に記載の方法。
  3. 前記ターゲットサブ空間において可視距離が前記ターゲットタイプにより指示される可視距離閾値以下であるオブジェクトをレンダリングオブジェクトとして取得する前記ステップは、
    プロファイルを取得するステップであって、前記プロファイルには、前記仮想シーンのサブ空間内において前記複数のタイプのうちの各タイプに関連付けられるオブジェクトが記録されており、前記仮想シーンのサブ空間内にある各オブジェクトは、可視距離に基づいて、前記複数のタイプのうちの1つのタイプに関連付けられるように設定される、ステップと、
    前記プロファイルに記録されている、前記ターゲットサブ空間において前記ターゲットタイプに関連付けられるオブジェクトを前記レンダリングオブジェクトとして取得するステップと、
    を含む、請求項1または2に記載の方法。
  4. 前記レンダリングオブジェクトをロードする前記ステップは、
    保存しているオブジェクトに前記レンダリングオブジェクトが含まれる場合、前記レンダリングオブジェクトを引き続いて保存するとともに、前記レンダリングオブジェクト以外のオブジェクトを削除するステップと、
    保存している前記オブジェクトに前記レンダリングオブジェクトが含まれない場合、保存している前記オブジェクトを削除するとともに、前記レンダリングオブジェクトをロードするステップと、
    を含む、請求項1〜3のいずれか1項に記載の方法。
  5. 前記レンダリングオブジェクトをロードする前記ステップの後に、前記方法はさらに、
    前記画像処理装置が、前記ターゲットサブ空間のグリッド密度を、前記ターゲットタイプに対応するグリッド密度にマッチするように設定するとともに、グリッド密度設定後の前記ターゲットサブ空間において前記レンダリングターゲットオブジェクトをレンダリングするステップを含み、
    前記複数のタイプのうちのいずれか1つのタイプは、前記いずれか1つのタイプに対応するグリッド密度に従って、前記仮想シーンのサブ空間において可視距離が前記いずれか1つのタイプにより指示される可視距離閾値以下であるオブジェクトをレンダリングするように指示するものであり、前記複数のタイプのうちの第1タイプに対応するグリッド密度は、前記複数のタイプのうちの第2タイプに対応するグリッド密度より大きく、前記第1タイプが指示する可視距離閾値は、前記第2タイプが指示する可視距離閾値より小さい、請求項1〜4のいずれか1項に記載の方法。
  6. 仮想シーンにおいて画像採集装置の採集範囲内にある可視空間を決定する前記ステップの前に、前記方法はさらに、
    前記画像処理装置が、
    前記複数のタイプのうちの各タイプに対応するグリッド密度を決定するステップと、
    前記複数のタイプのうちの各タイプに対応するグリッド密度に従って、前記複数のタイプのうちの各タイプのために構成情報を生成するとともに、前記複数のタイプのうちの各タイプの構成情報をプロファイルに保存するステップであって、前記構成情報には、対応するグリッド密度に従って分割されたサブ空間内のオブジェクトと、該サブ空間の所在する第2位置とが記録されている、ステップと、
    を含む、請求項1〜5のいずれか1項に記載の方法。
  7. 前記複数のタイプのうちの各タイプに対応するグリッド密度を決定する前記ステップは、
    前記仮想シーンにおける全てのオブジェクトの可視距離のうちの最大可視距離及び最小可視距離を取得するステップと、
    前記最大可視距離及び前記最小可視距離に従って、前記複数のタイプのうちの各タイプに対応するグリッド密度を決定するステップと、
    を含む、請求項6に記載の方法。
  8. 前記仮想シーンにおける全てのオブジェクトの可視距離のうちの最大可視距離及び最小可視距離を取得する前記ステップは、
    前記仮想シーンにおける各オブジェクトの可視距離を取得するステップであって、各オブジェクトの可視距離は、各オブジェクトの第1の積と第2の積との間の比であり、前記第1の積は、各オブジェクトの三次元座標系における3つの次元での座標の最大値と、プリセットパラメータとの間の積であり、前記第2の積は、スクリーン占有率閾値と、前記画像採集装置のターゲット視点の正接値の2倍との間の積である、ステップと、
    前記仮想シーンにおける全てのオブジェクトの可視距離から前記最大可視距離及び前記最小可視距離を検索するステップと、
    を含む、請求項7に記載の方法。
  9. 前記最大可視距離及び前記最小可視距離に従って、前記複数のタイプのうちの各タイプに対応するグリッド密度を決定する前記ステップは、
    前記最大可視距離と前記最小可視距離との間の比を切り捨て、第1閾値を取得するステップであって、前記第1閾値は、前記複数のタイプのタイプ数を示すものである、ステップと、
    前記複数のタイプのうちの第iタイプに対応するグリッド密度により示されるグリッドピッチをターゲットピッチのi倍に設定するステップであって、iは、0より大きく且つ第1閾値以下の整数である、ステップと、
    を含む、請求項7に記載の方法。
  10. 前記複数のタイプのうちの各タイプに対応するグリッド密度に従って、前記複数のタイプのうちの各タイプのために構成情報を生成することは、
    前記仮想シーンにおいて前記複数のタイプのうちの各タイプに対応するグリッド密度に従って分割することで得られたサブ空間を決定するステップと、
    前記仮想シーンの各サブ空間において可視距離が前記各タイプにより指示される可視距離閾値にマッチするオブジェクトを検索するとともに、各サブ空間と、検索されたオブジェクトとの間の関連付けを1つの構成情報に保存するステップと、
    を含む、請求項6に記載の方法。
  11. オブジェクトをロードする装置であって、
    仮想シーンにおいて画像採集装置の採集範囲内にある可視空間を決定するための第1決定ユニットであって、前記画像採集装置は、前記仮想シーンにおける第1位置にある採集装置である、第1決定ユニットと、
    前記第1位置に基づいて、前記可視空間において複数のタイプのうちのターゲットタイプにより指示される可視距離閾値内にあるターゲットサブ空間を決定するための第2決定ユニットであって、前記複数のタイプのうちの各タイプは、前記仮想シーンのサブ空間内オブジェクトの1つの可視距離閾値を指示するものである、第2決定ユニットと、
    前記ターゲットサブ空間において可視距離が前記ターゲットタイプにより指示される可視距離閾値以下であるオブジェクトをレンダリングオブジェクトとして取得するための取得ユニットと、
    前記レンダリングオブジェクトをロードするためのロードユニットと、
    を備える、装置。
  12. 前記第2決定ユニットは、
    前記可視空間のサブ空間と、前記第1位置との間の間隔距離を取得するための第1取得モジュールと、
    前記可視空間内において前記第1位置との間の間隔距離が前記ターゲットタイプにより指示される可視距離閾値以下であるサブ空間を前記ターゲットサブ空間とするための検索モジュールと、
    を備える、請求項11に記載の装置。
  13. 前記取得ユニットは、
    プロファイルを取得するための第2取得モジュールであって、前記プロファイルには、前記仮想シーンのサブ空間において前記複数のタイプのうちの各タイプに関連付けられるオブジェクトが記録されており、前記仮想シーンのサブ空間内にある各オブジェクトは、可視距離に基づいて、前記複数のタイプのうちの1つのタイプに関連付けられるように設定される、第2取得モジュールと、
    前記プロファイルに記録されている、前記ターゲットサブ空間において前記ターゲットタイプに関連付けられるオブジェクトを前記レンダリングオブジェクトとして取得するための決定モジュールと、
    を備える、請求項11または12に記載の装置。
  14. コンピュータに、請求項1〜10のいずれか1項に記載のオブジェクトのロード方法を実行させるためのプログラム。
  15. プロセッサと、前記プロセッサに接続されるメモリと、を備える電子装置であって、
    前記メモリには、コンピュータプログラムが記載されており、
    前記プロセッサは、前記コンピュータプログラムを実行して、請求項1〜10のいずれか1項に記載のオブジェクトのロード方法を実現するように構成される、電子装置。
JP2020562114A 2018-11-15 2019-11-05 オブジェクトのロード方法及び装置、記憶媒体、電子装置、並びにコンピュータプログラム Active JP7125512B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811361060.0 2018-11-15
CN201811361060.0A CN109523621B (zh) 2018-11-15 2018-11-15 对象的加载方法和装置、存储介质、电子装置
PCT/CN2019/115611 WO2020098531A1 (zh) 2018-11-15 2019-11-05 对象的加载方法和装置、存储介质、电子装置

Publications (2)

Publication Number Publication Date
JP2021520579A true JP2021520579A (ja) 2021-08-19
JP7125512B2 JP7125512B2 (ja) 2022-08-24

Family

ID=65778194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020562114A Active JP7125512B2 (ja) 2018-11-15 2019-11-05 オブジェクトのロード方法及び装置、記憶媒体、電子装置、並びにコンピュータプログラム

Country Status (5)

Country Link
US (1) US11270497B2 (ja)
EP (1) EP3882865A4 (ja)
JP (1) JP7125512B2 (ja)
CN (1) CN109523621B (ja)
WO (1) WO2020098531A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523621B (zh) 2018-11-15 2020-11-10 腾讯科技(深圳)有限公司 对象的加载方法和装置、存储介质、电子装置
CN110264393B (zh) * 2019-05-15 2023-06-23 联想(上海)信息技术有限公司 一种信息处理方法、终端和存储介质
CN110288688B (zh) * 2019-06-20 2023-07-14 网易(杭州)网络有限公司 虚拟植被的渲染方法、装置、存储介质与电子设备
CN110827400B (zh) * 2019-11-12 2023-11-24 网易(杭州)网络有限公司 三维场景中对象的模型生成方法、装置以及终端
US11625848B2 (en) * 2020-01-30 2023-04-11 Unity Technologies Sf Apparatus for multi-angle screen coverage analysis
CN111738299B (zh) * 2020-05-27 2023-10-27 完美世界(北京)软件科技发展有限公司 场景静态物体合并方法、装置、存储介质及计算设备
CN111790151A (zh) * 2020-06-28 2020-10-20 上海米哈游天命科技有限公司 一种场景中物体加载方法、装置、存储介质及电子设备
CN111790152A (zh) * 2020-06-28 2020-10-20 上海米哈游天命科技有限公司 一种场景中物体加载方法、装置、存储介质及电子设备
CN111815598B (zh) * 2020-06-30 2024-04-26 上海联影医疗科技股份有限公司 一种血管参数的计算方法、装置、设备及存储介质
CN112473127A (zh) * 2020-11-24 2021-03-12 杭州电魂网络科技股份有限公司 大规模相同物件渲染的方法、系统、电子装置和存储介质
CN112587921A (zh) * 2020-12-16 2021-04-02 成都完美时空网络技术有限公司 模型处理方法和装置、电子设备和存储介质
CN112717386B (zh) * 2021-01-21 2023-05-12 腾讯科技(深圳)有限公司 关卡画面的显示方法、装置、设备及介质
CN112925638B (zh) * 2021-02-04 2023-10-10 深圳市禅游科技股份有限公司 资源加载方法、装置、设备及计算机可读存储介质
CN113426131B (zh) * 2021-07-02 2023-06-30 腾讯科技(成都)有限公司 虚拟场景的画面生成方法、装置、计算机设备及存储介质
CN113643441A (zh) * 2021-07-06 2021-11-12 北京百度网讯科技有限公司 内容展现方法、装置、设备和存储介质
US11488348B1 (en) * 2021-12-09 2022-11-01 Unity Technologies Sf Computing virtual screen imagery based on a stage environment, camera position, and/or camera settings
CN114299202A (zh) * 2021-12-30 2022-04-08 完美世界(北京)软件科技发展有限公司 虚拟场景制作的处理方法及装置、存储介质、终端
CN114401423B (zh) * 2022-01-13 2023-12-12 上海哔哩哔哩科技有限公司 数据处理方法及装置
CN116863058B (zh) * 2023-09-05 2023-11-14 湖南马栏山视频先进技术研究院有限公司 一种基于gpu的视频数据处理系统
CN117547816A (zh) * 2023-11-21 2024-02-13 北京畅游创想软件技术有限公司 一种游戏场景渲染方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196396A (ja) * 1997-09-19 1999-04-09 Matsushita Electric Ind Co Ltd 仮想物体が配された仮想空間内の光景を示す画像を表示する画像表示装置
JP2001167288A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 3次元地図表示装置
JP2007132972A (ja) * 2005-11-08 2007-05-31 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2014186175A (ja) * 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd 3次元地図表示システム
WO2018113604A1 (zh) * 2016-12-20 2018-06-28 阿里巴巴集团控股有限公司 虚拟地图中的瓦片地图生成方法、更新方法和装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6996254B2 (en) * 2001-06-18 2006-02-07 Microsoft Corporation Incremental motion estimation through local bundle adjustment
US6952207B1 (en) * 2002-03-11 2005-10-04 Microsoft Corporation Efficient scenery object rendering
WO2007042700A1 (fr) * 2005-10-03 2007-04-19 France Telecom Procede et systeme de calcul de visibilite de scene dans une architecture de navigation client serveur
JP5120926B2 (ja) * 2007-07-27 2013-01-16 有限会社テクノドリーム二十一 画像処理装置、画像処理方法およびプログラム
US20090327965A1 (en) * 2008-06-27 2009-12-31 Microsoft Corporation Selection of items in a virtualized view
CN101635138A (zh) * 2009-08-27 2010-01-27 北京水晶石数字科技有限公司 一种场景可视化的方法
US10585472B2 (en) * 2011-08-12 2020-03-10 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
CN102663811A (zh) * 2012-03-23 2012-09-12 北京师范大学 一种基于空间认知的大场景城市建筑实时三维可视化的方法
CN105701851B (zh) * 2014-11-28 2019-02-19 星际空间(天津)科技发展有限公司 一种基于地理信息的三维渲染引擎系统
CN104867174B (zh) * 2015-05-08 2018-02-23 腾讯科技(深圳)有限公司 一种三维地图渲染显示方法及系统
CN106991713A (zh) * 2017-04-13 2017-07-28 网易(杭州)网络有限公司 更新游戏中的场景的方法和装置、介质、处理器以及终端
CN107291223A (zh) * 2017-06-07 2017-10-24 武汉大学 一种超大数据量虚拟现实空间信息可视化系统及方法
CN107346558B (zh) * 2017-07-03 2020-05-19 长春理工大学 利用面光源可见性空间相关加速三维场景直接光照效果绘制的方法
CN109523621B (zh) * 2018-11-15 2020-11-10 腾讯科技(深圳)有限公司 对象的加载方法和装置、存储介质、电子装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196396A (ja) * 1997-09-19 1999-04-09 Matsushita Electric Ind Co Ltd 仮想物体が配された仮想空間内の光景を示す画像を表示する画像表示装置
JP2001167288A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 3次元地図表示装置
JP2007132972A (ja) * 2005-11-08 2007-05-31 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2014186175A (ja) * 2013-03-25 2014-10-02 Geo Technical Laboratory Co Ltd 3次元地図表示システム
WO2018113604A1 (zh) * 2016-12-20 2018-06-28 阿里巴巴集团控股有限公司 虚拟地图中的瓦片地图生成方法、更新方法和装置

Also Published As

Publication number Publication date
US11270497B2 (en) 2022-03-08
CN109523621A (zh) 2019-03-26
CN109523621B (zh) 2020-11-10
WO2020098531A1 (zh) 2020-05-22
US20210042991A1 (en) 2021-02-11
EP3882865A4 (en) 2021-12-29
JP7125512B2 (ja) 2022-08-24
EP3882865A1 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
JP2021520579A (ja) オブジェクトのロード方法及び装置、記憶媒体、電子装置、並びにコンピュータプログラム
CN109701273B (zh) 游戏数据的处理方法、装置、电子设备及可读存储介质
CN111008422B (zh) 一种建筑物实景地图制作方法及系统
US8570322B2 (en) Method, system, and computer program product for efficient ray tracing of micropolygon geometry
CN107886564A (zh) 用于实现三维场景显示的方法
CN110503718A (zh) 三维工程模型轻量化显示方法
CN107392990A (zh) 渲染3d场景的全局照明
CN112587921A (zh) 模型处理方法和装置、电子设备和存储介质
CN107945217A (zh) 一种适用于自动装配的图像特征点对快速筛选方法及系统
CN115908715A (zh) 建筑信息模型的加载方法及装置、设备、存储介质
CN109712242B (zh) 一种支持大规模三维场景虚拟漫游的模型数据组织方法
CN114092651A (zh) 用于应急管理的智能建模系统及方法
CN111445576B (zh) 地图数据的获取方法和装置、存储介质及电子装置
CN114648607B (zh) 基于cad平台的倾斜三维模型重建与动态调度方法
US9582247B1 (en) Preserving data correlation in asynchronous collaborative authoring systems
CN114307158A (zh) 三维虚拟场景数据的生成方法及装置、存储介质、终端
CN112337093B (zh) 一种虚拟对象的分簇方法、装置、存储介质和电子装置
CN114299202A (zh) 虚拟场景制作的处理方法及装置、存储介质、终端
CN113786617A (zh) 应用体素数据进行射线检测的方法、系统、服务器及计算机可读存储介质
CN111340949A (zh) 3d虚拟环境的建模方法、计算机设备及存储介质
CN110379005A (zh) 一种基于虚拟资源管理的三维重建方法
CN109118594B (zh) 一种删除房源虚拟三维模型中细小虚像的方法及系统
CN116958365A (zh) 虚拟地形的处理方法、装置、设备、介质和程序产品
CN117392300A (zh) 一种3d数字法治展厅交互方法、系统、设备及介质
CN117808949A (zh) 一种场景渲染方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220812

R150 Certificate of patent or registration of utility model

Ref document number: 7125512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150