JP7112516B2 - 画像表示方法及びその装置、記憶媒体、電子装置、並びにコンピュータプログラム - Google Patents

画像表示方法及びその装置、記憶媒体、電子装置、並びにコンピュータプログラム Download PDF

Info

Publication number
JP7112516B2
JP7112516B2 JP2020561767A JP2020561767A JP7112516B2 JP 7112516 B2 JP7112516 B2 JP 7112516B2 JP 2020561767 A JP2020561767 A JP 2020561767A JP 2020561767 A JP2020561767 A JP 2020561767A JP 7112516 B2 JP7112516 B2 JP 7112516B2
Authority
JP
Japan
Prior art keywords
virtual
virtual building
map scene
building
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020561767A
Other languages
English (en)
Other versions
JP2021523445A (ja
Inventor
シャオ,ユエウエイ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2021523445A publication Critical patent/JP2021523445A/ja
Application granted granted Critical
Publication of JP7112516B2 publication Critical patent/JP7112516B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Environmental & Geological Engineering (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、2018年11月12に中国特許庁に提出された、出願番号が201811340566.3であって、出願の名称が「画像表示方法及びその装置、記憶媒体並びに電子装置」である中国特許出願の優先権を主張するものであり、その全内容を本出願に参照により援用する。
本出願は、画像処理の分野に関し、具体的に、画像表示方法、装置、記憶媒体及び電子装置に関する。
位置サービスに基づくアプリケーションでは、マップシーンでユーザーの現在位置に基づいて対応するバーチャルオブジェクトを表示することで、ユーザーの共感を向上させることができる。
本出願の実施例は、少なくとも関連技術で表示される建物が視聴者の視野を妨害するという技術的問題を解決するために、画像表示方法、装置、記憶媒体及び電子装置を提供する。
本出願の実施例による一技術案は、電子装置に適用する画像表示方法を提供し、クライアントに表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得するステップと、マップシーンにおいてターゲット位置を中心とする所定の範囲内にバーチャル建物が存在する場合、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を取得するステップと、バーチャル建物の第1のターゲット表示形状をマップシーンに表示するステップと、を含む。
本出願の実施例による他の技術案は、さらに、画像表示装置を提供し、クライアントに表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得する取得ユニットと、マップシーンにおいてターゲット位置を中心とする所定の範囲内にバーチャル建物が存在する場合、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を取得する処理ユニットと、バーチャル建物の第1のターゲット表示形状をマップシーンに表示する表示ユニットと、を含む。
本出願の実施例によるさらに他の技術案は、さらに、記憶媒体を提供し、記憶媒体にコンピュータプログラムが記憶され、コンピュータプログラムは、上記の方法を実行するように構成される。
本出願の実施例によるさらに他の技術案は、さらに、メモリとプロセッサーを含む電子装置を提供し、メモリにコンピュータプログラムが記憶され、プロセッサーはコンピュータプログラムによって上記の方法を実行するように構成される。
本出願の実施例によるさらに他の技術案は、さらに、指令を含むコンピュータプログラムを提供し、コンピュータで実行される場合、前記コンピュータに上記の方法を実行させる。
本出願の実施例では、クライアントに表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得し、マップシーンにおけるターゲット位置を中心とする所定の範囲にバーチャル建物が存在する場合、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を取得し、バーチャル建物の第1のターゲット表示形状をマップシーンに表示することで、バーチャル建物の表示高さを低下させるため、バーチャルオブジェクトの視野が改善され、バーチャル建物によるバーチャルオブジェクトの視野に対する妨害が減少する。
ここで説明する図面は、本出願をさらに理解するために使用され、本出願の一部を構成し、本出願の例示的な実施例及びその説明は、本出願を解釈するために使用され、本出願の不適切な制限を構成するものではない。
本出願の実施例によるネットワークアーキテクチャの概略図である。 本出願の実施例による画像表示方法のフローチャートである。 本出願の実施例による選択可能なマップシーンの概略図である。 本出願の実施例による選択可能なマップシーンの概略図である。 本出願の実施例による選択可能なマップシーンの概略図である。 本出願の実施例による選択可能なマップシーンの概略図である。 本出願の実施例による選択可能なマップシーンの概略図である。 本出願の実施例による選択可能なマップシーンの概略図である。 本出願の実施例による画像表示装置の概略図である。 本出願の実施例による電子装置の構造ブロック図である。
以下、当業者に本出願の解決策をよりよく理解させるために、本出願の実施例の図面に基づいて、本出願の実施例における技術案を明確かつ完全に説明する。明らかに、説明の実施例は、本出願の全ての実施例ではなく、一部の実施例に過ぎない。当業者が本出願の実施例に基づいて創造的な作業なしに得られる他のすべての実施例は、本出願の保護範囲に含まれるべきである。
なお、本出願の明細書及び特許請求の範囲ならびに上記の図面における「第1の」、「第2の」などの用語は、類似するオブジェクトを区別するために使用され、必ずしも特定の順序又はシーケンスを記述するために使用されない。このように使用されるデータは、適切な状況で交換でき、ここで説明される本出願の実施例は、ここで図示又は説明される順序以外の順序で実施できる。また、「含む」と「有する」という用語及びそれらのバリエーションは、非排他的な包含をカバーすることを目的とする。例えば、一連のステップ又はユニットを含む手順、方法、システム、製品又はデバイスは、明確にリストされたステップ又はユニットに必ずしも限定されるわけではなく、明確にリストされていないか又はこれらのプロセス、方法、製品、またはデバイスに固有のその他のステップまたはユニットを含むことができる。
Unityゲームエンジン:プラットフォームを跨ぐ汎用ゲームエンジンであり、一般的に、ゲームロジックの開発にC#言語を使用する。
ゲーム側:Unityなどのゲームエンジンに基づいて、ゲームロジックに関連するC#スクリプトの部分であり、この部分はシステムプラットフォームと関係がない。
ネイティブ側:ゲーム側以外のプラットフォーム関連部分を指し、Androidのjavaサイドロジック、iOSのobjCコード、及び本出願の実施例におけるマップレンダリングを実現するリンクライブラリの一部などを含む。
メッシュ:レンダリングで、1つのメッシュ(Mesh)は1つの描画可能なエンティティを代表し、1つのメッシュは少なくとも1組の頂点データを含み、各頂点は座標、法線ベクトルなどの属性を含んでもよく、1つのメッシュは1つの頂点データにインデックスを付けるためのインデックスデータを含んでもよい。
シェーダ:レンダリングでは、グラフィックスプロセッサー(GPU)に適用される指令コードを指し、GPUがメッシュをレンダリングし、頂点変換の計算、ライティングの計算などのレンダリング結果を生成するようにガイドする。
位置に基づくサービス(Location-Based Service、LBS):ユーザーの位置を取得することによって、ユーザーに対応するサービスを提供する付加価値サービスである。
本出願の実施例による技術案は、画像表示方法を提供する。本実施例では、上記の画像表示方法は、図1に示すような、端末101とサーバー102で構成されるハードウェア環境に適用することができる。図1に示すように、端末101はネットワークを介してサーバー102に接続され、サーバーは端末にLBSに基づくサービスを提供できる。上記のネットワークには、ワイドエリアネットワーク、メトロポリタンエリアネットワーク、又はローカルネットワークを含むが、これらに限定されず、端末101は、携帯電話端末であってもよく、PC端末、ノートブック端末又はタブレット端末であってもよい。
本出願の実施例に係る画像表示方法は、端末101によって実行されてもよく、端末101にインストールされたクライアントによって実行されてもよい。本出願の技術案が適用するシナリオは、次のシナリオを含むが、これらに限定されない。
本出願の技術案は、拡張現実(AR)、仮想現実(VR)などの技術を採用したソーシャルシナリオに適用できる。上記のサーバーはソーシャルサーバーに相当し、ソーシャルクライアントがインストールされた各端末にソーシャル及びソーシャルの周りのサービス(例えば、LBSサービス)を提供する。拡張現実、仮想現実などのソーシャルアプリケーションを採用する場合、ユーザーがログインした後、ソーシャルシナリオでログイユーザーの自身に対応するバーチャルオブジェクトをレンダリングでき、当該バーチャルオブジェクトのバーチャルシナリオにおけるマップでの位置は実環境におけるユーザーのマッピングであり得て、バーチャルシナリオで地面のバーチャル物件をレンダリングする必要がある場合があり、一般的にこれらの物体はサイズがバーチャルシナリオにおける建物より小さいため、視野角の位置が低い場合、よく建物によって遮蔽される。しかしながら、実際には、これらの物体は非常に重要であり、遮蔽されることを望まない。本出願の技術案によれば、建物の表示を維持する上で、周りの一定範囲内の建物を低下させることによって、重要物品がバーチャルオブジェクトに対して遮蔽しないようにし、遠くにある建物は通常に表示されるので、ビルが林立する光景を視覚的に確認でき、同時にバーチャルオブジェクトが周りの重要物件を見つけることも便利になる。
本出願の技術案は、LBSサービスを提供するゲームシナリオにも適用できる。例えば、マルチプレイヤーオンラインバトルアリーナ(Multiplayer Online Battle Arena、MOBA)ゲーム、一人称シューティングゲーム(First-person shooter game、FPS)、三人称シューティングゲーム(Third-person shooter game、TPS)なども類似に、LBSゲームでは、マップでプレイヤー自身のキャラクターモデル(例えば、バーチャルオブジェクト)、及びマップにおけるゲーム物件をレンダリングすることがよくある。一般的にこれらの物体はサイズが建物より小さいため、視野角の位置が低い場合、よくバーチャル建物によって遮蔽される。ゲームでは、これらの物体は非常に重要であり、遮蔽されることを望まない。本出願によって提供される新しいバーチャル建物表現解決策によれば、建物の表示を維持する上で、周りの一定範囲内の建物を低下させることによって、重要物品がプレイヤーに対して遮蔽しないようにし、遠くにあるバーチャル建物は通常どおり表示されるので、ゲームではビルが林立する光景を視覚的に確認できる。
説明の便宜上、本出願の後の実施例では、主に端末を電子装置の実現可能な形態として、本出願によって提供される技術案について説明する。
次に、図2に示すステップに基づいて、上記のシナリオに採用する本出願の実施解決策の実現形態について、さらに詳しく説明する。図2は、本出願の実施例による画像表示方法のフローチャートである。図2に示すように、当該画像表示方法は次のようなステップを含む。
S202において、クライアントに表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得する。
一つの可能な実現形態では、バーチャルオブジェクトは、マップシーンで移動することが許可されるように構成される。
上記のクライアントは、拡張現実、仮想現実などの技術を採用して実現されるソーシャルアプリケーションのクライアントやLBSサービスを提供するゲームアプリケーションのクライアントなどであり得て、これに対応して、上記のマップシーンは、実環境に対応するバーチャルソーシャルシナリオにおけるマップや実環境に対応するゲームシナリオにおけるマップなどであり得る。
バーチャルオブジェクトのマップシーンにおける移動は上記のクライアントを使用するターゲットオブジェクト(例えば、ソーシャルユーザー又はゲームプレイヤー)によって制御され、例えば、ターゲットオブジェクトはクライアントでバーチャルオブジェクトを直接制御して移動したり、又はターゲットオブジェクトの移動に合わせて移動したりする。
S204において、マップシーンにおけるターゲット位置を中心とする所定の範囲にバーチャル建物が存在する場合、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を得る。
上記の所定の範囲とは、ターゲット位置を中心として、半径が一定の円形、長さが一定の正方形、長さと幅が一定の長方形、辺の長さが一定の菱形等の形状が存在する領域の範囲であり得る。
マップシーンにバーチャルオブジェクトを遮蔽しているバーチャル建物があり、バーチャル建物がターゲット位置を中心とする所定の範囲内に位置する場合に、バーチャル建物がバーチャルオブジェクトの視線を遮蔽しないように、マップシーンにおいて当該バーチャル建物の表示高さを調整することで、ターゲット位置を中心とする所定の範囲内の視野内の重要物品、オブジェクトがバーチャルオブジェクトの視野で見えるようにする。
S206において、バーチャル建物の第1のターゲット表示形状をマップシーンに表示する。
図3に示すように、五芒星はバーチャルオブジェクトとするキャラクターモデルを表し、残りの黒丸と白丸はバーチャルオブジェクトの可視距離範囲内にあるオブジェクト(例えば、バーチャル建物、バーチャルプロップ等)を表す。本出願の実施例における技術案を採用して、図3に表示したキャラクターモデルの周りのバーチャル建物(黒丸で示される)は表示高さを低下させて、例えばフラットな形状になり、バーチャルオブジェクト自身を遮蔽せず、図3におけるバーチャルプロップ、例えばドラム等の高さが低いオブジェクト(白丸で示される)も遮蔽しない。これにより、バーチャルオブジェクトの視野が改善され、バーチャル建物によるバーチャルオブジェクトの視野に対する妨害が減少する。
また図4に示すように、五芒星はバーチャルオブジェクトとするキャラクターモデルを表し、残りの黒丸、白丸及び三角形は可視距離範囲内にあるオブジェクト(例えば、バーチャル建物、バーチャルプロップ等)を表す。なお、三角形は高さの低いオブジェクトを示し、白丸はバーチャルオブジェクトの視野に影響を与えない高さの低いオブジェクトを示し、例えば、ドラム等などのバーチャルプロップであり得、黒丸は三角形で示されるオブジェクトを遮蔽したバーチャル建物を示す。本出願の実施例における技術案を採用して、黒丸で示されるバーチャル建物の表示高さを低下でき、例えば、フラットな形状で表示して、三角形で示されるオブジェクトを遮蔽しないという目的を達成できる。バーチャルオブジェクトの視野が改善され、バーチャル建物によるバーチャルオブジェクトの視野に対する妨害が減少する。
上記のステップによって、クライアントによって表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得し、マップシーンにおけるターゲット位置を中心とする所定の範囲にバーチャル建物が存在する場合、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を得て、バーチャル建物の第1のターゲット表示形状をマップシーンに表示することで、バーチャル建物の表示高さを低下させるため、バーチャルオブジェクトの視野が改善され、バーチャル建物によるバーチャルオブジェクトの視野に対する妨害が減少し、関連技術で表示される建物が視聴者に視覚障害を引き起こすという技術的問題を解決できる。
次に、本出願の技術案をLBSゲームに適用することを例として、本出願の技術案について、更に詳しく説明する。
好ましくは、バーチャルオブジェクトは実環境におけるターゲットオブジェクトを表し、ターゲットオブジェクトは、モバイル端末を介して、LBSゲームに参加できる。従って、ターゲットオブジェクトはモバイル端末で置き換えることができる。これは、バーチャルオブジェクトが実環境におけるモバイル端末を示し、マップシーンにおけるバーチャルオブジェクトのターゲット位置が、実環境におけるモバイル端末の位置を表すことに相当する。つまり、マップシーンは実環境をシミュレートすることによって取得し、マップシーンにおける位置は実環境における位置をマッピングすることによって取得してもよい。例えば、マップシーンは実環境のマップを同じ比率でスケーリングすることによって取得してもよく、マップシーンにおけるバーチャル建物は、実環境における対応する実際の建物を表す。
上記のバーチャルオブジェクトは、マップシーンを移動することが許可されるように構成される。例えば、バーチャルオブジェクトは、モバイル端末の実環境における移動に追従してマップシーンを移動することが許可されるように構成される。つまり、モバイル端末を所持するプレイヤーが実環境を移動する場合、モバイル端末の位置はプレイヤーの位置に相当し、モバイル端末は、自身の位置を検出することにより、バーチャルシナリオでのバーチャルオブジェクトの移動を制御することができる。
好ましくは、クライアントによって表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得するステップは、実環境におけるモバイル端末の位置に基づいてマップシーンにおけるバーチャルオブジェクトのターゲット位置を決定し、例えば、実環境におけるバーチャルオブジェクトを示すモバイル端末の位置を取得することと、実環境におけるモバイル端末の位置をクライアントによって表示されるマップシーンにマッピングした位置を、バーチャルオブジェクトのターゲット位置として、例えば、実環境に1つの位置Aが存在し、マップシーンにAをシミュレートするための1つの位置aが存在し、実環境におけるモバイル端末の位置がAであると、マップシーンにおけるバーチャルオブジェクトの位置をaとして確定することと、を含む。
本出願の実施例では、低い物体を遮蔽し、バーチャルオブジェクトのターゲット位置から所定の範囲にある建物の表示形状を調整することによって、低い物体が遮蔽されずシミュレート環境で正確に表示できるようにし、関連技術のマップシーンにおける低いオブジェクトの位置が不正確に表示されるという技術的問題を解決し、表示位置の正確性が向上するという技術的効果を達成した。
好ましくは、ターゲット位置を中心とする所定の範囲内にあり、他の低いオブジェクト(重要物体)を遮蔽しない他の建物オブジェクトに対しても、同時に調整できる。他のオブジェクトへの調整は、上記のバーチャル建物と同じ調整にすることができる。即ち、本実施例では、低いオブジェクトを遮蔽するバーチャル建物のみを調整してもよく、バーチャル建物と低いオブジェクトを遮蔽しない他のオブジェクトを同時に調整してもよい。バーチャル建物が低いオブジェクトの識別子を遮蔽する場合、バーチャル建物の高さを低下させることによって、表示されるバーチャルオブジェクトの高さがないか、比較的低い高さになるようにする。当該比較的低い高さは、図5のキャラクター(バーチャルオブジェクト)の足の高さであってもよいし、他の高さであってもよいが、比較的低い高さでは、バーチャル建物は上記の識別子を遮蔽しない。
バーチャル建物を調整する方式は、他のオブジェクトを調整する方式と同じである。以下は、バーチャル建物を調整する方式を説明し、他のオブジェクトも同じ方式で調整できる。
好ましくは、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を得ることは、マップシーンでバーチャル建物の表示形状をフラットな形状に調整することを含む。つまり、この実現方式では、第1のターゲット表示形状はフラットな形状である。
上記の実施例では、前記バーチャル建物の前記第1のターゲット表示形状を前記マップシーンに表示することは、マップシーンに、バーチャル建物の表示高さが徐々に減少することを示すための第1の動画を再生することと、第1の動画の再生が完了した後、前記マップシーンに前記バーチャル建物の第1のターゲット表示形状を表示することと、を含む。
好ましくは、マップシーンで再生される第1の動画に複数のフレーム画面が含まれ、任意の1つのフレーム画面は次の方式で決定できる。即ち、クライアントを実行する端末におけるCPUによって、マップシーンのメッシュにおけるバーチャル建物の頂点の現在高さを取得し、メッシュはバーチャル建物の頂点の空間位置データを記録し、空間位置データはバーチャル建物の頂点の現在高さを含み、空間位置データのうちバーチャル建物の頂点の現在高さをターゲット高さに調整し、更新した空間位置データを得て、なお、ターゲット高さは現在高さより低く、バーチャル建物の頂点の更新後の空間位置データを端末におけるグラフィックスプロセッサーに送信して描画し、描画済みの画像を得て、描画済みの画像を第1の動画の1つのフレーム画面とする。
実環境をシミュレートするマップシーンにバーチャル建物の表示形状を表示する。図4と図5に示すように、図4の上部は、ターゲット位置を中心とする所定の範囲外の比較的高い建物の外観を表示し、他の位置にバーチャルオブジェクトのターゲット位置を中心とする所定の範囲内の建物を表示し、平らな不規則な形状で表示される。同時に、プロップドラムなどの短いオブジェクトの概略図も表示されている。
CPUによって、メッシュのデータを調整し、メッシュに記載されたバーチャル建物の頂点データが変化するようにし、変化後の頂点データは、頂点に対応する建物の高さを低下させる。メッシュのデータが更新されるたびに、一つのフレーム画像を描画し、当該フレーム画像を表示する。現在表示されている画像における建物の高さに応じてメッシュのデータを再び修正し、画像プロセッサーを利用して描画し、建物の高さが低くなる。各フレーム画像を第1の動画の1つのフレーム画面として、複数のフレーム画像を描画及び表示するプロセスは第1の動画を再生するプロセスである。
1つのメッシュに複数のオブジェクトの頂点データを記載し、1つのオブジェクトの頂点データをメッシュの1つの組とし、メッシュにおけるデータを調整する場合、同時に複数の組のデータを調整でき、つまり、複数の建物の頂点を同時に調整でき、複数の建物の高さ変化を調整することを実現する。例えば、複数の建物を同時に上げたり下げたりすることができ、一部の建物を同時に上げたり下げたりすることができる。
図6から図8において矢印で示したバーチャル建物から分かるように、図6は当該バーチャル建物の通常の高さであり、図7は当該バーチャル建物の高さが低下した高さであり、図8は当該バーチャル建物が平らな状態に表示され、即ち、建物の識別子を表示する。図6から図8を順次表示するプロセスは、第1の動画を再生するプロセスである。ここで、3フレーム画面で第1の動画の再生プロセスを説明するが、実際の再生プロセスでは、3つより多いフレーム画面を設け、建物の高さが徐々に低下する第1の動画を表すことができる。
例えば、実環境で建物とユーザー位置との距離を検出する。建物とユーザー地理位置との距離が5000メートル以下で、以前の距離が5000メートルを超えると、降下動画の再生を開始し、降下動画の再生が完了した後、建物は平らな状態になり、シミュレート環境において平らな状態の建物を表示する。
平らな状態で、バーチャル建物とバーチャルオブジェクトのターゲット位置との距離が5000メートルより大きく、以前の距離が5000メートル以下であると、上昇動画(即ち、第1の動画)の再生を開始し、当該バーチャル建物が平らな状態から外観画像に更新される。同様に、当該実施例は、次のような方式で実現できる。
マップシーンにバーチャル建物の第1のターゲット表示形状を表示した後、バーチャルオブジェクトがマップシーンを移動し、バーチャル建物がバーチャルオブジェクトの移動後のターゲット位置を中心とする所定の範囲内にない場合、バーチャル建物の表示高さを増加することによって、バーチャル建物の第2のターゲット表示形状を得て、バーチャル建物の第2のターゲット表示形状をマップシーンに表示する。
好ましくは、前記マップシーンに前記バーチャル建物の前記第2のターゲット表示形状を表示することは、マップシーンにおいてバーチャル建物の表示高さが徐々に増加することを示すための第2の動画を再生することと、第2の動画の再生が完了した後、バーチャル建物の第2のターゲット表示形状を前記マップシーンに表示することとを含む。
図6から図8において矢印で示したバーチャル建物から分かるように、図6は当該バーチャル建物の通常の高さであり、図7は当該バーチャル建物の高さが低下した高さであり、図8は当該バーチャル建物が平らな状態に表示され、即ち、建物の識別子を表示する。図8、図7及び図6を順次表示するプロセスは、第2の動画を再生するプロセスである。ここで、3フレーム画面で第2の動画の再生プロセスを説明するが、実際の再生プロセスでは、3つよい多いフレーム画面を設け、建物の高さが徐々に増加する第2の動画を表すことができる。
例えば、バーチャル建物とバーチャルオブジェクトのターゲット位置との距離を検出する。平らな状態で、当該バーチャル建物とバーチャルオブジェクトのターゲット位置との距離が5000メートルより大きく、以前の距離が5000メートル以下であると、上昇動画(即ち、第2の動画)の再生を開始し、バーチャル建物が平らな状態から外観画像に更新される。
なお、前述の各方法の実施例では、説明を簡略化するために、それらを一連のアクション組み合わせとして表したが、本出願は説明したアクション順序によって制限されない。本出願では、一部のステップは他の順序で又は同時に実行できる。また、明細書で説明された実施例は全て好ましい実施例に属し、言及されたアクションとモジュールは本出願に必ずしも必要ではない。
以上の実施方式の説明により、当業者は、上記の実施例による方法が、ソフトウェアに加えて必要な一般的なハードウェアプラットフォームによって実現され得て、もちろん、ハードウェアによって実現され得ることが理解できる。多くの場合、前者はより最適化された実施方式である。このような理解に基づいて、本出願の技術案の本質的に又は先行技術に寄与する部分は、ソフトウェア製品の形で表現できる。当該コンピュータソフトウェア製品は、1つの記憶媒体(例えば、ROM/RAM、磁気ディスク、光ディスク)に記憶され、端末デバイス(携帯電話、コンピュータ、サーバー、又はネットワークデバイスなど)に本出願の各実施例に記載の方法を実行させるためのいくつかの指示が含まれている。
本出願の実施例の他の技術案によると、さらに、上記の画像表示方法を実施するための画像表示装置を提供する。図9に示すように、当該装置は、次のユニットを含む。
取得ユニット92は、クライアントによって表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得する。さらに、好ましくは、バーチャルオブジェクトは、マップシーンを移動することが許可されるように構成される。
上記のクライアントは、拡張現実AR、仮想現実VRなどの技術を採用して実現されるソーシャルアプリケーションのクライアント、LBSゲームアプリケーションのクライアント等であってもよい。それに対応して、上記のマップシーンは、実環境に対応するバーチャルソーシャルシナリオのマップ、実環境に対応するゲームシナリオのマップ等であってもよい。
バーチャルオブジェクトのマップシーンにおける移動は上記のクライアントを使用するターゲットオブジェクト(例えば、ソーシャルユーザー又はゲームプレイヤー)によって制御され、例えば、ターゲットオブジェクトはクライアントでバーチャルオブジェクトを直接制御して移動させたり、又はターゲットオブジェクトの移動に合わせて移動したりする。
処理ユニット94は、マップシーンにおいてターゲット位置を中心とする所定の範囲にバーチャル建物が存在する場合、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を得る。
上記の所定の範囲とは、ターゲット位置を中心として、半径が一定の円形、長さが一定の正方形、長さと幅が一定の長方形、辺の長さが一定の菱形等の形状が存在する領域の範囲であり得る。
マップシーンにバーチャルオブジェクトを遮蔽したバーチャル建物があり、バーチャル建物がターゲット位置を中心とする所定の範囲内に位置する場合に、バーチャル建物がバーチャルオブジェクトの視線を遮蔽しないように、マップシーンにおいて当該バーチャル建物の表示高さを調整することで、ターゲット位置を中心とする所定の範囲での視野内のオブジェクトがバーチャルオブジェクトに見えるようにする。
表示ユニット96は、バーチャル建物の第1のターゲット表示形状をマップシーンに表示する。
上記のモジュールによって、クライアントによって表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得し、マップシーンにおけるターゲット位置を中心とする所定の範囲にバーチャル建物が存在する場合、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を得て、バーチャル建物の第1のターゲット表示形状をマップシーンに表示することで、バーチャル建物の表示高さを低下させるため、バーチャルオブジェクトの視野を改善し、バーチャル建物によるバーチャルオブジェクトの視野に対する妨害を減少し、関連技術で表示される建物が視聴者の視覚を妨害するという技術的問題を解決できる。
好ましくは、取得ユニットは、クライアントによって表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得する場合、マップシーンからバーチャルオブジェクトのターゲット位置を取得でき、バーチャルオブジェクトは、実環境におけるモバイル端末を表し、マップシーンにおけるバーチャルオブジェクトのターゲット位置は、実環境におけるモバイル端末の位置を表し、マップシーンにおけるバーチャル建物は、実環境における対応する実建物を表す。
好ましくは、バーチャルオブジェクトは、マップシーンを移動することが許可されるように構成されることは、バーチャルオブジェクトは、実環境におけるモバイル端末の移動に追従してマップシーンを移動することが許可されるように構成されることを含む。
好ましくは、取得ユニットは、クライアントによって表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得する場合、実環境におけるバーチャルオブジェクトを示すモバイル端末の位置を取得し、実環境におけるモバイル端末の位置をクライアントに表示されるマップシーンにマッピングした位置を、バーチャルオブジェクトのターゲット位置としてもよい。
好ましくは、処理ユニットは、さらに、マップシーンでバーチャル建物の表示形状をフラットな形状に調整する。
好ましくは、表示ユニットは、さらに、マップシーンに、バーチャル建物の表示高さが徐々に減少することを示すための第1の動画を再生し、第1の動画の再生が完了した後、前記バーチャル建物の第1のターゲット表示形状をマップシーンに表示する。
好ましくは、前記第1の動画うちのいずれかのフレーム画面に対して、処理ユニットは、クライアントを実行する端末におけるCPUによって、マップシーンのメッシュにおけるバーチャル建物の頂点の現在高さを取得し、メッシュはバーチャル建物の頂点の空間位置データを記録し、空間位置データはバーチャル建物の頂点の現在高さを含む取得モジュールと、空間位置データのうちバーチャル建物の頂点の現在高さをターゲット高さに調整し、更新後の空間位置データを取得し、なお、ターゲット高さが現在高さより低い調整モジュールと、バーチャル建物の頂点の更新後の空間位置データを端末におけるグラフィックスプロセッサーに送信して描画し、描画済みの画像を取得し、描画済みの画像は第1の動画の1つのフレーム画面とされるものである描画モジュールと、を含む。
CPUによって、メッシュに記載されたバーチャル建物の頂点データが変化するようにメッシュのデータを調整し、変化後の頂点データは、頂点に対応する建物の高さを低下させる。メッシュのデータが更新されるたびに、一つのフレーム画像を描画し、当該フレーム画像を表示する。現在表示されている画像における建物の高さに応じてメッシュのデータを再び修正し、画像プロセッサーを利用して描画し、建物の高さが低くなる。各フレーム画像を第1の動画の1つのフレーム画面として、複数のフレーム画像を描画及び表示するプロセスは第1の動画を再生するプロセスである。
好ましくは、表示ユニットは、マップシーンにバーチャル建物の第1のターゲット表示形状を表示した後、バーチャルオブジェクトがマップシーンにおいて移動し、バーチャル建物がバーチャルオブジェクトの移動後のターゲット位置を中心とする所定の範囲内にない場合、バーチャル建物の表示高さを増加することによって、バーチャル建物の第2のターゲット表示形状を取得し、バーチャル建物の第2のターゲット表示形状をマップシーンに表示する。
好ましくは、表示ユニットは、バーチャル建物の表示高さを増加する場合、マップシーンに、バーチャル建物の表示高さが徐々に増加することを示すための第2の動画を再生し、バーチャル建物の第2のターゲット表示形状をマップシーンに表示する場合、第2の動画の再生が完了した後、バーチャル建物の第2のターゲット表示形状を表示してもよい。
図6から図8から分かるように、図6は建物の通常の高さであり、図7は建物の高さが低下した高さであり、図8は建物が平らな状態に表示され、即ち、建物の識別子を表示する。図8、図7、図6を順次表示するプロセスは、第2の動画を再生するプロセスである。ここで、3フレーム画面で第2の動画の再生プロセスを説明するが、実際の再生プロセスでは、3つより多いフレーム画面を設け、建物の高さが徐々に増加する第2の動画を表すことができる。
本出願の実施例の他の技術案は、さらに、上記の画像表示方法を実施するための電子装置を提供する。図10に示すように、当該電子装置は、メモリと、プロセッサーとを含み、当該メモリにコンピュータプログラムが記憶され、当該プロセッサーは、コンピュータプログラムによって上記のいずれかの一項の方法実施例におけるステップを実行するように構成される。
好ましくは、図10は、本出願の実施例による電子装置の構造ブロック図である。図10に示すように、当該電子装置は、1つ又は複数の(図では1つのみを示す)プロセッサー1001、少なくとも1つの通信バス1002、ユーザーインターフェース1003、少なくとも1つの伝送装置1004、及びメモリ1005を含んでもよい。なお、通信バス1002は、これらのコンポーネントの間の接続通信を実現する。ユーザーインターフェース1003は、ディスプレイ1006とキーボード1007を含んでもよい。伝送装置1004は、好ましくは、標準の有線インターフェースおよび無線インターフェースを含んでもよい。
好ましくは、本実施例では、上記の電子装置は、コンピュータネットワーク内の複数のネットワークデバイスのうちの少なくとも1つのネットワークデバイスに配置されてもよい。
好ましくは、本実施例では、上記のプロセッサーは、コンピュータプログラムによって次のステップを実行するように構成されてもよい。
クライアントによって表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得するステップと、マップシーンにおけるターゲット位置を中心とする所定の範囲にバーチャル建物が存在する場合、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を取得するステップと、バーチャル建物の第1のターゲット表示形状をマップシーンに表示するステップと、を含む。
好ましくは、当業者は、図10に示した構造は、説明のためのものに過ぎず、電子装置は、スマートフォン(例えば、Androidフォン、iOSフォンなど)、タブレット、ハンドヘルドコンピューター、及びモバイルインターネットデバイス(Mobile Internet Devices、MID)、PADなどの端末デバイスであってもよいことが理解できる。図10は、上記の電子装置の構造を制限するものではない。例えば、電子装置は、図10に示したものよりも多いまたは少ないコンポーネント(例えば、ネットワークインターフェース、表示装置など) を含み得、又は図10に示したものとは異なる配置を有し得る。
さらに、メモリ1005は、ソフトウェアプログラム及びモジュールを記憶し、例えば、本出願の実施例における画像表示方法及び装置に対応するプログラム指令/モジュールを記憶する。プロセッサー1001は、メモリ1005に記憶されているソフトウェアプログラム及びモジュールを実行することで、各種の機能適用及びデータ処理を実行し、即ち、上記の画像表示方法を実現する。メモリ1005は、高速ランダムメモリを含んでもよいし、1つ又は複数の磁気記憶装置、フラッシュメモリ、又は他の不揮発性ソリッドステートメモリなどの非揮発性メモリも含んでもよい。いくつかの例では、メモリ1005は、プロセッサー1001に対してリモートに設けられるメモリをさらに含んでもよく、これらのリモートメモリは、ネットワークを介して端末に接続されてもよい。上記のネットワークの例には、インターネット、企業イントラネット、ローカルネットワーク、モバイル通信ネットワーク、及びそれらの組み合わせが含まれるが、これらに限定されない。
上記の伝送装置1004は、1つのネットワークを介して、データを送受信する。上記のネットワークの具体例は、有線ネットワーク及無線ネットワークを含んでもよい。1つの例では、伝送装置1004は、1つのネットワークアダプタ(Network Interface Controller、NIC)を含み、ネットワークケーブルを介して他のネットワークデバイスやルーターと接続し、インターネット又はローカルネットワークと通信できる。1つの例では、伝送装置1004は、無線周波数(Radio
Frequency、RF)モジュールであり、無線方式でインターネットと通信する。
具体的に、メモリ1005は、メッシュにおけるデータを記憶する。
本出願の実施例によれば、画像表示方法の技術案を提供する。クライアントによって表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得し、マップシーンにおけるターゲット位置を中心とする所定の範囲にバーチャル建物が存在する場合、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を取得し、バーチャル建物の第1のターゲット表示形状をマップシーンに表示することで、バーチャル建物の表示高さを低下させるため、バーチャルオブジェクトの視野が改善され、バーチャル建物によるバーチャルオブジェクトの視野に対する妨害が減少し、関連技術で表示される建物が視聴者の視覚を妨害するという技術的問題を解決できる。
本出願の実施例は、さらに、記憶媒体を提供し、当該記憶媒体にコンピュータプログラムが記憶され、当該コンピュータプログラムは、実行される場合、上記のいずれかの方法実施例におけるステップを実行するように構成される。
好ましくは、本実施例では、上記の記憶媒体は、次のステップを実行するためのコンピュータプログラムを記憶するように構成される。即ち、クライアントによって表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得するステップと、マップシーンにおけるターゲット位置を中心とする所定の範囲にバーチャル建物が存在する場合、バーチャル建物の表示高さを低下させることによって、バーチャル建物の第1のターゲット表示形状を取得するステップと、バーチャル建物の第1のターゲット表示形状をマップシーンに表示するステップと、を含む。
好ましくは、記憶媒体は、更に、次のステップを実行するためのコンピュータプログラムを記憶するように構成される。即ち、クライアントを実行する端末におけるCPUによって、マップシーンのメッシュにおけるバーチャル建物の頂点の現在高さを取得し、メッシュはバーチャル建物の頂点の空間位置データを記録し、空間位置データはバーチャル建物の頂点の現在高さを含み、空間位置データのうちバーチャル建物の頂点の現在高さをターゲット高さに調整し、更新後の空間位置データを取得し、なお、ターゲット高さが現在高さより低く、バーチャル建物の頂点の更新後の空間位置データを端末におけるグラフィックスプロセッサーに送信して描画し、描画済みの画像を取得し、マップシーンに、第1の動画の1つのフレーム画面である描画済みの画像を表示する。
好ましくは、記憶媒体は、更に、次のステップを実行するためのコンピュータプログラムを記憶するように構成される。即ち、マップシーンからバーチャルオブジェクトのターゲット位置を取得し、バーチャルオブジェクトは、実環境におけるモバイル端末を表し、マップシーンにおけるバーチャルオブジェクトのターゲット位置は、実環境におけるモバイル端末の位置を表し、マップシーンにおけるバーチャル建物は、実環境における対応する実建物を表す。
好ましくは、記憶媒体は、更に、次のステップを実行するためのコンピュータプログラムを記憶するように構成される。即ち、バーチャルオブジェクトを示すためのモバイル端末の実環境における位置を取得することと、実環境におけるモバイル端末の位置をクライアントに表示されるマップシーンにマッピングした位置を、バーチャルオブジェクトのターゲット位置とすることとを含む。
好ましくは、記憶媒体は、更に、次のステップを実行するためのコンピュータプログラムを記憶するように構成される。即ち、バーチャルオブジェクトがマップシーンにおいて移動し、バーチャル建物がバーチャルオブジェクトの移動後のターゲット位置を中心とする所定の範囲内にない場合、バーチャル建物の表示高さを増加し、バーチャル建物の第2のターゲット表示形状を取得し、バーチャル建物の第2のターゲット表示形状をマップシーンに表示する。
好ましくは、記憶媒体は、上記の実施例に係る方法に含まれるステップを実行するためのコンピュータプログラムを記憶するように構成される。本実施例では繰り返さない。
好ましくは、本出願の実施例は、さらに、指令を含むコンピュータプログラム製品を提供し、コンピュータで実行される場合、コンピュータに上記の実施例によって提供される方法を実行させる。
好ましくは、本実施例では、上記の実施例に係る各種方法におけるステップの全て又は一部が、プログラムによって端末デバイスに関連するハードウェアに指示して完成でき、当該プログラムがコンピュータ読み取り可能な記憶媒体に記憶され、記憶媒体には、フラッシュメモリディスク、読み取り専用メモリ(Read-Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク又は光ディスクなどが含まれる。
上記の実施例における集積ユニットがソフトウェア機能ユニットの形で実現され、独立した製品として販売又は使用される場合、上記のコンピュータ読み取り可能な記憶媒体に記憶されてもよい。このような理解に基づいて、本出願の技術案は、本質的に、又は先行技術に寄与する一部、又は当該技術案の全て又は一部は、ソフトウェア製品の形で具現化することができる。当該コンピュータソフトウェア製品は、記憶媒体に記憶され、一つ又は複数のコンピュータデバイス(パーソナルコンピュータ、サーバー、又はネットワークデバイスなどであり得る)に本出願の各実施例に記載の方法のステップの全て又は一部を実行させるように、いくつかの指令を含む。
上記の本出願の実施例では、各実施例に対する説明にそれぞれ重点があり、ある実施例において詳細に説明されていない部分については、他の実施例の関連説明を参照できる。
本出願によって提供されるいくつかの実施例では、開示のクライアントは、他の方式で実現できる。なお、上記の装置の実施例は単なる例示であり、例えば前記ユニットの分割は、論理機能の分割に過ぎず、実際の実現に他の分割方式もあり得る。例えば、複数のユニット又はコンポーネントは組み合わせたり、他のシステムに集積したり、一部の特徴を省略したり、実行しないことができる。また、表示又は議論の相互結合又は直接結合又は通信接続は、インターフェース、ユニット又はモジュールを介した間接結合又は通信接続であってもよく、電気的または他の形態であってもよい。
前記の分割部材として説明したユニットは、物理的に分割されてもされなくてもよい。ユニットとして表示した部材は、物理的なユニットであってもなくてもよい。即ち、1つの場所にあってもよく、複数のネットワークユニットに分散されてもよい。実際の必要に応じて、一部又は全てユニットを選択して本実施例の技術案の目的を実現してもよい。
また、本出願の各実施例における各機能ユニットは、1つの処理ユニットに集積されてもよく、各ユニットは物理的に単独で存在してもよく、2つ以上のユニットが1つのユニットに集積されてもよい。上記の集積されたユニットは、ハードウェアの形で実現されてもよく、ソフトウェア機能ユニットの形で実現されてもよい。
以上は、本出願の好ましい実施方式に過ぎず、本出願の原理から逸脱することなく、改良および修正を行うことができ、これらの改良および修正もまた、本出願の保護範囲と見なされるべきである。

Claims (17)

  1. 電子装置が実行する画像表示方法であって、
    前記電子装置が、クライアントに表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得するステップと、
    前記電子装置が、前記マップシーンにおいて前記ターゲット位置を中心とする所定の範囲内に位置し、且つ低いオブジェクトを遮蔽するバーチャル建物が存在する場合、前記バーチャル建物の表示高さを低下させることによって、前記バーチャル建物の第1のターゲット表示形状を取得するステップと、
    前記電子装置が、前記バーチャル建物の前記第1のターゲット表示形状を前記マップシーンに表示するステップと、
    を含むことを特徴とする方法。
  2. 前記バーチャルオブジェクトは、前記マップシーンにおいて移動することが許可されるように構成されることを特徴とする請求項1に記載の方法。
  3. 前記バーチャルオブジェクトは、実環境におけるモバイル端末を表し、
    前記マップシーンにおける前記バーチャルオブジェクトの前記ターゲット位置は、前記実環境における前記モバイル端末の位置を表し、
    前記マップシーンにおける前記バーチャル建物は、前記実環境における対応する実建物を表すことを特徴とする請求項1又は2に記載の方法。
  4. 前記バーチャルオブジェクトは、前記モバイル端末の前記実環境における移動に追従して前記マップシーンにおいて移動することが許可されるように構成されることを特徴とする請求項3に記載の方法。
  5. 前記電子装置が、クライアントに表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得するステップは、
    前記電子装置が、前記バーチャルオブジェクトを表すためのモバイル端末の実環境における位置を取得するステップと、
    前記電子装置が、実環境における前記モバイル端末の位置を前記クライアントに表示されるマップシーンにマッピングした位置を、前記バーチャルオブジェクトの前記ターゲット位置とするステップと、
    を含むことを特徴とする請求項1から4のいずれかの一項に記載の方法。
  6. 前記第1のターゲット表示形状は、フラットな形状を含み、
    前記電子装置が、前記バーチャル建物の表示高さを低下させることによって、前記バーチャル建物の第1のターゲット表示形状を取得するステップは、
    前記電子装置が、前記バーチャル建物の表示高さを低下させることによって、前記マップシーンで前記バーチャル建物の表示形状をフラットな形状に調整するステップを、
    含むことを特徴とする請求項1から5のいずれかの一項に記載の方法。
  7. 前記電子装置が、前記バーチャル建物の前記第1のターゲット表示形状を前記マップシーンに表示するステップは、
    前記電子装置が、前記マップシーンにおいて、前記バーチャル建物の表示高さが徐々に減少することを示すための第1の動画を再生するステップと、
    前記電子装置が、前記第1の動画の再生を終了してから、前記マップシーンにおいて前記バーチャル建物の第1のターゲット表示形状を表示するステップと、
    を含むことを特徴とする請求項1から6のいずれかの一項に記載の方法。
  8. 前記第1の動画におけるいずれかのフレーム画面は、
    前記電子装置が、前記クライアントが実行される端末におけるCPUによって、前記マップシーンのメッシュにおける前記バーチャル建物の頂点の現在高さを取得するステップであって、前記メッシュは前記バーチャル建物の頂点の空間位置データを記録し、前記空間位置データは前記バーチャル建物の頂点の現在高さを含む、ステップと、
    前記電子装置が、前記空間位置データにおける前記バーチャル建物の頂点の前記現在高さをターゲット高さに調整し、更新後の空間位置データを取得するステップであって、前記ターゲット高さは前記現在高さより低い、ステップと、
    前記電子装置が、前記バーチャル建物の頂点の前記更新後の空間位置データを前記端末におけるグラフィックスプロセッサーに送信して描画し、描画済みの画像を前記第1の動画の1つのフレーム画面として取得するステップと、
    により決定される
    ことを特徴とする請求項7に記載の方法。
  9. 前記電子装置が、前記マップシーンに前記バーチャル建物の前記第1のターゲット表示形状を表示した後、
    前記バーチャルオブジェクトが前記マップシーンにおいて移動し、且つ前記バーチャル建物が前記バーチャルオブジェクトの移動後のターゲット位置を中心とする所定の範囲内にない場合、前記電子装置が前記バーチャル建物の表示高さを増加させることによって、前記バーチャル建物の第2のターゲット表示形状を取得するステップと、
    前記電子装置が、前記マップシーンに前記バーチャル建物の前記第2のターゲット表示形状を表示するステップと、
    をさらに含むことを特徴とする請求項1から8のいずれかの一項に記載の方法。
  10. 前記電子装置が、前記マップシーンに前記バーチャル建物の前記第2のターゲット表示形状を表示するステップは、
    前記電子装置が、前記マップシーンにおいて前記バーチャル建物の表示高さが徐々に増加することを示すための第2の動画を再生するステップと、
    前記電子装置が、前記第2の動画の再生を終了してから、前記マップシーンにおいて前記バーチャル建物の前記第2のターゲット表示形状を表示するステップと、
    を含むことを特徴とする請求項9に記載の方法。
  11. 画像表示装置であって、
    クライアントに表示されるマップシーンから、バーチャルオブジェクトのターゲット位置を取得する取得ユニットと、
    前記マップシーンにおいて前記ターゲット位置を中心とする所定の範囲内に位置し、且つ低いオブジェクトを遮蔽するバーチャル建物が存在する場合、前記バーチャル建物の表示高さを低下させることによって、前記バーチャル建物の第1のターゲット表示形状を取得する処理ユニットと、
    前記バーチャル建物の前記第1のターゲット表示形状を前記マップシーンに表示する表示ユニットと、
    を含むことを特徴とする装置。
  12. 前記処理ユニットは、前記バーチャル建物の表示高さを低下させることによって、前記マップシーンで前記バーチャル建物の表示形状をフラットな形状に調整することを特徴とする請求項11に記載の装置。
  13. 前記表示ユニットは、
    前記マップシーンにおいて、前記バーチャル建物の表示高さが徐々に減少することを示すための第1の動画を再生し、
    前記第1の動画の再生を終了してから、前記バーチャル建物の前記第1のターゲット表示形状を前記マップシーンに表示することを特徴とする請求項11又は12に記載の装置。
  14. 前記第1の動画におけるいずれかのフレーム画面について、前記処理ユニットは、
    前記クライアントが実行される端末におけるCPUによって、前記マップシーンのメッシュにおける前記バーチャル建物の頂点の現在高さを取得する取得モジュールであって、前記メッシュは前記バーチャル建物の頂点の空間位置データを記録し、前記空間位置データは前記バーチャル建物の頂点の現在高さを含む、取得モジュールと、
    前記空間位置データにおける前記バーチャル建物の頂点の前記現在高さをターゲット高さに調整し、更新後の空間位置データを取得する調整モジュールであって、前記ターゲット高さは前記現在高さより低い、調整モジュールと、
    前記バーチャル建物の頂点の前記更新後の空間位置データを前記端末におけるグラフィックスプロセッサーに送信して描画し、描画済みの画像を前記第1の動画の1つのフレーム画面として取得する描画モジュールと、を含むことを特徴とする請求項13に記載の装置。
  15. 記憶媒体であって、
    前記記憶媒体にコンピュータプログラムが記憶され、前記コンピュータプログラムは、請求項1から10のいずれかの一項に記載の方法を実行するように構成される
    ことを特徴とする記憶媒体。
  16. メモリとプロセッサーとを含む電子装置であって、
    前記メモリにコンピュータプログラムが記憶され、前記プロセッサーは前記コンピュータプログラムによって請求項1から10のいずれかの一項に記載の方法を実行するように構成される
    ことを特徴とする電子装置。
  17. 指令を含むコンピュータプログラムであって、
    コンピュータで実行される場合、前記コンピュータに請求項1から10のいずれかの一項に記載の方法を実行させることを特徴とするコンピュータプログラム。
JP2020561767A 2018-11-12 2019-10-24 画像表示方法及びその装置、記憶媒体、電子装置、並びにコンピュータプログラム Active JP7112516B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811340566.3 2018-11-12
CN201811340566.3A CN109685909B (zh) 2018-11-12 2018-11-12 图像的显示方法、装置、存储介质和电子装置
PCT/CN2019/112901 WO2020098465A1 (zh) 2018-11-12 2019-10-24 图像的显示方法、装置、存储介质和电子装置

Publications (2)

Publication Number Publication Date
JP2021523445A JP2021523445A (ja) 2021-09-02
JP7112516B2 true JP7112516B2 (ja) 2022-08-03

Family

ID=66185732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020561767A Active JP7112516B2 (ja) 2018-11-12 2019-10-24 画像表示方法及びその装置、記憶媒体、電子装置、並びにコンピュータプログラム

Country Status (5)

Country Link
US (1) US11158291B2 (ja)
EP (1) EP3882870B1 (ja)
JP (1) JP7112516B2 (ja)
CN (1) CN109685909B (ja)
WO (1) WO2020098465A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685909B (zh) * 2018-11-12 2022-12-20 腾讯科技(深圳)有限公司 图像的显示方法、装置、存储介质和电子装置
CN110248381B (zh) * 2019-07-08 2021-04-02 腾讯科技(深圳)有限公司 定位数据处理方法、装置、计算机设备及存储介质
CN110478901B (zh) * 2019-08-19 2023-09-22 Oppo广东移动通信有限公司 基于增强现实设备的交互方法及系统
CN113804195A (zh) * 2020-06-15 2021-12-17 阿里巴巴集团控股有限公司 信息处理方法及设备和室内地图定位方法及设备
CN112402974A (zh) * 2020-11-23 2021-02-26 成都完美时空网络技术有限公司 游戏场景的显示方法和装置、存储介质和电子设备
CN112386911A (zh) * 2020-12-08 2021-02-23 网易(杭州)网络有限公司 导航网格生成方法、装置、非易失性存储介质及电子装置
CN112684885B (zh) * 2020-12-25 2023-05-02 联想(北京)有限公司 一种显示控制方法及装置
CN113318441A (zh) * 2021-05-26 2021-08-31 网易(杭州)网络有限公司 游戏场景的显示控制方法及装置、电子设备、存储介质
CN113413593A (zh) * 2021-07-20 2021-09-21 网易(杭州)网络有限公司 一种游戏画面显示方法、装置、计算机设备及存储介质
CN113674435A (zh) * 2021-07-27 2021-11-19 阿里巴巴新加坡控股有限公司 图像处理方法、电子地图展示方法、装置及电子设备
CN113713385B (zh) * 2021-09-14 2023-06-27 腾讯科技(深圳)有限公司 虚拟道具控制方法、装置、设备、介质及计算机程序产品
CN114546575A (zh) * 2022-02-25 2022-05-27 阿波罗智联(北京)科技有限公司 对象显示方法、装置、设备、存储介质以及程序产品
CN116603239B (zh) * 2023-07-20 2023-10-03 腾讯科技(深圳)有限公司 数据处理方法、装置及相关设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000221876A (ja) 1999-01-29 2000-08-11 Hitachi Ltd 立体地図表示方法およびナビゲーション装置
JP2000321974A (ja) 1999-05-12 2000-11-24 Denso Corp 地図表示装置
US20150354979A1 (en) 2013-01-10 2015-12-10 Volkswagen Ag Navigation Device for a Movable Object and Method for Generating a Display Signal for a Navigation Device for a Movable Object

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4715353B2 (ja) * 2005-07-19 2011-07-06 株式会社セガ 画像処理装置、描画方法および描画プログラム
US20150170418A1 (en) * 2012-01-18 2015-06-18 Google Inc. Method to Provide Entry Into a Virtual Map Space Using a Mobile Device's Camera
US9230556B2 (en) * 2012-06-05 2016-01-05 Apple Inc. Voice instructions during navigation
US9182243B2 (en) * 2012-06-05 2015-11-10 Apple Inc. Navigation application
US20140071119A1 (en) * 2012-09-11 2014-03-13 Apple Inc. Displaying 3D Objects in a 3D Map Presentation
US20140267282A1 (en) * 2013-03-14 2014-09-18 Robert Bosch Gmbh System And Method For Context Dependent Level Of Detail Adjustment For Navigation Maps And Systems
CA2903453A1 (en) * 2013-03-15 2014-09-25 Nextnav, Llc Systems and methods for using three-dimensional location information to improve location services
CN104075719A (zh) * 2013-03-26 2014-10-01 高德信息技术有限公司 一种三维导航方法和装置
EP3044950A4 (en) * 2013-09-12 2017-05-17 Intel Corporation Techniques for providing an augmented reality view
JP6576874B2 (ja) * 2016-04-08 2019-09-18 任天堂株式会社 画像処理装置、画像処理システムおよび画像処理方法
CN106873159A (zh) * 2017-02-27 2017-06-20 阿里巴巴集团控股有限公司 虚拟现实头戴设备
CN109685909B (zh) * 2018-11-12 2022-12-20 腾讯科技(深圳)有限公司 图像的显示方法、装置、存储介质和电子装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000221876A (ja) 1999-01-29 2000-08-11 Hitachi Ltd 立体地図表示方法およびナビゲーション装置
JP2000321974A (ja) 1999-05-12 2000-11-24 Denso Corp 地図表示装置
US20150354979A1 (en) 2013-01-10 2015-12-10 Volkswagen Ag Navigation Device for a Movable Object and Method for Generating a Display Signal for a Navigation Device for a Movable Object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Maciek Janicki,PaperCity,vimeo[video][online],2013年,https://vimeo.com/67658001,00:00~01:00

Also Published As

Publication number Publication date
EP3882870A1 (en) 2021-09-22
CN109685909A (zh) 2019-04-26
EP3882870B1 (en) 2023-07-19
US11158291B2 (en) 2021-10-26
CN109685909B (zh) 2022-12-20
EP3882870A4 (en) 2021-09-29
US20210074245A1 (en) 2021-03-11
EP3882870C0 (en) 2023-07-19
WO2020098465A1 (zh) 2020-05-22
JP2021523445A (ja) 2021-09-02

Similar Documents

Publication Publication Date Title
JP7112516B2 (ja) 画像表示方法及びその装置、記憶媒体、電子装置、並びにコンピュータプログラム
US11826649B2 (en) Water wave rendering of a dynamic object in image frames
US20170084084A1 (en) Mapping of user interaction within a virtual reality environment
KR101623288B1 (ko) 렌더링 시스템, 렌더링 서버, 그 제어 방법, 및 기록 매체
JP7387758B2 (ja) インタフェース表示方法、装置、端末、記憶媒体及びコンピュータプログラム
CN109102560B (zh) 三维模型渲染方法及装置
WO2022083452A1 (zh) 虚拟对象的二维形象展示方法、装置、设备及存储介质
CN111111167B (zh) 游戏场景中的音效播放方法和装置、电子装置
JP6802393B2 (ja) 中心窩レンダリングシステムにおける、遅延ライティングの最適化、パーティクルの中心窩適応、及びシミュレーションモデル
US20140100839A1 (en) Method for controlling properties of simulated environments
CN106604014A (zh) 一种基于移动终端vr观影多人互动的方法及其系统
US11647244B2 (en) Providing visual guidance for presenting visual content in a venue
CN113952720A (zh) 游戏场景渲染方法、装置、电子设备及存储介质
JP2023549753A (ja) マーク処理方法及び装置、コンピュータ機器、並びにコンピュータプログラム
CN112435348A (zh) 一种浏览赛事活动虚拟场馆的方法及装置
US20190035134A1 (en) Image processing methods and devices
CN112231020B (zh) 模型切换方法和装置、电子设备和存储介质
CN105243268A (zh) 一种游戏地图定位方法、装置及用户终端
CN116501209A (zh) 编辑视角的调整方法、装置、电子设备及可读存储介质
CA2924696C (en) Interactive haptic system for virtual reality environment
CN113542846B (zh) Ar弹幕显示方法及装置
WO2023216771A1 (zh) 虚拟天气交互方法、装置、电子设备、计算机可读存储介质及计算机程序产品
US11511190B2 (en) Merge computer simulation sky box with game world
US11684852B2 (en) Create and remaster computer simulation skyboxes
US12011662B2 (en) Interface display method, apparatus, terminal, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220722

R150 Certificate of patent or registration of utility model

Ref document number: 7112516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150