JP7270760B2 - 画像レンダリング方法、装置、機器及びコンピュータプログラム - Google Patents

画像レンダリング方法、装置、機器及びコンピュータプログラム Download PDF

Info

Publication number
JP7270760B2
JP7270760B2 JP2021555825A JP2021555825A JP7270760B2 JP 7270760 B2 JP7270760 B2 JP 7270760B2 JP 2021555825 A JP2021555825 A JP 2021555825A JP 2021555825 A JP2021555825 A JP 2021555825A JP 7270760 B2 JP7270760 B2 JP 7270760B2
Authority
JP
Japan
Prior art keywords
image
rendering
illustration
value
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021555825A
Other languages
English (en)
Other versions
JP2022524889A (ja
Inventor
治良 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022524889A publication Critical patent/JP2022524889A/ja
Application granted granted Critical
Publication of JP7270760B2 publication Critical patent/JP7270760B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6692Methods for processing data by generating or executing the game program for rendering three dimensional images using special effects, generally involving post-processing, e.g. blooming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

本願は2019年09月11日に中国特許局に提出された、出願番号が201910859321.Xであり、名称が「画像レンダリング方法、装置、機器及び記憶媒体」である中国特許出願の優先権を主張し、その全てが参照によって本願に組み込まれる。
本願は画像処理分野に関し、特に画像レンダリング技術に関する。
現在、対応するインタラクションサービスを画像の形式でユーザに提供するアプリケーションが多くあり、画像の形式でユーザにインタラクションサービスを提供する際に、ユーザの関心を画面に引き付け、ユーザの没入感を高めるために、異なる画面効果を実現する様々なイラストを重畳させて画像レンダリングを行うことが多い。
一般的には、描画対象場面に対して1枚の基礎画像を指定し、この基礎画像を分割してN個の基礎画像ブロックを得て、ビューポートの大きさに応じて対応する目標基礎画像ブロックを描画しており、同様に、他の画面効果を有する各画像、即ち効果イラストに対しても分割によってN個の対応する効果イラストブロックを得て、ビューポートの大きさに応じて対応する効果イラストブロックを目標基礎画像上にそれぞれ重畳させて描画して最終の効果を実現している。
このような画像レンダリング方法は、基礎画像及び各効果イラストのいずれかに対してもブロック毎に単独で描画する必要があり、描画回数は効果イラスト数及びブロック数の増加に伴い線形的に増加し、描画回数が多いほど、プロセッサリソースを占有する時間が長くなり、それによりプロセッサの処理性能に影響を及ぼし、明らかに、この起因で画像レンダリングの効率低下になり、画像のインタラクションに基づくアプリケーションの応答速度もそれに応じて低下してしまう。
本願の実施例は画像レンダリング方法、装置、機器及び記憶媒体を提供し、画像レンダリング中の描画回数を効果的に低減し、画像レンダリングの効率を高めることができる。
そこで、本願の第1態様は画像レンダリング方法を提供し、
レンダリング対象画面における指定された基礎画像を取得するステップと、
前記基礎画像に対応する画面効果指示配列を取得するステップであって、前記画面効果指示配列に前記基礎画像の画素位置に対応する画面効果指示値が含まれるステップと、
前記基礎画像を機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得るステップと、
前記画面効果指示配列に基づいて前記基礎テクスチャイラストに対して色のレンダリングを行うステップと、を含む。
本願の第2態様は画像レンダリング装置を提供し、
レンダリング対象画面における指定された基礎画像を取得するように構成される第1取得モジュールと、
前記基礎画像に対応する画面効果指示配列を取得するように構成される第2取得モジュールであって、前記画面効果指示配列に前記基礎画像の画素位置に対応する画面効果指示値が含まれる第2取得モジュールと、
前記基礎画像を機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得るように構成される第1レンダリングモジュールと、
前記画面効果指示配列に基づいて前記基礎テクスチャイラストに対して色のレンダリングを行うように構成される第2レンダリングモジュールと、を含む。
本願の第3態様は端末機器を提供し、
中央処理ユニット、グラフィックス処理ユニット、メモリ及びディスプレイを含み、
前記メモリはコンピュータプログラムを記憶するために用いられ、
前記中央処理ユニットは前記コンピュータプログラムを実行し、画面レンダリングが必要な場合にコンピュータプログラムを実行するように前記グラフィックス処理ユニットを制御して第1態様に記載の画像レンダリング方法を実現するために用いられ、
前記ディスプレイは前記グラフィックス処理ユニットの制御下で画像画面を表示するために用いられる。
本願の第4態様は、上記第1態様に記載の画像レンダリング方法を実行するためのプログラムコードを記憶するためのコンピュータ可読記憶媒体を提供する。
本願の第5態様は、コンピュータ上で作動すると前記コンピュータに上記第1態様に記載の画像レンダリング方法を実行させる、命令を含むコンピュータプログラム製品を提供する。
以上の技術的解決手段から分かるように、本願の実施例は以下の利点を有する。
本願の実施例は画像レンダリング方法を提供し、該方法は画像中の陰影、ハイライト、遮蔽等の効果を総合的に考慮し、画像における各画素位置に応じてその最終的な色表示効果を表すことが可能な画面効果指示値を特定し、各画素位置に対応する画面効果指示値で画面効果指示配列を構成し、画像をレンダリングする際に、レンダリング対象画面における指定された基礎画像及び該基礎画像に対応する画面効果指示配列を取得し、基礎画像を機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングして基礎テクスチャイラストを得てから、取得された画面効果指示配列で該基礎テクスチャイラストにおける画素値を調整し、さらに調整後の画素値に基づいて画像レンダリングを遂行する。基礎テクスチャイラストを基にして各効果画像を重畳させてレンダリングするという関連技術における画像レンダリング方法に比べ、本願の実施例により提供される画像レンダリング方法は、画面効果指示配列で基礎テクスチャイラストにおける画素値を調整し、画面表示効果の追加を実現し、効果イラスト毎にレンダリングするプロセスを省略し、それに応じて画像レンダリングに必要な計算リソースも節約し、画像レンダリングの効率を効果的に高める。
本願の実施例により提供される画像レンダリング方法の応用場面の模式図である。 本願の実施例により提供される画像レンダリング方法のフローチャートである。 本願の実施例により提供される画像レンダリング方法の原理図である。 本願の実施例により提供される画像レンダリング方法を用いてレンダリングしたゲーム画面である。 本願の実施例により提供される画像レンダリング装置の構成図である。 本願の実施例により提供される別の画像レンダリング装置の構成図である。 本願の実施例により提供されるさらに別の画像レンダリング装置の構成図である。 本願の実施例により提供される端末機器の構成図である。
本願の解決手段を当業者により好適に理解させるために、以下において本願の実施例における図面を参照しながら、本願の実施例における技術的解決手段を明確に、完全に説明し、当然ながら、説明される実施例は本願の実施例の一部に過ぎず、全ての実施例ではない。本願における実施例に基づき、当業者が創造的な労力を要することなく得られた他の全ての実施例は、いずれも本願の保護範囲に属するものとする。
本願の明細書及び特許請求の範囲並びに上記図面における用語「第1」、「第2」、「第3」、「第4」等(存在する場合)は、必ず特定の順序又は先後順序を記述するためのものではなく、類似する対象を区別するためのものである。このように使用されるデータは、ここで記述される本願の実施例がここで図示又は記述される以外の順序で実施できるように、適当な場合において互いに置き換えてもよいことを理解すべきである。また、「含む」及び「備える」という用語及びそれらのいかなる変形も、非排他的に含むことを意図し、例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品又は機器は、必ず明確に挙げられたステップ又はユニットに限定されるものではなく、さらに挙げられていない又はこれらのプロセス、方法、製品又は機器に固有の他のステップ又はユニットを含んでもよい。
関連技術における画像レンダリング方法を用いて画像レンダリングを行う際に、通常、画面背景画像を基にして、陰影、ハイライト、遮蔽等の効果イラストを重畳させてレンダリングする必要があり、このように各効果イラストを数回重畳させてレンダリングするには大量の計算リソースが消費され、それにより画像レンダリングの効率が低下し、また数回のレンダリングによって得られた効果イラストはある程度の記憶空間を無駄にしてしまう。
上記技術的課題に鑑みて、本願の実施例は画像レンダリング方法を提供し、該方法は画像中の陰影、ハイライト、遮蔽等の効果をまとめて、1組のデータ(即ち、画面効果指示配列)で画像における各画素位置の最終的な色効果値を表し、レンダリング対象画面に対して画像レンダリングを行う際に、該画面効果指示配列で基礎テクスチャイラストにおける画素値を調整し、該基礎テクスチャイラストは、レンダリング対象画面における指定された基礎画像を、機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングして得られたものであり、さらに、調整後の画素値に基づいてレンダリング対象画面に対して画像レンダリングを遂行する。このように、複数種類の効果イラストを数回レンダリングする必要がなく、画像レンダリングに必要な計算リソースが節約され、画像レンダリングの効率が効果的に高められ、また、数回にわたって各効果イラストを個々にレンダリングするプロセスが省略されるため、端末機器はそれに応じてレンダリング度に得られた効果イラストを記憶する必要もなくなり、ある程度の記憶空間が節約される。
なお、本願の実施例により提供される画像レンダリング方法は、画像処理機能を備える端末機器、例えばスマートフォン、コンピュータ、携帯情報端末(Personal Digital Assitant:PDAと略称)、タブレット等に適用可能であることを理解すべきである。
本願の実施例により提供される技術的解決手段を容易に理解できるように、以下において、本願の実施例により提供される画像レンダリング方法が適用する応用場面を説明する。
図1は本願の実施例により提供される画像レンダリング方法の応用場面の模式図である。図1に示すように、該応用場面は端末機器110及びサーバ120を含み、端末機器110とサーバ120はネットワークを介して通信し、サーバ120は端末機器110に、レンダリング対象画面における指定された基礎画像及び該基礎画像に対応する画面効果指示配列を提供するために用いられ、端末機器110は本願の実施例により提供される画像レンダリング方法を実行し、サーバ110により提供される基礎画像及びその対応する画面効果指示配列に基づき、スクリーン上にレンダリング対象画面をレンダリングして表示するために用いられる。
具体的には、端末機器110はユーザが関連動作をトリガしたことを検出した場合、サーバ120へ画像取得要求を送信することができる。サーバ120は、該画像取得要求を受信してから、該画像取得要求に基づいて端末機器110が現在レンダリングしようとするレンダリング対象画面を特定し、且つ該レンダリング対象画面における指定された基礎画像及び該基礎画像に対応する画面効果指示配列を特定し、該画面効果指示配列は基礎画像の画素位置に対応する画面効果指示値を含み、さらに、特定した基礎画像及び該基礎画像に対応する画面効果指示配列を端末機器110に送信する。
端末機器110はサーバ120から送信された基礎画像及びその対応する画面効果指示配列を受信してから、該基礎画像を自身のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得て、さらに、受信した画面効果指示配列内の画面効果指示値で、基礎テクスチャイラストにおける画素値を対応的に調整し、レンダリング対象画面の最終的な色表示効果に対応する画素値を得て、最後に、調整後の画素値に基づいて画像レンダリングを遂行し、陰影、ハイライト、遮蔽等の表示効果が重畳して表示されている画像を得る。
このように、各効果イラストをレンダリングするプロセスが省略され、画像レンダリングに必要な計算リソースが節約され、画像レンダリングの効率が大幅に高められる。
なお、図1に示す応用場面は例示に過ぎず、実際の応用において、端末機器自体はレンダリング対象画面における指定された基礎画像及びその対応する画面効果指示配列を記憶し、直接その記憶した基礎画像及びその対応する画面効果指示配列に基づいて画像レンダリングを遂行することができ、サーバと通信する必要がないことを理解すべきである。ここで本願の実施例により提供される画像レンダリング方法が適用する応用場面を何らの限定を行わない。
以下において、本願により提供される画像レンダリング方法を実施例により説明する。
図2は本願の実施例により提供される画像レンダリング方法のフローチャートである。図2に示すように、該画像レンダリング方法は以下のステップを含む。
ステップ201では、レンダリング対象画面における指定された基礎画像を取得する。
実際の応用において、端末機器は、ユーザがレンダリング対象画面をレンダリングして表示するように制御するための指定操作をトリガしたことを検出した場合、それに応じてレンダリング対象画面における指定された基礎画像を取得する。
説明すべきこととして、上記基礎画像とは、レンダリング表示対象画面における固定の画面背景画像である。異なる応用場面において、対応的に異なるタイプの背景画像を基礎画像とすることができ、例えば、ゲーム画面をレンダリングする場面において、レンダリング対象のゲーム画面で指定された場面地図を基礎画像とすることができ、本願はここで基礎画像のタイプを何ら限定しない。
可能な一実施形態において、端末機器はサーバと通信し、サーバからレンダリング対象画面における指定された基礎画像を取得することができる。具体的には、端末機器はユーザが指定操作をトリガしたことを検出すると、それに応じてサーバへ画像取得要求を送信し、サーバは該画像取得要求を受信してから、該画像取得要求に基づいて端末機器が現在レンダリングしようとするレンダリング対象画面を特定し、該レンダリング対象画面における指定された基礎画像を端末機器に返信するようにしてもよい。
本願の実施例により提供される画像レンダリング方法をゲーム場面に適用することを例にし、端末機器はユーザがゲームインタフェースの遷移操作をトリガしたことを検出した場合、それに応じてサーバへ画像取得要求を送信し、サーバは該画像取得要求を受信してから、該画像取得要求に基づいて現在レンダリングしようとするレンダリング対象のゲームインタフェース(即ち、ゲームインタフェースの遷移操作をトリガした後に表示すべきであるゲームインタフェース)を特定し、該ゲームインタフェースで指定された場面地図を基礎画像として取得し、さらに端末機器へ該基礎画像を返信する。
別の可能な実施形態において、端末機器は自身の記憶したデータから、現在レンダリング対象画面における指定された基礎画像を読み取ることができる。具体的には、端末機器は、自身のメモリで複数の画面に対応する基礎画像を記憶し、ユーザがある画面を表示することをトリガしたことを検出すると、それに応じて自身のメモリから該画面で指定された基礎画像を読み取るようにしてもよい。
また本願の実施例により提供される画像レンダリング方法をゲーム場面に適用することを例にし、端末機器が現在レンダリング表示対象のゲームインタフェースに対応する基礎画像をバッファしている場合、端末機器はユーザが該ゲームインタフェースを表示する操作をトリガしたことを検出すると、直接自身のバッファから該ゲームインタフェースで指定された基礎画像を読み取ることができる。
なお、基礎画像を取得する上記方式は例示に過ぎず、実際の応用において、端末機器は他の方式で基礎画像を取得してもよく、ここで端末機器が基礎画像を取得する方式に対して何らの限定も行わないことを理解すべきである。
ステップ202では、前記基礎画像に対応する画面効果指示配列を取得し、前記画面効果指示配列に前記基礎画像の画素位置に対応する画面効果指示値が含まれる。
端末機器はユーザが該レンダリング対象画面をレンダリングして表示するための指定操作をトリガしたことを検出すると、該レンダリング対象画面における指定された基礎画像を取得する必要以外に、該基礎画像に対応する画面効果指示配列を取得する必要もある。該画面効果指示配列には基礎画像の画素位置に対応する画面効果指示値が含まれる。
説明すべきこととして、画面効果指示配列内の画面効果指示値は、レンダリング対象画面内の陰影、ハイライト、遮蔽等の表示効果を総合的に考慮して特定される。画面効果指示値が透明度を示す赤色(red:Rと略称)チャネル値、ハイライトの輝度を示す緑色(green:Gと略称)チャネル値及び陰影度を示す青色(blue:Bと略称)チャネル値を含むことを例にし、レンダリング対象画面内の遮蔽を必要とする領域に対して、対応する位置の画面効果指示値におけるRチャネル値を0より大きい値として設定することができ、遮蔽物の透明度が低いほど、Rチャネル値が小さい。レンダリング対象画面内のハイライト表示を必要とする領域に対して、対応する位置の画面効果指示値におけるGチャネル値を0より大きい値として設定することができ、ハイライトの輝度が高いほど、Gチャネル値が大きい。レンダリング対象画面内の陰影に覆われる領域に対して、対応する位置の画面効果指示値におけるBチャネル値を0より大きい値として設定することができ、陰影が暗いほど、Bチャネル値が大きい。
可能な一実施形態において、端末機器はサーバと通信し、サーバから基礎画像に対応する画面効果指示配列を取得することができる。具体的には、端末機器は、ユーザが指定操作をトリガしたことを検出すると、サーバへ画像取得要求を送信し、サーバに、レンダリング対象画面における指定された基礎画像及び該基礎画像に対応する画面効果指示配列を同時に提供するように要求し、さらに、サーバが該画像取得要求に応答して返信した基礎画像及び基礎画像に対応する画面効果指示配列を受信するようにしてもよい。
当然ながら、実際の応用において、端末機器は、まずサーバから基礎画像を取得し、次に該基礎画像に基づいてサーバへ画面効果指示配列取得要求を送信し、サーバに、該基礎画像に対応する画面効果指示配列を提供するように要求し、さらに、サーバが該画面効果指示配列取得要求に応答して返信した画面効果指示配列を受信するようにしてもよい。
別の可能な実施形態において、端末機器は自身の記憶したデータから、基礎画像に対応する画面効果指示配列を読み取ることができる。具体的には、端末機器は自身のメモリで複数の基礎画像及びその対応する画面効果指示配列を記憶し、ユーザが指定操作をトリガしたことを検出すると、自身のメモリから基礎画像及びその対応する画面効果指示配列を同時に読み取るようにしてもよい。
当然ながら、実際の応用において、端末機器は、まずメモリからレンダリング対象画面における指定された基礎画像を読み取り、次に基礎画像と画面効果指示配列との対応関係に基づき、そのメモリから該基礎画像に対応する画面効果指示配列を読み取るようにしてもよい。
なお、基礎画像に対応する画面効果指示配列を取得する上記方式は例示に過ぎず、実際の応用において、端末機器は他の方式で画面効果指示配列を取得してもよく、ここで端末機器が画面効果指示配列を取得する方式に対して何らの限定も行わないことを理解すべきである。
選択的に、画像レンダリングの効率をさらに高めるために、端末機器は画像形式の画面効果指示配列を取得し、それによってグラフィックス処理ユニット(Graphics Processing Unit:GPUと略称)が基礎画像及び該画像形式の画面効果指示配列を同時に処理可能にすることができる。具体的には、端末機器は画面効果指示画像を取得し、該画面効果指示画像に画面効果指示配列が含まれ、さらに、該画面効果指示画像から各画素位置の画素値を読み取り、各画素位置の画素値に基づいて画面効果指示画像に対応する画面効果指示配列を生成する。つまり、前記画面効果指示画像に対応する画面効果指示配列は画面効果指示画像から読み取られる各画素位置の画素値を含む。
具体的に実施する際に、事前に画面作成によって画面効果指示画像を生成することができ、該画面効果指示画像を基礎画像と同じ大きさにすることができ、例えば、ゲーム場面において、画面効果指示画像の大きさをゲーム場面地図の大きさとしてもよい。その後、上記で説明した画面効果指示値を設定する方式に従い、該画面効果指示画像における画素値を設定し、つまり、遮蔽を必要とする領域に対してその対応する画素値におけるRチャネル値を0より大きくし、ハイライト表示を必要とする領域に対してその対応する画素値におけるGチャネル値を0より大きくし、陰影により覆われる領域に対してその対応する画素値におけるBチャネル値を0より大きくする。さらに、該画面効果指示画像を適切な大きさ、例えば1024*1024に縮小する。
続いて、該画面効果指示画像から各画素位置に対応する画素値、即ち、各画素位置における画素値におけるRチャネル値、Gチャネル値及びBチャネル値を読み取り、そして、各画素位置の分布状況に応じて、読み取られた各画素値で該画面効果指示画像に対応する画面効果指示配列を構成する。
ステップ203では、前記基礎画像を機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得る。
端末機器は基礎画像を取得してから、該基礎画像をフレームバッファ(FrameBuffer)に直接レンダリングするのではなく、該基礎画像を自身のスクリーンサイズに合致するレンダリングテクスチャ対象、例えばRendertextureにレンダリングし、該レンダリングテクスチャ対象はフレームバッファオブジェクト(Frame Buffer Object:FBOと略称)の1つであり、これによりレンダリングによって基礎テクスチャイラスト、即ち、基礎画像が表示されている基礎テクスチャイラストを得る。ゲーム場面において、該基礎テクスチャイラストは、ゲーム場面地図が表示されているイラストである。
説明すべきこととして、ゲーム画面をレンダリングする応用場面において、場面地図を機器のスクリーンに一致するレンダリングテクスチャ対象上にレンダリングして基礎テクスチャイラストを得る以外に、通常、物体画像を取得して、ポストプロセスの方式で取得される物体画像をレンダリングして物体イラストを得る必要もある。
なお、上記物体画像は、具体的にゲーム画面におけるプレイヤーの操るゲームキャラクタであってもよく、又はゲーム画面におけるシステムにより割り当てて設定されるゲームキャラクタであってもよく、ここで該物体画像に対応する対象を具体的に限定しないことを理解すべきである。端末機器が該物体画像を取得する具体的な方式は、上記で基礎画像を取得する方式及び画面効果指示配列を取得する方式に類似し、サーバと通信することで物体画像を取得してもよく、又は自身のバッファしたデータから物体画像を取得してもよく、ここで該物体画像を取得する方式に対して何らの限定も行わない。また、端末機器が取得した物体画像は1つであってもよく、又は複数であってもよく、ここで端末機器が取得した物体画像の数を何らの限定も行わない。
端末機器は物体画像を取得してから、ポストプロセスの方式で取得された物体画像をレンダリングし、レンダリング対象画面内の全ての物体画像に対するレンダリングを完了した後、機器のスクリーンサイズに合致する、全ての物体を含む物体イラストを得ることができる。
さらに、端末機器は、基礎画像をレンダリングして得られた基礎テクスチャイラストと、物体画像をレンダリングして得られた物体イラストとの色混合を行い、場面物体融合イラストを得る必要もある。具体的には、端末機器は、物体イラストのアルファチャネル(Alpha Channel)を重み値として、該重み値で物体イラストと基礎テクスチャイラストとに対して重み付け平均処理を行い、場面物体融合イラストを得るようにしてもよい。
基礎テクスチャイラストがイラストB、物体イラストがイラストC、両者に対して色混合を行って得られた場面物体融合イラストがイラストDであると仮定する。端末機器はイラストBとイラストCとに対して色融合を行う際に、式(1)によってイラストDにおける各画素値を算出することができる。
Drgb=Brgb*(1-Cα)+Crgb*Cα (1)
式中、BrgbはイラストBにおける画素値であり、CrgbはイラストCにおける画素値であり、DrgbはイラストDにおける画素値であり、CαはイラストCのアルファチャネル値である。
説明すべきこととして、毎回レンダリングする画像の面積が大きくなりすぎることを回避し、毎回のレンダリングに消費される計算リソースを低減するために、レンダリング対象画面における指定された基礎画像をN(Nは1以上の整数である)個の基礎画像ブロックに分割することができ、さらに、基礎画像をレンダリングして基礎テクスチャイラストを得る際に、N個の基礎画像ブロックから現在のビューポート範囲内に属する目標基礎画像ブロックを選択し、選択された目標基礎画像ブロックを機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得ることができる。
具体的には、端末機器は基礎画像を取得してから、予め設定された画像分割ルールに従って該基礎画像をN個の基礎画像ブロックに分割してもよい。基礎テクスチャイラストをレンダリングする際に、端末機器はまず自身の現在ビューポート範囲を特定し、さらに分割されたN個の基礎画像ブロックから該ビューポート範囲内にある基礎画像ブロックを、目標基礎画像ブロックとして選択し、さらに選択された目標基礎画像ブロックを機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得るようにしてもよい。
なお、端末機器が基礎画像を分割して得たN個の基礎画像ブロックはその大きさが同じであってもなくてもよく、ここで端末機器が採用する画像分割ルールを何らの限定も行わないことを理解すべきである。
ステップ204では、前記画面効果指示配列に基づいて前記基礎テクスチャイラストに対して色混合のレンダリングを行う。
端末機器はレンダリングによって基礎テクスチャイラストを得てから、ステップ202で取得した画面効果指示配列内の画面効果指示値で、基礎テクスチャイラストにおける各画素値を対応的に調整し、さらに調整後の画素値に基づいてレンダリング対象画面に対するレンダリングを遂行し、それにより機器スクリーン上に陰影、ハイライト、遮蔽等の表示効果が重畳されている画面を表示することができる。
画面効果指示値に透明度を示すRチャネル値、ハイライトの輝度を示すGチャネル値及び陰影度を示すBチャネル値が含まれる場合、端末機器は具体的に以下の方式でレンダリング対象画面に対するレンダリングを実現することができる。
画面効果指示値におけるBチャネル値を色強さ重み値として、基礎テクスチャイラストにおける各画素値を重み付けして対応する重み付け画素値を得て、画面効果指示値におけるGチャネル値をハイライト増量値として、基礎テクスチャイラストにおける各画素値に対して増量処理を行って対応する増量画素値を得て、画面効果指示値におけるRチャネル値を透明度重み値として、基礎テクスチャイラストにおける各増量画素値と基礎テクスチャイラストにおける各重み付け画素値とに対して重み付け平均処理を行ってレンダリング目標画素値を得て、最後に、レンダリング目標画素値に基づいて画面レンダリングを行う。
以下において、画面効果指示配列内の画面効果指示値がA、基礎テクスチャイラストがイラストBであると仮定して、レンダリング対象画面における各レンダリング目標画素値を特定する方式を説明する。AにおけるBチャネル値を色強さ重み値Abとして使用し、イラストBにおける対応する位置の画素値Brgbに対して重み付け処理を行い、重み付け画素値Ab*Brgbを得て、AにおけるGチャネル値をハイライト増量値Agとして使用し、イラストBにおける対応する位置の画素値Brgbに対して増量処理を行い、増量画素値Brgb+Agを得て、さらに、AにおけるRチャネル値を透明度重み値Arとして、式(2)に基づいて対応する重み付け画素値と増量画素値とに対して重み付け平均処理を行い、レンダリング目標画素値を得る。
(Brgb+Ag)*Ar+Brgb*Ab*(1-Ar) (2)
なお、実際の応用において、端末機器は上記方式でレンダリング対象画面における各レンダリング目標画素値を特定することができる以外に、他の方式で各レンダリング目標画素値を特定することもでき、本願はここでレンダリング目標画素値を特定する実施形態を何ら限定しないことを理解すべきである。
ステップ203で説明したとおり、本願の実施例により提供される画像レンダリング方法はゲーム画面をレンダリングする場面に応用される場合、基礎画像をレンダリングして基礎テクスチャイラストを得る以外に、レンダリング対象画面における各物体画像をレンダリングして物体イラストを得る必要もあり、レンダリングによって得られた基礎テクスチャイラストと物体イラストとの色混合を行って場面物体融合イラストを得る必要がある。この場合、レンダリング対象画面に対して画像レンダリングを行う際に、画面効果指示配列に基づいて場面物体融合イラストと基礎テクスチャイラストとに対して色融合を行い、それによって色融合後の画素値に基づいてレンダリング対象画面に対して画像レンダリングを遂行する必要がある。
具体的には、画面効果指示値が透明度を示すRチャネル値、ハイライトの輝度を示すGチャネル値及び陰影度を示すBチャネル値を含む場合、端末機器は具体的に以下の方式でレンダリング対象画面に対する画像レンダリングを実現することができる。
画面効果指示値におけるBチャネル値を色強さ重み値として、場面物体融合イラストにおける各画素値を重み付けして対応する重み付け画素値を得て、画面効果指示値におけるGチャネル値をハイライト増量値として、基礎テクスチャイラストにおける各画素値に対して増量処理を行って対応する増量画素値を得て、画面効果指示値におけるRチャネル値を透明度重み値として、基礎テクスチャイラストにおける各増量画素値と場面物体融合イラストにおける各重み付け画素値とに対して重み付け平均処理を行い、レンダリング目標画素値を得て、最後に、レンダリング目標画素値に基づいて画面レンダリングを行う。
以下において、画面効果指示配列内の画面効果指示値がA、基礎テクスチャイラストがイラストB、場面物体融合イラストがイラストDであると仮定して、レンダリング対象画面における各レンダリング目標画素値を特定する方式を詳細に説明する。AにおけるBチャネル値を場面物体層(イラストD)の色強さ重み値Abとして使用し、イラストDにおける対応する位置の画素値Drgbに対して重み付け処理を行い、重み付け画素値Ab*Drgbを得て、AにおけるGチャネル値を場面遮蔽層(イラストB)のハイライト増量値Agとして使用し、イラストBにおける対応する位置の画素値Brgbに対して増量処理を行い、増量画素値Brgb+Agを得て、さらに、AにおけるRチャネル値を場面遮蔽層の透明度重み値Arとして使用し、式(3)に基づいて対応する重み付け画素値と増量画素値とに対して重み付け平均処理を行ってレンダリング目標画素値を得る。
(Brgb+Ag)*Ar+Drgb*Ab*(1-Ar) (3)
ステップ203における関係内容から分かるように、Drgb=Brgb*(1-Cα)+Crgb*Cαであり、それを式(3)に代入して得られるレンダリング目標画素値の最終的な表現形式は式(4)に示すとおりである。
(Brgb+Ag)*Ar+(Brgb*(1-Cα)+Crgb*Cα)*Ab*(1-Ar) (4)
なお、実際の応用において、端末機器は上記方式でレンダリング対象画面における各レンダリング目標画素値を特定することができる以外に、他の方式で各レンダリング目標画素値を特定することもでき、本願はここでレンダリング目標画素値を特定する実施形態を何ら限定しないことを理解すべきである。
上記画像レンダリング方法は画像中の陰影、ハイライト、遮蔽等の効果をまとめて、1組のデータ(即ち画面効果指示配列)で画像における各画素位置の最終的な色効果値を表し、レンダリング対象画面に対して画像レンダリングを行う際に、該画面効果指示配列で基礎テクスチャイラストにおける画素値を調整し、該基礎テクスチャイラストは、レンダリング対象画面における指定された基礎画像を、機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングして得られたものであり、さらに、調整後の画素値に基づいてレンダリング対象画面に対して画像レンダリングを遂行する。このように、複数種類の効果イラストを数回レンダリングする必要がなく、画像レンダリングに必要な計算リソースが節約され、画像レンダリングの効率が効果的に高められ、また、数回にわたって各効果イラストを個々にレンダリングするプロセスが省略されるため、端末機器はそれに応じてレンダリング度に得られた効果イラストを記憶する必要もなくなり、ある程度の記憶空間が節約される。
本願の実施例により提供される画像レンダリング方法をさらに理解するために、以下において、該画像レンダリング方法を、ゲーム画面をレンダリングする場面に適用することを例にし、該画像レンダリング方法を全体的に説明する。
図3は本願の実施例により提供される画像レンダリング方法の原理図である。図3に示すように、サーバは事前に画面作成によって画面効果指示画像Aを生成することができ、該画面効果指示画像Aにゲーム場面地図に対応する画面効果指示配列が含まれ、該画面効果指示画像Aはゲーム場面地図と同じ大きさにしてもよい。続いて、該場面地図中の遮蔽を必要とする領域を特定し、対応する位置の画面効果指示値におけるRチャネル値を0より大きい値とし、遮蔽物の透明度が低いほど、Rチャネル値が小さい。該場面地図中のハイライト表示を必要とする領域を特定し、対応する位置の画面効果指示値におけるGチャネル値を0より大きい値とし、ハイライトの輝度が高いほど、Gチャネル値が大きい。該場面地図中の陰影により覆われる領域を特定し、対応する位置の画面効果指示値におけるBチャネル値を0より大きい値とし、陰影が暗いほど、Bチャネル値が大きい。続いて、画面効果指示配列が含まれる画像を、例えばこの画面効果指示画像Aのように適切な大きさに縮小する。
端末機器はユーザがゲームアプリケーション使用中に指定操作をトリガしたことを検出すると、サーバへ画像取得要求を送信し、サーバは該画像取得要求に基づき、端末機器がレンダリングしようとするゲーム画面を対応的に特定し、該ゲーム画面における場面地図、物体画像及び該場面地図に対応する画面効果指示画像Aを取得し、端末機器に返信する。
端末機器は場面地図、物体画像及び該場面地図に対応する画面効果指示画像Aを受信してから、場面地図を自身のスクリーンと同じサイズのRendertexture上にレンダリングして基礎テクスチャイラストBを得て、ポストプロセスの方式で取得された物体画像をレンダリングし、全ての物体画像に対するレンダリングを完了した後、機器スクリーンと同じサイズの物体イラストCを得る。
最後に画像レンダリングを行う際に、端末機器はまずフラグメントシェーダ(Fragment Shader)において基礎テクスチャイラストBと物体イラストCとに対して色混合を行い、場面物体融合イラストDを得て、つまり、物体イラストCのalphaチャネルCaを重み値として基礎テクスチャイラストBと物体イラストCとに対して重み付け平均処理を行い、Brgb*(1-Ca)+Crgb*Caである場面物体融合イラストDを得る。続いて、画面効果指示画像AにおけるBチャネル値を場面物体層の色強さ重み値Abとして使用し、場面物体融合イラストDにおける各画素値に対して重み付け処理を行い、対応する重み付け画素値Ab*Drgbを得て、画面効果指示画像AにおけるGチャネル値を場面遮蔽層のハイライト増量値Agとして使用し、基礎テクスチャイラストBにおける各画素値に対して増量処理を行い、対応する増量画素値Brgb+Agを得て、さらに、画面効果指示画像AにおけるRチャネル値を場面遮蔽層の透明度重み値Arとして使用し、増量画素値Brgb+Agと重み付け画素値Ab*Drgbとに対して重み付け平均処理を行い、レンダリング目標画素値Ar*(Brgb+Ag)+(1-Ar)* Ab*Drgbを得る。該レンダリング目標画素値でFrameBufferへレンダリングし、このようにゲーム画面に対するレンダリングを遂行し、これは上記画像レンダリング方法を用いてレンダリングして得られたゲーム画面の模式図である図4に示されるとおりである。
なお、本願の実施例により提供される画像レンダリング方法はゲーム画面をレンダリングするために用いることができる以外に、動画画面をレンダリングするために用いることもでき、また表示効果を追加する必要がある他の画像レンダリング場面に用いることもでき、ここで本願の実施例により提供される画像レンダリング方法が適用する応用場面を何らの限定を行わないことを理解すべきである。
ゲーム場面地図がN個のブロックに分割され、且つ該ゲーム画面中に物体が1つのみあると仮定すると、関連技術における画像レンダリング方法を用いて画像レンダリングを行う際に、該ゲーム画面内の物体に対して1回描画する必要があり、N個のブロックに分割された場面地図に対してN回描画する必要があり、N個のブロックに分割された遮蔽層に対してN回描画する必要があり、N個のブロックに分割されたハイライト層に対してN回描画する必要があり、N個のブロックに分割された陰影層に対してN回描画する必要があり、このように、該ゲーム画面をレンダリングする際に4N+1回の描画を実施する必要があり、合計、約4つのフルスクリーンサイズの画素が出力され、4つのフルスクリーンサイズの画像が読み込まれる。
それに対して、本願の実施例により提供される画像レンダリング方法を用いて画像描画を行う際に、ゲーム画面内の1つの物体に対して1回描画する必要があり、遮蔽層、陰影層、ハイライト層のいずれも単独で分割して描画する必要がなく、1枚の画面効果指示画像で上記表示効果を物体、場面地図を1回の描画によって合成するだけで、最終表示効果を得ることができ、全画像レンダリングプロセスはN+2回の描画のみが必要であり、約1つのフルスクリーンサイズの画素が出力され、1つのフルスクリーンサイズの画像、1つの画面効果指示画像及び1つの物体画像が読み込まれ、画像レンダリング効率が著しく向上する。
上記で説明した画像レンダリング方法について、本願は対応する画像レンダリング装置をさらに提供し、それによって上記画像レンダリング方法の実際での応用を実現する。
図5は上記図2に示す画像レンダリング方法に対応する画像レンダリング装置500の構成図であり、該画像レンダリング装置500は、
レンダリング対象画面における指定された基礎画像を取得するように構成される第1取得モジュール501と、
前記基礎画像に対応する画面効果指示配列を取得するように構成される第2取得モジュール502であって、前記画面効果指示配列に前記基礎画像の画素位置に対応する画面効果指示値が含まれる第2取得モジュールと、
前記基礎画像を機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得るように構成される第1レンダリングモジュール503と、
前記画面効果指示配列に基づいて前記基礎テクスチャイラストに対して色のレンダリングを行うように構成される第2レンダリングモジュール504と、を含む。
選択的に、図5に示す画像レンダリング装置のもとに、前記第1取得モジュール501は、具体的に、
画面効果指示画像を取得するステップであって、前記画面効果指示画像に前記画面効果指示配列が含まれるステップと、
前記画面効果指示画像から各画素位置の画素値を読み取り、前記各画素位置の画素値に基づいて前記画面効果指示画像に対応する画面効果指示配列を生成するステップと、を実行するように構成される。
選択的に、図5に示す画像レンダリング装置のもとに、前記画面効果指示値は、透明度を示す赤色チャネル値、ハイライトの輝度を示す緑色チャネル値及び陰影度を示す青色チャネル値を含み、
前記第2レンダリングモジュール504は、具体的に、
前記画面効果指示値における青色チャネル値を色強さ重み値として、前記基礎テクスチャイラストにおける各画素値を重み付けして対応する重み付け画素値を得るステップと、
前記画面効果指示値における緑色チャネル値をハイライト増量値として、前記基礎テクスチャイラストにおける各画素値に対して増量処理を行って対応する増量画素値を得るステップと、
前記画面効果指示値における赤色チャネル値を透明度重み値として、前記基礎テクスチャイラストにおける各増量画素値と前記基礎テクスチャイラストにおける各重み付け画素値とに対して重み付け平均処理を行い、レンダリング目標画素値を得るステップと、
前記レンダリング目標画素値に基づいて画面レンダリングを行うステップと、を実行するように構成される。
選択的に、図5に示す画像レンダリング装置のもとに、前記第1取得モジュール501は具体的に、ゲームアプリケーションのレンダリング対象画面で指定された場面地図を基礎画像として取得するように構成される。図6は本願の実施例により提供される別の画像レンダリング装置の構成図であり、図6に示すように、前記装置は、さらに、
物体画像を取得し、ポストプロセスの方式で前記物体画像をレンダリングして物体イラストを得るように構成される第3取得モジュール601と、
前記基礎テクスチャイラストと前記物体イラストとに対して色混合を行い、場面物体融合イラストを得るように構成される画像混合モジュール602と、を含み、
前記第2レンダリングモジュール504は、具体的に、前記画面効果指示配列に基づき、前記場面物体融合イラストと前記基礎テクスチャイラストとに対して色融合を行うように構成される。
選択的に、図6に示す画像レンダリング装置のもとに、前記画面効果指示値は透明度を示す赤色チャネル値、ハイライトの輝度を示す緑色チャネル値及び陰影度を示す青色チャネル値を含み、
前記画像混合モジュール602は、具体的に、前記物体イラストのアルファチャネルを重み値として前記物体イラストと前記基礎テクスチャイラストとに対して重み付け平均処理を行い、場面物体融合イラストを得るように構成され、
前記第2レンダリングモジュール504は、具体的に、
前記画面効果指示値における青色チャネル値を色強さ重み値として、前記場面物体融合イラストにおける各画素値を重み付けして対応する重み付け画素値を得るステップと、
前記画面効果指示値における緑色チャネル値をハイライトの重み値として、前記基礎テクスチャイラストにおける各画素値に対して増量処理を行って対応する増量画素値を得るステップと、
前記画面効果指示値における赤色チャネル値を透明度重み値として、前記基礎テクスチャイラストにおける各増量画素値と前記場面物体融合イラストにおける各重み付け画素値とに対して、重み付け平均処理を行い、レンダリング目標画素値を得るステップと、
前記レンダリング目標画素値に基づいて画面レンダリングを行うステップと、を実行するように構成される。
選択的に、図5に示す画像レンダリング装置のもとに、本願の実施例により提供される別の画像レンダリング装置の構成図である図7に示すように、前記装置は、さらに、
前記基礎画像をN個の基礎画像ブロックに分割するように構成される画像分割モジュール701を含み、
前記第1レンダリングモジュール503は、具体的に、
前記N個の基礎画像ブロックから前記現在ビューポート範囲に属する目標基礎画像ブロックを選択するステップと、
前記目標基礎画像ブロックを機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングして基礎テクスチャイラストを得るステップと、を実行するように構成される。
上記画像レンダリング装置は画像中の陰影、ハイライト、遮蔽等の効果をまとめて、1組のデータ(即ち画面効果指示配列)で画像における各画素位置の最終的な色効果値を表し、レンダリング対象画面に対して画像レンダリングを行う際に、該画面効果指示配列で基礎テクスチャイラストにおける画素値を調整し、該基礎テクスチャイラストは、レンダリング対象画面における指定された基礎画像を、機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングして得られたものであり、さらに、調整後の画素値に基づいてレンダリング対象画面に対して画像レンダリングを遂行する。このように、複数種類の効果イラストを数回レンダリングする必要がなく、画像レンダリングに必要な計算リソースが節約され、画像レンダリング効率が効果的に高められ、また、数回にわたって各効果イラストを個々にレンダリングするプロセスが省略されるため、端末機器はそれに応じてレンダリング度に得られた効果イラストを記憶する必要もなくなり、ある程度の記憶空間が節約される。
本願の実施例は画像レンダリング用の端末機器をさらに提供し、以下において、ハードウェアの具体化の点から本願の実施例により提供される画像レンダリング用の端末機器を説明する。
図8は本願の実施例により提供される端末機器の構成図である。説明の便宜上、本願の実施例に関連する部分のみを示し、開示されていない技術的詳細については、本願の実施例の方法部分を参照されたい。該端末は、コンピュータ、タブレット、携帯情報端末(Personal Digital Assistant:PDAと略称)等を含む任意の端末機器であってよく、端末が携帯電話であることを例にする。
図8は本願の実施例により提供される端末に関連する携帯電話の一部の構成のブロック図を示す。図8を参照すると、携帯電話は、無線周波数(Radio Frequency:RFと略称)回路810、メモリ820、入力ユニット830(タッチパネル831及び別の入力機器832を含む)、ディスプレイ840(表示パネル841を含む)、センサ850、オーディオ回路860(スピーカー861及びマイクロフォン862を含む)、ワイヤレスフィデリティ(wireless fidelity:WiFiと略称)モジュール870、中央処理ユニット880、グラフィックス処理ユニット890及び電源8100等の部材を含む。当業者であれば、図8に示す携帯電話の構成は携帯電話を限定するものではなく、図面より多く又はより少ない部材を含んでもよく、又は何らかの部材又は異なる部材の配置を組み合わせてもよいことが理解可能である。
メモリ820はソフトウェアプログラム及びモジュールを記憶するために用いることができ、中央処理ユニット880はメモリ820に記憶されたソフトウェアプログラム及びモジュールを実行することで、携帯電話の各機能アプリケーション及びデータ処理を実行する。メモリ820は主にプログラム記憶領域及びデータ記憶領域を含んでもよく、プログラム記憶領域はオペレーティングシステム、少なくとも1つの機能(例えば音声再生機能、画像再生機能等)に必要なアプリケーションプログラム等を記憶でき、データ記憶領域はコンピュータの使用に応じて作成されるデータ(例えばオーディオデータ、電話帳等)等を記憶できる。また、メモリ820は高速ランダムアクセスメモリを含んでもよく、又は不揮発性メモリ、例えば少なくとも1つのディスク記憶デバイス、フラッシュメモリデバイス、又は他の揮発性ソリッドステート記憶デバイスを含んでもよい。
中央処理ユニット880は携帯電話の制御センタであり、様々なインタフェース及び回線を介して全携帯電話の各部分を接続し、メモリ820内に記憶されたソフトウェアプログラム及び/又はモジュールを作動又は実行し、及びメモリ820内に記憶されたデータを読み取って、コンピュータの各機能を実行しデータを処理することで、携帯電話を全体的に監視する。選択的に、中央処理ユニット880は1つ又は複数の処理ユニットを含んでもよく、好ましくは、中央処理ユニット880はアプリケーションプロセッサ及びモデムプロセッサが統合されてもよく、アプリケーションプロセッサは主にオペレーティングシステム、ユーザインタフェース及びアプリケーションプログラム等を処理し、モデムプロセッサは主に無線通信を処理する。なお、上記モデムプロセッサはプロセッサ880内に統合されなくてもよいことが理解される。
本願の実施例において、画面レンダリングを行う必要がある場合、中央処理ユニット880はグラフィックス処理ユニット890を以下の動作を実行するように制御する。
レンダリング対象画面における指定された基礎画像を取得し、
前記基礎画像に対応する画面効果指示配列を取得し、前記画面効果指示配列に前記基礎画像の画素位置に対応する画面効果指示値が含まれ、
前記基礎画像を機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得て、そして
前記画面効果指示配列に基づいて前記基礎テクスチャイラストに対して色のレンダリングを行う。
選択的に、前記グラフィックス処理ユニット890は本願の実施例により提供される画像レンダリング方法のいずれか1つの実施形態のステップを実行するためにも用いられる。さらに、グラフィックス処理ユニット890の制御下で、ディスプレイ840によって画像画面を表示する。
本願の実施例は、前述した各実施例に記載の画像レンダリング方法のいずれか1つの実施形態を実行するためのコンピュータプログラムを記憶するためのコンピュータ可読記憶媒体をさらに提供する。
本願の実施例は、コンピュータ上で作動するとコンピュータに前記各実施例に記載の画像レンダリング方法のいずれか1つの実施形態を実行させる、命令を含むコンピュータプログラム製品をさらに提供する。
いくつかの実施例において、上記端末又はサーバは分散システムにおけるノードであってもよく、該分散システムはブロックチェーンシステムであってもよく、該ブロックチェーンシステムは該複数のノードをネットワーク通信の形で接続してなる分散システムであってもよい。ノード同士はピアツーピア(P2P:Peer To Peer)ネットワークを構成することができ、任意の形の計算機器、例えばサーバ、端末等の電子機器は、いずれも該ピアツーピアネットワークに参加することで該ブロックチェーンシステムにおけるノードを成すことができる。
当業者であれば、説明の便宜及び簡潔上、上記説明したシステム、装置及びユニットの具体的な動作プロセスは、前述した方法の実施例における対応するプロセスを参照すればよいことを明確に理解できるため、ここでは繰り返して説明しない。
本願により提供されるいくつかの実施例において、開示されるシステム、装置及び方法は、他の形態で実現できることを理解すべきである。例えば、上述した装置の実施例は例示的なものに過ぎず、例えば、前記ユニットの分割は、論理機能の分割に過ぎず、実際に実現時に別の形態で分割してもよく、例えば複数のユニット又はコンポーネントは組み合わせてもよく、又は別のシステムに統合してもよく、又はいくつかの特徴を省略もしくは実行しなくてもよい。一方、図示又は説明した相互の結合又は直接結合又は通信接続はいくつかのインタフェース、機器又はユニットを介した間接結合又は通信接続であり得、電気的、機械的又は他の形態であり得る。
分離部材として説明した前記ユニットは物理的に分離されたものであってもなくてもよく、ユニットとして示した部材は物理ユニットであってもなくてもよく、一箇所に位置してもよく、又は複数のネットワークユニットに分布してもよい。実際の必要に応じてその一部又は全てのユニットを選択して本実施例の解決手段の目的を実現できる。
また、本願の各実施例における各機能ユニットは1つの処理ユニットに統合されてもよく、それぞれ独立して物理的に存在してもよく、2つ又は2つ以上で1つのユニットに統合されてもよい。上記統合されたユニットはハードウェアの形で実現してもよく、ソフトウェア機能ユニットの形で実現してもよい。
前記統合されたユニットがソフトウェア機能ユニットの形式で実現され且つ独立した製品として販売又は使用される場合、コンピュータ可読記憶媒体に記憶されてもよい。このような見解をもとに、本願の技術的解決手段は実質的に又は従来技術に寄与する部分又は該技術的解決手段の全てもしくは一部はソフトウェアの形で実施することができ、該コンピュータソフトウェア製品は記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器等であってもよい)に本願の各実施例に記載の方法の全て又は一部のステップを実行させる複数の命令を含む。前述した記憶媒体は、USBフラッシュディスク、モバイルハードディスク、読み取り専用メモリ(Read-Only Memory:ROMと略称)、ランダムアクセスメモリ(Random Access Memory:RAMと略称)、磁気ディスク又は光ディスク等のプログラムコードを記憶可能である様々な媒体を含む。
以上において、上記実施例は本願の技術的解決手段を説明するためのものに過ぎず、それを制限するものではなく、前記実施例を参照しながら本願を詳細に説明したが、当業者であれば、前記各実施例に記載の技術的解決手段に対する修正、又はその一部の技術的特徴に対する置換が可能であることは、当然理解されるものであり、これらの修正又は置換は、該当する技術的解決手段の本質を本願の各実施例の技術的解決手段の精神及び範囲から逸脱させるものではない。
500 画像レンダリング装置
501 第1取得モジュール
502 第2取得モジュール
503 第1レンダリングモジュール
504 第2レンダリングモジュール
600 画像レンダリング装置
601 第3取得モジュール
602 画像混合モジュール
700 画像レンダリング装置
701 画像分割モジュール
810 RF回路
820 メモリ
830 入力ユニット
831 タッチパネル
832 別の入力機器
840 ディスプレイ
841 表示パネル
850 センサ
860 オーディオ回路
861 スピーカー
862 マイクロフォン
870 WiFiモジュール
880 中央処理ユニット
890 グラフィックス処理ユニット
8100 電源

Claims (12)

  1. 端末機器が実行する、画像レンダリング方法であって、
    レンダリング対象画面における指定された基礎画像を取得するステップであって、ゲームアプリケーションのレンダリング対象画面で指定された場面地図を基礎画像として取得するステップを含む、ステップと、
    前記基礎画像に対応する画面効果指示配列を取得するステップであって、前記画面効果指示配列に前記基礎画像の画素位置に対応する画面効果指示値が含まれるステップと、
    前記基礎画像を機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得るステップと、
    物体画像を取得し、ポストプロセスの方式で前記物体画像をレンダリングして物体イラストを得るステップと、
    前記基礎テクスチャイラストと前記物体イラストとに対して色混合を行い、場面物体融合イラストを得るステップと、
    前記画面効果指示配列に基づいて前記基礎テクスチャイラストに対して色のレンダリングを行うステップであって、前記画面効果指示配列に基づき、前記場面物体融合イラストと前記基礎テクスチャイラストとに対して色融合を行うステップを含む、ステップと、を含む、画像レンダリング方法。
  2. 前記基礎画像に対応する画面効果指示配列を取得するステップは、
    画面効果指示画像を取得するステップであって、前記画面効果指示画像に前記画面効果指示配列が含まれるステップと、
    前記画面効果指示画像から各画素位置の画素値を読み取り、前記各画素位置の画素値に基づいて前記画面効果指示画像に対応する前記画面効果指示配列を生成するステップと、を含む
    請求項1に記載の画像レンダリング方法。
  3. 前記画面効果指示値は透明度を示す赤色チャネル値、ハイライトの輝度を示す緑色チャネル値及び陰影度を示す青色チャネル値を含み、
    前記画面効果指示配列に基づいて前記基礎テクスチャイラストに対して色のレンダリングを行うステップは、
    前記画面効果指示値における青色チャネル値を色強さ重み値として、前記基礎テクスチャイラストにおける各画素値を重み付けして対応する重み付け画素値を得るステップと、
    前記画面効果指示値における緑色チャネル値をハイライト増量値として、前記基礎テクスチャイラストにおける各画素値に対して増量処理を行って対応する増量画素値を得るステップと、
    前記画面効果指示値における赤色チャネル値を透明度重み値として、前記基礎テクスチャイラストにおける各増量画素値と前記基礎テクスチャイラストにおける各重み付け画素値とに対して重み付け平均処理を行い、レンダリング目標画素値を得るステップと、
    前記レンダリング目標画素値に基づいて画面レンダリングを行うステップと、を含む
    請求項1又は2に記載の画像レンダリング方法。
  4. 前記画面効果指示値は透明度を示す赤色チャネル値、ハイライトの輝度を示す緑色チャネル値及び陰影度を示す青色チャネル値を含み、
    前記基礎テクスチャイラストと前記物体イラストとに対して色混合を行い、場面物体融合イラストを得るステップは、
    前記物体イラストのアルファチャネルを重み値として、前記物体イラストと前記基礎テクスチャイラストとに対して重み付け平均処理を行い、前記場面物体融合イラストを得るステップを含み、
    この場合、前記画面効果指示配列に基づき、前記場面物体融合イラストと前記基礎テクスチャイラストとに対して色融合を行うステップは、
    前記画面効果指示値における青色チャネル値を色強さ重み値として、前記場面物体融合イラストにおける各画素値を重み付けして対応する重み付け画素値を得るステップと、
    前記画面効果指示値における緑色チャネル値をハイライト増量値として、前記基礎テクスチャイラストにおける各画素値に対して増量処理を行って対応する増量画素値を得るステップと、
    前記画面効果指示値における赤色チャネル値を透明度重み値として、前記基礎テクスチャイラストにおける各増量画素値と前記場面物体融合イラストにおける各重み付け画素値とに対して、重み付け平均処理を行い、レンダリング目標画素値を得るステップと、
    前記レンダリング目標画素値に基づいて画面レンダリングを行うステップと、を含む
    請求項に記載の画像レンダリング方法。
  5. レンダリング対象画面における指定された基礎画像を取得した後、さらに、
    前記基礎画像をN個の基礎画像ブロックに分割するステップを含み、
    この場合、前記基礎画像を機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得るステップは、
    前記N個の基礎画像ブロックから現在ビューポート範囲に属する目標基礎画像ブロックを選択するステップと、
    前記目標基礎画像ブロックを機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングして基礎テクスチャイラストを得るステップと、を含む
    請求項1に記載の画像レンダリング方法。
  6. レンダリング対象画面における指定された基礎画像を取得するように構成される第1取得モジュールであって、ゲームアプリケーションのレンダリング対象画面で指定された場面地図を基礎画像として取得するように構成される、第1取得モジュールと、
    前記基礎画像に対応する画面効果指示配列を取得するように構成される第2取得モジュールであって、前記画面効果指示配列に前記基礎画像の画素位置に対応する画面効果指示値が含まれる第2取得モジュールと、
    前記基礎画像を機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングし、基礎テクスチャイラストを得るように構成される第1レンダリングモジュールと、
    物体画像を取得し、ポストプロセスの方式で前記物体画像をレンダリングして物体イラストを得るように構成される第3取得モジュールと、
    前記基礎テクスチャイラストと前記物体イラストとに対して色混合を行い、場面物体融合イラストを得るように構成される画像混合モジュールと、を含み、
    前記画面効果指示配列に基づいて前記基礎テクスチャイラストに対して色のレンダリングを行うように構成される第2レンダリングモジュールであって、前記画面効果指示配列に基づき、前記場面物体融合イラストと前記基礎テクスチャイラストとに対して色融合を行うように構成される、第2レンダリングモジュールと、を含む、画像レンダリング装置。
  7. 前記第1取得モジュールは具体的に、
    画面効果指示画像を取得するステップであって、前記画面効果指示画像に前記画面効果指示配列が含まれるステップと、
    前記画面効果指示画像から各画素位置の画素値を読み取り、前記各画素位置の画素値に基づいて前記画面効果指示画像に対応する前記画面効果指示配列を生成するステップと、を実行するように構成される
    請求項に記載の画像レンダリング装置。
  8. 前記画面効果指示値は透明度を示す赤色チャネル値、ハイライトの輝度を示す緑色チャネル値及び陰影度を示す青色チャネル値を含み、
    前記第2レンダリングモジュールは具体的に、
    前記画面効果指示値における青色チャネル値を色強さ重み値として、前記基礎テクスチャイラストにおける各画素値を重み付けして対応する重み付け画素値を得るステップと、
    前記画面効果指示値における緑色チャネル値をハイライト増量値として、前記基礎テクスチャイラストにおける各画素値に対して増量処理を行って対応する増量画素値を得るステップと、
    前記画面効果指示値における赤色チャネル値を透明度重み値として、前記基礎テクスチャイラストにおける各増量画素値と前記基礎テクスチャイラストにおける各重み付け画素値とに対して重み付け平均処理を行い、レンダリング目標画素値を得るステップと、
    前記レンダリング目標画素値に基づいて画面レンダリングを行うステップと、を実行するように構成される
    請求項又はに記載の画像レンダリング装置。
  9. 前記画面効果指示値は透明度を示す赤色チャネル値、ハイライトの輝度を示す緑色チャネル値及び陰影度を示す青色チャネル値を含み、
    前記画像混合モジュールは具体的に、
    前記物体イラストのアルファチャネルを重み値として前記物体イラストと前記基礎テクスチャイラストとに対して重み付け平均処理を行い、前記場面物体融合イラストを得るように構成され、
    この場合、前記第2レンダリングモジュールは具体的に、
    前記画面効果指示値における青色チャネル値を色強さ重み値として、前記場面物体融合イラストにおける各画素値を重み付けして対応する重み付け画素値を得るステップと、
    前記画面効果指示値における緑色チャネル値をハイライトの重み値として、前記基礎テクスチャイラストにおける各画素値に対して増量処理を行って対応する増量画素値を得るステップと、
    前記画面効果指示値における赤色チャネル値を透明度重み値として、前記基礎テクスチャイラストにおける各増量画素値と前記場面物体融合イラストにおける各重み付け画素値とに対して、重み付け平均処理を行い、レンダリング目標画素値を得るステップと、
    前記レンダリング目標画素値に基づいて画面レンダリングを行うステップと、を実行するように構成される
    請求項に記載の画像レンダリング装置。
  10. 前記装置は、さらに、
    前記基礎画像をN個の基礎画像ブロックに分割するように構成される画像分割モジュールを含み、
    この場合、前記第1レンダリングモジュールは具体的に、
    前記N個の基礎画像ブロックから現在ビューポート範囲に属する目標基礎画像ブロックを選択するステップと、
    前記目標基礎画像ブロックを機器のスクリーンサイズに合致するレンダリングテクスチャ対象上にレンダリングして基礎テクスチャイラストを得るステップと、を実行するように構成される
    請求項に記載の画像レンダリング装置。
  11. 中央処理ユニット、グラフィックス処理ユニット、メモリ及びディスプレイを含み、
    前記メモリはコンピュータプログラムを記憶するために用いられ、
    前記中央処理ユニットは前記コンピュータプログラムを実行し、画面レンダリングが必要である時に、コンピュータプログラムを実行するように前記グラフィックス処理ユニットを制御して、前記請求項1からのいずれか1項に記載の方法を実現するために用いられ、
    前記ディスプレイは前記グラフィックス処理ユニットの制御下で画像画面を表示するために用いられる、端末機器。
  12. コンピュータに請求項1からのいずれか1項に記載の方法を実行させる、コンピュータプログラム。
JP2021555825A 2019-09-11 2020-09-02 画像レンダリング方法、装置、機器及びコンピュータプログラム Active JP7270760B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910859321.X 2019-09-11
CN201910859321.XA CN110570505B (zh) 2019-09-11 2019-09-11 一种图像渲染方法、装置、设备及存储介质
PCT/CN2020/112926 WO2021047429A1 (zh) 2019-09-11 2020-09-02 一种图像渲染方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022524889A JP2022524889A (ja) 2022-05-10
JP7270760B2 true JP7270760B2 (ja) 2023-05-10

Family

ID=68779256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021555825A Active JP7270760B2 (ja) 2019-09-11 2020-09-02 画像レンダリング方法、装置、機器及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11833424B2 (ja)
EP (1) EP3916680A4 (ja)
JP (1) JP7270760B2 (ja)
CN (1) CN110570505B (ja)
WO (1) WO2021047429A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111435548B (zh) * 2019-01-13 2023-10-03 北京魔门塔科技有限公司 一种地图的渲染方法和装置
CN110570505B (zh) 2019-09-11 2020-11-17 腾讯科技(深圳)有限公司 一种图像渲染方法、装置、设备及存储介质
CN111145287A (zh) * 2019-12-26 2020-05-12 珠海金山网络游戏科技有限公司 一种贴图处理方法及装置
CN111340684B (zh) * 2020-02-12 2024-03-01 网易(杭州)网络有限公司 一种游戏中图形处理的方法和装置
CN111352670B (zh) * 2020-03-10 2021-01-08 辽宁向日葵教育科技有限公司 虚拟现实场景加载方法、装置、虚拟现实系统及设备
CN111309430B (zh) * 2020-03-16 2021-12-10 广东趣炫网络股份有限公司 一种自动缓存用户交互界面节点的方法和相关装置
CN111882635B (zh) * 2020-07-24 2024-09-13 上海米哈游天命科技有限公司 一种画面渲染方法、装置、设备和介质
CN112215934B (zh) * 2020-10-23 2023-08-29 网易(杭州)网络有限公司 游戏模型的渲染方法、装置、存储介质及电子装置
CN112700507A (zh) * 2020-12-28 2021-04-23 统信软件技术有限公司 一种图片显示方法、计算设备和存储介质
CN112686939B (zh) * 2021-01-06 2024-02-02 腾讯科技(深圳)有限公司 景深图像的渲染方法、装置、设备及计算机可读存储介质
CN112843705A (zh) * 2021-03-17 2021-05-28 上海莉莉丝计算机技术有限公司 游戏地图内的游戏对象控制方法、移动终端及计算机可读存储介质
CN113012274B (zh) * 2021-03-24 2023-07-28 北京壳木软件有限责任公司 一种阴影渲染的方法、装置以及电子设备
CN113205570B (zh) * 2021-04-30 2024-04-19 阿波罗智联(北京)科技有限公司 基于电子地图的电子斑马线的生成方法及装置
CN113409411B (zh) * 2021-05-26 2024-08-27 腾讯科技(深圳)有限公司 图形界面的渲染方法、装置、电子设备及存储介质
CN113516748B (zh) * 2021-07-30 2024-05-28 中山大学 一种集成成像光场显示的实时渲染方法及装置
CN113949900B (zh) * 2021-10-08 2023-11-24 上海哔哩哔哩科技有限公司 直播贴图处理方法、系统、设备及存储介质
CN113947657B (zh) * 2021-10-18 2024-07-23 网易(杭州)网络有限公司 目标模型的渲染方法、装置、设备及存储介质
CN114049425B (zh) * 2021-10-29 2023-06-09 腾讯科技(深圳)有限公司 图像中的照明仿真方法、装置、设备及存储介质
CN114245177B (zh) * 2021-12-17 2024-01-23 智道网联科技(北京)有限公司 高精地图的平滑显示方法、装置、电子设备及存储介质
CN114745570B (zh) * 2022-06-09 2022-11-11 荣耀终端有限公司 图像的渲染方法、电子设备及存储介质
CN115641400B (zh) * 2022-11-04 2023-11-17 广州大事件网络科技有限公司 一种动态图片生成方法、系统、设备及存储介质
CN116206046B (zh) * 2022-12-13 2024-01-23 北京百度网讯科技有限公司 渲染处理方法、装置、电子设备及存储介质
US20240331264A1 (en) * 2023-03-28 2024-10-03 SoftWeir Inc. Systems, Devices, and Methods for Generating a Display

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334661A (ja) 2003-05-09 2004-11-25 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2011215737A (ja) 2010-03-31 2011-10-27 Copcom Co Ltd 画像処理プログラム、記録媒体、及びコンピュータ装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7098925B1 (en) * 2000-03-10 2006-08-29 Intel Corporation Shading of images using texture
US6791563B2 (en) * 2001-09-18 2004-09-14 Bentley Systems, Incorporated System, method and computer program product for global rendering
KR101874895B1 (ko) 2012-01-12 2018-07-06 삼성전자 주식회사 증강 현실 제공 방법 및 이를 지원하는 단말기
GB2514583B (en) * 2013-05-29 2015-03-04 Imagination Tech Ltd Relightable texture for use in rendering an image
CN103581571B (zh) * 2013-11-22 2017-02-22 北京中科大洋科技发展股份有限公司 一种基于色彩三要素的视频抠像方法
US20150348315A1 (en) * 2014-05-30 2015-12-03 Apple Inc. Dynamic Lighting Effects For Textures Without Normal Maps
US9245358B2 (en) * 2014-05-30 2016-01-26 Apple Inc. Systems and methods for generating refined, high fidelity normal maps for 2D and 3D textures
CN104966312B (zh) * 2014-06-10 2017-07-21 腾讯科技(深圳)有限公司 一种3d模型的渲染方法、装置及终端设备
CN104103089A (zh) * 2014-07-29 2014-10-15 无锡梵天信息技术股份有限公司 一种基于图像屏幕空间的实时软阴影实现方法
CN104268922B (zh) * 2014-09-03 2017-06-06 广州博冠信息科技有限公司 一种图像渲染方法及图像渲染装置
US9659381B2 (en) * 2015-01-26 2017-05-23 Daqri, Llc Real time texture mapping for augmented reality system
GB2541179B (en) * 2015-07-31 2019-10-30 Imagination Tech Ltd Denoising filter
US10074193B2 (en) * 2016-10-04 2018-09-11 Microsoft Technology Licensing, Llc Controlled dynamic detailing of images using limited storage
CN106485776A (zh) * 2016-11-23 2017-03-08 北京三体高创科技有限公司 一种3d游戏实时渲染大规模场景的方法及系统
CN108295467B (zh) * 2018-02-06 2021-06-22 网易(杭州)网络有限公司 图像的呈现方法、装置及存储介质、处理器和终端
CN109147023A (zh) * 2018-07-27 2019-01-04 北京微播视界科技有限公司 基于人脸的三维特效生成方法、装置和电子设备
CN109461199B (zh) * 2018-11-15 2022-12-30 腾讯科技(深圳)有限公司 画面渲染方法和装置、存储介质及电子装置
CN110115841B (zh) * 2019-05-10 2022-11-08 网易(杭州)网络有限公司 一种游戏场景中植被对象的渲染方法和装置
CN110570505B (zh) * 2019-09-11 2020-11-17 腾讯科技(深圳)有限公司 一种图像渲染方法、装置、设备及存储介质
US11395027B2 (en) * 2020-02-28 2022-07-19 Verizon Patent And Licensing Inc. Methods and systems for request-based graphics rendering at a multi-access server

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334661A (ja) 2003-05-09 2004-11-25 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2011215737A (ja) 2010-03-31 2011-10-27 Copcom Co Ltd 画像処理プログラム、記録媒体、及びコンピュータ装置

Also Published As

Publication number Publication date
US20210146247A1 (en) 2021-05-20
EP3916680A4 (en) 2022-05-18
CN110570505B (zh) 2020-11-17
EP3916680A1 (en) 2021-12-01
JP2022524889A (ja) 2022-05-10
US11833424B2 (en) 2023-12-05
WO2021047429A1 (zh) 2021-03-18
CN110570505A (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
JP7270760B2 (ja) 画像レンダリング方法、装置、機器及びコンピュータプログラム
US11711563B2 (en) Methods and systems for graphics rendering assistance by a multi-access server
KR102149187B1 (ko) 전자 장치와, 그의 제어 방법
RU2677584C1 (ru) Использование межкадровой когерентности в архитектуре построения изображений с сортировкой примитивов на промежуточном этапе
WO2021147657A1 (zh) 插帧处理方法及相关产品
US9665247B2 (en) Method and device for applying a new skin to a display environment
TWI514314B (zh) 丟棄過濾器分接點之紋理位址模式
CN110569013B (zh) 基于展示屏幕的图像展示方法以及装置
CN110782387B (zh) 图像处理方法、装置、图像处理器及电子设备
EP4290464A1 (en) Image rendering method and apparatus, and electronic device and storage medium
CN114040246A (zh) 图形处理器的图像格式转换方法、装置、设备及存储介质
CN110858388B (zh) 一种增强视频画质的方法和装置
WO2022052742A1 (zh) 多终端屏幕组合方法、装置、设备和计算机存储介质
WO2024067461A1 (zh) 图像处理方法、装置、计算机设备和存储介质
CN111562869B (zh) 截图方法及装置、存储介质、电子装置
CN110858389B (zh) 一种增强视频画质的方法、装置、终端及转码设备
CN114693894A (zh) 一种虚拟世界中图片转换为积木块的方法、系统及装置
CN111221444A (zh) 分屏特效处理方法、装置、电子设备和存储介质
CN110874816B (zh) 一种图像处理方法、装置、移动终端及存储介质
CN110941413A (zh) 显示画面的生成方法及相关装置
WO2024088322A1 (zh) 视频展示方法、装置、视频展示设备和存储介质
JP2023536035A (ja) オーバースムージングプログレッシブ画像
CN117151975A (zh) 图像处理方法、场景更新方法、装置、设备及存储介质
CN117726711A (zh) 特效图像生成方法、装置、电子设备及存储介质
CN114363507A (zh) 图像处理方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230425

R150 Certificate of patent or registration of utility model

Ref document number: 7270760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150