JP7301453B2 - 画像処理方法、画像処理装置、コンピュータプログラム、及び電子機器 - Google Patents

画像処理方法、画像処理装置、コンピュータプログラム、及び電子機器 Download PDF

Info

Publication number
JP7301453B2
JP7301453B2 JP2022523027A JP2022523027A JP7301453B2 JP 7301453 B2 JP7301453 B2 JP 7301453B2 JP 2022523027 A JP2022523027 A JP 2022523027A JP 2022523027 A JP2022523027 A JP 2022523027A JP 7301453 B2 JP7301453 B2 JP 7301453B2
Authority
JP
Japan
Prior art keywords
image
target mask
change data
rendering
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022523027A
Other languages
English (en)
Other versions
JP2022553251A (ja
Inventor
▲キ▼ ▲劉▼
光洲 ▲ジャイ▼
元▲協▼ 麦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022553251A publication Critical patent/JP2022553251A/ja
Application granted granted Critical
Publication of JP7301453B2 publication Critical patent/JP7301453B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本願は、出願番号が第202010082717.0号であり、出願日が2020年2月7日である、中国特許出願に基づく優先権を主張し、その中国特許出願の全ての内容が参考として本願に組み込まれている。
本願は、画像処理の分野に関し、特に、画像処理方法、装置、記憶媒体、及び電子機器に関する。
関連技術において、画像に投射されたライトが変化した場合、画像におけるオブジェクト(例えば、人)にライト効果をより良く呈させるために、一般的に用いられる方式として、画像におけるオブジェクトを3Dモデルで表し、画像の位置するシーンにおいてリアルタイム光源又はベークシーンを配置することにより、ライト投影を実現する。このような方式を用いると、リアルタイム光源は、性能を消費し、モバイル端末機器において電力消費を増加させ、さらに、性能の低いモバイル端末機器の動作にフリーズ現象を引き起こす。
本願の実施例は、画像をレンダリングすることでモバイル端末機器の電力消費を増加させることによるモバイル端末機器のフリーズを回避することができる画像処理方法、装置、記憶媒体、及び電子機器を提供する。
本願の実施例で提供される画像処理方法は、
レンダリング対象の第1画像を取得するステップと、
前記第1画像に対応するターゲットマスク画像を取得するステップであって、前記ターゲットマスク画像のg成分には第1ライト変化データが格納されており、前記ターゲットマスク画像のb成分には第2ライト変化データが格納されており、前記第1ライト変化データは、前記第1画像のレンダリングに用いる、前記第1画像の左側に位置するライトの変化データであり、前記第2ライト変化データは、前記第1画像のレンダリングに用いる、前記第1画像の右側に位置するライトの変化データである、ステップと、
前記ターゲットマスク画像を用いて前記第1画像をレンダリングすることにより、第2画像を取得するステップと、を含む。
本願の実施例は、画像処理装置を提供する。この画像処理装置は、
レンダリング対象の第1画像を取得するように構成される第1取得ユニットと、
前記第1画像に対応するターゲットマスク画像を取得するように構成される第2取得ユニットであって、前記ターゲットマスク画像のg成分には第1ライト変化データが格納されており、前記ターゲットマスク画像のb成分には第2ライト変化データが格納されており、前記第1ライト変化データは、前記第1画像のレンダリングに用いる、前記第1画像の左側に位置するライトの変化データであり、前記第2ライト変化データは、前記第1画像のレンダリングに用いる、前記第1画像の右側に位置するライトの変化データである、第2取得ユニットと、
前記ターゲットマスク画像を用いて前記第1画像をレンダリングすることにより、第2画像を取得するように構成されるレンダリングユニットと、を含む。
本願の実施例は、コンピュータプログラムを記憶したコンピュータ可読記憶媒体を提供する。前記コンピュータプログラムは、実行されると、上記の画像処理方法を実行させる。
本願の実施例は、メモリと、プロセッサと、メモリに記憶されてプロセッサで実行可能なコンピュータプログラムとを含む電子機器を提供する。前記プロセッサは、前記コンピュータプログラムを実行すると、上記の画像処理方法を実行させるように構成される。
本願の実施例で提供される画像処理方法、装置、記憶媒体、及び電子機器によれば、少なくとも、下記の有益な技術的効果を有する。
画像のターゲットマスク画像に格納されるライト変化データによって、画像のレンダリングを実現するという目的が達成される。これにより、3Dモデルを用いて、シーンにおいてリアルタイム光源又はベークシーンを配置することにより、ライト投影を実現することが回避され、さらに、画像をレンダリングすることでモバイル端末機器の消費電力を増加させることによるモバイル端末機器のフリーズが回避される。
ここで説明される図面は、本願へのさらなる理解を提供するためのものであり、本願の一部を構成する。本願の模式的な実施例及びその説明は、本願を解釈するためのものであり、本願の不適当な限定とならない。
本願の実施例で提供される画像処理方法の適用環境の模式図である。 本願の実施例で提供される画像処理方法のフローチャートである。 本願の実施例で提供されるカスタムシェーダーを用いて第1画像をレンダリングすることのフローチャートである。 本願の実施例で提供されるGPUの1回のレンダリングの工程フローチャートである。 本願の実施例で提供される第1画像のレンダリング結果の比較図である。 本願の実施例で提供される第1画像及び第1画像に対応するmask図である。 本願の実施例で提供される画像処理装置の構成の模式図である。 本願の実施例で提供される画像処理方法の電子機器の構成の模式図である。
当業者が本願の構成をより良く理解できるようにするために、以下、本願の実施例の図面を参照しながら、本願の実施例の構成を明確かつ完全に説明する。明らかなように、説明する実施例は、本願の一部の実施例に過ぎず、全部の実施例ではない。当業者が創造的な労働をせずに本願の実施例から得る全ての他の実施例は、本願の保護範囲に属すべきである。
説明すべきものとして、本願の明細書、特許請求の範囲、及び上記図面における「第1」、「第2」などの用語は、類似の対象を区別するためのものであり、必ずしも特定の順序又は優先順位を説明するために用いられない。理解すべきものとして、このように使用される用語は、ここで説明される本願の実施例が、ここで図示又は説明されたもの以外の順序で実施できるように、適切な場合には交換可能である。また、用語「含む」、「備える」、及びそれらの任意の変形は、非排他的な包含をカバーすることを意図するものである。例えば、一連のステップ又はユニットを含む過程、方法、システム、製品、又は機器は、必ずしも、明示的にリストされたステップ又はユニットに限定されるものではなく、明示的にリストされていない他のステップ又はユニット、あるいは、これらの過程、方法、製品、又は機器に固有の他のステップ又はユニットを含んでもよい。
本願の実施例では、画像処理方法が提供されている。該画像処理方法は、図1に示すようなハードウェア環境における画像処理システムに適用することができるが、これに限定されない。該画像処理システムは、端末機器102と、ネットワーク110と、サーバ112とを含んでもよいが、これらに限定されない。そのうち、端末機器102は、レンダリング対象の第1画像と、第1画像をレンダリングした第2画像とを表示するように構成される。
ここで、端末機器102は、ディスプレイ108と、プロセッサ106と、メモリ104とを含んでもよいが、これらに限定されない。ディスプレイ108は、ヒューマンマシンインタラクションインタフェースを介して、ヒューマンマシンインタラクション指示を取得するように構成され、さらに、レンダリング対象の第1画像を表示するように構成される。プロセッサ106は、ヒューマンマシンインタラクション指示に応答し、第1画像に対応するターゲットマスク画像を用いて第1画像をレンダリングするように構成される。メモリ104は、レンダリング対象の第1画像、第1画像に対応するターゲットマスク画像の属性情報を記憶するように構成される。
ここで、サーバ112は、データベース114及び処理エンジン116を含んでもよいが、これらに限定されない。処理エンジン116は、データベース114に記憶される第1画像に対応するターゲットマスク画像を呼び出し、該ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得するように構成される。画像のターゲットマスク画像に格納されるライト変化データによって、画像のレンダリングを実現するという目的が達成される。これにより、3Dモデルを用いて、シーンにおいてリアルタイム光源又はベークシーンを配置することにより、ライト投影を実現することが回避され、さらに、画像をレンダリングすることでモバイル端末機器の消費電力を増加させることによるモバイル端末機器のフリーズが回避される。
具体的な過程は、以下のステップのとおりである。端末機器102におけるディスプレイ108は、レンダリング対象の第1画像(例えば、図1に示す射撃ゲームのゲーム画面、ターゲット仮想キャラクタが遠くのターゲットオブジェクトを狙撃しているもの)を表示するように構成される。ステップS102~S108に示すように、S102では、端末機器102が、レンダリング対象の第1画像を取得し、ネットワーク110を介して該第1画像をサーバ112に送信し、S104では、サーバ112が、第1画像に対応するターゲットマスク画像を取得し、ターゲットマスク画像のg成分には第1ライト変化データが格納されており、ターゲットマスク画像のb成分には第2ライト変化データが格納されており、第1ライト変化データは、第1画像のレンダリングに用いる、第1画像の左側に位置するライトの変化データであり、第2ライト変化データは、第1画像のレンダリングに用いる、第1画像の右側に位置するライトの変化データであり、S106では、ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得し、S108では、サーバ112が、取得した上記第2画像を、ネットワーク110を介して端末機器102に返信する。
いくつかの実施例では、端末機器102は、レンダリング対象の第1画像を取得し、第1画像に対応するターゲットマスク画像を取得し、ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得する。ターゲットマスク画像のg成分には第1ライト変化データが格納されており、ターゲットマスク画像のb成分には第2ライト変化データが格納されており、第1ライト変化データは、第1画像のレンダリングに用いる、第1画像の左側に位置するライトの変化データであり、第2ライト変化データは、第1画像のレンダリングに用いる、第1画像の右側に位置するライトの変化データである。画像のターゲットマスク画像に格納されるライト変化データによって、画像のレンダリングを実現するという目的が達成される。これにより、3Dモデルを用いて、シーンにおいてリアルタイム光源又はベークシーンを配置することにより、ライト投影を実現することが回避され、さらに、画像をレンダリングすることでモバイル端末機器の消費電力を増加させることによるモバイル端末機器のフリーズが回避される。
いくつかの実施例では、上記画像処理方法は、サーバ112に適用することができるが、これに限定されず、アプリケーションクライアントが、第1画像に対応するマスク画像を用いて、該第1画像に対してレンダリング処理を行うことを助力するために用いられる。ここで、上記アプリケーションクライアントは、端末機器102で実行することができるが、これに限定されない。該端末機器102は、携帯電話、タブレットコンピュータ、ノートパソコン、PCなど、アプリケーションクライアントの実行をサポートする端末機器であってもよいが、これらに限定されない。上記サーバ112と端末機器102は、ネットワークを介してデータやり取りを実現することができるが、これに限定されない。上記ネットワークは、無線ネットワーク又は有線ネットワークを含んでもよいが、これらに限定されない。ここで、該無線ネットワークは、ブルートゥース(登録商標)、Wi-Fi、及び無線通信を実現する他のネットワークを含む。上記有線ネットワークは、ワイドエリアネットワーク、メトロエリアネットワーク、ローカルエリアネットワークを含んでもよいが、これらに限定されない。上記サーバ112は、コンピューティングを行うことができる任意のハードウェア機器を含んでもよいが、これに限定されず、例えば、独立した物理サーバであってもよいし、複数の物理サーバで構成されるサーバクラスタ又は分散システムであってもよいし、クラウドサービス、クラウドデータベース、クラウドコンピューティング、クラウド関数、クラウドストレージ、ネットワークサービス、クラウド通信、ミドルウェアサービス、ドメイン名サービス、セキュリティサービス、及びビッグデータや人工知能プラットフォームなどのベースクラウドコンピューティングサービスを提供するクラウドサーバであってもよい。
いくつかの実施例では、図2に示すように、上記画像処理方法は、以下のステップを含む。
ステップ202では、レンダリング対象の第1画像を取得する。
ステップ204では、第1画像に対応するターゲットマスク画像を取得し、ターゲットマスク画像のg成分には第1ライト変化データが格納されており、ターゲットマスク画像のb成分には第2ライト変化データが格納されており、第1ライト変化データは、第1画像のレンダリングに用いる、第1画像の左側に位置するライトの変化データであり、第2ライト変化データは、第1画像のレンダリングに用いる、第1画像の右側に位置するライトの変化データである。
ステップ206では、ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得する。
いくつかの実施例では、レンダリング対象の第1画像は、人物オブジェクトが含まれる画像、静的物品が含まれる画像を含んでもよいが、これらに限定されない。
実際の応用では、人物の選択に2Dの実在人物画像が使用され、スクリーンのライト位置が固定され、美術担当者がライト方向に基づいてライトのmask画像(即ち、ターゲットマスク画像)を出力する。mask画像は、不透明な画像であり、そのr、g、bデータのr、g、b成分が、異なるデータに対応する。人物の両側の色の変化を個別に制御する必要があるため、mask画像のg成分には、左側のライト変化データが格納されており、b成分には、右側のライト変化データが格納されている。
カスタムシェーダーを用いて第1画像をレンダリングする。プログラムの動作フローチャートは、図3に示すとおりである。
ステップ1では、開始する。
即ち、第1画像のレンダリング動作を開始する。
ステップ2では、シェーダーをグラフィックスプロセッシングユニット(GPU:Graphics Processing Unit)にロードする。
ステップ3では、Update関数を呼び出す。
ステップ4では、ライトパラメータに変化があるか否かを判断し、ライトパラメータに変化がある場合、ステップ5を実行し、ライトパラメータに変化がない場合、ステップ6を実行する。
ステップ5では、フラグメントシェーダーのライト入力パラメータを修正する。
ステップ6では、GPUにUI頂点データ(maskテクスチャ、第1画像テクスチャを含む)を提出し、レンダリング状態(シェーダー、混合開始)を設定する。
ステップ7では、GPUにレンダリング指示を提出する。
ステップ8では、レンダリングが終了したか否かを判断し、レンダリングが終了した場合、ステップ9を実行し、レンダリングが終了していない場合、ステップ3を実行する。
ステップ9では、終了する。
ここで、第1画像に対してレンダリングを開始した後、CPUは、フレームごとにUpdate関数を1回呼び出す。Update関数では、スクリーンのライトパラメータに変化があるか否かを判断し、スクリーンのライトパラメータに変化がある場合、シェーダーの左右ライト色入力パラメータを修正する。各フレームそれぞれに対して、全てのレンダリングデータが提出され、カスタムシェーダーがGPUへ提出される。
GPUは、CPUから提出されたデータのレンダリングを担当する。GPUの1回のレンダリングの工程フローチャートは、図4に示すとおりである。
ステップ1では、GPUの1回のレンダリング処理が開始する。
ステップ2は、GPUのレンダリングパイプラインである。
ステップ3は、フラグメントシェーダーによる処理であり、第1画像と、第1画像に対応するmask画像とを用いてライト色を混合し、フラグメントの色値を戻す。
ステップ4は、GPUのレンダリングパイプラインである。
ステップ5では、表示バッファのデータを修正する。
ステップ6では、終了する。
ここで、GPUは、選手の画像をレンダリングする際に、カスタムシェーダーコードを呼び出す。シェーダーのフラグメント関数では、選手の画像及びmask画像をサンプリングする。左右ライト色がパラメータとしてシェーダーの変数に伝達され、ライト色と画像サンプリングデータとを混合して重ね合わせることで、フラグメントのrgbaデータ値を取得することができる。
本願の上記実施例を応用して、レンダリング対象の第1画像を取得し、第1画像に対応するターゲットマスク画像を取得し、ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得する。ここで、ターゲットマスク画像のg成分には第1ライト変化データが格納されており、ターゲットマスク画像のb成分には第2ライト変化データが格納されており、第1ライト変化データは、第1画像のレンダリングに用いる、第1画像の左側に位置するライトの変化データであり、第2ライト変化データは、第1画像のレンダリングに用いる、第1画像の右側に位置するライトの変化データである。画像のターゲットマスク画像に格納されるライト変化データによって、画像のレンダリングを実現するという目的が達成される。これにより、3Dモデルを用いて、シーンにおいてリアルタイム光源又はベークシーンを配置することにより、ライト投影を実現することが回避され、さらに、画像をレンダリングすることでモバイル端末機器の消費電力を増加させることによるモバイル端末機器のフリーズが回避される。
実際の応用では、2D画像を用いて高解像度効果を達成することができ、人物の服のしわの光と影を細やかに実現するとともに、ゲームの性能を保証することができる。alphaデータ及びライトデータがmask画像に統合されるため、ゲームの画像数を増やすことはない。本願で提供された構成によれば、図5に示すような効果図を実現することができる。
スクリーンのライトが変化すると、人物の身体の左右両側には、環境ライトの変化に応じて異なる色のライト投影が現れる。左図は、効果を達成しない場合のスクリーンショットであり、右図は、本願の構成で効果を達成する場合のスクリーンショットである。右図における人物の両側の顔、肩、及び腕には、細かいライト投影効果が現れる。
いくつかの実施例では、ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得するステップは、
ターゲットマスク画像のr成分に第3画像のalpha値が格納されている場合、ターゲットマスク画像のr成分、g成分、及びb成分を用いて第1画像をレンダリングすることにより、第2画像を取得するステップを含み、第1画像は、第3画像を圧縮した画像であり、第3画像は、透明度のある画像であり、alpha値は、第3画像の透明度を表すためのものである。
性能の低いAndroid(登録商標)携帯電話をサポートするとともに、ゲームのメモリ使用量を減らすために、本願では、画像の圧縮アルゴリズムにetc圧縮が用いられる。etc圧縮は、透明度のある画像をサポートしない。従来技術では、画像のalpha値を別の画像に保存する必要がある。本願では、画像の数を減らして、ディスクスペース使用量を減らすために、元の人物画像のalpha値をmask画像のr成分に保存する。図6に示されたのは、第1画像及び第1画像に対応するmask画像であり、即ち、左図が第1画像であり、右図が、第1画像に対応するmask画像である。ここで、mask画像は、だいたい色1を呈し、alpha値を表すr成分である。左側のデータは、r+g成分のデータであり、色2を呈する。右側のデータは、r+b成分のデータであり、色3を呈する。
いくつかの実施例では、ターゲットマスク画像を用いて第1画像をレンダリングする前に、第1画像が第3画像を圧縮した画像であり、かつ第3画像が透明度のある画像である場合、第3画像のalpha値をターゲットマスク画像のr成分に格納する。
いくつかの実施例において、ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得するステップは、
第1画像におけるオリジナルデータを収集するステップと、
ターゲットマスク画像のg成分に格納されている第1ライト変化量データと、ターゲットマスク画像のb成分に格納されている第2ライト変化量データとを取得するステップと、
第1ライト変化量データ及び第2ライト変化量データと、第1画像におけるオリジナルデータとを重ね合わせることにより、第2画像を取得するステップと、を含む。
いくつかの実施例において、第1画像におけるレンダリング対象のオリジナルデータを取得した後、上記方法は、
ターゲットマスク画像のg成分に格納されている第1ライト変化後データと、ターゲットマスク画像のb成分に格納されている第2ライト変化後データとを取得するステップと、
第1ライト変化後データ及び第2ライト変化後データで第1画像におけるレンダリング対象のデータを上書きすることにより、第2画像を取得するステップと、をさらに含む。
いくつかの実施例において、ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得するステップは、
ターゲット関数を呼び出すことにより、第1画像のオリジナルデータと、第1画像に対応するターゲットマスク画像におけるg成分及びb成分とを重ね合わせることにより、第2画像を取得するステップを含む。
いくつかの実施例において、レンダリング対象の第1画像を取得する前に、判断関数によって、第3画像に対応するターゲットマスク画像のg成分、b成分に対応するデータに変化があることが検出された場合、第3画像をレンダリング対象の第1画像として決定してもよい。
説明すべきものとして、説明を簡単にするために、前述した各方法実施例が一連の動作の組み合わせとして表現されているが、当業者は、本願によれば、何れかのステップを他の順序で又は同時に実行することができるので、本願は記載された動作の順序によって制限されないことを知っておくべきである。次に、当業者は、明細書に記載された実施例がいずれも好ましい実施例に属し、係る動作及びモジュールが必ずしも本願に必要なものではないことも知っておくべきである。
また、本願の実施例では、上記画像処理方法を実施するための画像処理装置が提供されている。図7に示すように、該装置は、第1取得ユニット71と、第2取得ユニット73と、レンダリングユニット75とを含む。
第1取得ユニット71は、レンダリング対象の第1画像を取得するように構成される。
第2取得ユニット73は、第1画像に対応するターゲットマスク画像を取得するように構成され、ターゲットマスク画像のg成分には第1ライト変化データが格納されており、ターゲットマスク画像のb成分には第2ライト変化データが格納されており、第1ライト変化データは、第1画像のレンダリングに用いる、第1画像の左側に位置するライトの変化データであり、第2ライト変化データは、第1画像のレンダリングに用いる、第1画像の右側に位置するライトの変化データである。
レンダリングユニット75は、ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得するように構成される。
いくつかの実施例において、レンダリングユニット75は、
ターゲットマスク画像のr成分に第3画像のalpha値が格納されている場合、ターゲットマスク画像のr成分、g成分、及びb成分を用いて第1画像をレンダリングすることにより、第2画像を取得するように構成されるレンダリングモジュールを含み、第1画像は、第3画像を圧縮した画像であり、第3画像は、透明度のある画像であり記alpha値は、第3画像の透明度を表すためのものである。
本願の上記実施例を応用して、第1取得ユニット71がレンダリング対象の第1画像を取得し、第2取得ユニット73が第1画像に対応するターゲットマスク画像を取得し、レンダリングユニット75がターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得する。ここで、ターゲットマスク画像のg成分には第1ライト変化データが格納されており、ターゲットマスク画像のb成分には第2ライト変化データが格納されており、第1ライト変化データは、第1画像のレンダリングに用いる、第1画像の左側に位置するライトの変化データであり、第2ライト変化データは、第1画像のレンダリングに用いる、第1画像の右側に位置するライトの変化データである。画像のターゲットマスク画像に格納されるライト変化データによって、画像のレンダリングを実現するという目的が達成される。これにより、3Dモデルを用いて、シーンにおいてリアルタイム光源又はベークシーンを配置することにより、ライト投影を実現することが回避され、さらに、画像をレンダリングすることでモバイル端末機器の消費電力を増加させることによるモバイル端末機器のフリーズが回避される。
いくつかの実施例において、上記装置は、
ターゲットマスク画像を用いて第1画像をレンダリングする前に、第1画像が第3画像を圧縮した画像であり、かつ第3画像が透明度のある画像である場合、第3画像のalpha値をターゲットマスク画像のr成分に格納するように構成される格納モジュールをさらに含む。
いくつかの実施例において、上記レンダリングユニット75は、
第1画像におけるオリジナルデータを収集するように構成される収集モジュールと、
ターゲットマスク画像のg成分に格納されている第1ライト変化量データと、ターゲットマスク画像のb成分に格納されている第2ライト変化量データとを取得するように構成される取得モジュールと、
第1ライト変化量データ及び第2ライト変化量データと、第1画像におけるオリジナルデータとを重ね合わせることにより、第2画像を取得するように構成される重ね合わせモジュールと、を含む。
いくつかの実施例において、上記装置は、
第1画像におけるレンダリング対象のオリジナルデータが取得された後、ターゲットマスク画像のg成分に格納されている第1ライト変化後データと、ターゲットマスク画像のb成分に格納されている第2ライト変化後データとを取得するように構成される第3取得ユニットと、
第1ライト変化後データ及び第2ライト変化後データで第1画像におけるレンダリング対象のデータを上書きすることにより、第2画像を取得するように構成される処理ユニットと、をさらに含む。
いくつかの実施例において、上記レンダリングユニット75は、
ターゲット関数を呼び出すことにより、第1画像のオリジナルデータと、第1画像に対応するターゲットマスク画像におけるg成分及びb成分とを重ね合わせることにより、第2画像を取得するように構成される重ね合わせモジュールを含む。
また、本願の実施例では、上記画像処理方法を実施するための電子機器が提供されている。図8に示すように、該電子機器は、メモリ802と、プロセッサ804とを備える。該メモリ802には、コンピュータプログラムが記憶され、該プロセッサ804は、コンピュータプログラムによって上記のいずれか1つの方法実施例におけるステップを実行するように構成される。
いくつかの実施例において、上記電子機器は、コンピュータネットワークの複数のネットワーク機器のうちの少なくとも1つのネットワーク機器に位置してもよい。
いくつかの実施例において、上記プロセッサは、コンピュータプログラムによって、
レンダリング対象の第1画像を取得するステップS1と、
第1画像に対応するターゲットマスク画像を取得するステップであって、ターゲットマスク画像のg成分には第1ライト変化データが格納されており、ターゲットマスク画像のb成分には第2ライト変化データが格納されており、第1ライト変化データは、第1画像のレンダリングに用いる、第1画像の左側に位置するライトの変化データであり、第2ライト変化データは、第1画像のレンダリングに用いる、第1画像の右側に位置するライトの変化データである、ステップS2と、
ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得するステップS3と、を実行するように構成されてもよい。
いくつかの実施例において、当業者であれば理解できるように、図8に示す構成は、模式的なものに過ぎず、電子機器は、スマートフォン(例えば、Androidスマホ、iOS(登録商標)スマホなど)、タブレットコンピュータ、パームトップ型パソコン、及びモバイルインターネットデバイス(MID:Mobile Internet Devices)やPADなどの端末機器であってもよく、様々な種類のサーバであってもよい。図8は、上記電子機器の構成を限定するものではない。例えば、電子機器は、図8に示されたものより多く又は少ないコンポーネント(例えば、ネットワークインタフェースなど)を含んでもよく、あるいは、図8に示されたものと異なるように配置されてもよい。
ここで、メモリ802は、ソフトウェアプログラム及びモジュール、例えば、本願の実施例における画像処理方法及び装置に対応するプログラム命令/モジュールを記憶するように構成されてもよい。プロセッサ804は、メモリ802に記憶されたソフトウェアプログラム及びモジュールを実行することにより、各種の機能アプリケーション及びデータ処理を実行し、即ち、上記の画像処理方法を実現する。メモリ802は、高速ランダムアクセスメモリを含んでもよく、不揮発性メモリ、例えば、1つ又は複数の磁気記憶装置、フラッシュメモリ、又は他の不揮発性固体メモリを含んでもよい。いくつかの実例において、メモリ802は、プロセッサ804に対して遠隔に設置されたメモリをさらに含んでもよく、これらの遠隔メモリは、ネットワークを介して端末に接続することができる。上記ネットワークの実例は、インターネット、企業イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、およびこれらの組み合わせを含むが、これらに限定されない。ここで、メモリ802は、レンダリング対象の第1画像、第1画像に対応するターゲットマスク画像、及び第2画像などの情報を記憶するように構成されてもよいが、これらに限定されない。一例として、図8に示すように、上記メモリ802は、上記画像処理装置における第1取得ユニット71と、第2取得ユニット73と、レンダリングユニット75とを含んでもよいが、これらに限定されない。また、上記メモリ802は、上記画像処理装置における他のモジュールユニットをさらに含んでもよいが、これらに限定されない。この例では、これ以上の説明を省略する。
いくつかの実施例において、伝送装置806は、ネットワークを介してデータを送受信するように構成される。上記ネットワークの実例は、有線ネットワーク及び無線ネットワークを含んでもよい。一実例において、伝送装置806は、ネットワークケーブルを介して他のネットワーク機器及びルータに接続可能であることで、インターネット又はローカルエリアネットワークと通信可能であるネットワークインタフェースコントローラ(NIC:Network Interface Controller)を含む。一実例において、伝送装置806は、無線方式でインターネットと通信するように構成される無線周波数(RF:Radio Frequency)モジュールである。
また、上記電子機器は、レンダリング対象の第1画像と、第2画像とを表示するように構成されるディスプレイ808と、上記電子機器における各モジュール部品を接続する接続バス810と、をさらに備えるように構成される。
本願の実施例では、コンピュータプログラムを記憶したコンピュータ可読記憶媒体が提供されている。該コンピュータプログラムは、実行されると、本願の実施例で提供される画像処理方法を実行させるように構成される。
いくつかの実施例において、上記コンピュータ可読記憶媒体は、
レンダリング対象の第1画像を取得するステップS1と、
第1画像に対応するターゲットマスク画像を取得するステップであって、ターゲットマスク画像のg成分には第1ライト変化データが格納されており、ターゲットマスク画像のb成分には第2ライト変化データが格納されており、第1ライト変化データは、第1画像のレンダリングに用いる、第1画像の左側に位置するライトの変化データであり、第2ライト変化データは、第1画像のレンダリングに用いる、第1画像の右側に位置するライトの変化データである、ステップS2と、
ターゲットマスク画像を用いて第1画像をレンダリングすることにより、第2画像を取得するステップS3と、を実行させるように構成されるコンピュータプログラムを記憶するように構成されてもよい。
いくつかの実施例において、当業者であれば理解できるように、上記実施例の各方法の手順の全部又は一部は、プログラムを介して端末機器の関連ハードウェアに指示することにより実行されてもよい。該プログラムは、コンピュータ可読記憶媒体に記憶されてもよい。記憶媒体は、フラッシュメモリ、読み出し専用メモリ(ROM:Read-Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク、又は光ディスクなどを含んでもよい。
上述した本願の実施例の番号は、説明のためのものに過ぎず、実施例の優劣を示すものではない。
上記実施例における統合されたユニットは、ソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売又は使用される場合、上記コンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づき、本願の構成は、本質的に、言い換えれば、従来技術に寄与する部分、あるいは、該構成の全部又は一部が、ソフトウェア製品の形で具現されてもよい。該コンピュータソフトウェア製品は、記憶媒体に記憶され、1台又は複数台のコンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器などであってもよい)に、本願の各実施例における方法の全部又は一部のステップを実行させるためのいくつかの命令を含む。
本願の上記実施例では、各実施例の説明に独自の焦点があり、ある実施例で詳述されていない部分については、他の実施例の関連する説明を参照すればよい。
本願で提供されるいくつかの実施例では、理解すべきものとして、掲示されたクライアントは、他の方式で実現してもよい。ここで、以上に説明した装置の実施例は、模式的なものに過ぎない。例えば、ユニットの分割は、論理的な機能の分割に過ぎず、実際に実現する際に別の分割方式であってもよい。例えば、複数のユニット又はコンポーネントを組み合わせたり、他のシステムに統合したりしてもよいし、一部の特徴を無視したり、実行しなかったりしてもよい。また、示され又は検討される相互結合、又は直接結合、又は通信接続は、いくつかのインタフェースを介したものであってもよく、ユニット又はモジュールの間接結合又は通信接続は、電気的又は他の形式であってもよい。
分離した部品として説明されたユニットは、物理的に分離したものであってもなくてもよい。ユニットとして示された部品は、物理的なユニットであってもなくてもよく、即ち、1つの場所に位置してもよいし、ネットワーク上の複数のユニットに分散してもよい。実際の必要に応じて、その中の一部又は全部のユニットを選択して、本実施例に係る発明の目的を達成してもよい。
また、本願の各実施例における各機能ユニットを1つの処理ユニットに統合してもよいし、各ユニットそれぞれが個別に物理的に存在するようにしてもよいし、2つ以上のユニットを1つのユニットに統合してもよい。上述した統合されたユニットは、ハードウェアの形で実現されてもよいし、ソフトウェア機能ユニットの形で実現されてもよい。
上記は、本願の好ましい実施形態に過ぎない。指摘すべきものとして、当業者にとっては、本願の原理から逸脱することなく、いくつかの改善及び修正を行うこともできる。これらの改善及び修正も、本願の保護範囲と見なされるべきである。
71 第1取得ユニット
73 第2取得ユニット
75 レンダリングユニット
102 端末機器
104 メモリ
106 プロセッサ
108 ディスプレイ
110 ネットワーク
112 サーバ
114 データベース
116 処理エンジン
802 メモリ
804 プロセッサ
806 伝送装置
808 ディスプレイ
810 接続バス

Claims (10)

  1. 電子機器が実行する画像処理方法であって、
    レンダリング対象の第1画像を取得するステップと、
    前記第1画像に対応するターゲットマスク画像を取得するステップであって、前記ターゲットマスク画像のg成分には第1ライト変化データが格納されており、前記ターゲットマスク画像のb成分には第2ライト変化データが格納されており、前記第1ライト変化データは、前記第1画像のレンダリングに用いる、前記第1画像の左側に位置するライトの変化データであり、前記第2ライト変化データは、前記第1画像のレンダリングに用いる、前記第1画像の右側に位置するライトの変化データである、ステップと、
    前記ターゲットマスク画像を用いて前記第1画像をレンダリングすることにより、第2画像を取得するステップと、
    を含む方法。
  2. 前記ターゲットマスク画像を用いて前記第1画像をレンダリングすることにより、第2画像を取得する前記ステップは、
    前記ターゲットマスク画像のr成分に第3画像のalpha値が格納されている場合、前記ターゲットマスク画像のr成分、g成分、及びb成分を用いて前記第1画像をレンダリングすることにより、前記第2画像を取得するステップを含み、
    前記第1画像は、前記第3画像を圧縮した画像であり、前記第3画像は、透明度のある画像であり、前記alpha値は、前記第3画像の透明度を表すためのものである、
    請求項1に記載の方法。
  3. 前記ターゲットマスク画像を用いて前記第1画像をレンダリングする前に、
    前記第1画像が前記第3画像を圧縮した画像であり、かつ前記第3画像が透明度のある画像である場合、前記第3画像のalpha値を前記ターゲットマスク画像のr成分に格納するステップをさらに含む、
    請求項2に記載の方法。
  4. 前記ターゲットマスク画像を用いて前記第1画像をレンダリングすることにより、第2画像を取得する前記ステップは、
    前記第1画像におけるオリジナルデータを収集するステップと、
    前記ターゲットマスク画像のg成分に格納されている第1ライト変化量データと、前記ターゲットマスク画像のb成分に格納されている第2ライト変化量データとを取得するステップと、
    前記第1ライト変化量データ及び前記第2ライト変化量データと、前記第1画像におけるオリジナルデータとを重ね合わせることにより、前記第2画像を取得するステップと、を含む、
    請求項1乃至3のいずれか一項に記載の方法。
  5. 前記第1画像におけるレンダリング対象のオリジナルデータを取得した後、
    前記ターゲットマスク画像のg成分に格納されている第1ライト変化後データと、前記ターゲットマスク画像のb成分に格納されている第2ライト変化後データとを取得するステップと、
    前記第1ライト変化後データ及び前記第2ライト変化後データで前記第1画像におけるレンダリング対象のデータを上書きすることにより、前記第2画像を取得するステップと、をさらに含む、
    請求項4に記載の方法。
  6. 前記ターゲットマスク画像を用いて前記第1画像をレンダリングすることにより、第2画像を取得する前記ステップは、
    ターゲット関数を呼び出すことにより、前記第1画像のオリジナルデータと、前記第1画像に対応するターゲットマスク画像におけるg成分及びb成分とを重ね合わせることにより、前記第2画像を取得するステップを含む、
    請求項1に記載の方法。
  7. レンダリング対象の第1画像を取得する前記ステップの前に、
    判断関数によって、第3画像に対応するターゲットマスク画像のg成分、b成分に対応するデータに変化があることが検出された場合、前記第3画像を前記レンダリング対象の第1画像として決定するステップをさらに含む、
    請求項1に記載の方法。
  8. 画像処理装置であって、
    レンダリング対象の第1画像を取得するように構成される第1取得ユニットと、
    前記第1画像に対応するターゲットマスク画像を取得するように構成される第2取得ユニットであって、前記ターゲットマスク画像のg成分には第1ライト変化データが格納されており、前記ターゲットマスク画像のb成分には第2ライト変化データが格納されており、前記第1ライト変化データは、前記第1画像のレンダリングに用いる、前記第1画像の左側に位置するライトの変化データであり、前記第2ライト変化データは、前記第1画像のレンダリングに用いる、前記第1画像の右側に位置するライトの変化データである、第2取得ユニットと、
    前記ターゲットマスク画像を用いて前記第1画像をレンダリングすることにより、第2画像を取得するように構成されるレンダリングユニットと、
    を含む装置。
  9. 求項1乃至7のいずれか一項に記載の方法をコンピュータに実行させるコンピュータプログラム
  10. メモリとプロセッサとを備える電子機器であって、前記メモリには、コンピュータプログラムが記憶され、前記プロセッサは、前記コンピュータプログラムを実行すると、請求項1乃至7のいずれか一項に記載の方法を実行するように構成される、電子機器。
JP2022523027A 2020-02-07 2020-11-04 画像処理方法、画像処理装置、コンピュータプログラム、及び電子機器 Active JP7301453B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010082717.0 2020-02-07
CN202010082717.0A CN111260768B (zh) 2020-02-07 2020-02-07 图片处理方法和装置、存储介质及电子装置
PCT/CN2020/126344 WO2021155688A1 (zh) 2020-02-07 2020-11-04 图片处理方法、装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
JP2022553251A JP2022553251A (ja) 2022-12-22
JP7301453B2 true JP7301453B2 (ja) 2023-07-03

Family

ID=70954883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022523027A Active JP7301453B2 (ja) 2020-02-07 2020-11-04 画像処理方法、画像処理装置、コンピュータプログラム、及び電子機器

Country Status (6)

Country Link
US (1) US11983900B2 (ja)
EP (1) EP4002289A4 (ja)
JP (1) JP7301453B2 (ja)
KR (1) KR102617789B1 (ja)
CN (1) CN111260768B (ja)
WO (1) WO2021155688A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111260768B (zh) * 2020-02-07 2022-04-26 腾讯科技(深圳)有限公司 图片处理方法和装置、存储介质及电子装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319244A (ja) 2000-05-10 2001-11-16 Namco Ltd ゲームシステム及び情報記憶媒体
CN104392479A (zh) 2014-10-24 2015-03-04 无锡梵天信息技术股份有限公司 一种利用灯光索引号对像素进行光照着色的方法
JP2017129950A (ja) 2016-01-19 2017-07-27 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5610735A (en) * 1993-06-04 1997-03-11 Matsushita Electric Industrial Co., Ltd. Light scattering light valve projection apparatus
US6016150A (en) * 1995-08-04 2000-01-18 Microsoft Corporation Sprite compositor and method for performing lighting and shading operations using a compositor to combine factored image layers
EP1258837A1 (en) * 2001-05-14 2002-11-20 Thomson Licensing S.A. Method to generate mutual photometric effects
JP4678218B2 (ja) * 2005-03-24 2011-04-27 コニカミノルタホールディングス株式会社 撮像装置及び画像処理方法
JP2007066064A (ja) * 2005-08-31 2007-03-15 Sega Corp 画像生成装置及びプログラム
US20070070082A1 (en) * 2005-09-27 2007-03-29 Ati Technologies, Inc. Sample-level screen-door transparency using programmable transparency sample masks
US8773433B1 (en) * 2006-04-12 2014-07-08 Pixar Component-based lighting
US20130265306A1 (en) * 2012-04-06 2013-10-10 Penguin Digital, Inc. Real-Time 2D/3D Object Image Composition System and Method
JP5904281B2 (ja) * 2012-08-10 2016-04-13 株式会社ニコン 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
CN104134230B (zh) * 2014-01-22 2015-10-28 腾讯科技(深圳)有限公司 一种图像处理方法、装置及计算机设备
WO2016185763A1 (ja) * 2015-05-15 2016-11-24 ソニー株式会社 光源制御装置及び光源制御方法並びに撮像システム
US9967529B2 (en) * 2015-06-04 2018-05-08 Disney Enterprises, Inc. Output light monitoring for benchmarking and enhanced control of a display system
CN108492339B (zh) * 2018-03-28 2021-06-01 腾讯科技(深圳)有限公司 获取资源压缩包的方法、装置、电子设备及存储介质
CN108520551B (zh) * 2018-03-30 2022-02-22 苏州蜗牛数字科技股份有限公司 实现光贴图动态光照的方法、存储介质及计算设备
CN110473280B (zh) * 2018-05-09 2024-02-23 网易(杭州)网络有限公司 多光源画面渲染方法、装置、存储介质、处理器和终端
CN109887066B (zh) * 2019-02-25 2024-01-16 网易(杭州)网络有限公司 光照效果处理方法及装置、电子设备、存储介质
CN111260768B (zh) * 2020-02-07 2022-04-26 腾讯科技(深圳)有限公司 图片处理方法和装置、存储介质及电子装置
US11615586B2 (en) * 2020-11-06 2023-03-28 Adobe Inc. Modifying light sources within three-dimensional environments by utilizing control models based on three-dimensional interaction primitives

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319244A (ja) 2000-05-10 2001-11-16 Namco Ltd ゲームシステム及び情報記憶媒体
CN104392479A (zh) 2014-10-24 2015-03-04 无锡梵天信息技术股份有限公司 一种利用灯光索引号对像素进行光照着色的方法
JP2017129950A (ja) 2016-01-19 2017-07-27 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム

Also Published As

Publication number Publication date
CN111260768B (zh) 2022-04-26
US20220164991A1 (en) 2022-05-26
JP2022553251A (ja) 2022-12-22
EP4002289A1 (en) 2022-05-25
KR20220046665A (ko) 2022-04-14
CN111260768A (zh) 2020-06-09
EP4002289A4 (en) 2022-11-30
WO2021155688A1 (zh) 2021-08-12
US11983900B2 (en) 2024-05-14
KR102617789B1 (ko) 2023-12-22

Similar Documents

Publication Publication Date Title
US11711563B2 (en) Methods and systems for graphics rendering assistance by a multi-access server
CN112215934A (zh) 游戏模型的渲染方法、装置、存储介质及电子装置
CN108765520B (zh) 文本信息的渲染方法和装置、存储介质、电子装置
CN106302124A (zh) 一种添加特效的方法及电子设备
CN107566346B (zh) 3d游戏数据的传输方法、装置以及存储介质、电子装置
CN112316433B (zh) 游戏画面渲染方法、装置、服务器和存储介质
CN108389241A (zh) 游戏场景中生成贴图的方法、装置和系统
WO2022033162A1 (zh) 一种模型加载方法以及相关装置
CN111710020B (zh) 动画渲染方法和装置及存储介质
CN111784817B (zh) 阴影的展示方法和装置、存储介质、电子装置
JP7301453B2 (ja) 画像処理方法、画像処理装置、コンピュータプログラム、及び電子機器
CN113034658B (zh) 一种模型贴图的生成方法和装置
CN111260767B (zh) 游戏中的渲染方法、渲染装置、电子设备及可读存储介质
EP4231243A1 (en) Data storage management method, object rendering method, and device
CN113440845B (zh) 一种虚拟模型的渲染方法、装置、存储介质和电子装置
CN113192173B (zh) 三维场景的图像处理方法、装置及电子设备
CN106303646A (zh) 一种特效匹配的方法、电子设备及服务器
WO2023221683A1 (zh) 图像渲染方法、装置、设备和介质
WO2023142756A1 (zh) 直播互动方法、装置以及系统
WO2024093609A1 (zh) 一种叠加光遮挡的渲染方法、装置及相关产品
CN116863065A (zh) 多模型同屏渲染方法、装置、电子设备及存储介质
CN117707676A (zh) 窗口渲染方法、装置、设备、存储介质及程序产品
CN116459516A (zh) 分屏特效道具生成方法、装置、设备和介质
CN114882202A (zh) 动画处理方法及装置
JP5669199B2 (ja) 画像描画装置、画像描画方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230615

R150 Certificate of patent or registration of utility model

Ref document number: 7301453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150