JP2023547224A - 画像に基づく照明効果処理方法、装置、デバイス及び記憶媒体 - Google Patents

画像に基づく照明効果処理方法、装置、デバイス及び記憶媒体 Download PDF

Info

Publication number
JP2023547224A
JP2023547224A JP2023526289A JP2023526289A JP2023547224A JP 2023547224 A JP2023547224 A JP 2023547224A JP 2023526289 A JP2023526289 A JP 2023526289A JP 2023526289 A JP2023526289 A JP 2023526289A JP 2023547224 A JP2023547224 A JP 2023547224A
Authority
JP
Japan
Prior art keywords
image
mesh model
dimensional mesh
light source
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023526289A
Other languages
English (en)
Other versions
JP7522316B2 (ja
Inventor
カン,チールン
ゾン,グアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Publication of JP2023547224A publication Critical patent/JP2023547224A/ja
Application granted granted Critical
Publication of JP7522316B2 publication Critical patent/JP7522316B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1438Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using more than one graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2352/00Parallel handling of streams of display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/06Use of more than one graphics processor to process data before displaying to one or more screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本開示は、画像に基づく照明効果処理方法、装置、デバイス及び記憶媒体に関する。当該方法は、画像、照明効果素材画像、及びシミュレーション光源の三次元空間における第1の位置を取得するステップであって、照明効果素材画像には照明情報が含まれているステップと、画像におけるオブジェクト画像に基づき、オブジェクト画像の表面上にオブジェクトの第1の三次元メッシュモデルを生成するステップと、シミュレーション光源の第1の位置、第1の三次元メッシュモデル上の点の画像表面からの距離、及び照明効果素材画像に基づき、第1の三次元メッシュモデル上の点の照明情報を決定するステップと、第1の三次元メッシュモデル上の点の照明情報に基づき、画像におけるオブジェクト画像をレンダリングし、画像の第1の照明効果レンダリング画像を取得するステップとを含む。これにより、照明効果をより自然でリアルにすることができる。

Description

本出願は、2020年10月30日に中国国家知識産権局に提出された、出願番号が202011195006.0であって、発明の名称が「画像に基づく照明効果処理方法、装置、デバイス及び記憶媒体」である中国特許出願に基づく優先権を主張するものであり、その全内容を援用により本明細書に組み込む。
本開示は、画像処理技術の分野に関し、特に、画像に基づく照明効果処理方法、装置、デバイス及び記憶媒体に関する。
従来技術は、撮影機能をユーザに提供することができるが、撮影機能を利用して画像を撮影するユーザが日々多くなるのにつれて、画像に特定の光照射効果を追加し、光照射効果をより自然でリアルにする方法に対する需要が増えてきた。
上記の技術的問題を解決するか、または上記の技術的問題を少なくとも部分的に解決するために、本開示は、画像の光照射レンダリング効果をよりリアルで自然にすることができる、画像に基づく照明効果処理方法、装置、デバイス及び記憶媒体を提供する。
本開示の実施形態の第1の態様は、画像に基づく照明効果処理方法を提供する。当該方法は、画像、照明効果素材画像、及びシミュレーション光源の三次元空間における第1の位置を取得するステップであって、前記照明効果素材画像には照明情報が含まれているステップと、前記画像におけるオブジェクト画像に基づき、前記オブジェクト画像の表面上にオブジェクトの第1の三次元メッシュモデルを生成するステップと、前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離、及び前記照明効果素材画像に基づき、前記第1の三次元メッシュモデル上の点の照明情報を決定するステップと、前記第1の三次元メッシュモデル上の点の照明情報に基づき、前記画像におけるオブジェクト画像をレンダリングし、前記画像の第1の照明効果レンダリング画像を取得するステップと、を含む。
本開示の実施形態の第2の態様によれば、画像に基づく照明効果処理装置を提供する。当該装置は、画像、照明効果素材画像、及びシミュレーション光源の三次元空間における第1の位置を取得するための取得モジュールであって、前記照明効果素材画像には照明情報が含まれている取得モジュールと、前記画像におけるオブジェクト画像に基づき、前記オブジェクト画像の表面上にオブジェクトの第1の三次元メッシュモデルを生成するための生成モジュールと、前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離、及び前記照明効果素材画像に基づき、前記第1の三次元メッシュモデル上の点の照明情報を決定するための決定モジュールと、前記第1の三次元メッシュモデル上の点の照明情報に基づき、前記画像におけるオブジェクト画像をレンダリングし、前記画像の第1の照明効果レンダリング画像を取得するための第1のレンダリングモジュールと、を含む。
本開示の実施形態の第3の態様によれば、メモリとプロセッサとを含み、メモリにはコンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサによって実行されるとき、前記第1の態様に記載の方法を実現することができる端末デバイスを提供する。
本開示の実施形態の第4の態様によれば、コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサによって実行されるとき、前記第1の態様に記載の方法を実現することができるコンピュータ可読記憶媒体を提供する。
本開示の実施形態の第5の態様によれば、端末デバイス上で実行されるとき、前記端末デバイスに前記第1の態様に記載の方法を実行させるコンピュータプログラム製品を提供する。
本開示の実施形態に係る技術案は、従来の技術と比べて、以下の利点がある。
本開示の実施形態によって提供される技術案は、実質的に、実際の三次元空間におけるオブジェクト表面の奥行き情報を、画像照明レンダリングの考慮要因の1つとしているので、画像の照明レンダリング効果をよりリアルで自然にすることができる。
本開示の実施形態によって提供される技術案は、階層レンダリングのポリシーを利用し、まず、背景画像のライティング及びシャドウの効果を描画し、その後、画像におけるオブジェクト画像のライティング効果を描画することにより、画像全体の照明効果をより自然でリアルにすることができる。
本開示の実施形態によって提供される技術案で使用される投影点の決定方法は、比較的簡単であり、計算量が少なく、計算速度が速く、端末性能に対する要求が低い。
本開示の実施形態によって提供される技術案は、第2の3次元メッシュモデルにおける画像との境界部分を平滑化することによって、形成された照明効果の自然さをさらに向上させることができ、第2の3次元メッシュモデルは、予め設定されたオブジェクトマッチングアルゴリズムに基づいて、画像におけるオブジェクトの上方に生成された前記オブジェクトの三次元メッシュモデルである。
ここで、図面は、本明細書に組み込まれ、本明細書の一部を構成するものであり、本開示に適合する実施形態を示し、明細書と共に本開示の原理を解釈する役割を果たす。本開示の実施形態、または従来技術における技術案をより明瞭に説明するために、以下、実施形態または従来技術の記述に使用する必要がある図面を簡単に紹介し、明らかに、当業者にとって、創造的な労働を費やすことがない前提で、さらにこれらの図面に基づいて他の図面を得ることができる。
本開示の一実施形態に係る、画像に基づく照明効果処理方法のフローチャートである。 本開示の一実施形態に係る、現実世界における光照射の概略図である。 本開示の一実施形態に係る照明効果素材画像の概略図である。 本開示の一実施形態に係る、オブジェクトがシミュレーション光源によって照射された後に形成された影の画像上の第2の位置を決定する概略図である。 本開示の別の実施形態に係る、オブジェクトがシミュレーション光源によって照射された後に形成された影の画像上の第2の位置を決定する概略図である。 本開示の一実施形態に係る、第1の三次元メッシュモデル上の点の照明情報を決定する概略図である。 本開示の一実施形態に係る実際に起こり得る状況の概略図である。 本開示の別の実施形態に係る、画像に基づく照明効果処理方法のフローチャートである。 本開示の一実施形態に係るS230の実行後の様子を示す概略図である。 本開示の別の実施形態に係るS230の実行後の様子を示す概略図である。 本開示の一実施形態に係る照明効果処理装置の構成ブロック図である。 本開示の一実施形態に係る端末デバイスの構成概略図である。
本開示の上記の目的、特徴及び利点をより明確に理解するために、以下で、本開示の技術案についてさらに説明する。なお、矛盾しない限り、本開示の実施形態及び実施形態の特徴は、互いに組み合わせることができる。
本開示を十分に理解しやすくするために、以下の説明において、多くの詳細内容が記載されているが、本開示は、本明細書に記載されているものとは異なる他の形態で実施されることもできる。明らかに、本明細書の実施形態は、本開示の実施形態の全てではなく、そのうちの一部に過ぎない。
図1は、本開示の一実施形態に係る画像に基づく照明効果処理方法のフローチャートである。この方法は、端末デバイスによって実行され得る。当該端末デバイスは、例示的に携帯電話、タブレット型コンピュータ、ノートブック型コンピュータ、デスクトップ型コンピュータ、スマートTVなどの画像処理能力を有する装置として理解され得る。いくつかの実施形態では、本実施形態で言及される端末デバイスには、画像表示デバイス(ディスプレイなどであるが、ディスプレイに限定されない)を搭載することができ、端末デバイスは、ディスプレイを介して画像を表示し、本実施形態の方法によって画像上に1つ以上の照明効果を追加することができ、ここで、本実施形態で言及される照明効果とは、画像が光と影の効果を反映することができるように、画像に重畳することができる照明効果の形態を指す。他の実施形態では、本実施形態で言及される端末デバイスには、撮影装置も同時に搭載することができ、撮影装置が画像をキャプチャした後、端末デバイスは本実施形態の方法を使用して、画像に1つまたは複数の照明効果を追加することができる。図1に示すように、本実施形態に係る方法は、以下のステップを含む。
ステップS110:画像、照明効果素材画像、及びシミュレーション光源の三次元空間における第1の位置を取得し、当該照明効果素材画像には照明情報が含まれている。
ここで、画像とは、光照射効果を追加する必要がある視覚効果のある画面である。画像には少なくとも1つのオブジェクトが含まれる。オブジェクトは、具体的には人、動物、または物品であってもよい。本開示では、画像の由来は限定されない。具体的には、端末で撮影したり、他の端末からBluetooth(登録商標)などのデータ通信方式で取得したり、サーバーからダウンロードしたりすることができる。
シミュレーション光源とは、現実世界の光源のシミュレーション物を指す。シミュレーション光源は具体的に、太陽シミュレーション物、ステージランプシミュレーション物、スポットライトシミュレーション物などであってもよいが、本出願では限定されない。なお、本開示では、シミュレーション光源は、その後に形成される照明効果を決定するために使用されるが、シミュレーション光源自体は、必ずしも照明効果処理された画像に現れるとは限らない。
現実世界では、同一オブジェクトでも光源の位置が異なり、オブジェクトの周りに形成される影の位置や形状、面積も異なる。照明効果処理された画像を現実世界と一致させるためには、三次元空間におけるシミュレーション光源の位置を取得する必要がある。区別の便宜上、本実施形態では、三次元空間におけるシミュレーション光源の位置を第1の位置とする。ここで「三次元空間」とは、現実世界の空間に対するシミュレーション結果である。三次元空間におけるシミュレーション光源の第1の位置を取得する目的は、画像におけるオブジェクトとシミュレーション光源との間の位置関係を容易に見分けることである。
現実世界では、シーンによって、光源から出射された光がいくつかの遮蔽物を通った後のみオブジェクトに投影され、まだらの光と影が形成される場合がある。例示的に、図2を参照すると、遮蔽物Mは、透光領域Bと遮光領域Aとを含む。太陽Nの光線は、遮蔽物Mの透光領域B(葉の隙間など)を通って地面に照射され、地面に大きさや形状が異なる光点Cが次々と現れる。このような状況をシミュレートするために、照射効果素材画像を設定することができる。このように、照明効果素材画像は、遮蔽物Mの存在によって形成される特定パターンの光点Cをシミュレートするための素材であってもよい。一つの実施可能な形態では、照明効果素材画像は、図2の地面に形成された光点のセットのシミュレーション結果と見なすことができる。図2は本開示の一実施形態に係る現実世界における光照射の概略図である。
照明情報とは、明暗の情報を指し、具体的に輝度値や階調値で表すことができる。「照明効果素材画像には照明情報が含まれている」とは、異なる位置の明暗情報を反映できるデータが照明効果素材画像に含まれていることを意味する。例示的には、図3に示すように、白色領域は、光源から出射された光が遮蔽物の透光領域を通って形成された光点をシミュレートする一方、黒色領域は、光源から出射された光が遮蔽物で遮られ、照射できない部分をシミュレートする。ここで、図3は本開示の一実施形態に係る照明効果素材画像の概略図である。
また、S110の具体的な実現方法は多様であり、例えば、ユーザはヒューマンコンピュータインタラクションデバイスを介してユーザ指示を入力することができ、ユーザ指示には、照明効果処理を必要とする画像、選択された照明効果素材画像、及び三次元空間における指定されたシミュレーション光源の第1の位置が含まれている。ユーザ指示を解析することによって、照明効果処理を必要とする画像、選択された照明効果素材画像、及び三次元空間における指定されたシミュレーション光源の第1の位置が得られる。
ステップS120:画像におけるオブジェクト画像に基づき、当該オブジェクト画像の表面上にオブジェクトの第1の三次元メッシュモデルを生成する。
現実の世界では、オブジェクトは立体的であるため、このステップの本質は、照明効果処理前の画像自体に基づき、画像におけるオブジェクトの立体性を復元することである。
デジタル化画像では、各画素は、画像の色を表すビットを含む2進数のセットで記述され、画像における各画素の色が占める2進数のビット数は、画像奥行きと呼ばれる。画像奥行きは、カラー画像の各画素が持つ可能性のある色数、またはグレースケール画像の各画素が持つ可能性のあるグレーレベルを決定する。これは、カラー画像に出現可能な最大色数、またはグレースケール画像における最大グレーレベルを決定する。
このステップの具体的な実現方法は多様であり、例えば、画像におけるオブジェクト画像の奥行き情報に基づき、オブジェクト画像の表面上にオブジェクトの第1の三次元メッシュモデルを生成することができる。
また、実際には、まず、画像におけるオブジェクトのカテゴリを識別し、次に画像におけるオブジェクトのカテゴリに基づき適切なアルゴリズムを選択し、このアルゴリズムと画像におけるオブジェクト画像の奥行き情報とに基づき、オブジェクト画像の表面上にオブジェクトの第1の三次元メッシュモデルを生成することができる。異なるタイプのオブジェクトには異なる特性があるため、オブジェクトのタイプに応じてアルゴリズムを選択することにより、形成された第1の三次元メッシュモデルとオブジェクトの表面との適合度をより高くすることができ、その後の照明効果の追加により形成される効果をより自然にするのに有利である。
例示的には、画像におけるオブジェクトが人間の顔である場合、顔マッチングアルゴリズム(例えばfacefittingアルゴリズムなど)を使用して、人間の顔の表面上に人間の顔の第1の三次元メッシュモデルを生成することができる。
ステップS130:シミュレーション光源の第1の位置、第1の三次元メッシュモデル上の点の画像表面からの距離、及び照明効果素材画像に基づき、当該第1の三次元メッシュモデル上の点の照明情報を決定する。
このステップの具体的な実現方法は多様であり、例えば、シミュレーション光源の第1の位置、第1の三次元メッシュモデル上の点の画像表面からの距離に基づき、シミュレーション光源によって照射された後の当該第1の三次元メッシュモデル上の点の第1の照明効果画像上の投影点を決定し、当該第1の三次元メッシュモデル上の点に対応する投影点の照明情報を、第1の三次元メッシュモデル上の点の照明情報として決定する。理解の便宜上、以下、図4を参照しながら説明する。図4は、本開示の一実施形態に係る、第1の三次元メッシュモデル上の点の照明情報を決定する概略図である。
図4を参照すると、第1の三次元メッシュモデル上の点D1がシミュレーション光源Nによって照明された後、その照明効果素材画像P1上の投影点がD2である。ここでの照明効果素材画像は、S110で取得された画像と重なっていると理解することができ、この場合、照明効果素材画像P1上の点D2の照明情報を点D1の照明情報として決定する。
その中で、点D1の照明効果素材画像P1上の投影点D2を決定する方法は多様であり、例えば、画像が存在する平面を基準平面とし、その上に直交するX軸とY軸を設定する。基準平面と直交し、光源が配置されている側を指す方向をZ軸の正の方向とし、このようにしてデカルト座標系が確立される。シミュレーション光源の座標を(xl,yl,zl)、点D1の座標を(x0,y0,z0)、投影点D2の座標を(u,v,0)とすると、次の式(1)と式(2)から、それぞれuとvを求めることができる。
Figure 2023547224000002
このように投影点を決定する方法は比較的簡単であり、計算量が少なく、計算速度が速く、端末パフォーマンスに対する要求が低くなる。
ステップS140:第1の三次元メッシュモデル上の点の照明情報に基づき、画像におけるオブジェクト画像をレンダリングし、当該画像の第1の照明効果レンダリング画像を取得する。
当業者であれば理解できるように、現実の世界では、同一平面(あるテーブルの面など)で決定される照明範囲に対して、光源の位置をそのまま不変とし、最初に、光源が図2に示される特定の遮蔽物を通ってこの範囲に照射すると、形成される光点効果を第1の照明効果とする。あるオブジェクト(ティーポットなど)をこの照明範囲内に置き、同一光源が同一遮蔽物を通ってこの範囲を再び照射すると、形成される光点効果を第2の照明効果とする。第1の照明効果と第2の照明効果とを比較すると、第1の照明効果に比べて、第2の照明効果における光点のエッジがずれていることがわかる。オブジェクトが立体的であり、その立体的な特性により、光点の形状やサイズが変化しているからである。
S130及びS140の本質は、第1の三次元メッシュモデル上の点のZ軸方向での座標値に基づき、第1の三次元メッシュモデル上の点の照明情報を決定し、オブジェクトの立体性によって引き起こされる光点のエッジずれの様子をシミュレートすることによって、当該オブジェクトに反映される照明効果と現実世界の照明効果との一致性を向上させ、照明効果をより自然にすることである。
オブジェクト画像を除く画像の他の部分が背景画像と呼ばれる場合、上記の技術案は、階層レンダリングの手法を採用することもできる。最初に背景画像の照明と影の効果を描画し、次にオブジェクトの三次元モデルでの照明効果を描画し、これによって、照明効果をより自然でリアルにすることができる。
本開示の実施形態では、画像の背景及びオブジェクトの影をレンダリングするための方法が様々あり、例えば、例示的な方法では、照明効果素材画像上の照明情報に基づき画像の背景部分をレンダリングすることができ、シミュレーション光源の第1の位置に基づき、画像上にレンダリングしてオブジェクトの影を得ることができる。
ここで、「照明効果素材画像に含まれる照明情報に基づき画像の背景部分をレンダリングする」ための具体的な実現方法は様々あり、例えば、フュージョンアルゴリズムを用いて照明効果素材画像と画像とを融合処理する。具体的には、まず、照明効果素材画像の各位置と照明効果を追加すべき画像の各位置との対応関係を求め、次に、照明効果素材画像の照明効果及びこの対応関係に基づき、照明効果を追加すべき画像の各位置の照明情報を決定し、照明効果を追加すべき画像の各位置の照明情報に基づき、照明効果を追加すべき画像をレンダリングする。
さらに、融合する前に、照明効果素材画像のサイズが照明効果を追加すべき画像のサイズと一致するように照明効果素材画像のサイズを調整し、これにより、照明効果を追加すべき画像の各位置の照明情報を決定することが容易になる。
具体的に融合処理を行う場合、両者の対応する位置における画素値の平均値、エントロピー値、標準偏差、平均勾配などを組み合わせることにより、両者の融合処理を行うことができる。
なお、オブジェクト画像を除く画像の他の部分が背景画像と呼ばれる場合、背景の照明効果レンダリングを実行するときに、オブジェクト画像及び背景画像の両方を照明効果素材画像と融合する必要があることに注意されたい。
「シミュレーション光源の第1の位置に基づき、画像上にレンダリングしてオブジェクトの影を得る」ための具体的な実現方法は様々あり、例えば、シミュレーション光源の第1の位置に基づき、オブジェクトがシミュレーション光源によって照射された後に形成された影の画像上の第2の位置を決定し、画像の第2の位置でレンダリングして影を得ることができる。
さらに、「シミュレーション光源の第1の位置に基づき、オブジェクトがシミュレーション光源によって照射された後に形成された影の画像上の第2の位置を決定する」ための具体的な実現方法は様々あり、例えば、画像からオブジェクト画像を分割して除去し、オブジェクト画像が存在する領域のマスクを得、シミュレーション光源の第1の位置に基づき、領域に対するマスクのオフセット量を決定し、領域に対するマスクのオフセット量に基づき、オブジェクトの影の画像上の第2の位置を決定することができる。理解の便宜上、以下、図5を参照しながら説明する。ここで、図5は、本開示の一実施形態に係るオブジェクトがシミュレーション光源によって照射された後に形成された影の画像上の第2の位置を決定する概略図である。
一つの実施可能な形態では、図5を参照すると、Y2は、シミュレーション光源Nによって照明される前にオブジェクトQが存在する領域のマスクである。画像P全体に対するY2の位置は、マスクの初期位置である。シミュレーション光源Nから出射される光の照射方向は、シミュレーション光源Nの第1の位置とオブジェクトQの位置とに基づき求めることができる。照射方向に基づいて、マスクの初期位置に対するマスクのオフセット量を計算することができる。続いて、マスクの初期位置及びマスクの初期位置に対するマスクのオフセット量に基づき、オブジェクトの影の画像上の第2の位置を得ることができる。
一つの実施可能な形態では、「シミュレーション光源の第1の位置に基づき、オブジェクトがシミュレーション光源によって照射された後に形成された影の画像上の第2の位置を決定する」ことは以下の通りであってもよい。まず、シミュレーション光源の第1の位置に基づき、当該シミュレーション光源によって照射された後の第1の三次元メッシュモデル上の点の画像上の投影点を決定する。その後、全ての投影点に基づいて、全ての投影点からなる輪郭図形を決定する。例えば、図6の各点が、シミュレーション光源によって照射された後の同じ第1の三次元メッシュモデル上の点の画像上の投影点であるとすると、図6の円F1は、全ての投影点からなる輪郭図形である。図6からわかるように、輪郭図形F1は、全ての投影点のうち最も外側の点をフィッティングすることによって得られるグラフである。輪郭図形に位置する投影点を除いて、他の投影点は当該輪郭図形内に位置する。最後に、オブジェクト画像を輪郭図形から取り除くと、オブジェクトがシミュレーション光源によって照射された後に形成される影の画像上の第2の位置が得られる。引き続き図6を参照すると、円F2がオブジェクト画像であり、オブジェクト画像(即ち、円F2)を輪郭図形F1から取り除くと、斜線で塗りつぶされた領域が得られる。斜線で塗りつぶされた領域の位置は、オブジェクトがシミュレーション光源によって照射された後に形成される影の画像上の第2の位置である。これに加えて、上記の技術案では、投影点を決定する方法も提供する。この方法は、比較的簡単であり、計算量が少なく、計算速度が速く、端末パフォーマンスに対する要求が低い。ここで、図6は、本開示の別の実施形態に係る、オブジェクトがシミュレーション光源によって照射された後に形成された影の画像上の第2の位置を決定する概略図である。
上記の技術案に基づいて、一つの実施可能な形態では、前記第1の照明効果レンダリング画像が得られた後、「画像に基づく照明効果処理方法」は、さらに、予め設定された拡散反射照明モデルに基づき、第1の照明効果レンダリング画像を処理し、画像の第2の照明効果レンダリング画像を取得するステップを含む。このように設定すれば、形成される照明効果をより自然でリアルにすることができる。一つの実施可能な形態では、実際には、フォン照明モデル(Phong Lighting Model)を使用して、奥行き及び法線情報に基づいて第1の照明効果画像を処理し、第2の照明効果レンダリング画像を取得することができる。
現実の世界では、照度(Luminosity)は、オブジェクトが照射されるときの明るさの度合いを表す。同じ光源の場合、光源が被照射面から遠いほど被照射面の照度が小さくなり、被照射面が暗くなる一方、光源が被照射面に近いほど被照射面の照度が大きくなり、被照射面が明るくなる。これに基づいて、理論的には、仮想世界では、第1の三次元メッシュモデル上の点のZ軸方向での座標値が大きいほど、シミュレーション光源に近くなり、この点の輝度が高くなる一方、第1の三次元メッシュモデル上の点のZ軸方向での座標値が小さいほど、シミュレーション光源から遠く離れ、その点の輝度は低くなる。したがって、上記の各技術案に基づいて、さらに、第1の三次元メッシュモデル上の点のZ軸方向での座標値に基づき、第1の三次元メッシュモデル上の点の照明情報を補正することで、このオブジェクトに反映される照明効果と現実世界の照明効果との一致性をさらに向上させることができる。
具体的には、照明情報は、階調値で表されるものとする。このとき、第1の三次元メッシュモデル上の点のZ軸方向における座標値が大きいほど階調値が大きくなる。一つの実施可能な実施形態では、Z軸方向の座標値と照明情報補正パラメータとの間の変換関係が予め定められる。例えば、プリセット重みを設定し、座標値にプリセット重みを乗算することで、積の結果(即ち、照明情報補正パラメータ)を0から255の範囲内とする。続いて、S140で得られた第1の三次元メッシュモデル上の点の照明情報と、同じ点の照明情報補正パラメータとに基づき、当該点の最終的な照明情報を決定する。S140を実行するとき、補正後の第1の三次元メッシュモデル上の点の照明情報に基づき、オブジェクト画像をレンダリングして第1の照明効果レンダリング画像を取得する。
また、実際には、S120の実行後、形成された第1の三次元メッシュモデルにおいて、境界に近い領域の一部と背景との境界部分は、奥行きの遷移が平滑ではないため不自然な断面が生じる場合がある。例として、画像におけるオブジェクトが人の顔であり、顔以外の部分が背景であるとする。顔の第1の三次元メッシュモデルを顔の表面上に直接生成し、画像が存在する平面(即ち標準平面、また背景画像が存在する平面とも理解できる)のグレーレベルを0に設定し、黒として表現する(図7には図示せず)場合、第1の三次元メッシュモデルのZ軸座標をグレーに変換すると、その結果が図7に示されている。図7において、顔の三次元メッシュモデルの高さが平面よりも高いほど、色が白くなる。額の位置が標準平面よりも遥かに高いため、この箇所の色の遷移が平滑ではなく、色が急激に変化し、断層が形成されるようになる。この三次元メッシュモデルを基にして直接、照明処理を行うと、顔と背景との境界部に不自然な断面が生成される。ここで、図7は、本開示の実施形態に係る、実際に起こり得る状況の概略図である。
図7に示されている上述の欠陥を解決するために、本出願の実施形態は、画像に基づく照明効果処理方法の別の実施形態を提供し、以下で図8を参照しながら説明する。ここで、図8は、本開示の別の実施形態に係る、画像に基づく照明効果処理方法のフローチャートである。図8は、図7の一つの具体例である。
図8を参照すると、当該画像に基づく照明効果処理方法は、以下のステップを含んでもよい。
ステップS210:画像、照明効果素材画像、及びシミュレーション光源の三次元空間における第1の位置を取得し、照明効果素材画像には照明情報が含まれている。
なお、S210の関連内容については、上記S110の関連内容を参照されたい。
ステップS220:予め設定されたオブジェクトマッチングアルゴリズムに基づいて、オブジェクトの表面上にオブジェクトの第2の三次元メッシュモデルを生成する。
ここで、「予め設定されたオブジェクトマッチングアルゴリズム」とは、予め設定された、画像におけるオブジェクト画像の奥行き情報を参照して、オブジェクト画像の表面上にオブジェクトの三次元メッシュモデルを生成するためのアルゴリズムである。「予め設定されたオブジェクトマッチングアルゴリズム」は本開示の実施形態で限定されず、例えば、顔マッチングアルゴリズムであってもよい。
ここで、第2の三次元メッシュモデルとは、画像におけるオブジェクト画像の奥行き情報のみに基づいて生成された三次元メッシュモデルであり、当該三次元モデルは、奥行きの遷移が平滑ではないため、断面が不自然になる問題が生じる可能性がある。
ステップS230:第2の三次元メッシュモデルにおける画像との境界部分を平滑化して、オブジェクトの第1の三次元メッシュモデルを取得する。
本ステップの具体的な実現方法は様々であり、一つの実施可能な形態では、画像におけるオブジェクトの周りに複数の点を挿入するステップと、複数の点と第2の三次元メッシュモデルのエッジ上の点とを連結して、新しいメッシュを生成するステップと、新しいメッシュと第2の三次元メッシュモデルとに基づいて、オブジェクトの第1の三次元メッシュモデルを生成するステップと、を含む。
ここで、挿入される点の具体的な挿入位置は、画像における背景画像部分にあればよい。その具体的な位置は、本開示で限定されない。画像の周りの境界線にあってもよいし、画像の周りの境界線になくてもよい。また、点を挿入する際には、自然断面が存在する可能性のある領域の近くにのみ点を挿入してもよく、自然断面が存在するかどうかに関係なく、オブジェクトの周りの全ての領域に点を挿入するように設定してもよい。
背景画像が存在する平面を標準平面とすれば、第2の三次元メッシュモデルは標準平面上に位置する突起に相当し、このようにして、複数の点と第2の三次元メッシュモデルのエッジ上の点とを連結して生成された新しいメッシュは、突起したエッジを標準平面に接続する斜面に相当する。
S230を容易に理解するために、以下に図9を参照しながら説明する。ここで、図9は、本開示の一実施形態に係るS230の実行後の様子を示す概略図である。
一例として、挿入された点の奥行きの値を0に設定した場合、新しく挿入された点を元の顔の三次元モデルの最外層の頂点に接続することができ、全体的に描画した結果を図9に示すことができる。図9から、額から画像の上エッジにかけてグラデーション効果が現れていることがわかる。ただし、挿入された点がまばらであるため、いくつかのメッシュのアーティファクトが存在している。実際には、挿入された点が密集しているほど、形成されるグラデーション効果が良くなる。上記の内容からわかるように、上記の方法を用いることで、オブジェクトのエッジと背景との境界部での奥行き遷移が平滑でないことによる不自然な断面の問題を解決することができる。
また、照明効果をより自然でリアルにするために、上記の「新しいメッシュと第2の三次元メッシュモデルとに基づいて、オブジェクトの第1の三次元メッシュモデルを生成する」構成を、「新しいメッシュと第2の三次元メッシュモデルとに基づいて、オブジェクトの第3の三次元メッシュモデルを取得し、第3の三次元メッシュモデルをフィルタ処理して、オブジェクトの第1の三次元メッシュモデルを取得する」構成に置き換えるように設定することができる。一例として、図10は、図9をフィルタ処理した結果である。図9と比較して、図10の照明効果がより自然でリアルであることは明らかである。ここで、図10は、本開示の別の実施形態に係るS230の実行後の様子を示す概略図である。
一つの実施可能な形態では、フィルタ処理は、平均フィルタリングを含む。
ステップS240:照明効果素材画像に含まれる照明情報に基づき、画像の背景部分をレンダリングし、シミュレーション光源の第1の位置に基づき、画像上にレンダリングしてオブジェクトの影を得る。
なお、S240の関連内容については、上記の「照明効果素材画像に含まれる照明情報に基づき、画像の背景部分をレンダリングする」に関する内容、及び「シミュレーション光源の第1の位置に基づき、画像上にレンダリングしてオブジェクトの影を得る」に関する内容を参照されたい。
ステップS250:シミュレーション光源の第1の位置、第1の三次元メッシュモデル上の点の画像表面からの距離、及び照明効果素材画像に基づき、第1の三次元メッシュモデル上の点の照明情報を決定する。
なお、S250の関連内容については、上記のS130に関する内容を参照されたい。
ステップS260:第1の三次元メッシュモデル上の点の照明情報に基づき、画像におけるオブジェクト画像をレンダリングし、画像の第1の照明効果レンダリング画像を取得する。
なお、S260の関連内容については、上記のS140に関する内容を参照されたい。
上記のS210からS260の関連内容に基づいて、本出願の技術案は、第2の3次元メッシュモデルにおける画像との境界部分を平滑化することにより、形成された照明効果をより自然でリアルにすることができることがわかる。
本開示の実施形態は、さらに照明効果処理装置を提供する。図11は、本開示の一実施形態に係る照明効果処理装置の構成ブロックである。図11を参照すると、当該照明効果処理装置は、
画像、照明効果素材画像、及びシミュレーション光源の三次元空間における第1の位置を取得するための取得モジュールであって、前記照明効果素材画像には照明情報が含まれている取得モジュール310と、
前記画像におけるオブジェクト画像に基づき、前記オブジェクト画像の表面上にオブジェクトの第1の三次元メッシュモデルを生成するための生成モジュール320と、
前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離、及び前記照明効果素材画像に基づき、前記第1の三次元メッシュモデル上の点の照明情報を決定するための決定モジュール330と、
前記第1の三次元メッシュモデル上の点の照明情報に基づき、前記画像におけるオブジェクト画像をレンダリングし、前記画像の第1の照明効果レンダリング画像を取得するための第1のレンダリングモジュール340と、を含む。
一つの実施可能な形態では、前記装置は、
前記照明効果素材画像に含まれる照明情報に基づき、前記画像の背景部分をレンダリングするための第2のレンダリングモジュールをさらに含む。
一つの実施可能な形態では、前記装置は、
前記シミュレーション光源の第1の位置に基づき、前記画像上にレンダリングして前記オブジェクトの影を得るための第3のレンダリングモジュールをさらに含む。
一つの実施可能な形態では、前記装置は、
予め設定された拡散反射照明モデルに基づき、前記第1の照明効果レンダリング画像を処理し、前記画像の第2の照明効果レンダリング画像を取得するための拡散反射処理モジュールをさらに含む。
一つの実施可能な形態では、前記生成モジュール320は、
予め設定されたオブジェクトマッチングアルゴリズムに基づいて、前記オブジェクト画像の表面上に前記オブジェクトの第2の三次元メッシュモデルを生成するための第1の生成サブモジュールと、
前記第2の三次元メッシュモデルにおける前記画像との境界部分を平滑化して、前記オブジェクトの第1の三次元メッシュモデルを取得するための平滑化処理サブモジュールと、を含む。
一つの実施可能な形態では、前記平滑化処理サブモジュールは、
前記画像上に前記オブジェクトの周りに複数の点を挿入するための挿入サブユニットと、
前記複数の点と前記第2の三次元メッシュモデルのエッジ上の点とを連結して、新しいメッシュを生成するための第1の生成サブユニット、
前記新しいメッシュと前記第2の三次元メッシュモデルとに基づいて、前記オブジェクトの第1の三次元メッシュモデルを生成するための第2の生成サブユニットと、
を含む。
一つの実施可能な形態では、前記第2の生成サブユニットは、
前記新しいメッシュと前記第2の三次元メッシュモデルとに基づいて、前記オブジェクトの第3の三次元メッシュモデルを取得し、
前記第3の三次元メッシュモデルをフィルタ処理して、前記オブジェクトの第1の三次元メッシュモデルを取得するように構成される。
一つの実施可能な形態では、前記フィルタ処理は、平均フィルタリングを含む。
一つの実施可能な形態では、前記第3のレンダリングモジュールは、
前記シミュレーション光源の前記第1の位置に基づき、前記オブジェクトが前記シミュレーション光源によって照射された後に形成された影の前記画像上の第2の位置を決定するための決定サブモジュールと、
前記画像の前記第2の位置でレンダリングして前記影を得るためのレンダリングサブモジュールと、を含む。
一つの実施可能な形態では、前記決定サブモジュールは、
前記画像から前記オブジェクト画像を分割して除去し、前記オブジェクト画像が存在する領域のマスクを得るための分割サブユニットと、
前記シミュレーション光源の前記第1の位置に基づき、前記領域に対する前記マスクのオフセット量を決定するための第1の決定サブユニットと、
前記領域に対する前記マスクのオフセット量に基づき、前記オブジェクトの影の前記画像上の第2の位置を決定するための第2の決定サブユニットと、
を含む。
一つの実施可能な形態では、前記決定モジュールは、
前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離に基づき、前記シミュレーション光源によって照射された後の前記第1の三次元メッシュモデル上の点の前記照明効果素材画像上の投影点を決定し、
前記第1の三次元メッシュモデル上の点に対応する投影点の照明情報を、前記第1の三次元メッシュモデル上の点の照明情報として決定するように構成される。
本開示の実施形態によって提供される照明効果処理装置は、本開示の方法実施形態によって提供されるいずれかの照明効果処理方法を実行するために使用することができ、実行可能な照明効果処理方法と同じまたは対応する有利な効果を有するので、ここで説明を省略する。
本開示の実施形態は、さらに端末デバイスを提供する。当該端末デバイスは、メモリとプロセッサとを含み、前記メモリにはコンピュータプログラムが記憶されており、前記コンピュータプログラムが前記プロセッサによって実行されるとき、上記の図1から図10のいずれか1つの実施形態に記載の方法が実現され得る。
一例として、図12は、本開示の一実施形態に係る端末デバイスの構成概略図である。以下、図12を参照すると、本開示の実施形態を実施するのに適している端末デバイス1000の構成概略図が示されている。本開示の実施形態に係る端末デバイス1000は、携帯電話、ノートブックコンピュータ、デジタル放送受信機、PDA(パーソナルデジタルアシスタント)、PAD(タブレットコンピュータ)、PMP(ポータブルマルチメディアプレーヤ)、車載端末(例えば、カーナビゲーション端末)などのモバイル端末、及びデジタルテレビ、デスクトップコンピュータなどの固定端末を含み得るが、これらに限定されない。図12に示される端末デバイスは単なる一例に過ぎず、本開示の実施形態の機能及び使用範囲にいかなる制限もかけるべきではない。
図12に示すように、端末デバイス1000は、処理装置(例えばCPU、グラフィックプロセッサなど)1001を含み得、読み取り専用メモリ(ROM)1002に記憶されたプログラムまたは記憶装置1008からランダムアクセスメモリ(RAM)1003内にロードされたプログラムに従い、様々な適切な動作と処理を実行することができる。RAM1003には、端末デバイス1000を操作するのに必要な様々なプログラム及びデータも記憶されている。処理装置1001、ROM1002及びRAM1003は、バス1004を介して互いに接続されている。入出力(I/O)インターフェース1005もバス1004に接続されている。
典型的には、I/Oインターフェース1005には、例えば、タッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイクロフォン、加速度計、ジャイロスコープなどを含む入力デバイス1006、例えば、液晶ディスプレイ(LCD)、スピーカー、振動コンピュータなどを含む出力装置1007、例えば、磁気テープ、ハードディスクなどを含む記憶装置1008、及び通信装置1009が接続され得る。通信装置1009は、端末デバイス1000が他のデバイスと無線または有線で通信してデータを交換することを可能にする。図12には、様々な装置を有する端末デバイス1000が示されているが、図示された装置の全てを実施または具備する必要があるわけではないことは理解されるべきである。代替的に、より多くのまたはより少ない装置を実施または具備することができる。
特に、本開示の実施形態によれば、フローチャートを参照して上記で説明されたプロセスは、コンピュータソフトウェアプログラムとして実現され得る。例えば、本開示の実施形態は、非一時的なコンピュータ可読媒体上に記憶されるコンピュータプログラムを含むコンピュータプログラム製品を含み、当該コンピュータプログラムは、フローチャートに示される方法を実行するためのプログラムコードを含む。このような実施形態では、当該コンピュータプログラムは、通信装置1009を介してネットワークからダウンロード及びインストールされ得るか、または記憶装置1008、またはROM1002からインストールされ得る。当該コンピュータプログラムが処理装置1001によって実行されるとき、本開示の実施形態に係る方法で定義された上記の機能が実行される。
なお、本開示に言及された上記のコンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体、あるいは上記両者の任意の組み合わせであり得る。コンピュータ可読記憶媒体は、例えば、電気的、磁気的、光学的、電磁気的、赤外線または半導体システム、装置またはデバイス、あるいは上記の任意の組み合わせであり得るが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例には、1つまたは複数のワイヤを有する電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なプログラミング可能読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光ストレージデバイス、磁気ストレージデバイス、または上記の任意の適切な組み合わせを含み得るが、これらに限定されない。本開示では、コンピュータ可読記憶媒体は、指令実行システム、装置、またはデバイスによって、またはそれらと組み合わせて使用することができるプログラムを含むか、または記憶する任意の有形媒体であり得る。しかしながら、本開示では、コンピュータ可読信号媒体は、ベースバンドで、またはコンピュータ可読プログラムコードが担持された搬送波の一部として伝搬されるデータ信号を含み得る。そのように伝搬されたデータ信号は、様々な形態をとることができ、電磁信号、光信号、または前述の任意の適切な組み合わせを含むが、これらに限定されない。コンピュータ可読信号媒体はまた、コンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であり得、当該コンピュータ可読信号媒体は、指令実行システム、装置、またはデバイスによって、またはそれらと組み合わせて使用するためにプログラムを送信、伝搬、または伝送することができる。コンピュータ可読媒体上に含まれたプログラムコードは、電線、光ファイバーケーブル、RF(無線周波数)、または前述の任意の適切な組み合わせなどを含むがこれらに限定されない任意の適切な媒体を使用して伝送することができる。
いくつかの実施形態では、クライアント端末、サーバーは、HTTP(HyperText Transfer Protocol、ハイパーテキスト転送プロトコル)などの現在既知または将来開発される任意のネットワークプロトコルを使用して通信することができ、任意の形式または媒体のデジタルデータ通信(例えば、通信ネットワーク)と相互接続されることができる。通信ネットワークの例としては、ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、インターネット(internetなど)、及びピアツーピアネットワーク(adhocピアツーピアネットワークなど)、及び現在既知または将来開発されるネットワークが挙げられる。
上記のコンピュータ可読媒体は、上記の端末デバイスに含まれていてもよく、または端末デバイスに組み込まれず、単独で存在していてもよい。
上記のコンピュータ可読媒体には、1つ以上のプログラムが記憶されている。上記の1つ以上のプログラムが端末デバイスによって実行されるとき、当該端末デバイスに、画像、照明効果素材画像、及びシミュレーション光源の三次元空間における第1の位置を取得するステップであって、前記照明効果素材画像には照明情報が含まれているステップと、前記画像におけるオブジェクト画像に基づき、前記オブジェクト画像の表面上にオブジェクトの第1の三次元メッシュモデルを生成するステップと、前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離、及び前記照明効果素材画像に基づき、前記第1の三次元メッシュモデル上の点の照明情報を決定するステップと、前記第1の三次元メッシュモデル上の点の照明情報に基づき、前記画像におけるオブジェクト画像をレンダリングし、前記画像の第1の照明効果レンダリング画像を取得するステップとを実行させる。
本開示の操作を実行するためのコンピュータプログラムコードは、1つ以上のプログラミング言語またはそれらの組み合わせで書くことができる。上記のプログラミング言語には、Java(登録商標)、Smalltalk(登録商標)、C++などのオブジェクト指向プログラミング言語が含まれるが、これらに限定されず、さらに「C」言語または類似しているプログラミング言語など従来の手続き型プログラミング言語が含まれる。プログラムコードは、完全にユーザのコンピュータ上で、一部はユーザのコンピュータ上で、スタンドアロンソフトウェアパッケージとして、一部はユーザのコンピュータ上でかつ一部はリモートコンピュータ上で、または完全にリモートコンピュータまたはサーバー上で実行することができる。リモートコンピュータが関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを介してユーザのコンピュータに接続されるか、または、外部コンピュータに接続される(インターネットサービスプロバイダによってインターネット接続を介して接続するなど)ことができる。
図面におけるフローチャート及びブロック図は、本開示の様々な実施形態に係るシステム、方法、及びコンピュータプログラム製品による実現可能な体系アーキテクチャ、機能及び操作を示している。この点に関して、フローチャートまたはブロック図の各ブロックは、所定の論理機能を実現するための1つ以上の実行可能な指令を含むモジュール、プログラムセグメント、またはコードの一部を代表することができる。なお、いくつかの代替の実現において、ブロックに示されている機能は、図示されている順序とは異なる順で発生する場合もある。例えば、連続して示される2つのブロックは、実際にほぼ並行して実行される場合もあれば、逆な順序に従って実行される場合もあるが、関連する機能に応じて決定される。なお、ブロック図及び/またはフローチャート図の各ブロック、及びブロック図及び/またはフローチャート図のブロックの組み合わせは、所定の機能または操作を実行するための専用のハードウェアベースのシステムによって実現されるか、または専用のハードウェアとコンピュータ指令の組み合わせによって実現されることができる。
本開示の実施形態に記載されるユニットは、ソフトウェアの方式で実現されてもよいし、ハードウェアの方式で実現されてもよい。ここで、ユニットの名称は、ある場合、当該ユニット自身への限定を構成しない。
本明細書で上記に説明された機能は、少なくとも部分的に1つまたは複数のハードウェアロジック部材によって実行されてもよい。例えば、利用できるハードウェアロジック部材の例示的なタイプは、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラマブルロジックデバイス(CPLD)などを含むが、これらに限定されない。
本開示の文脈において、機械可読媒体は、命令実行システム、装置、またはデバイスによって、またはそれらと組み合わせて使用されるためのプログラムを含むか、または記憶することができる有形の媒体であってもよい。機械可読媒体は、機械可読信号媒体または機械可読記憶媒体であり得る。機械可読媒体には、電子的、磁気的、光学的、電磁的、赤外線、または半導体システム、装置またはデバイス、あるいは上記の任意の適切な組み合わせが含まれ得るが、これらに限定されない。機械可読記憶媒体のより具体的な例には、1つまたは複数のワイヤによる電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、コンパクトディスク読み取り専用メモリ(CD-ROM)、光ストレージ、磁気ストレージ、または上記の任意の適切な組み合わせが含まれ得る。
本開示の実施形態はさらに、コンピュータ可読記憶媒体を提供する。前記記憶媒体にはコンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサによって実行されるとき、上記の図1から図10のいずれかの実施形態の方法を実現することができる。その実施形態及び有益な効果は類似しているため、ここでは、説明を省略する。
なお、本明細書では、「第1」や「第2」などの関係用語は、1つのエンティティまたは操作を別のエンティティまたは操作と区別するためにのみ使用され、必ずしもこれらのエンティティまたは操作間に如何なる実際の関係または順序が存在していることを要求または暗示するものではない。さらに、「含む」、「包含」という用語またはそれらの任意の他の変形は、非排他的な包含をカバーすることを意味することで、一連の要素を含むプロセス、方法、物品またはデバイスは、それらの要素だけでなく、明確に列挙されていない他の要素、あるいは、このようなプロセス、方法、物品またはデバイスに固有の要素をさらに含む。それ以上の制限がない状況では、「1つの・・・を含む」という文によって限定される要素は、前記要素を含むプロセス、方法、物品またはデバイスには他の同じ要素がさらに存在することを排除しない。
上記の説明は、単に、当業者が本開示を理解して実現することができるように、本開示の具体的な実施形態に過ぎない。これらの実施例に対する様々な補正は、当業者にとって自明であり、本明細書において定義された一般的な原理は、本開示の精神または範囲を逸脱することなく、別の実施例で実現されることができる。したがって、本開示は、本明細書に記載されたこれらの実施例に限定されるものではなく、本明細書に開示された原理及び新規な特徴に一致する最も広い範囲に適合するものである。

Claims (25)

  1. 画像に基づく照明効果処理方法であって、
    画像、照明効果素材画像、及びシミュレーション光源の三次元空間における第1の位置を取得するステップであって、前記照明効果素材画像には照明情報が含まれているステップと、
    前記画像におけるオブジェクト画像に基づき、前記オブジェクト画像の表面上にオブジェクトの第1の三次元メッシュモデルを生成するステップと、
    前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離、及び前記照明効果素材画像に基づき、前記第1の三次元メッシュモデル上の点の照明情報を決定するステップと、
    前記第1の三次元メッシュモデル上の点の照明情報に基づき、前記画像におけるオブジェクト画像をレンダリングし、前記画像の第1の照明効果レンダリング画像を取得するステップと、
    を含む、ことを特徴とする方法。
  2. 前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離、及び前記照明効果素材画像に基づき、前記第1の三次元メッシュモデル上の点の照明情報を決定する前記ステップの前に、さらに、
    前記照明効果素材画像に含まれる照明情報に基づき、前記画像の背景部分をレンダリングするステップを含む、ことを特徴とする請求項1に記載の方法。
  3. 前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離、及び前記照明効果素材画像に基づき、前記第1の三次元メッシュモデル上の点の照明情報を決定する前記ステップの前に、さらに、
    前記シミュレーション光源の第1の位置に基づき、前記画像上にレンダリングして前記オブジェクトの影を得るステップを含む、ことを特徴とする請求項1に記載の方法。
  4. 前記第1の照明効果レンダリング画像を取得するステップの後に、さらに、
    予め設定された拡散反射照明モデルに基づき、前記第1の照明効果レンダリング画像を処理し、前記画像の第2の照明効果レンダリング画像を取得するステップを含む、ことを特徴とする請求項1に記載の方法。
  5. 前記画像におけるオブジェクト画像に基づき、前記オブジェクト画像の表面上に前記オブジェクトの第1の三次元メッシュモデルを生成する前記ステップは、
    予め設定されたオブジェクトマッチングアルゴリズムに基づいて、前記オブジェクト画像の表面上に前記オブジェクトの第2の三次元メッシュモデルを生成するステップと、
    前記第2の三次元メッシュモデルにおける前記画像との境界部分を平滑化して、前記オブジェクトの第1の三次元メッシュモデルを取得するステップと、を含む、ことを特徴とする請求項1から4のいずれか1項に記載の方法。
  6. 前記第2の三次元メッシュモデルにおける前記画像との境界部分を平滑化して、前記オブジェクトの第1の三次元メッシュモデルを取得する前記ステップは、
    前記画像上に前記オブジェクトの周りに複数の点を挿入するステップと、
    前記複数の点と前記第2の三次元メッシュモデルのエッジ上の点とを連結して、新しいメッシュを生成するステップと、
    前記新しいメッシュと前記第2の三次元メッシュモデルとに基づいて、前記オブジェクトの第1の三次元メッシュモデルを生成するステップと、を含む、ことを特徴とする請求項5に記載の方法。
  7. 前記新しいメッシュと前記第2の三次元メッシュモデルとに基づいて、前記オブジェクトの第1の三次元メッシュモデルを生成する前記ステップは、
    前記新しいメッシュと前記第2の三次元メッシュモデルとに基づいて、前記オブジェクトの第3の三次元メッシュモデルを取得するステップと、
    前記第3の三次元メッシュモデルをフィルタ処理して、前記オブジェクトの第1の三次元メッシュモデルを取得するステップと、を含む、ことを特徴とする請求項6に記載の方法。
  8. 前記フィルタ処理は、平均フィルタリングを含む、ことを特徴とする請求項7に記載の方法。
  9. 前記シミュレーション光源の第1の位置に基づき、前記画像上にレンダリングして前記オブジェクトの影を得る前記ステップは、
    前記シミュレーション光源の前記第1の位置に基づき、前記オブジェクトが前記シミュレーション光源により照射された後に形成された影の前記画像上の第2の位置を決定するステップと、
    前記画像の前記第2の位置でレンダリングして前記影を得るステップと、を含むことを特徴とする請求項3に記載の方法。
  10. 前記シミュレーション光源の前記第1の位置に基づき、前記オブジェクトが前記シミュレーション光源により照射された後に形成された影の前記画像上の第2の位置を決定する前記ステップは、
    前記画像から前記オブジェクト画像を分割して除去し、前記オブジェクト画像が存在する領域のマスクを得るステップと、
    前記シミュレーション光源の前記第1の位置に基づき、前記領域に対する前記マスクのオフセット量を決定するステップと、
    前記領域に対する前記マスクのオフセット量に基づき、前記オブジェクトの影の前記画像上の第2の位置を決定するステップと、を含むことを特徴とする請求項9に記載の方法。
  11. 前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離、及び前記照明効果素材画像に基づき、前記第1の三次元メッシュモデル上の点の照明情報を決定する前記ステップは、
    前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離に基づき、前記シミュレーション光源により照射された後の前記第1の三次元メッシュモデル上の点の前記照明効果素材画像上の投影点を決定するステップと、
    前記第1の三次元メッシュモデル上の点に対応する投影点の照明情報を、前記第1の三次元メッシュモデル上の点の照明情報として決定するステップと、を含むことを特徴とする請求項1に記載の方法。
  12. 画像に基づく照明効果処理装置であって、
    画像、照明効果素材画像、及びシミュレーション光源の三次元空間における第1の位置を取得するための取得モジュールであって、前記照明効果素材画像には照明情報が含まれている取得モジュールと、
    前記画像におけるオブジェクト画像に基づき、前記オブジェクト画像の表面上にオブジェクトの第1の三次元メッシュモデルを生成するための生成モジュールと、
    前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離、及び前記照明効果素材画像に基づき、前記第1の三次元メッシュモデル上の点の照明情報を決定するための決定モジュールと、
    前記第1の三次元メッシュモデル上の点の照明情報に基づき、前記画像におけるオブジェクト画像をレンダリングし、前記画像の第1の照明効果レンダリング画像を取得するための第1のレンダリングモジュールと、
    を備える、ことを特徴とする装置。
  13. 前記照明効果素材画像に含まれる照明情報に基づき、前記画像の背景部分をレンダリングするための第2のレンダリングモジュールをさらに含む、ことを特徴とする請求項12に記載の装置。
  14. 前記シミュレーション光源の第1の位置に基づき、前記画像上にレンダリングして前記オブジェクトの影を得るための第3のレンダリングモジュールをさらに含む、ことを特徴とする請求項12に記載の装置。
  15. 予め設定された拡散反射照明モデルに基づき、前記第1の照明効果レンダリング画像を処理し、前記画像の第2の照明効果レンダリング画像を取得するための拡散反射処理モジュールをさらに含む、ことを特徴とする請求項12に記載の装置。
  16. 前記生成モジュールは、
    予め設定されたオブジェクトマッチングアルゴリズムに基づいて、前記オブジェクト画像の表面上に前記オブジェクトの第2の三次元メッシュモデルを生成するための第1の生成サブモジュールと、
    前記第2の三次元メッシュモデルにおける前記画像との境界部分を平滑化して、前記オブジェクトの第1の三次元メッシュモデルを取得するための平滑化処理サブモジュールと、
    を含むことを特徴とする請求項12から15のいずれか1項に記載の装置。
  17. 前記平滑化処理サブモジュールは、
    前記画像上に前記オブジェクトの周りに複数の点を挿入するための挿入サブユニットと、
    前記複数の点と前記第2の三次元メッシュモデルのエッジ上の点とを連結して、新しいメッシュを生成するための第1の生成サブユニットと、
    前記新しいメッシュと前記第2の三次元メッシュモデルとに基づいて、前記オブジェクトの第1の三次元メッシュモデルを生成するための第2の生成サブユニットと、
    を含むことを特徴とする請求項16に記載の装置。
  18. 前記第2の生成サブユニットは、
    前記新しいメッシュと前記第2の三次元メッシュモデルとに基づいて、前記オブジェクトの第3の三次元メッシュモデルを取得し、
    前記第3の三次元メッシュモデルをフィルタ処理して、前記オブジェクトの第1の三次元メッシュモデルを取得するように構成される、ことを特徴とする請求項17に記載の装置。
  19. 前記フィルタ処理は、平均フィルタリングを含む、ことを特徴とする請求項18に記載の装置。
  20. 前記第3のレンダリングモジュールは、
    前記シミュレーション光源の前記第1の位置に基づき、前記オブジェクトが前記シミュレーション光源により照射された後に形成された影の前記画像上の第2の位置を決定するための決定サブモジュールと、
    前記画像の前記第2の位置でレンダリングして前記影を得るためのレンダリングサブモジュールと、を含むことを特徴とする請求項14に記載の装置。
  21. 前記決定サブモジュールは、
    前記画像から前記オブジェクト画像を分割して除去し、前記オブジェクト画像が存在する領域のマスクを得るための分割サブユニットと、
    前記シミュレーション光源の前記第1の位置に基づき、前記領域に対する前記マスクのオフセット量を決定するための第1の決定サブユニットと、
    前記領域に対する前記マスクのオフセット量に基づき、前記オブジェクトの影の前記画像上の第2の位置を決定するための第2の決定サブユニットと、を含むことを特徴とする請求項20に記載の装置。
  22. 前記決定モジュールは、
    前記シミュレーション光源の第1の位置、前記第1の三次元メッシュモデル上の点の前記オブジェクト画像の前記表面からの距離に基づき、前記シミュレーション光源により照射された後の前記第1の三次元メッシュモデル上の点の前記照明効果素材画像上の投影点を決定し、
    前記第1の三次元メッシュモデル上の点に対応する投影点の照明情報を、前記第1の三次元メッシュモデル上の点の照明情報として決定するように構成される、ことを特徴とする請求項12に記載の装置。
  23. メモリとプロセッサとを含む端末デバイスであって、
    前記メモリにはコンピュータプログラムが記憶されており、前記コンピュータプログラムが前記プロセッサによって実行されるとき、前記プロセッサに請求項1から11のいずれか1項に記載の方法を実行させる、ことを特徴とする端末デバイス。
  24. コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行されるとき、前記プロセッサに請求項1から11のいずれか1項に記載の方法を実行させる、ことを特徴とするコンピュータ可読記憶媒体。
  25. 端末デバイス上で実行されるとき、前記端末デバイスに請求項1から11のいずれか1項に記載の方法を実行させる、ことを特徴とするコンピュータプログラム製品。
JP2023526289A 2020-10-30 2021-08-31 画像に基づく照明効果処理方法、装置、デバイス及び記憶媒体 Active JP7522316B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011195006.0 2020-10-30
CN202011195006.0A CN112270759B (zh) 2020-10-30 2020-10-30 基于图像的光效处理方法、装置、设备及存储介质
PCT/CN2021/115590 WO2022088927A1 (zh) 2020-10-30 2021-08-31 基于图像的光效处理方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2023547224A true JP2023547224A (ja) 2023-11-09
JP7522316B2 JP7522316B2 (ja) 2024-07-24

Family

ID=74345610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023526289A Active JP7522316B2 (ja) 2020-10-30 2021-08-31 画像に基づく照明効果処理方法、装置、デバイス及び記憶媒体

Country Status (5)

Country Link
US (1) US20230125255A1 (ja)
EP (1) EP4207082A4 (ja)
JP (1) JP7522316B2 (ja)
CN (1) CN112270759B (ja)
WO (1) WO2022088927A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112270759B (zh) * 2020-10-30 2022-06-24 北京字跳网络技术有限公司 基于图像的光效处理方法、装置、设备及存储介质
CN112884873B (zh) * 2021-03-12 2023-05-23 腾讯科技(深圳)有限公司 虚拟环境中虚拟物体的渲染方法、装置、设备及介质
CN114972466A (zh) * 2022-06-29 2022-08-30 维沃移动通信(杭州)有限公司 图像处理方法、装置、电子设备和可读存储介质

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7262770B2 (en) * 2002-03-21 2007-08-28 Microsoft Corporation Graphics image rendering with radiance self-transfer for low-frequency lighting environments
US6876362B1 (en) * 2002-07-10 2005-04-05 Nvidia Corporation Omnidirectional shadow texture mapping
EP1644867B1 (en) * 2003-04-18 2010-08-11 Medispectra, Inc. A system and diagnostic method for optical detection of suspect portions of a tissue sample
FR2896895B1 (fr) 2006-02-01 2008-09-26 Redway Soc Par Actions Simplifiee Procede de synthese d'une image virtuelle par lancer de faisceaux
US8243071B2 (en) * 2008-02-29 2012-08-14 Microsoft Corporation Modeling and rendering of heterogeneous translucent materials using the diffusion equation
US8400555B1 (en) * 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
US8315461B2 (en) * 2010-01-25 2012-11-20 Apple Inc. Light source detection from synthesized objects
US9121586B2 (en) * 2010-06-30 2015-09-01 Beijing Lenovo Software Ltd. Lighting effect device and electric device
US9518723B2 (en) * 2011-04-08 2016-12-13 Brite Shot, Inc. Lighting fixture extension
JP2012234725A (ja) * 2011-05-02 2012-11-29 Sony Corp 表示装置および照明装置
US9123272B1 (en) * 2011-05-13 2015-09-01 Amazon Technologies, Inc. Realistic image lighting and shading
US8872853B2 (en) * 2011-12-01 2014-10-28 Microsoft Corporation Virtual light in augmented reality
US9401043B2 (en) * 2013-01-18 2016-07-26 Pixar Photon beam diffusion
US9665984B2 (en) * 2014-07-31 2017-05-30 Ulsee Inc. 2D image-based 3D glasses virtual try-on system
US9848169B2 (en) * 2014-09-25 2017-12-19 Steve H. McNelley Transparent projection communication terminals
US10565734B2 (en) * 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
JP6910130B2 (ja) * 2015-11-06 2021-07-28 三星電子株式会社Samsung Electronics Co.,Ltd. 3dレンダリング方法及び3dレンダリング装置
CN105825544B (zh) * 2015-11-25 2019-08-20 维沃移动通信有限公司 一种图像处理方法及移动终端
US10614612B2 (en) * 2018-06-09 2020-04-07 Adshir Ltd. Fast path traced reflections for augmented reality
EP3373585A1 (en) * 2017-03-09 2018-09-12 Thomson Licensing Method for inverse tone mapping of an image with visual effects
US10311631B2 (en) * 2017-05-12 2019-06-04 Siemens Healthcare Gmbh Light path fusion for rendering surface and volume data in medical imaging
US10578869B2 (en) * 2017-07-24 2020-03-03 Mentor Acquisition One, Llc See-through computer display systems with adjustable zoom cameras
CN109427088B (zh) * 2017-08-18 2023-02-03 腾讯科技(深圳)有限公司 一种模拟光照的渲染方法及终端
CN109427080A (zh) * 2017-08-31 2019-03-05 爱唯秀股份有限公司 快速生成大量复杂光源人脸图像的方法
US10600239B2 (en) * 2018-01-22 2020-03-24 Adobe Inc. Realistically illuminated virtual objects embedded within immersive environments
CN108525298B (zh) * 2018-03-26 2020-08-04 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN108765542B (zh) * 2018-05-31 2022-09-09 Oppo广东移动通信有限公司 图像渲染方法、电子设备和计算机可读存储介质
US10467803B1 (en) 2018-09-11 2019-11-05 Apple Inc. Techniques for providing virtual lighting adjustments utilizing regression analysis and functional lightmaps
CN109410308A (zh) * 2018-09-29 2019-03-01 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN109446945B (zh) * 2018-10-15 2021-03-02 Oppo广东移动通信有限公司 三维模型处理方法和装置、电子设备、计算机可读存储介质
CN110047122A (zh) * 2019-04-04 2019-07-23 北京字节跳动网络技术有限公司 渲染图像的方法、装置、电子设备和计算机可读存储介质
US11538216B2 (en) * 2019-09-03 2022-12-27 Adobe Inc. Dynamically estimating light-source-specific parameters for digital images using a neural network
CN112270759B (zh) * 2020-10-30 2022-06-24 北京字跳网络技术有限公司 基于图像的光效处理方法、装置、设备及存储介质

Also Published As

Publication number Publication date
EP4207082A4 (en) 2023-12-27
WO2022088927A1 (zh) 2022-05-05
EP4207082A1 (en) 2023-07-05
US20230125255A1 (en) 2023-04-27
CN112270759B (zh) 2022-06-24
JP7522316B2 (ja) 2024-07-24
CN112270759A (zh) 2021-01-26

Similar Documents

Publication Publication Date Title
JP7522316B2 (ja) 画像に基づく照明効果処理方法、装置、デバイス及び記憶媒体
CN108537861B (zh) 贴图生成方法、装置、设备和存储介质
CN111420404B (zh) 游戏中对象渲染的方法及装置、电子设备、存储介质
CN107680042B (zh) 结合纹理及卷积网络的渲染方法、装置、引擎及存储介质
US11776202B2 (en) Image processing method and apparatus, computer storage medium, and electronic device
CN111210497B (zh) 模型渲染方法、装置、计算机可读介质及电子设备
US20240087219A1 (en) Method and apparatus for generating lighting image, device, and medium
CN109887062B (zh) 渲染方法、装置、设备及存储介质
CN112652046B (zh) 游戏画面的生成方法、装置、设备及存储介质
CN113240783B (zh) 风格化渲染方法和装置、可读存储介质、电子设备
WO2022063260A1 (zh) 一种渲染方法、装置及设备
US8854392B2 (en) Circular scratch shader
CN113052947A (zh) 一种渲染方法、装置、电子设备和存储介质
CN111275824A (zh) 用于交互式增强现实的表面重建
WO2024037116A9 (zh) 三维模型的渲染方法、装置、电子设备及存储介质
CN116228956A (zh) 一种阴影渲染方法、装置、设备及介质
CN116612229A (zh) 模型光晕渲染方法、装置、电子设备及存储介质
CN108280887B (zh) 一种阴影图确定方法及装置
CN114693885A (zh) 三维虚拟对象生成方法、装置、设备、介质和程序产品
CN114549607A (zh) 主体材质确定方法、装置、电子设备及存储介质
CN114241116A (zh) 一种光照效果实时预览方法、装置、电子设备和介质
CN114742970A (zh) 虚拟三维模型的处理方法、非易失性存储介质及电子装置
CN117876564B (zh) 图像处理方法及相关设备
WO2024174608A1 (zh) 景深图像的渲染方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CN114820331A (zh) 图像降噪方法以及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240711

R150 Certificate of patent or registration of utility model

Ref document number: 7522316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150