JPWO2019226366A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2019226366A5
JPWO2019226366A5 JP2020564910A JP2020564910A JPWO2019226366A5 JP WO2019226366 A5 JPWO2019226366 A5 JP WO2019226366A5 JP 2020564910 A JP2020564910 A JP 2020564910A JP 2020564910 A JP2020564910 A JP 2020564910A JP WO2019226366 A5 JPWO2019226366 A5 JP WO2019226366A5
Authority
JP
Japan
Prior art keywords
image
scene
determining
pixels
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020564910A
Other languages
Japanese (ja)
Other versions
JP2021524628A (en
JP7386812B2 (en
Publication date
Priority claimed from CN201810510214.1A external-priority patent/CN110533707B/en
Application filed filed Critical
Publication of JP2021524628A publication Critical patent/JP2021524628A/en
Publication of JPWO2019226366A5 publication Critical patent/JPWO2019226366A5/ja
Application granted granted Critical
Publication of JP7386812B2 publication Critical patent/JP7386812B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (18)

電子デバイスであって:
処理ユニットと;
前記処理ユニットに結合され、前記処理ユニットによる実行のための命令を記憶するメモリであって、前記命令は、前記処理ユニットによって実行されるとき、前記デバイスに:
実オブジェクトについての入力画像及び前記入力画像に対応するデプスマップを取得することと;
前記デプスマップに基づいて前記入力画像内のシーンを決定することと;
前記シーンに基づいて、前記シーン内の光源によって引き起こされる前記実オブジェクトのシェーディング及び影情報を決定することであって、前記光源は、所定の形状の画像によって表され、前記画像は、前記光源の複数の部分に対応する複数のピクセルを含み、前記複数のピクセルのそれぞれのピクセル値は、前記光源の前記複数の部分のそれぞれの放射照度強度を表し、
前記シェーディング及び影情報を決定することは:
前記画像内の前記複数のピクセルのそれぞれのピクセル値を所定の値で初期化することと;
前記シーン及び初期化された前記画像に基づいて、前記複数のピクセルに対応する第1の放射照度マップのセットを生成することであって、前記放射照度マップの各々は、前記光源の対応する部分によって引き起こされる前記実オブジェクトの対応するシェーディング及び影情報を表す、生成することと;を含む、
シェーディング及び影情報を決定することと;
前記入力画像と、前記シェーディング及び影情報とに基づいて前記光源によって引き起こされる前記シーン内の照明条件を決定することであって、前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記画像内の前記複数のピクセルのそれぞれのピクセル値を決定することを含む、前記シーン内の前記照明条件を決定することと;
を含む動作を実行させる、メモリと;
を有する、電子デバイス。
It's an electronic device:
With processing unit;
A memory that is coupled to the processing unit and stores instructions for execution by the processing unit, the instructions to the device when executed by the processing unit:
Acquiring an input image for a real object and a depth map corresponding to the input image;
Determining the scene in the input image based on the depth map;
Based on the scene, determining the shading and shadow information of the real object caused by the light source in the scene, the light source being represented by an image of a predetermined shape, the image being of the light source. A plurality of pixels corresponding to a plurality of portions are included, and the pixel value of each of the plurality of pixels represents the emission intensity of each of the plurality of portions of the light source.
Determining the shading and shadow information is:
To initialize the pixel value of each of the plurality of pixels in the image with a predetermined value;
Based on the scene and the initialized image, it is to generate a set of first irradiance maps corresponding to the plurality of pixels, each of which is a corresponding portion of the light source. Representing, generating, representing the corresponding shading and shadow information of said real object caused by;
Determining shading and shadow information ;
Determining the lighting conditions in the scene caused by the light source based on the input image and the shading and shadow information, based on the input image and the set of the first radiation illuminance map. Determining the lighting conditions in the scene, including determining the pixel values of each of the plurality of pixels in the image ;
To perform operations including, with memory;
Have an electronic device.
前記動作はさらに:
前記シーン及び前記照明条件に基づいて、前記実オブジェクト及び仮想オブジェクトを含む出力画像を生成することを含み、前記出力画像は前記入力画像の前記シーン内に前記仮想オブジェクトを合成する、
請求項1に記載のデバイス。
The above operation is further:
The output image comprises generating an output image including the real object and the virtual object based on the scene and the lighting condition, and the output image synthesizes the virtual object in the scene of the input image.
The device according to claim 1.
前記シーンは、前記実オブジェクトの配置のための表面を含み、前記シーンを決定することは:
前記デプスマップを点群に変換することと;
前記点群内の複数の点を面に適合させることであって、前記複数の点は前記表面を表す、適合させることと;
前記面の上に位置する前記点群内の前記複数の点を3次元メッシュに再構成することであって、前記面及び前記3次元メッシュは、前記入力画像内の前記シーンを共に表す、再構成することと:を含む、
請求項1に記載のデバイス。
The scene includes a surface for the placement of the real object, and determining the scene is:
Converting the depth map into a point cloud;
To adapt a plurality of points in the point cloud to a surface, wherein the plurality of points represent the surface.
Reconstructing the plurality of points in the point cloud located on the surface into a three-dimensional mesh, wherein the surface and the three-dimensional mesh together represent the scene in the input image. To configure and: including,
The device according to claim 1.
前記光源を表す前記画像は、十字形状の画像である、
請求項に記載のデバイス。
The image representing the light source is a cross-shaped image.
The device according to claim 1 .
前記画像内の前記複数のピクセルのそれぞれのピクセル値を決定することは:
前記入力画像及び前記第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、
請求項に記載のデバイス。
Determining the pixel value of each of the plurality of pixels in the image is:
A trained neural network is used to determine the pixel value of each of the plurality of pixels in the image based on the input image and the set of the first irradiance map.
The device according to claim 1 .
前記画像内の前記複数のピクセルのそれぞれのピクセル値を決定することは:
前記入力画像及び前記第1の放射照度マップのセットに基づいて、複数の訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を漸進的に決定することを含む、
請求項に記載のデバイス。
Determining the pixel value of each of the plurality of pixels in the image is:
It comprises progressively determining the pixel value of each of the plurality of pixels in the image using a plurality of trained neural networks based on the input image and the set of the first irradiance map. ,
The device according to claim 1 .
前記複数の訓練されたニューラルネットワークは、少なくとも第1のニューラルネットワーク及び第2のニューラルネットワークを含み、前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することは:
前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記第1のニューラルネットワークを使用して、前記複数のピクセルの第1のピクセルの第1のピクセル値及び前記第1のピクセルに隣接する少なくとも1つのピクセルのピクセル値を決定することと;
前記第1のピクセル、前記少なくとも1つのピクセル及び前記シーンに基づいて第2の放射照度マップのセットを生成することであって、前記第2の放射照度マップのセットは、前記第1のピクセルの複数のサブピクセル、前記少なくとも1つのピクセル、並びに前記複数のピクセルのうちの前記第1のピクセル及び前記少なくとも1つのピクセル以外のピクセルの組み合わせそれぞれに対応する、生成することと;
前記入力画像及び前記第2の放射照度マップのセットに基づいて、前記第1のピクセルが前記第2のニューラルネットワークを使用して分割されるべきかどうかを決定することと;
前記第1のピクセル値が分割されるべきでないと決定することに応答して、前記第1のピクセル値を前記第1のピクセルの最終ピクセルとして使用することと;を含む、
請求項に記載のデバイス。
The plurality of trained neural networks include at least a first neural network and a second neural network, and determining the pixel value of each of the plurality of pixels in the image is:
Based on the input image and the set of the first irradiance map, the first neural network is used to the first pixel value of the first pixel of the plurality of pixels and the first pixel. Determining the pixel value of at least one adjacent pixel;
Generating a second set of irradiance maps based on the first pixel, the at least one pixel, and the scene, wherein the second set of irradiance maps is of the first pixel. To generate, corresponding to each of a plurality of sub-pixels, the at least one pixel, and a combination of the first pixel of the plurality of pixels and pixels other than the at least one pixel;
To determine whether the first pixel should be split using the second neural network based on the input image and the set of the second irradiance map;
In response to determining that the first pixel value should not be split, the use of the first pixel value as the final pixel of the first pixel;
The device according to claim 6 .
前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することはさらに:
前記第1のピクセルが分割されるべきであると決定することに応答して、前記第1のピクセルを複数のサブピクセルに分割することと;
前記複数のサブピクセルのそれぞれのサブピクセル値を決定することと;を含む、
請求項に記載のデバイス。
Determining the pixel value of each of the plurality of pixels in the image is further:
To divide the first pixel into a plurality of subpixels in response to determining that the first pixel should be divided;
To determine the subpixel value of each of the plurality of subpixels;
The device according to claim 7 .
コンピュータに実装される方法であって:
実オブジェクトに関する入力画像及び前記入力画像に対応するデプスマップを取得することと;
前記デプスマップに基づいて前記入力画像内のシーンを決定することと;
前記シーンに基づいて、前記シーン内の光源によって引き起こされる前記実オブジェクトのシェーディング及び影情報を決定することであって、前記光源は、所定の形状の画像によって表され、前記画像は、前記光源の複数の部分に対応する複数のピクセルを含み、前記複数のピクセルのそれぞれのピクセル値は、前記光源の前記複数の部分のそれぞれの放射照度強度を表し、
前記シェーディング及び影情報を決定することは:
前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を所定の値で初期化することと;
前記シーン及び初期化された前記画像に基づいて、前記複数のピクセルに対応する第1の放射照度マップのセットを生成することであって、前記放射照度マップの各々は、前記光源の対応する部分によって引き起こされる前記実オブジェクトの対応するシェーディング及び影情報を表す、生成することと;を含む、
シェーディング及び影情報を決定することと;
前記入力画像と、前記シェーディング及び影情報とに基づいて、前記光源によって引き起こされる前記シーン内の照明条件を決定することであって、前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、シーン内の前記照明条件を決定することと;を含む、
方法。
A method implemented on a computer:
To acquire an input image related to a real object and a depth map corresponding to the input image;
Determining the scene in the input image based on the depth map;
Based on the scene, determining the shading and shadow information of the real object caused by the light source in the scene, the light source being represented by an image of a predetermined shape, the image being of the light source. A plurality of pixels corresponding to a plurality of portions are included, and the pixel value of each of the plurality of pixels represents the emission intensity of each of the plurality of portions of the light source.
Determining the shading and shadow information is:
To initialize the pixel value of each of the plurality of pixels in the image with a predetermined value;
Based on the scene and the initialized image, it is to generate a set of first irradiance maps corresponding to the plurality of pixels, each of which is a corresponding portion of the light source. Representing, generating, representing the corresponding shading and shadow information of said real object caused by;
Determining shading and shadow information ;
Determining the lighting conditions in the scene caused by the light source based on the input image and the shading and shadow information, based on the input image and the set of the first radiation illuminance map. Includes determining the lighting conditions in the scene, including determining the pixel value of each of the plurality of pixels in the image .
Method.
前記シーン及び前記照明条件に基づいて、前記実オブジェクト及び仮想オブジェクトを含む出力画像を生成することをさらに含み、前記出力画像は、前記入力画像の前記シーン内に前記仮想オブジェクトを合成する、
請求項に記載の方法。
Further including generating an output image including the real object and the virtual object based on the scene and the lighting condition, the output image synthesizes the virtual object in the scene of the input image.
The method according to claim 9 .
前記シーンは、前記実オブジェクトの配置のための表面を含み、前記シーンを決定することは:
前記デプスマップを点群に変換することと;
前記点群内の複数の点を面に適合させることであって、前記複数の点は、前記表面を表す、適合させることと;
前記面の上に位置する前記点群内の複数の点を3次元メッシュに再構成することであって、前記面及び前記3次元メッシュは、前記入力画像内の前記シーンを共に表す、再構成することと;を含む、
請求項に記載の方法。
The scene includes a surface for the placement of the real object, and determining the scene is:
Converting the depth map into a point cloud;
Adapting a plurality of points in the point cloud to a surface, wherein the plurality of points represent and adapt to the surface;
Reconstructing a plurality of points in the point cloud located on the surface into a three-dimensional mesh, wherein the surface and the three-dimensional mesh together represent the scene in the input image. To do and; including;
The method according to claim 9 .
前記光源を表す前記画像は、十字形状の画像である、
請求項に記載の方法。
The image representing the light source is a cross-shaped image.
The method according to claim 9 .
前記画像内の前記複数のピクセルのそれぞれのピクセル値を決定することは:
前記入力画像及び前記第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、
請求項に記載の方法。
Determining the pixel value of each of the plurality of pixels in the image is:
A trained neural network is used to determine the pixel value of each of the plurality of pixels in the image based on the input image and the set of the first irradiance map.
The method according to claim 9 .
命令を記憶する機械可読媒体であって、前記命令は、1つ又は複数の機械によって実行されるとき、前記1つ又は複数の機械に: A machine-readable medium that stores instructions, said to the one or more machines when executed by one or more machines:
実オブジェクトに関する入力画像及び前記入力画像に対応するデプスマップを取得することと; To acquire an input image related to a real object and a depth map corresponding to the input image;
前記デプスマップに基づいて前記入力画像内のシーンを決定することと; Determining the scene in the input image based on the depth map;
前記シーンに基づいて、前記シーン内の光源によって引き起こされる前記実オブジェクトのシェーディング及び影情報を決定することであって、前記光源は、所定の形状の画像によって表され、前記画像は、前記光源の複数の部分に対応する複数のピクセルを含み、前記複数のピクセルのそれぞれのピクセル値は、前記光源の前記複数の部分のそれぞれの放射照度強度を表し、 Based on the scene, determining the shading and shadow information of the real object caused by the light source in the scene, the light source being represented by an image of a predetermined shape, the image being of the light source. A plurality of pixels corresponding to a plurality of portions are included, and the pixel value of each of the plurality of pixels represents the emission intensity of each of the plurality of portions of the light source.
前記シェーディング及び影情報を決定することは: Determining the shading and shadow information is:
前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を所定の値で初期化することと; To initialize the pixel value of each of the plurality of pixels in the image with a predetermined value;
前記シーン及び初期化された前記画像に基づいて、前記複数のピクセルに対応する第1の放射照度マップのセットを生成することであって、前記放射照度マップの各々は、前記光源の対応する部分によって引き起こされる前記実オブジェクトの対応するシェーディング及び影情報を表す、生成することと;を含む、 Based on the scene and the initialized image, it is to generate a set of first irradiance maps corresponding to the plurality of pixels, each of which is a corresponding portion of the light source. Representing, generating, representing the corresponding shading and shadow information of said real object caused by;
シェーディング及び影情報を決定することと; Determining shading and shadow information;
前記入力画像と、前記シェーディング及び影情報とに基づいて、前記光源によって引き起こされる前記シーン内の照明条件を決定することであって、前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、シーン内の前記照明条件を決定することと;を含む、動作を実行させる、 Determining the lighting conditions in the scene caused by the light source based on the input image and the shading and shadow information, based on the input image and the set of the first radiation illuminance map. To perform an operation, including determining the illumination conditions in the scene, including determining the pixel value of each of the plurality of pixels in the image.
機械可読媒体。 Machine-readable medium.
前記動作は: The operation is:
前記シーン及び前記照明条件に基づいて、前記実オブジェクト及び仮想オブジェクトを含む出力画像を生成することをさらに含み、前記出力画像は、前記入力画像の前記シーン内に前記仮想オブジェクトを合成する、 Further including generating an output image including the real object and the virtual object based on the scene and the lighting condition, the output image synthesizes the virtual object in the scene of the input image.
請求項14に記載の機械可読媒体。 The machine-readable medium according to claim 14.
前記シーンは、前記実オブジェクトの配置のための表面を含み、前記シーンを決定することは: The scene includes a surface for the placement of the real object, and determining the scene is:
前記デプスマップを点群に変換することと; Converting the depth map into a point cloud;
前記点群内の複数の点を面に適合させることであって、前記複数の点は、前記表面を表す、適合させることと; Adapting a plurality of points in the point cloud to a surface, wherein the plurality of points represent and adapt to the surface;
前記面の上に位置する前記点群内の複数の点を3次元メッシュに再構成することであって、前記面及び前記3次元メッシュは、前記入力画像内の前記シーンを共に表す、再構成することと;を含む、 Reconstructing a plurality of points in the point cloud located on the surface into a three-dimensional mesh, wherein the surface and the three-dimensional mesh together represent the scene in the input image. To do and; including;
請求項14に記載の機械可読媒体。 The machine-readable medium according to claim 14.
前記光源を表す前記画像は、十字形状の画像である、 The image representing the light source is a cross-shaped image.
請求項14に記載の機械可読媒体。 The machine-readable medium according to claim 14.
前記画像内の前記複数のピクセルのそれぞれのピクセル値を決定することは: Determining the pixel value of each of the plurality of pixels in the image is:
前記入力画像及び前記第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、 A trained neural network is used to determine the pixel value of each of the plurality of pixels in the image based on the input image and the set of the first irradiance map.
請求項14に記載の機械可読媒体。 The machine-readable medium according to claim 14.
JP2020564910A 2018-05-24 2019-05-13 lighting estimation Active JP7386812B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810510214.1 2018-05-24
CN201810510214.1A CN110533707B (en) 2018-05-24 2018-05-24 Illumination estimation
PCT/US2019/031907 WO2019226366A1 (en) 2018-05-24 2019-05-13 Lighting estimation

Publications (3)

Publication Number Publication Date
JP2021524628A JP2021524628A (en) 2021-09-13
JPWO2019226366A5 true JPWO2019226366A5 (en) 2022-04-22
JP7386812B2 JP7386812B2 (en) 2023-11-27

Family

ID=66655477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020564910A Active JP7386812B2 (en) 2018-05-24 2019-05-13 lighting estimation

Country Status (6)

Country Link
US (1) US11151780B2 (en)
EP (1) EP3803803A1 (en)
JP (1) JP7386812B2 (en)
KR (1) KR102612808B1 (en)
CN (1) CN110533707B (en)
WO (1) WO2019226366A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7003994B2 (en) * 2017-08-08 2022-01-21 ソニーグループ株式会社 Image processing equipment and methods
CN112183551A (en) * 2019-07-02 2021-01-05 佳能株式会社 Illumination color prediction method, image processing apparatus, and storage medium
US11910095B2 (en) * 2019-11-21 2024-02-20 Sony Interactive Entertainment Inc. Incident light information acquisition method, incident light information acquisition system, and information processing device
US20230063215A1 (en) * 2020-01-23 2023-03-02 Sony Group Corporation Information processing apparatus, information processing method, and program
WO2021262243A1 (en) * 2020-06-22 2021-12-30 Google Llc Depth-based relighting in augmented reality
CN111932641B (en) 2020-09-27 2021-05-14 北京达佳互联信息技术有限公司 Image processing method and device, electronic equipment and storage medium
KR102459771B1 (en) * 2021-11-15 2022-10-28 한국전자기술연구원 Apparatus for meshing objects based on image deep learning and method thereof
KR20230092514A (en) * 2021-12-17 2023-06-26 삼성전자주식회사 Rendering method and device
KR102559691B1 (en) * 2022-04-04 2023-07-26 주식회사 리빌더에이아이 Method and device for reconstructing neural rendering-based geometric color integrated 3D mesh
KR20240054111A (en) * 2022-10-18 2024-04-25 삼성전자주식회사 Electronic device, operating method of electronic device, and image editing system
CN117496359B (en) * 2023-12-29 2024-03-22 浙江大学山东(临沂)现代农业研究院 Plant planting layout monitoring method and system based on three-dimensional point cloud

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7262770B2 (en) * 2002-03-21 2007-08-28 Microsoft Corporation Graphics image rendering with radiance self-transfer for low-frequency lighting environments
US6791542B2 (en) 2002-06-17 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Modeling 3D objects with opacity hulls
JP5025496B2 (en) * 2008-01-09 2012-09-12 キヤノン株式会社 Image processing apparatus and image processing method
EP2650843A4 (en) * 2010-12-09 2018-03-28 Samsung Electronics Co., Ltd. Image processor, lighting processor and method therefor
JP5842634B2 (en) * 2012-01-26 2016-01-13 富士通株式会社 Display method and display device
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
JP2014164497A (en) * 2013-02-25 2014-09-08 Canon Inc Information processor, image processing method and program
US9818224B1 (en) * 2013-06-20 2017-11-14 Amazon Technologies, Inc. Augmented reality images based on color and depth information
EP2829842B1 (en) * 2013-07-22 2022-12-21 Hexagon Technology Center GmbH Method, system and computer programme product for determination of an absolute volume of a stock pile using a structure from motion algorithm
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US20150262412A1 (en) * 2014-03-17 2015-09-17 Qualcomm Incorporated Augmented reality lighting with dynamic geometry
EP3123449B1 (en) * 2014-03-25 2020-01-01 Apple Inc. Method and system for representing a virtual object in a view of a real environment
US20160140761A1 (en) * 2014-11-19 2016-05-19 Microsoft Technology Licensing, Llc. Using depth information for drawing in augmented reality scenes
US10008032B2 (en) * 2015-03-03 2018-06-26 Imagination Technologies Limited Graphics processing using directional representations of lighting at probe positions within a scene
US10354449B2 (en) 2015-06-12 2019-07-16 Hand Held Products, Inc. Augmented reality lighting effects
CN105825544B (en) * 2015-11-25 2019-08-20 维沃移动通信有限公司 A kind of image processing method and mobile terminal
JP6275362B1 (en) 2016-04-01 2018-02-07 株式会社wise 3D graphic generation, artificial intelligence verification / learning system, program and method
CN107341853B (en) * 2017-07-13 2021-02-12 河北中科恒运软件科技股份有限公司 Virtual-real fusion method and system for super-large virtual scene and dynamic screen shooting

Similar Documents

Publication Publication Date Title
KR102319179B1 (en) A rendering method for simulating lighting, and a terminal
TWI512680B (en) System and method for optimizing image quality in a digital camera
US7557812B2 (en) Multilevel texture processing method for mapping multiple images onto 3D models
CN107341853A (en) Super large virtual scene and dynamic take the photograph the virtual reality fusion method and system of screen
TWI526990B (en) Image processing method for transforming 2d image into 3d model
US8189003B2 (en) System and method for rendering computer graphics utilizing a shadow illuminator
JPWO2019226366A5 (en)
CN109829868B (en) Lightweight deep learning model image defogging method, electronic equipment and medium
CN113256781B (en) Virtual scene rendering device, storage medium and electronic equipment
US10922852B2 (en) Oil painting stroke simulation using neural network
CN104392479A (en) Method of carrying out illumination coloring on pixel by using light index number
US20230033319A1 (en) Method, apparatus and device for processing shadow texture, computer-readable storage medium, and program product
CN112700528A (en) Virtual object shadow rendering method for head-mounted augmented reality equipment
CN115984449A (en) Illumination rendering method and device, electronic equipment and storage medium
CN116506993A (en) Light control method and storage medium
CN107004295A (en) Texture generates system
CN113648652B (en) Object rendering method and device, storage medium and electronic equipment
CN112862943A (en) Virtual model rendering method and device, storage medium and electronic equipment
KR20200081743A (en) Surface processing system and method of 3D object with 2D illustration format
JPH07129762A (en) Sketch-fashion image generator
CN109446945A (en) Threedimensional model treating method and apparatus, electronic equipment, computer readable storage medium
CN112862929B (en) Method, device, equipment and readable storage medium for generating virtual target model
KR101615371B1 (en) 3D Animation production methods
CN114266704B (en) Self-adaptive facula eliminating method
CN116452459B (en) Shadow mask generation method, shadow removal method and device