JPWO2019226366A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2019226366A5 JPWO2019226366A5 JP2020564910A JP2020564910A JPWO2019226366A5 JP WO2019226366 A5 JPWO2019226366 A5 JP WO2019226366A5 JP 2020564910 A JP2020564910 A JP 2020564910A JP 2020564910 A JP2020564910 A JP 2020564910A JP WO2019226366 A5 JPWO2019226366 A5 JP WO2019226366A5
- Authority
- JP
- Japan
- Prior art keywords
- image
- scene
- determining
- pixels
- input image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 claims 9
- 238000000034 method Methods 0.000 claims 6
- 230000005855 radiation Effects 0.000 claims 3
- 230000004044 response Effects 0.000 claims 2
- 238000005286 illumination Methods 0.000 claims 1
Claims (18)
処理ユニットと;
前記処理ユニットに結合され、前記処理ユニットによる実行のための命令を記憶するメモリであって、前記命令は、前記処理ユニットによって実行されるとき、前記デバイスに:
実オブジェクトについての入力画像及び前記入力画像に対応するデプスマップを取得することと;
前記デプスマップに基づいて前記入力画像内のシーンを決定することと;
前記シーンに基づいて、前記シーン内の光源によって引き起こされる前記実オブジェクトのシェーディング及び影情報を決定することであって、前記光源は、所定の形状の画像によって表され、前記画像は、前記光源の複数の部分に対応する複数のピクセルを含み、前記複数のピクセルのそれぞれのピクセル値は、前記光源の前記複数の部分のそれぞれの放射照度強度を表し、
前記シェーディング及び影情報を決定することは:
前記画像内の前記複数のピクセルのそれぞれのピクセル値を所定の値で初期化することと;
前記シーン及び初期化された前記画像に基づいて、前記複数のピクセルに対応する第1の放射照度マップのセットを生成することであって、前記放射照度マップの各々は、前記光源の対応する部分によって引き起こされる前記実オブジェクトの対応するシェーディング及び影情報を表す、生成することと;を含む、
シェーディング及び影情報を決定することと;
前記入力画像と、前記シェーディング及び影情報とに基づいて前記光源によって引き起こされる前記シーン内の照明条件を決定することであって、前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記画像内の前記複数のピクセルのそれぞれのピクセル値を決定することを含む、前記シーン内の前記照明条件を決定することと;
を含む動作を実行させる、メモリと;
を有する、電子デバイス。 It's an electronic device:
With processing unit;
A memory that is coupled to the processing unit and stores instructions for execution by the processing unit, the instructions to the device when executed by the processing unit:
Acquiring an input image for a real object and a depth map corresponding to the input image;
Determining the scene in the input image based on the depth map;
Based on the scene, determining the shading and shadow information of the real object caused by the light source in the scene, the light source being represented by an image of a predetermined shape, the image being of the light source. A plurality of pixels corresponding to a plurality of portions are included, and the pixel value of each of the plurality of pixels represents the emission intensity of each of the plurality of portions of the light source.
Determining the shading and shadow information is:
To initialize the pixel value of each of the plurality of pixels in the image with a predetermined value;
Based on the scene and the initialized image, it is to generate a set of first irradiance maps corresponding to the plurality of pixels, each of which is a corresponding portion of the light source. Representing, generating, representing the corresponding shading and shadow information of said real object caused by;
Determining shading and shadow information ;
Determining the lighting conditions in the scene caused by the light source based on the input image and the shading and shadow information, based on the input image and the set of the first radiation illuminance map. Determining the lighting conditions in the scene, including determining the pixel values of each of the plurality of pixels in the image ;
To perform operations including, with memory;
Have an electronic device.
前記シーン及び前記照明条件に基づいて、前記実オブジェクト及び仮想オブジェクトを含む出力画像を生成することを含み、前記出力画像は前記入力画像の前記シーン内に前記仮想オブジェクトを合成する、
請求項1に記載のデバイス。 The above operation is further:
The output image comprises generating an output image including the real object and the virtual object based on the scene and the lighting condition, and the output image synthesizes the virtual object in the scene of the input image.
The device according to claim 1.
前記デプスマップを点群に変換することと;
前記点群内の複数の点を面に適合させることであって、前記複数の点は前記表面を表す、適合させることと;
前記面の上に位置する前記点群内の前記複数の点を3次元メッシュに再構成することであって、前記面及び前記3次元メッシュは、前記入力画像内の前記シーンを共に表す、再構成することと:を含む、
請求項1に記載のデバイス。 The scene includes a surface for the placement of the real object, and determining the scene is:
Converting the depth map into a point cloud;
To adapt a plurality of points in the point cloud to a surface, wherein the plurality of points represent the surface.
Reconstructing the plurality of points in the point cloud located on the surface into a three-dimensional mesh, wherein the surface and the three-dimensional mesh together represent the scene in the input image. To configure and: including,
The device according to claim 1.
請求項1に記載のデバイス。 The image representing the light source is a cross-shaped image.
The device according to claim 1 .
前記入力画像及び前記第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、
請求項1に記載のデバイス。 Determining the pixel value of each of the plurality of pixels in the image is:
A trained neural network is used to determine the pixel value of each of the plurality of pixels in the image based on the input image and the set of the first irradiance map.
The device according to claim 1 .
前記入力画像及び前記第1の放射照度マップのセットに基づいて、複数の訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を漸進的に決定することを含む、
請求項1に記載のデバイス。 Determining the pixel value of each of the plurality of pixels in the image is:
It comprises progressively determining the pixel value of each of the plurality of pixels in the image using a plurality of trained neural networks based on the input image and the set of the first irradiance map. ,
The device according to claim 1 .
前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記第1のニューラルネットワークを使用して、前記複数のピクセルの第1のピクセルの第1のピクセル値及び前記第1のピクセルに隣接する少なくとも1つのピクセルのピクセル値を決定することと;
前記第1のピクセル、前記少なくとも1つのピクセル及び前記シーンに基づいて第2の放射照度マップのセットを生成することであって、前記第2の放射照度マップのセットは、前記第1のピクセルの複数のサブピクセル、前記少なくとも1つのピクセル、並びに前記複数のピクセルのうちの前記第1のピクセル及び前記少なくとも1つのピクセル以外のピクセルの組み合わせそれぞれに対応する、生成することと;
前記入力画像及び前記第2の放射照度マップのセットに基づいて、前記第1のピクセルが前記第2のニューラルネットワークを使用して分割されるべきかどうかを決定することと;
前記第1のピクセル値が分割されるべきでないと決定することに応答して、前記第1のピクセル値を前記第1のピクセルの最終ピクセルとして使用することと;を含む、
請求項6に記載のデバイス。 The plurality of trained neural networks include at least a first neural network and a second neural network, and determining the pixel value of each of the plurality of pixels in the image is:
Based on the input image and the set of the first irradiance map, the first neural network is used to the first pixel value of the first pixel of the plurality of pixels and the first pixel. Determining the pixel value of at least one adjacent pixel;
Generating a second set of irradiance maps based on the first pixel, the at least one pixel, and the scene, wherein the second set of irradiance maps is of the first pixel. To generate, corresponding to each of a plurality of sub-pixels, the at least one pixel, and a combination of the first pixel of the plurality of pixels and pixels other than the at least one pixel;
To determine whether the first pixel should be split using the second neural network based on the input image and the set of the second irradiance map;
In response to determining that the first pixel value should not be split, the use of the first pixel value as the final pixel of the first pixel;
The device according to claim 6 .
前記第1のピクセルが分割されるべきであると決定することに応答して、前記第1のピクセルを複数のサブピクセルに分割することと;
前記複数のサブピクセルのそれぞれのサブピクセル値を決定することと;を含む、
請求項7に記載のデバイス。 Determining the pixel value of each of the plurality of pixels in the image is further:
To divide the first pixel into a plurality of subpixels in response to determining that the first pixel should be divided;
To determine the subpixel value of each of the plurality of subpixels;
The device according to claim 7 .
実オブジェクトに関する入力画像及び前記入力画像に対応するデプスマップを取得することと;
前記デプスマップに基づいて前記入力画像内のシーンを決定することと;
前記シーンに基づいて、前記シーン内の光源によって引き起こされる前記実オブジェクトのシェーディング及び影情報を決定することであって、前記光源は、所定の形状の画像によって表され、前記画像は、前記光源の複数の部分に対応する複数のピクセルを含み、前記複数のピクセルのそれぞれのピクセル値は、前記光源の前記複数の部分のそれぞれの放射照度強度を表し、
前記シェーディング及び影情報を決定することは:
前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を所定の値で初期化することと;
前記シーン及び初期化された前記画像に基づいて、前記複数のピクセルに対応する第1の放射照度マップのセットを生成することであって、前記放射照度マップの各々は、前記光源の対応する部分によって引き起こされる前記実オブジェクトの対応するシェーディング及び影情報を表す、生成することと;を含む、
シェーディング及び影情報を決定することと;
前記入力画像と、前記シェーディング及び影情報とに基づいて、前記光源によって引き起こされる前記シーン内の照明条件を決定することであって、前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、シーン内の前記照明条件を決定することと;を含む、
方法。 A method implemented on a computer:
To acquire an input image related to a real object and a depth map corresponding to the input image;
Determining the scene in the input image based on the depth map;
Based on the scene, determining the shading and shadow information of the real object caused by the light source in the scene, the light source being represented by an image of a predetermined shape, the image being of the light source. A plurality of pixels corresponding to a plurality of portions are included, and the pixel value of each of the plurality of pixels represents the emission intensity of each of the plurality of portions of the light source.
Determining the shading and shadow information is:
To initialize the pixel value of each of the plurality of pixels in the image with a predetermined value;
Based on the scene and the initialized image, it is to generate a set of first irradiance maps corresponding to the plurality of pixels, each of which is a corresponding portion of the light source. Representing, generating, representing the corresponding shading and shadow information of said real object caused by;
Determining shading and shadow information ;
Determining the lighting conditions in the scene caused by the light source based on the input image and the shading and shadow information, based on the input image and the set of the first radiation illuminance map. Includes determining the lighting conditions in the scene, including determining the pixel value of each of the plurality of pixels in the image .
Method.
請求項9に記載の方法。 Further including generating an output image including the real object and the virtual object based on the scene and the lighting condition, the output image synthesizes the virtual object in the scene of the input image.
The method according to claim 9 .
前記デプスマップを点群に変換することと;
前記点群内の複数の点を面に適合させることであって、前記複数の点は、前記表面を表す、適合させることと;
前記面の上に位置する前記点群内の複数の点を3次元メッシュに再構成することであって、前記面及び前記3次元メッシュは、前記入力画像内の前記シーンを共に表す、再構成することと;を含む、
請求項9に記載の方法。 The scene includes a surface for the placement of the real object, and determining the scene is:
Converting the depth map into a point cloud;
Adapting a plurality of points in the point cloud to a surface, wherein the plurality of points represent and adapt to the surface;
Reconstructing a plurality of points in the point cloud located on the surface into a three-dimensional mesh, wherein the surface and the three-dimensional mesh together represent the scene in the input image. To do and; including;
The method according to claim 9 .
請求項9に記載の方法。 The image representing the light source is a cross-shaped image.
The method according to claim 9 .
前記入力画像及び前記第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、
請求項9に記載の方法。 Determining the pixel value of each of the plurality of pixels in the image is:
A trained neural network is used to determine the pixel value of each of the plurality of pixels in the image based on the input image and the set of the first irradiance map.
The method according to claim 9 .
実オブジェクトに関する入力画像及び前記入力画像に対応するデプスマップを取得することと; To acquire an input image related to a real object and a depth map corresponding to the input image;
前記デプスマップに基づいて前記入力画像内のシーンを決定することと; Determining the scene in the input image based on the depth map;
前記シーンに基づいて、前記シーン内の光源によって引き起こされる前記実オブジェクトのシェーディング及び影情報を決定することであって、前記光源は、所定の形状の画像によって表され、前記画像は、前記光源の複数の部分に対応する複数のピクセルを含み、前記複数のピクセルのそれぞれのピクセル値は、前記光源の前記複数の部分のそれぞれの放射照度強度を表し、 Based on the scene, determining the shading and shadow information of the real object caused by the light source in the scene, the light source being represented by an image of a predetermined shape, the image being of the light source. A plurality of pixels corresponding to a plurality of portions are included, and the pixel value of each of the plurality of pixels represents the emission intensity of each of the plurality of portions of the light source.
前記シェーディング及び影情報を決定することは: Determining the shading and shadow information is:
前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を所定の値で初期化することと; To initialize the pixel value of each of the plurality of pixels in the image with a predetermined value;
前記シーン及び初期化された前記画像に基づいて、前記複数のピクセルに対応する第1の放射照度マップのセットを生成することであって、前記放射照度マップの各々は、前記光源の対応する部分によって引き起こされる前記実オブジェクトの対応するシェーディング及び影情報を表す、生成することと;を含む、 Based on the scene and the initialized image, it is to generate a set of first irradiance maps corresponding to the plurality of pixels, each of which is a corresponding portion of the light source. Representing, generating, representing the corresponding shading and shadow information of said real object caused by;
シェーディング及び影情報を決定することと; Determining shading and shadow information;
前記入力画像と、前記シェーディング及び影情報とに基づいて、前記光源によって引き起こされる前記シーン内の照明条件を決定することであって、前記入力画像及び前記第1の放射照度マップのセットに基づいて、前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、シーン内の前記照明条件を決定することと;を含む、動作を実行させる、 Determining the lighting conditions in the scene caused by the light source based on the input image and the shading and shadow information, based on the input image and the set of the first radiation illuminance map. To perform an operation, including determining the illumination conditions in the scene, including determining the pixel value of each of the plurality of pixels in the image.
機械可読媒体。 Machine-readable medium.
前記シーン及び前記照明条件に基づいて、前記実オブジェクト及び仮想オブジェクトを含む出力画像を生成することをさらに含み、前記出力画像は、前記入力画像の前記シーン内に前記仮想オブジェクトを合成する、 Further including generating an output image including the real object and the virtual object based on the scene and the lighting condition, the output image synthesizes the virtual object in the scene of the input image.
請求項14に記載の機械可読媒体。 The machine-readable medium according to claim 14.
前記デプスマップを点群に変換することと; Converting the depth map into a point cloud;
前記点群内の複数の点を面に適合させることであって、前記複数の点は、前記表面を表す、適合させることと; Adapting a plurality of points in the point cloud to a surface, wherein the plurality of points represent and adapt to the surface;
前記面の上に位置する前記点群内の複数の点を3次元メッシュに再構成することであって、前記面及び前記3次元メッシュは、前記入力画像内の前記シーンを共に表す、再構成することと;を含む、 Reconstructing a plurality of points in the point cloud located on the surface into a three-dimensional mesh, wherein the surface and the three-dimensional mesh together represent the scene in the input image. To do and; including;
請求項14に記載の機械可読媒体。 The machine-readable medium according to claim 14.
請求項14に記載の機械可読媒体。 The machine-readable medium according to claim 14.
前記入力画像及び前記第1の放射照度マップのセットに基づいて、訓練されたニューラルネットワークを用いて前記画像内の前記複数のピクセルのそれぞれの前記ピクセル値を決定することを含む、 A trained neural network is used to determine the pixel value of each of the plurality of pixels in the image based on the input image and the set of the first irradiance map.
請求項14に記載の機械可読媒体。 The machine-readable medium according to claim 14.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810510214.1 | 2018-05-24 | ||
CN201810510214.1A CN110533707B (en) | 2018-05-24 | 2018-05-24 | Illumination estimation |
PCT/US2019/031907 WO2019226366A1 (en) | 2018-05-24 | 2019-05-13 | Lighting estimation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021524628A JP2021524628A (en) | 2021-09-13 |
JPWO2019226366A5 true JPWO2019226366A5 (en) | 2022-04-22 |
JP7386812B2 JP7386812B2 (en) | 2023-11-27 |
Family
ID=66655477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020564910A Active JP7386812B2 (en) | 2018-05-24 | 2019-05-13 | lighting estimation |
Country Status (6)
Country | Link |
---|---|
US (1) | US11151780B2 (en) |
EP (1) | EP3803803A1 (en) |
JP (1) | JP7386812B2 (en) |
KR (1) | KR102612808B1 (en) |
CN (1) | CN110533707B (en) |
WO (1) | WO2019226366A1 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7003994B2 (en) * | 2017-08-08 | 2022-01-21 | ソニーグループ株式会社 | Image processing equipment and methods |
CN112183551A (en) * | 2019-07-02 | 2021-01-05 | 佳能株式会社 | Illumination color prediction method, image processing apparatus, and storage medium |
US11910095B2 (en) * | 2019-11-21 | 2024-02-20 | Sony Interactive Entertainment Inc. | Incident light information acquisition method, incident light information acquisition system, and information processing device |
US20230063215A1 (en) * | 2020-01-23 | 2023-03-02 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
WO2021262243A1 (en) * | 2020-06-22 | 2021-12-30 | Google Llc | Depth-based relighting in augmented reality |
CN111932641B (en) | 2020-09-27 | 2021-05-14 | 北京达佳互联信息技术有限公司 | Image processing method and device, electronic equipment and storage medium |
KR102459771B1 (en) * | 2021-11-15 | 2022-10-28 | 한국전자기술연구원 | Apparatus for meshing objects based on image deep learning and method thereof |
KR20230092514A (en) * | 2021-12-17 | 2023-06-26 | 삼성전자주식회사 | Rendering method and device |
KR102559691B1 (en) * | 2022-04-04 | 2023-07-26 | 주식회사 리빌더에이아이 | Method and device for reconstructing neural rendering-based geometric color integrated 3D mesh |
KR20240054111A (en) * | 2022-10-18 | 2024-04-25 | 삼성전자주식회사 | Electronic device, operating method of electronic device, and image editing system |
CN117496359B (en) * | 2023-12-29 | 2024-03-22 | 浙江大学山东(临沂)现代农业研究院 | Plant planting layout monitoring method and system based on three-dimensional point cloud |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7262770B2 (en) * | 2002-03-21 | 2007-08-28 | Microsoft Corporation | Graphics image rendering with radiance self-transfer for low-frequency lighting environments |
US6791542B2 (en) | 2002-06-17 | 2004-09-14 | Mitsubishi Electric Research Laboratories, Inc. | Modeling 3D objects with opacity hulls |
JP5025496B2 (en) * | 2008-01-09 | 2012-09-12 | キヤノン株式会社 | Image processing apparatus and image processing method |
EP2650843A4 (en) * | 2010-12-09 | 2018-03-28 | Samsung Electronics Co., Ltd. | Image processor, lighting processor and method therefor |
JP5842634B2 (en) * | 2012-01-26 | 2016-01-13 | 富士通株式会社 | Display method and display device |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
JP2014164497A (en) * | 2013-02-25 | 2014-09-08 | Canon Inc | Information processor, image processing method and program |
US9818224B1 (en) * | 2013-06-20 | 2017-11-14 | Amazon Technologies, Inc. | Augmented reality images based on color and depth information |
EP2829842B1 (en) * | 2013-07-22 | 2022-12-21 | Hexagon Technology Center GmbH | Method, system and computer programme product for determination of an absolute volume of a stock pile using a structure from motion algorithm |
US9412040B2 (en) * | 2013-12-04 | 2016-08-09 | Mitsubishi Electric Research Laboratories, Inc. | Method for extracting planes from 3D point cloud sensor data |
US20150262412A1 (en) * | 2014-03-17 | 2015-09-17 | Qualcomm Incorporated | Augmented reality lighting with dynamic geometry |
EP3123449B1 (en) * | 2014-03-25 | 2020-01-01 | Apple Inc. | Method and system for representing a virtual object in a view of a real environment |
US20160140761A1 (en) * | 2014-11-19 | 2016-05-19 | Microsoft Technology Licensing, Llc. | Using depth information for drawing in augmented reality scenes |
US10008032B2 (en) * | 2015-03-03 | 2018-06-26 | Imagination Technologies Limited | Graphics processing using directional representations of lighting at probe positions within a scene |
US10354449B2 (en) | 2015-06-12 | 2019-07-16 | Hand Held Products, Inc. | Augmented reality lighting effects |
CN105825544B (en) * | 2015-11-25 | 2019-08-20 | 维沃移动通信有限公司 | A kind of image processing method and mobile terminal |
JP6275362B1 (en) | 2016-04-01 | 2018-02-07 | 株式会社wise | 3D graphic generation, artificial intelligence verification / learning system, program and method |
CN107341853B (en) * | 2017-07-13 | 2021-02-12 | 河北中科恒运软件科技股份有限公司 | Virtual-real fusion method and system for super-large virtual scene and dynamic screen shooting |
-
2018
- 2018-05-24 CN CN201810510214.1A patent/CN110533707B/en active Active
-
2019
- 2019-05-13 EP EP19726843.6A patent/EP3803803A1/en active Pending
- 2019-05-13 KR KR1020207036796A patent/KR102612808B1/en active IP Right Grant
- 2019-05-13 WO PCT/US2019/031907 patent/WO2019226366A1/en unknown
- 2019-05-13 US US17/044,270 patent/US11151780B2/en active Active
- 2019-05-13 JP JP2020564910A patent/JP7386812B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102319179B1 (en) | A rendering method for simulating lighting, and a terminal | |
TWI512680B (en) | System and method for optimizing image quality in a digital camera | |
US7557812B2 (en) | Multilevel texture processing method for mapping multiple images onto 3D models | |
CN107341853A (en) | Super large virtual scene and dynamic take the photograph the virtual reality fusion method and system of screen | |
TWI526990B (en) | Image processing method for transforming 2d image into 3d model | |
US8189003B2 (en) | System and method for rendering computer graphics utilizing a shadow illuminator | |
JPWO2019226366A5 (en) | ||
CN109829868B (en) | Lightweight deep learning model image defogging method, electronic equipment and medium | |
CN113256781B (en) | Virtual scene rendering device, storage medium and electronic equipment | |
US10922852B2 (en) | Oil painting stroke simulation using neural network | |
CN104392479A (en) | Method of carrying out illumination coloring on pixel by using light index number | |
US20230033319A1 (en) | Method, apparatus and device for processing shadow texture, computer-readable storage medium, and program product | |
CN112700528A (en) | Virtual object shadow rendering method for head-mounted augmented reality equipment | |
CN115984449A (en) | Illumination rendering method and device, electronic equipment and storage medium | |
CN116506993A (en) | Light control method and storage medium | |
CN107004295A (en) | Texture generates system | |
CN113648652B (en) | Object rendering method and device, storage medium and electronic equipment | |
CN112862943A (en) | Virtual model rendering method and device, storage medium and electronic equipment | |
KR20200081743A (en) | Surface processing system and method of 3D object with 2D illustration format | |
JPH07129762A (en) | Sketch-fashion image generator | |
CN109446945A (en) | Threedimensional model treating method and apparatus, electronic equipment, computer readable storage medium | |
CN112862929B (en) | Method, device, equipment and readable storage medium for generating virtual target model | |
KR101615371B1 (en) | 3D Animation production methods | |
CN114266704B (en) | Self-adaptive facula eliminating method | |
CN116452459B (en) | Shadow mask generation method, shadow removal method and device |