JP2022518402A - 三次元再構成の方法及び装置 - Google Patents
三次元再構成の方法及び装置 Download PDFInfo
- Publication number
- JP2022518402A JP2022518402A JP2021540143A JP2021540143A JP2022518402A JP 2022518402 A JP2022518402 A JP 2022518402A JP 2021540143 A JP2021540143 A JP 2021540143A JP 2021540143 A JP2021540143 A JP 2021540143A JP 2022518402 A JP2022518402 A JP 2022518402A
- Authority
- JP
- Japan
- Prior art keywords
- position point
- space
- reconstruction
- images
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000006870 function Effects 0.000 claims description 60
- 230000004927 fusion Effects 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 9
- 238000000926 separation method Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 239000000470 constituent Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
Abstract
Description
物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nが2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得し、前記カメラの視野が前記再構成空間を覆うことと、
前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得し、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像であることと、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得することと、
前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成することと、を含む三次元再構成の方法を提供する。
前記N個の現在画像の各位置点の画素値、及び対応する前記N個の初期背景画像の各位置点の画素値を取得することと、
前記N個の現在画像の各位置点の画素値、対応する前記N個の初期背景画像の各位置点の画素値と差分関数に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得することと、を含む。
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分を特定することと、
前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分及び融合関数に基づいて、前記再構成空間の各位置点に対応する前景背景差分を取得することと、を含む。
照明が変化し且つ前記再構成空間に物体が存在しない場合、前記再構成空間に対する前記N台のカメラの撮影画像を取得して前記N個の初期背景図を更新することをさらに含む。
物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nが2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得するためのものであり、前記カメラの視野が前記再構成空間を覆う取得ユニットと、
前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するためのものであり、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像である第1取得ユニットと、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得するための第2取得ユニットと、
前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成するための再構成ユニットと、を含む三次元再構成の装置を提供する。
前記メモリが、プログラムコードを記憶するとともに、前記プログラムコードを前記プロセッサに伝送し、
前記プロセッサが、前記プログラムコードにおけるコマンドに応じて上記第1点のいずれか1項に記載の三次元再構成の方法を実行する、端末機器を提供する。
本出願の実施例の技術案を使用すると、まず、物体が再構成空間に進入する場合、視野が再構成空間を覆うN台のカメラの再構成空間に対する撮影画像をN個の現在画像として取得し、そして、N個の現在画像及び対応するN個の初期背景画像に基づいて、N個の現在画像の各位置点に対応する前景背景差分を取得し、N個の初期背景画像は、再構成空間に物体が存在しない場合の、再構成空間に対するN台のカメラの撮影画像であり、次に、N個の現在画像の各位置点と再構成空間の各位置点との対応関係に基づいて、N個の現在画像の各位置点に対応する前景背景差分を対応融合して再構成空間の各位置点に対応する前景背景差分を取得し、最後に、再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、再構成空間の各位置点を選別して物体を三次元再構成する。このように、物体が再構成空間に進入する場合、N個の現在画像及び対応するN個の初期背景画像により前景背景の分離を行って物体を三次元再構成し、前景背景の分離の演算は比較的に簡単で便利であり、再構成空間に進入した物体の三次元再構成を快速でリアルタイムに完成でき、該方法は、リアルタイムの三次元再構成が必要なシーンに非常に適する。
図2を参照し、本出願の実施例における三次元再構成の方法のフロー概略図を示す。本実施例において、前記方法は例えば、以下のステップを含むことができる。
ステップA:前記N個の現在画像の各位置点の画素値、及び対応する前記N個の初期背景画像の各位置点の画素値を取得することと、
ステップB:前記N個の現在画像の各位置点の画素値、対応する前記N個の初期背景画像の各位置点の画素値及び差分関数に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得することと、を含む。
ステップC:前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分を特定することと、
ステップD:前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分及び融合関数により、前記再構成空間の各位置点に対応する前景背景差分を取得することと、を含む。
Diff3D=R(Diff1,Diff2,・・・,DiffN,)である。
(xB,yB,zB)が再構成空間における位置点Bを示すとすれば、当該カメラに対応する現在画像における(u1,v1)位置点が再構成空間における位置点A及び位置点Bに対応することが得られる。
図6を参照すれば、本出願の実施例における三次元再構成の装置の構造概略図を示す。本実施例において、前記装置は例えば、
物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nが2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得するための取得ユニットであって、前記カメラの視野が前記再構成空間を覆う取得ユニット601と、
前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するための第1取得ユニット602であって、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像である第1取得ユニット602と、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得するための第2取得ユニット603と、
前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成するための再構成ユニット604と、を具体的に含むことができる。
前記N個の現在画像の各位置点の画素値、及び対応する前記N個の初期背景画像の各位置点の画素値を取得するための第1取得サブユニットと、
前記N個の現在画像の各位置点の画素値、対応する前記N個の初期背景画像の各位置点の画素値及び差分関数に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するための第2取得サブユニットと、を含む。
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分を特定するための特定サブユニットと、
前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分及び融合関数に基づいて、前記再構成空間の各位置点に対応する前景背景差分を取得するための第3取得サブユニットと、を含む。
照明が変化し且つ前記再構成空間に物体が存在しない場合、前記再構成空間に対する前記N台のカメラの撮影画像を取得して前記N個の初期背景図を更新するための更新ユニットをさらに含む。
前記メモリが、プログラムコードを記憶するとともに、前記プログラムコードを前記プロセッサに伝送し、
前記プロセッサが、前記プログラムコードにおけるコマンドに応じて上記方法実施例のいずれか1項に記載の三次元再構成方法を実行する、端末機器を提供する。
Claims (12)
- 三次元再構成の方法であって、
物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nは2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得するステップであって、前記カメラの視野が前記再構成空間を覆うステップと、
前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するステップであって、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像であるステップと、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得するステップと、
前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成するステップと、を含むことを特徴とする方法。 - 前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係は、前記再構成空間の縁に固定的に配置された前記N台のカメラの位置情報及び角度情報によって特定されることを特徴とする請求項1に記載の方法。
- 前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得する前記ステップは、
前記N個の現在画像の各位置点の画素値、及び対応する前記N個の初期背景画像の各位置点の画素値を取得するステップと、
前記N個の現在画像の各位置点の画素値、対応する前記N個の初期背景画像の各位置点の画素値及び差分関数に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記差分関数は、混合ガウスモデルのモデリングにより特定されるか、或いは、前記差分関数は、ベクトル距離式により特定されることを特徴とする請求項3に記載の方法。
- 前記ベクトル距離式は、ユークリッド距離式、マンハッタン距離式またはコサイン距離式を含むことを特徴とする請求項4に記載の方法。
- 前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得する前記ステップは、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分を特定するステップと、
前記再構成空間の各位置点のそれぞれに対応する前記N個の現在画像の位置点に対応する前景背景差分及び融合関数に基づいて、前記再構成空間の各位置点に対応する前景背景差分を取得するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記融合関数は、加算関数または乗算関数を含むことを特徴とする請求項6に記載の方法。
- 前記再構成空間の境界は、濃淡が互い違いになったテクスチャを使用することを特徴とする請求項1に記載の方法。
- 照明が変化し且つ前記再構成空間に物体が存在しない場合、前記再構成空間に対する前記N台のカメラの撮影画像を取得して前記N個の初期背景図を更新するステップをさらに含むことを特徴とする請求項1に記載の方法。
- 物体が再構成空間に進入する場合、前記再構成空間に対するN(前記Nは2以上の正整数)台のカメラの撮影画像をN個の現在画像として取得するための取得ユニットであって、前記カメラの視野が前記再構成空間を覆う取得ユニットと、
前記N個の現在画像及び対応するN個の初期背景画像に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を取得するための第1取得ユニットであって、前記N個の初期背景画像は、前記再構成空間に物体が存在しない場合の、前記再構成空間に対する前記N台のカメラの撮影画像である第1取得ユニットと、
前記N個の現在画像の各位置点と前記再構成空間の各位置点との対応関係に基づいて、前記N個の現在画像の各位置点に対応する前景背景差分を対応融合し、前記再構成空間の各位置点に対応する前景背景差分を取得するための第2取得ユニットと、
前記再構成空間の各位置点に対応する前景背景差分及びプリセット前景背景閾値に基づいて、前記再構成空間の各位置点を選別して前記物体を三次元再構成するための再構成ユニットと、を含むことを特徴とする三次元再構成の装置。 - プロセッサ及びメモリを含み、
前記メモリが、プログラムコードを記憶するとともに、前記プログラムコードを前記プロセッサに伝送し、
前記プロセッサが、前記プログラムコードにおけるコマンドに応じて請求項1~9のいずれか1項に記載の三次元再構成の方法を実行することを特徴とする端末機器。 - 請求項1~9のいずれか1項に記載の三次元再構成の方法を実行するためのプログラムコードを記憶することを特徴とするコンピュータ読み取り可能記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910074343.5 | 2019-01-25 | ||
CN201910074343.5A CN109785429B (zh) | 2019-01-25 | 2019-01-25 | 一种三维重建的方法和装置 |
PCT/CN2019/079686 WO2020151078A1 (zh) | 2019-01-25 | 2019-03-26 | 一种三维重建的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022518402A true JP2022518402A (ja) | 2022-03-15 |
JP7398819B2 JP7398819B2 (ja) | 2023-12-15 |
Family
ID=66502627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021540143A Active JP7398819B2 (ja) | 2019-01-25 | 2019-03-26 | 三次元再構成の方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11954832B2 (ja) |
JP (1) | JP7398819B2 (ja) |
CN (1) | CN109785429B (ja) |
WO (1) | WO2020151078A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11205310B1 (en) * | 2021-03-08 | 2021-12-21 | Htc Corporation | Background skybox constructing method and electronic device |
CN113298934B (zh) * | 2021-05-26 | 2022-07-08 | 重庆邮电大学 | 一种基于双向匹配的单目视觉图像三维重建方法及系统 |
CN113873156A (zh) * | 2021-09-27 | 2021-12-31 | 北京有竹居网络技术有限公司 | 图像处理方法、装置和电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000172878A (ja) * | 1998-12-09 | 2000-06-23 | Sony Corp | 情報処理装置および情報処理方法、並びに提供媒体 |
JP2000324509A (ja) * | 1999-05-11 | 2000-11-24 | For-A Co Ltd | 画像合成におけるカメラパラメ−タ推定方法 |
JP2007180932A (ja) * | 2005-12-28 | 2007-07-12 | Secom Co Ltd | 画像センサ |
JP2014164525A (ja) * | 2013-02-25 | 2014-09-08 | Nippon Telegr & Teleph Corp <Ntt> | 物体数推定方法、物体数推定装置、及び物体数推定プログラム |
WO2016021411A1 (ja) * | 2014-08-06 | 2016-02-11 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2018205788A (ja) * | 2017-05-30 | 2018-12-27 | Kddi株式会社 | シルエット抽出装置、方法およびプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998009253A1 (fr) * | 1996-08-29 | 1998-03-05 | Sanyo Electric Co., Ltd. | Procede permettant de fournir des informations sur une texture, procede d'extraction d'objet, procede de production de modeles tridimensionnels et appareillage associe a ceux-ci |
KR100748719B1 (ko) * | 2005-07-14 | 2007-08-13 | 연세대학교 산학협력단 | 다중 스테레오 카메라를 이용한 3차원 모델링 장치 및 그방법 |
US8736606B2 (en) * | 2010-02-01 | 2014-05-27 | SathyaKumar Andre Ramalingam | Method and apparatus to create 3-dimensional computer models of persons from specially created 2-dimensional images |
CN104574311B (zh) * | 2015-01-06 | 2017-08-11 | 华为技术有限公司 | 图像处理方法和装置 |
CN105374019B (zh) * | 2015-09-30 | 2018-06-19 | 华为技术有限公司 | 一种多深度图融合方法及装置 |
CN107170037A (zh) * | 2016-03-07 | 2017-09-15 | 深圳市鹰眼在线电子科技有限公司 | 一种基于多摄像机的实时三维点云重建方法和系统 |
CN105979203B (zh) * | 2016-04-29 | 2019-04-23 | 中国石油大学(北京) | 一种多摄像机协同监控方法及装置 |
CN108694741B (zh) * | 2017-04-07 | 2021-11-12 | 杭州海康威视数字技术股份有限公司 | 一种三维重建方法及装置 |
-
2019
- 2019-01-25 CN CN201910074343.5A patent/CN109785429B/zh active Active
- 2019-03-26 WO PCT/CN2019/079686 patent/WO2020151078A1/zh active Application Filing
- 2019-03-26 JP JP2021540143A patent/JP7398819B2/ja active Active
- 2019-03-26 US US17/250,707 patent/US11954832B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000172878A (ja) * | 1998-12-09 | 2000-06-23 | Sony Corp | 情報処理装置および情報処理方法、並びに提供媒体 |
JP2000324509A (ja) * | 1999-05-11 | 2000-11-24 | For-A Co Ltd | 画像合成におけるカメラパラメ−タ推定方法 |
JP2007180932A (ja) * | 2005-12-28 | 2007-07-12 | Secom Co Ltd | 画像センサ |
JP2014164525A (ja) * | 2013-02-25 | 2014-09-08 | Nippon Telegr & Teleph Corp <Ntt> | 物体数推定方法、物体数推定装置、及び物体数推定プログラム |
WO2016021411A1 (ja) * | 2014-08-06 | 2016-02-11 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2018205788A (ja) * | 2017-05-30 | 2018-12-27 | Kddi株式会社 | シルエット抽出装置、方法およびプログラム |
Non-Patent Citations (1)
Title |
---|
内田 恭輔、他2名: "雑踏における複数歩行者の追跡", システム制御情報学会論文誌 マシンビジョンの産業応用特集号, vol. 第14巻, 第4号, JPN6022035120, 15 April 2001 (2001-04-15), JP, pages 8 - 13, ISSN: 0004989573 * |
Also Published As
Publication number | Publication date |
---|---|
US20210192704A1 (en) | 2021-06-24 |
WO2020151078A1 (zh) | 2020-07-30 |
JP7398819B2 (ja) | 2023-12-15 |
US11954832B2 (en) | 2024-04-09 |
CN109785429B (zh) | 2020-08-21 |
CN109785429A (zh) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11410320B2 (en) | Image processing method, apparatus, and storage medium | |
US11354840B2 (en) | Three dimensional acquisition and rendering | |
WO2020063100A1 (zh) | 增强现实的图像展示方法、装置及设备 | |
CN110148204B (zh) | 用于在真实环境的视图中表示虚拟对象的方法和系统 | |
US20200234397A1 (en) | Automatic view mapping for single-image and multi-view captures | |
JP4879326B2 (ja) | 3次元画像を合成するシステム及び方法 | |
US20150146032A1 (en) | Light field processing method | |
US20220319130A1 (en) | Method for simulating natural perception in virtual and augmented reality scenes | |
US11783443B2 (en) | Extraction of standardized images from a single view or multi-view capture | |
WO2013056188A1 (en) | Generating free viewpoint video using stereo imaging | |
JP2016537901A (ja) | ライトフィールド処理方法 | |
JP2006053694A (ja) | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 | |
EP2650843A2 (en) | Image processor, lighting processor and method therefor | |
US10984586B2 (en) | Spatial mapping fusion from diverse sensing sources | |
JP2022518402A (ja) | 三次元再構成の方法及び装置 | |
CN109064533B (zh) | 一种3d漫游方法及系统 | |
CN115641401A (zh) | 一种三维实景模型的构建方法及相关装置 | |
Wei et al. | Object-based illumination estimation with rendering-aware neural networks | |
Griffiths et al. | OutCast: Outdoor Single‐image Relighting with Cast Shadows | |
CN115035235A (zh) | 三维重建方法及装置 | |
CN110378995A (zh) | 一种利用投射特征进行三维空间建模的方法 | |
Nguyen et al. | High-definition texture reconstruction for 3D image-based modeling | |
US11302073B2 (en) | Method for texturing a 3D model | |
Tao | Unified Multi-Cue Depth Estimation from Light-Field Images: Correspondence, Defocus, Shading, and Specularity | |
US20240096041A1 (en) | Avatar generation based on driving views |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210708 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7398819 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |