JP7446414B2 - 3dモデルのテクスチャを取得するための方法および関連する装置 - Google Patents
3dモデルのテクスチャを取得するための方法および関連する装置 Download PDFInfo
- Publication number
- JP7446414B2 JP7446414B2 JP2022516349A JP2022516349A JP7446414B2 JP 7446414 B2 JP7446414 B2 JP 7446414B2 JP 2022516349 A JP2022516349 A JP 2022516349A JP 2022516349 A JP2022516349 A JP 2022516349A JP 7446414 B2 JP7446414 B2 JP 7446414B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- network
- correspondence
- target object
- obtaining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 82
- 238000013507 mapping Methods 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 206010028347 Muscle twitching Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 230000000193 eyeblink Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本出願は、2020年1月10日に中国国家知識産権局に出願された「METHOD AND APPARATUS FOR ACQUIRING TEXTURE OF 3D MODEL,DEVICE,AND MEDIUM」なる名称の中国特許出願第202010027225.1号に基づく優先権を主張し、その全体が参照により組み込まれる。
複数の角度に基づいて対象物体によって生成された少なくとも2つの3Dネットワークを取得するステップであって、3Dネットワークは、対象物体の点群情報と色情報との間の第1の対応関係と、対象物体の第1のカメラ姿勢とを含み、第1のカメラ姿勢は、3Dネットワークが生成される場合に基準位置に対する対象物体の変位を表すために使用される、ステップと、
少なくとも2つの3Dネットワークにそれぞれ含まれる第1のカメラ姿勢に従って、少なくとも2つの3Dネットワークを同じ角度に移動させるステップと、
第1のネットワーク内の第1の点に最も近い第2の点を取得するステップであって、第2の点は第2のネットワーク内にあり、第1のネットワークおよび第2のネットワークは、それぞれ少なくとも2つの3Dネットワークの異なる3Dネットワークである、ステップと、
第1の点と第2の点との間のオフセットを取得するステップと、
オフセットに従って第1の対応関係を更新して、対象物体の点群情報と色情報との間の第2の対応関係を取得するステップと、
第2の対応関係に従って対象物体の3Dモデルの表面色テクスチャを取得するステップと、
を含む。
複数の角度に基づいて対象物体によって生成された少なくとも2つの3Dネットワークを取得するように構成された第1の取得ユニットであって、3Dネットワークは、対象物体の点群情報と色情報との間の第1の対応関係と、対象物体の第1のカメラ姿勢とを含み、第1のカメラ姿勢は、3Dネットワークが生成される場合に基準位置に対する対象物体の変位を表すために使用される、第1の取得ユニットと、
第2の取得ユニットであって、
少なくとも2つの3Dネットワークにそれぞれ含まれる第1のカメラ姿勢に従って、少なくとも2つの3Dネットワークを同じ角度に移動させ、
第1のネットワーク内の第1の点に最も近い第2の点を取得し、第2の点は第2のネットワーク内にあり、第1のネットワークおよび第2のネットワークは、それぞれ少なくとも2つの3Dネットワークの異なる3Dネットワークであり、
第1の点と第2の点との間のオフセットを取得する、
ように構成された、第2の取得ユニットと、
第2の取得ユニットによって取得されたオフセットに従って第1の対応関係を更新して、対象物体の点群情報と色情報との間の第2の対応関係を取得するように構成された、更新ユニットと、
更新ユニットによって取得された第2の対応関係に従って対象物体の3Dモデルの表面色テクスチャを取得するように構成された、第3の取得ユニットと、
を含む。
第2のネットワーク内のすべての点をトラバースし、
第2のネットワーク内のすべての点の3D座標をそれぞれ取得し、
3D座標に従って第2のネットワーク内の点と第1の点との間の距離をそれぞれ計算し、
第1の点に最も近い第2のネットワーク内の点を第2の点として決定する
ようにさらに構成される。
k最近傍(kNN)アルゴリズムを使用して第1の点に最も近い第2の点を取得する
ようにさらに構成される。
第1の対応関係に従って点群情報内の3D点に対応する色情報内の画素を取得し、
オフセットに従って点群情報内の3D点をオフセットし、
点群情報においてオフセットされた後に取得された3D点と画素との間の対応関係を第2の対応関係として取得する
ようにさらに構成される。
式:D1=(R|T)×D2を実行し、
D1は3Dネットワーク内の点群情報であり、D2は他の3Dネットワーク内の情報である
ようにさらに構成される。
第2の対応関係に従って3Dモデルの3D点にそれぞれ対応する画素を取得し、
3Dモデルの表面上のテクスチャマッピングを実施するために、対応する3D点上の画素をカバーする
ようにさらに構成される。
異なる撮影角度における対象物体の少なくとも2つの初期画像を取得し、少なくとも2つの初期画像は、対象物体の深度情報をそれぞれ記録し、深度情報は、対象物体の各点と基準位置との間の距離を記録するために使用され、基準位置は、対象物体を撮影するカメラの位置であり、
各初期画像に対応する第1の点群情報を取得するために、各初期画像内の深度情報に従って3D空間内で逆投影を行い、第1の点群情報内の点は、対象物体の3D点を記録するために使用され、
3D点と色情報内の画素との間の第1の対応関係を取得し、
第1の点群情報および第1の対応関係に従って3Dネットワークを生成する
ようにさらに構成される。
複数の角度に基づいて対象物体によって生成された少なくとも2つの3Dネットワークを取得するように構成された第1の取得ユニット1201であって、3Dネットワークは、対象物体の点群情報と色情報との間の第1の対応関係と、対象物体の第1のカメラ姿勢とを含み、第1のカメラ姿勢は、3Dネットワークが生成される場合に基準位置に対する対象物体の変位を表すために使用される、第1の取得ユニット1201と、
第2の取得ユニット1202であって、
少なくとも2つの3Dネットワークにそれぞれ含まれる第1のカメラ姿勢に従って、第1の取得ユニット1201によって取得された少なくとも2つの3Dネットワークを同じ角度に移動させ、
第1のネットワーク内の第1の点に最も近い第2の点を取得し、第2の点は第2のネットワーク内にあり、第1のネットワークおよび第2のネットワークは、それぞれ少なくとも2つの3Dネットワークの異なる3Dネットワークであり、
第1の点と第2の点との間のオフセットを取得する、
ように構成された、第2の取得ユニット1202と、
第2の取得ユニット1202によって取得されたオフセットに従って第1の対応関係を更新して、対象物体の点群情報と色情報との間の第2の対応関係を取得するように構成された、更新ユニット1203と、
更新ユニット1203によって取得された第2の対応関係に従って対象物体の3Dモデルの表面色テクスチャを取得するように構成された、第3の取得ユニット1204と、
を含む。
第2のネットワーク内のすべての点をトラバースし、
第2のネットワーク内のすべての点の3D座標をそれぞれ取得し、
3D座標に従って第2のネットワーク内の点と第1の点との間の距離をそれぞれ計算し、
第1の点に最も近い第2のネットワーク内の点を第2の点として決定する
ようにさらに構成される。
kNNアルゴリズムを使用して第1の点に最も近い第2の点を取得する
ようにさらに構成される。
第1の対応関係に従って点群情報内の3D点に対応する色情報内の画素を取得し、
オフセットに従って点群情報内の3D点をオフセットし、
点群情報においてオフセットされた後に取得された3D点と画素との間の対応関係を第2の対応関係として取得する
ようにさらに構成される。
式:D1=(R|T)×D2を実行し、
D1は3Dネットワーク内の点群情報であり、D2は他の3Dネットワーク内の情報である
ようにさらに構成される。
第2の対応関係に従って3Dモデルの3D点にそれぞれ対応する画素を取得し、
3Dモデルの表面上のテクスチャマッピングを実施するために、対応する3D点上の画素をカバーする
ようにさらに構成される。
異なる撮影角度における対象物体の少なくとも2つの初期画像を取得し、少なくとも2つの初期画像は、対象物体の深度情報をそれぞれ記録し、深度情報は、対象物体の各点と基準位置との間の距離を記録するために使用され、基準位置は、対象物体を撮影するカメラの位置であり、
各初期画像に対応する第1の点群情報を取得するために、各初期画像内の深度情報に従って3D空間内で逆投影を行い、第1の点群情報内の点は、対象物体の3D点を記録するために使用され、
3D点と色情報内の画素との間の第1の対応関係を取得し、
第1の点群情報および第1の対応関係に従って3Dネットワークを生成する
ようにさらに構成される。
702 深度画像
801 第1の点群情報
901 画素ネットワーク
902 鼻先
1001 画素ネットワーク
1002 鼻先領域
1101 プロセッサ
1102 通信線
1103 メモリ
1104 通信インターフェース
1105 出力デバイス
1106 入力デバイス
1107 プロセッサ
1201 第1の取得ユニット
1202 第2の取得ユニット
1203 更新ユニット
1204 第3の取得ユニット
Claims (10)
- コンピュータデバイスによって行われる3次元(3D)モデルのテクスチャを取得するための方法であって、方法は、
複数の角度に基づいて対象物体によって生成された少なくとも2つの3Dネットワークを取得するステップであって、前記3Dネットワークは、前記対象物体の点群情報と、前記対象物体の前記点群情報と色情報との間の第1の対応関係と、前記対象物体の第1のカメラ姿勢とを含み、前記第1のカメラ姿勢は、前記3Dネットワークが生成される場合に基準位置に対する前記対象物体の変位を表すために使用される、ステップと、
前記少なくとも2つの3Dネットワークにそれぞれ含まれる前記第1のカメラ姿勢に従って、前記少なくとも2つの3Dネットワークを同じ角度に移動させるステップと、
(i)第1のネットワーク内の第1の点に最も近い第2の点を取得するステップであって、前記第2の点は第2のネットワーク内にあり、前記第1のネットワークおよび前記第2のネットワークは、前記少なくとも2つの3Dネットワークのそれぞれ異なる3Dネットワークである、ステップと、
(ii)前記第1の点と前記第2の点との間のオフセットを取得するステップと、
前記第1のネットワーク内の各点に対してステップ(i)および(ii)を繰り返し実行して、前記第1のネットワーク内の各点と前記第2のネットワーク内の対応する各点との間の各オフセットを取得するステップと、
前記各オフセットに従って前記第1の対応関係を更新して、前記対象物体の前記点群情報と前記色情報との間の第2の対応関係を取得するステップと、
前記第2の対応関係に従って前記対象物体の3Dモデルの表面色テクスチャを取得するステップと
を含む、方法。 - 第1のネットワーク内の第1の点に最も近い第2の点を取得する前記ステップは、
前記第2のネットワーク内のすべての点をトラバースするステップと、
前記第2のネットワーク内の前記すべての点の3D座標をそれぞれ取得するステップと、
前記3D座標に従って前記第2のネットワーク内の前記点と前記第1の点との間の距離をそれぞれ計算するステップと、
前記第1の点に最も近い前記第2のネットワーク内の点を前記第2の点として決定するステップと
を含む、請求項1に記載の方法。 - 第1のネットワーク内の第1の点に最も近い第2の点を取得する前記ステップは、
k最近傍(kNN)アルゴリズムを使用して前記第1の点に最も近い前記第2の点を取得するステップ
を含む、請求項1に記載の方法。 - 前記各オフセットに従って前記第1の対応関係を更新して、前記対象物体の前記点群情報と前記色情報との間の第2の対応関係を取得する前記ステップは、
前記第1の対応関係に従って前記点群情報内の3D点に対応する前記色情報内の画素を取得するステップと、
前記各オフセットに従って前記点群情報内の前記3D点をオフセットするステップと、
前記点群情報においてオフセットされた後に取得された前記3D点と前記画素との間の対応関係を前記第2の対応関係として取得するステップと
を含む、請求項1に記載の方法。 - 前記オフセットは、回転演算を表すために用いられる回転行列Rおよび並進演算を表すために用いられる並進行列Tを含み、前記各オフセットに従って前記点群情報内の前記3D点をオフセットする前記ステップは、
式:D1=(R|T)×D2を実行するステップであって、
D1は3Dネットワーク内の点群情報であり、D2は他の3Dネットワーク内の情報である、ステップ
を含む、請求項4に記載の方法。 - 前記第2の対応関係に従って前記対象物体の3Dモデルの表面色テクスチャを取得する前記ステップは、
前記第2の対応関係に従って前記3Dモデルの前記3D点にそれぞれ対応する前記画素を取得するステップと、
前記3Dモデルの表面上でテクスチャマッピングを実施するために、前記対応する3D点上の前記画素をカバーするステップと
を含む、請求項4に記載の方法。 - 複数の角度に基づいて対象物体によって生成された少なくとも2つの3Dネットワークを取得する前記ステップは、
複数の撮影角度で前記対象物体の少なくとも2つの初期画像を取得するステップであって、前記少なくとも2つの初期画像は、前記対象物体の深度情報をそれぞれ記録し、前記深度情報は、前記対象物体の各点と前記基準位置との間の距離を記録するために使用され、前記基準位置は、前記対象物体を撮影するカメラの位置である、ステップと、
各初期画像に対応する第1の点群情報を取得するために、各初期画像内の前記深度情報に従って3D空間内で逆投影を行うステップであって、前記第1の点群情報内の点は、前記対象物体の3D点を記録するために使用される、ステップと、
前記3D点と前記色情報内の画素との間の前記第1の対応関係を取得するステップと、
前記第1の点群情報および前記第1の対応関係に従って前記3Dネットワークを生成するステップと
を含む、請求項1から6のいずれか一項に記載の方法。 - 3次元(3D)モデルのテクスチャを取得するための装置であって、
複数の角度に基づいて対象物体によって生成された少なくとも2つの3Dネットワークを取得するように構成された第1の取得ユニットであって、前記3Dネットワークは、前記対象物体の点群情報と、前記対象物体の前記点群情報と色情報との間の第1の対応関係と、前記対象物体の第1のカメラ姿勢とを含み、前記第1のカメラ姿勢は、前記3Dネットワークが生成される場合に基準位置に対する前記対象物体の変位を表すために使用される、第1の取得ユニットと、
第2の取得ユニットであって、
前記少なくとも2つの3Dネットワークにそれぞれ含まれる前記第1のカメラ姿勢に従って、前記第1の取得ユニットによって取得された前記少なくとも2つの3Dネットワークを同じ角度に移動させ、
(i)第1のネットワーク内の第1の点に最も近い第2の点を取得し、前記第2の点は第2のネットワーク内にあり、前記第1のネットワークおよび前記第2のネットワークは、前記少なくとも2つの3Dネットワークのそれぞれ異なる3Dネットワークであり、
(ii)前記第1の点と前記第2の点との間のオフセットを取得し、
前記第1のネットワーク内の各点に対して動作(i)および(ii)を繰り返し実行して、前記第1のネットワーク内の各点と前記第2のネットワーク内の対応する各点との間の各オフセットを取得する
ように構成された、第2の取得ユニットと、
前記第2の取得ユニットによって取得された前記各オフセットに従って前記第1の対応関係を更新して、前記対象物体の前記点群情報と前記色情報との間の第2の対応関係を取得するように構成された、更新ユニットと、
前記更新ユニットによって取得された前記第2の対応関係に従って前記対象物体の3Dモデルの表面色テクスチャを取得するように構成された、第3の取得ユニットと
を備える、装置。 - 対話装置と、入力/出力(I/O)インターフェースと、プロセッサと、プログラム命令を記憶するメモリとを備える、コンピュータデバイスであって、
前記対話装置は、ユーザによって入力された操作命令を取得するように構成され、
前記プロセッサは、請求項1から7のいずれか一項に記載の方法を行うために、前記メモリに記憶された前記プログラム命令を実行するように構成される、
コンピュータデバイス。 - 命令を含むコンピュータプログラムであって、前記命令は、コンピュータ上で実行されると、前記コンピュータに請求項1から7のいずれか一項に記載の方法を行わせる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010027225.1A CN110895823B (zh) | 2020-01-10 | 2020-01-10 | 一种三维模型的纹理获取方法、装置、设备及介质 |
CN202010027225.1 | 2020-01-10 | ||
PCT/CN2020/120797 WO2021139293A1 (zh) | 2020-01-10 | 2020-10-14 | 一种三维模型的纹理获取方法和相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022548608A JP2022548608A (ja) | 2022-11-21 |
JP7446414B2 true JP7446414B2 (ja) | 2024-03-08 |
Family
ID=69787714
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022516349A Active JP7446414B2 (ja) | 2020-01-10 | 2020-10-14 | 3dモデルのテクスチャを取得するための方法および関連する装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11989894B2 (ja) |
EP (1) | EP3996042A4 (ja) |
JP (1) | JP7446414B2 (ja) |
CN (1) | CN110895823B (ja) |
WO (1) | WO2021139293A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110895823B (zh) * | 2020-01-10 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 一种三维模型的纹理获取方法、装置、设备及介质 |
CN111753739B (zh) * | 2020-06-26 | 2023-10-31 | 北京百度网讯科技有限公司 | 物体检测方法、装置、设备以及存储介质 |
CN113487729A (zh) * | 2021-07-30 | 2021-10-08 | 上海联泰科技股份有限公司 | 三维模型的表面数据处理方法、系统及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015153405A (ja) | 2014-02-19 | 2015-08-24 | 株式会社リコー | 情報処理装置、情報処理プログラム、および情報処理システム |
JP2017045148A (ja) | 2015-08-24 | 2017-03-02 | 日本電信電話株式会社 | 領域分割処理装置、方法、及びプログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2538751A (en) * | 2015-05-27 | 2016-11-30 | Imp College Of Science Tech And Medicine | Modelling a three-dimensional space |
US10380796B2 (en) * | 2016-07-19 | 2019-08-13 | Usens, Inc. | Methods and systems for 3D contour recognition and 3D mesh generation |
CN109325990B (zh) * | 2017-07-27 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 图像处理方法及图像处理装置、存储介质 |
CN109979013B (zh) * | 2017-12-27 | 2021-03-02 | Tcl科技集团股份有限公司 | 三维人脸贴图方法及终端设备 |
CN110070598B (zh) * | 2018-01-22 | 2022-11-25 | 宁波盈芯信息科技有限公司 | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 |
TWI634515B (zh) * | 2018-01-25 | 2018-09-01 | 廣達電腦股份有限公司 | 三維影像處理之裝置及方法 |
CN109242961B (zh) | 2018-09-26 | 2021-08-10 | 北京旷视科技有限公司 | 一种脸部建模方法、装置、电子设备和计算机可读介质 |
CN109409335B (zh) * | 2018-11-30 | 2023-01-20 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
CN109949412B (zh) | 2019-03-26 | 2021-03-02 | 腾讯科技(深圳)有限公司 | 一种三维对象重建方法和装置 |
CN110119679B (zh) * | 2019-04-02 | 2021-12-10 | 北京百度网讯科技有限公司 | 物体三维信息估计方法及装置、计算机设备、存储介质 |
CN109978931B (zh) * | 2019-04-04 | 2021-12-31 | 中科海微(北京)科技有限公司 | 三维场景重建方法及设备、存储介质 |
CN110189400B (zh) * | 2019-05-20 | 2023-04-14 | 深圳大学 | 一种三维重建方法、三维重建系统、移动终端及存储装置 |
CN110349251B (zh) * | 2019-06-28 | 2020-06-16 | 深圳数位传媒科技有限公司 | 一种基于双目相机的三维重建方法及装置 |
CN110570368B (zh) * | 2019-08-21 | 2020-09-25 | 贝壳技术有限公司 | 深度图像的畸变矫正方法、装置、电子设备及存储介质 |
CN110599546A (zh) * | 2019-08-28 | 2019-12-20 | 贝壳技术有限公司 | 一种获取三维空间数据的方法、系统、装置和存储介质 |
CN110895823B (zh) * | 2020-01-10 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 一种三维模型的纹理获取方法、装置、设备及介质 |
CN111325823B (zh) | 2020-02-05 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 人脸纹理图像的获取方法、装置、设备及存储介质 |
-
2020
- 2020-01-10 CN CN202010027225.1A patent/CN110895823B/zh active Active
- 2020-10-14 EP EP20912594.7A patent/EP3996042A4/en active Pending
- 2020-10-14 WO PCT/CN2020/120797 patent/WO2021139293A1/zh unknown
- 2020-10-14 JP JP2022516349A patent/JP7446414B2/ja active Active
-
2022
- 2022-01-19 US US17/579,072 patent/US11989894B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015153405A (ja) | 2014-02-19 | 2015-08-24 | 株式会社リコー | 情報処理装置、情報処理プログラム、および情報処理システム |
JP2017045148A (ja) | 2015-08-24 | 2017-03-02 | 日本電信電話株式会社 | 領域分割処理装置、方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
Sehwan Kim, et al.,Projection-based registration using a multi-view camera for indoor scene reconstruction,Fifth International Conference on 3-D Digital Imaging and Modeling (3DIM'05),IEEE,2005年06月13日,https://ieeexplore.ieee.org/document/1443282 |
Also Published As
Publication number | Publication date |
---|---|
US20220138974A1 (en) | 2022-05-05 |
JP2022548608A (ja) | 2022-11-21 |
WO2021139293A1 (zh) | 2021-07-15 |
EP3996042A1 (en) | 2022-05-11 |
CN110895823A (zh) | 2020-03-20 |
US11989894B2 (en) | 2024-05-21 |
EP3996042A4 (en) | 2022-11-02 |
CN110895823B (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7446414B2 (ja) | 3dモデルのテクスチャを取得するための方法および関連する装置 | |
US20220165031A1 (en) | Method for constructing three-dimensional model of target object and related apparatus | |
US8457442B1 (en) | Methods and apparatus for facial feature replacement | |
EP3742113B1 (en) | System and method for marking images for three-dimensional image generation | |
US10726580B2 (en) | Method and device for calibration | |
WO2022121640A1 (zh) | 机器人重定位方法、装置、机器人和可读存储介质 | |
JP2023540917A (ja) | 3次元再構成及び関連インタラクション、測定方法及び関連装置、機器 | |
WO2017152803A1 (zh) | 图像处理方法和设备 | |
GB2520613A (en) | Target region fill utilizing transformations | |
WO2018201677A1 (zh) | 基于光束平差的远心镜头三维成像系统的标定方法及装置 | |
KR20120093063A (ko) | 이미지들로부터의 빠른 스테레오 재구성을 위한 기술들 | |
WO2018205493A1 (zh) | 图形绘制方法、装置及设备 | |
CN111862302A (zh) | 图像处理和对象建模方法与设备、图像处理装置及介质 | |
US20220237880A1 (en) | System and method of generating a 3d representation of an object | |
Pagani et al. | Dense 3D Point Cloud Generation from Multiple High-resolution Spherical Images. | |
WO2023093739A1 (zh) | 一种多视图三维重建的方法 | |
Semerjian | A new variational framework for multiview surface reconstruction | |
CN115439607A (zh) | 一种三维重建方法、装置、电子设备及存储介质 | |
Byrne et al. | Maximizing feature detection in aerial unmanned aerial vehicle datasets | |
CN113643414A (zh) | 一种三维图像生成方法、装置、电子设备及存储介质 | |
CN113793387A (zh) | 单目散斑结构光系统的标定方法、装置及终端 | |
WO2021142843A1 (zh) | 图像扫描方法及装置、设备、存储介质 | |
CN109741399A (zh) | 基于旋转拍摄的预计算相机标定方法 | |
Kumara et al. | Real-time 3D human objects rendering based on multiple camera details | |
Panek et al. | Visual localization using imperfect 3d models from the internet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220314 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7446414 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |