JP7171087B2 - A mesh denoising method based on graph convolutional networks - Google Patents

A mesh denoising method based on graph convolutional networks Download PDF

Info

Publication number
JP7171087B2
JP7171087B2 JP2021107136A JP2021107136A JP7171087B2 JP 7171087 B2 JP7171087 B2 JP 7171087B2 JP 2021107136 A JP2021107136 A JP 2021107136A JP 2021107136 A JP2021107136 A JP 2021107136A JP 7171087 B2 JP7171087 B2 JP 7171087B2
Authority
JP
Japan
Prior art keywords
mesh
graph
graph convolutional
substep
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021107136A
Other languages
Japanese (ja)
Other versions
JP2022045893A (en
Inventor
越凡 沈
友怡 ▲鄭▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Publication of JP2022045893A publication Critical patent/JP2022045893A/en
Application granted granted Critical
Publication of JP7171087B2 publication Critical patent/JP7171087B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/60
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Description

本発明はコンピュータグラフィックスの分野に属し、特にグラフ畳み込みネットワークに基づくメッシュ雑音除去方法に関する。 The present invention belongs to the field of computer graphics, and more particularly to mesh denoising methods based on graph convolutional networks.

頂点位置又は面法線は本質的に3D信号であるため、メッシュ表面で雑音除去を行うタスクは2D画像に類似する。したがって、メッシュ雑音除去技術は画像における雑音除去技術に大きな示唆を受け、現在様々な低域通過及び特徴を保持するフィルタを導入してメッシュ雑音除去を行う。ここで、バイラテラルフィルタは最も広く適用されるフィルタの一つであるが、フィルタに基づく方法の一般的な欠点は、特徴が雑音により深刻に破壊されると、それら(特に弱い特徴)がこれらの方法で回復することが困難であることである。もう一つの方法は最適化されたメッシュ雑音除去方法に基づくことである。しかし仮定したメッシュのみを適用し、かつ異なる幾何学的特徴を有するメッシュに対して騒音モードをうまく要約することができない。 Since vertex positions or surface normals are inherently 3D signals, the task of denoising on a mesh surface is similar to 2D images. Therefore, mesh denoising techniques have been heavily inspired by denoising techniques in images, and currently various low-pass and feature-preserving filters are introduced to perform mesh denoising. Here, bilateral filters are one of the most widely applied filters, but a general drawback of filter-based methods is that if features (especially weak features) are severely corrupted by noise, they (especially weak features) will be is difficult to recover in any way. Another method is based on optimized mesh denoising method. However, it applies only hypothetical meshes and fails to summarize noise modes well for meshes with different geometric features.

これに対して、学習に基づく方法は基本的な特徴又は雑音モードに特定の仮説を与えず、かつ画像雑音除去に成功して適用される。しかし、画像とは異なり、3Dメッシュは一般的に不規則であるため、画像に基づく畳み込み演算は直接的に適用することができない。この問題を解決するために、本発明者らは新しい方法を提供し、不規則なメッシュブロックデータを直接グラフ畳み込みネットワークに入力する。パターン畳み込み演算により局部表面幾何学的図形に対して図形に基づく表示を行い、本発明者らのネットワークは他の従来の方法より雑音下源モデルの固有幾何学的特徴をよりよく捕捉することができる。 In contrast, learning-based methods do not give specific hypotheses to the underlying features or noise modes and are successfully applied to image denoising. However, unlike images, 3D meshes are generally irregular, so image-based convolution operations cannot be applied directly. To solve this problem, we present a new method to input irregular mesh block data directly into the graph convolutional network. The pattern convolution operation provides a graphical representation for the local surface geometry, and our network is better able to capture the intrinsic geometric features of the noisy source model than other conventional methods. can.

グラフ畳み込みネットワーク(GCN)はユークリッド構造を処理するために導入される。GCNの早期動作は静的グラフ構造を必要とするため、変化トポロジを有するメッシュに拡張することができない。動的グラフ畳み込みの最新の研究によると、可変エッジはより良好に表現することができる。本発明者らの方法はブロックにおける静的グラフ構造及び畳み込み期間構造の動的グラフ構造を利用してブロックにおける幾何学的特徴を効果的に学習する。また他のいくつかはメッシュ開発の畳み込み操作であり、主に対象全体又は大型シーンを理解するために用いられ、かつ非常に深いネットワーク構造を必要とする。雑音除去作業はより局所ブロックに注目し、メッシュ面の双対空間に畳み込みを導入する。 A graph convolutional network (GCN) is introduced to process the Euclidean structure. Early operations of GCN require a static graph structure and thus cannot be extended to meshes with varying topologies. According to the latest research in dynamic graph convolution, variable edges can be represented better. Our method utilizes the static graph structure in the block and the dynamic graph structure of the convolutional term structure to effectively learn the geometric features in the block. Some others are mesh development convolution operations, which are mainly used for understanding whole objects or large scenes and require very deep network structures. The denoising operation focuses more on local blocks and introduces convolutions in the dual space of the mesh planes.

本発明はGCNネットワークに基づくメッシュ雑音除去方法を提供し、メッシュ面の双対空間に回転不変のグラフ表示を使用することにより、グラフ畳み込みにより効果的な特徴学習を実現する。同時に本発明のアーキテクチャにおける静的及び動的なグラフ畳み込み演算が直列接続されることにより、隣接ノードの間の有効明示的な構造特徴及び潜在的な暗黙的特徴を学習する。 The present invention provides a mesh denoising method based on GCN networks, and uses rotation-invariant graph representations in the dual space of mesh faces to achieve efficient feature learning through graph convolution. At the same time, the static and dynamic graph convolution operations in our architecture are serially connected to learn effective explicit structural features and potential implicit features between adjacent nodes.

本発明は以下の技術的解決手段により実現される。 The present invention is realized by the following technical solutions.

グラフ畳み込みネットワークに基づくメッシュ雑音除去方法であって、以下のステップ1とステップ2を含み、
ステップ1では、雑音メッシュ内の各面に局所ブロックを生成しかつテンソル投票アルゴリズムを採用して局部ブロックを回転整列し、
ステップ2では、ステップ1で整列された局所ブロックをグラフに変換して示させ、トレーニングされたグラフ畳み込みニューラルネットワークに入力し、雑音のない法線方向を予測し、さらに予測された法線方向に基づいてメッシュモデルの頂点を更新し、雑音除去後のモデルを取得し、ここで、前記畳み込みニューラルネットワーク構造はL層EdgeConv、L層動的EdgeConv及びL層全結合(FC)層で構成される。
A mesh denoising method based on graph convolutional networks, comprising the following steps 1 and 2:
In step 1, generate a local block for each face in the noise mesh and employ a tensor voting algorithm to rotationally align the local block;
In step 2, the local blocks aligned in step 1 are transformed into a graph and shown, input to a trained graph convolutional neural network, noise-free normal directions are predicted, and the predicted normal directions are update the vertices of the mesh model based on to obtain the denoised model, wherein the convolutional neural network structure is L e -layer EdgeConv, L d -layer dynamic EdgeConv and L 1 -layer fully connected (FC) layer Configured.

さらに、 前記ステップ1が以下のサブステップ1.1~サブステップ1.3により実施され、
サブステップ1.1では、選択されたパッチ

Figure 0007171087000001
に対して、その領域の面積の一定の割合に応じてバウンディングスフィアを画定し、バウンディングスフィア内の全てのパッチを該ブロック
Figure 0007171087000002
中の面とし、
サブステップ1.2では、該ブロックにおける全ての面
Figure 0007171087000003
に対する投票テンソル
Figure 0007171087000004
を定義し、かつ特徴値及び単位特徴ベクトルを取得し、
サブステップ1.3では、サブステップ1.2で得られた特徴ベクトルに基づいて一つの回転行列Rを構築し、かつ
Figure 0007171087000005
中の各小面の重心及び法線をR -1に乗算して新たなブロックデータ
Figure 0007171087000006
を生成する。 Further, said step 1 is performed by the following substeps 1.1 to 1.3,
In substep 1.1 the selected patch
Figure 0007171087000001
, define a bounding sphere according to a certain percentage of the area of that region, and all patches within the bounding sphere are added to the block
Figure 0007171087000002
as the inside surface,
In sub-step 1.2 all faces in the block
Figure 0007171087000003
vote tensor for
Figure 0007171087000004
and obtain feature values and unit feature vectors,
in substep 1.3, constructing one rotation matrix R i based on the feature vectors obtained in substep 1.2; and
Figure 0007171087000005
Multiply R i −1 by the centroid and normal of each facet in the new block data
Figure 0007171087000006
to generate

さらに、前記ステップ2が以下のサブステップ2.1~サブステップ2.4によりされ、
サブステップ2.1では、入力された画像に対して静的EdgeConvによる静的辺畳み込み処理を反復し、隣接面特徴を取得し、
サブステップ2.2では、サブステップ2.1で得られた結果に対して動的EdgeConvによる動的辺畳み込み処理を反復し、特徴空間における最も隣接する特徴面を取得し、
サブステップ2.3では、グラフ畳み込みの後、学習された特徴を一緒に接続し、全結合層を介して特徴をまとめ、
サブステップ2.4では、対称性プール化により最も主要な特徴を選択して法線方向を最終的に予測する。
Further, step 2 is performed by the following substeps 2.1 to 2.4,
In sub-step 2.1, iterating the static edge convolution process with static EdgeConv on the input image to obtain adjacent surface features,
in substep 2.2, iterating the dynamic edge convolution process with dynamic EdgeConv on the result obtained in substep 2.1 to obtain the closest feature face in the feature space;
In sub-step 2.3, after graph convolution, connect the learned features together and aggregate the features via a fully connected layer,
In sub-step 2.4, symmetry pooling selects the most dominant features to finally predict the normal direction.

さらに、前記グラフ畳み込みニューラルネットワークのトレーニングデータセットは以下の方法で構築され、
テンソル投票アルゴリズムをデータセット中の無雑音モデルの各面に適用し、三つの特徴値λ、λ、λを取得し、特徴値に基づいて全てのデータにおける全てのモデルの面を「面」及び「辺」の二組に分け、それぞれブロックデータを収集してトレーニングデータセットを構築する。
Further, a training dataset for said graph convolutional neural network is constructed in the following manner:
A tensor voting algorithm is applied to each face of the noiseless model in the dataset to obtain three feature values λ 1 , λ 2 , λ 3 , and based on the feature values all model faces in all data are The block data is divided into two sets of "face" and "edge", and the block data is collected respectively to construct the training data set.

さらに、複数のカスケード接続されたグラフ畳み込みニューラルネットワークをトレーニングして雑音無しの法線方向を予測し、トレーニングするとき、カスケード接続されたネットワークの損失が低下しなくなるまで、前段のグラフ畳み込みニューラルネットワークに予測された法線方向を利用して雑音除去後のメッシュモデルを構築して新たなデータを生成することで次の段のグラフ畳み込みニューラルネットワークをトレーニングする。 Furthermore, when training multiple cascaded graph convolutional neural networks to predict noise-free normal directions, training the preceding graph convolutional neural networks until the loss of the cascaded networks no longer drops. The predicted normal direction is used to construct the denoised mesh model and generate new data to train the next stage graph convolutional neural network.

さらに、最終段のグラフ畳み込みニューラルネットワークにおいて、メッシュ上のバイラテラルフィルタ対の法線ベクトルにより反復最適化を行い、反復するたびに頂点を更新し、最終的に雑音除去後のメッシュモデルを取得する。 Furthermore, in the final-stage graph convolutional neural network, iterative optimization is performed using the normal vector of the bilateral filter pair on the mesh, the vertices are updated at each iteration, and finally the mesh model after noise removal is obtained. .

本発明の突出寄与は以下のとおりである。 The salient contributions of the present invention are as follows.

本発明はGCN-Denoiser、グラフ畳み込みネットワーク(GCN)に基づく特徴保留のネットワーク雑音除去方法を提供する。従来の人為的な構造的特徴学習又はボクセルに基づく特徴学習に基づく学習に基づくメッシュの雑音低減方法とは異なり、本発明は三角メッシュ自体の構造を探索し、かつ図に示すように導入し、次に三角形の双対空間にグラフ畳み込み演算を導入する。本発明はこのように幾何学的特徴を自然にキャプチャすることができる図形表示形式を示し、同時にトレーニング段階及び推定段階に対していずれも軽量である。効果的な特徴学習を促進するために、このようなネットワークは静的及び動的エッジの畳み込みを同時に利用し、これにより明示的なメッシュ構造と未接続の隣接との間の潜在的な連絡から情報を学習することができる。未知雑音関数をよりよく推定するために、本発明は複数のGCNのカスケード最適化例を導入し、面の雑音レス法線方向を段階的に推定する。本発明は複数の雑音データセットにおいて最良の結果を実現し、明確な特徴を含むCADモデルと異なる装置からキャプチャされた真の雑音を有する元の走査モデルを含む。本発明の方法は効果と効率との間の良好なバランスを達成すると同時に、現在最も好ましい結果を実現する。 The present invention provides a GCN-Denoiser, a feature-reserving network denoising method based on graph convolutional networks (GCN). Unlike conventional artificial structural feature learning or voxel-based feature learning-based learning-based mesh noise reduction methods, the present invention explores the structure of the triangular mesh itself and introduces, as shown, Next, we introduce a graph convolution operation in the dual space of triangles. The present invention thus presents a graphical representation format that can naturally capture geometric features, while at the same time being lightweight for both the training and estimation stages. In order to facilitate effective feature learning, such networks utilize static and dynamic edge convolutions simultaneously, thereby extracting from implicit connections between explicit mesh structures and unconnected neighbors. Information can be learned. To better estimate the unknown noise function, the present invention introduces a cascaded optimization example of multiple GCNs to estimate the noiseless normal direction of the surface step by step. The present invention achieves best results on multiple noise data sets, including CAD models with well-defined features and original scanned models with true noise captured from different devices. The method of the present invention achieves a good balance between effectiveness and efficiency while achieving the currently most favorable results.

本発明のネットワーク雑音除去のプロセス概略図である。1 is a process schematic diagram of network noise cancellation of the present invention; FIG. 本発明のGCNネットワーク構造である。1 is the GCN network structure of the present invention; は本発明のネットワーク雑音除去効果図である。is the network noise elimination effect diagram of the present invention;

雑音はメッシュモデル表面の複雑な構成であるため、一般的に局所的な方法を用いてそれを推定する。本発明のターゲットはメッシュ三角形の双対領域において各パッチを、その一定の範囲内の雑音でのブロックを利用し、該パッチの元の雑音レス法線方向を予測し、かつ雑音なしのモデルを再構成し、具体的には以下のステップを含む。
ステップ1:雑音メッシュ内の各面に局所ブロックを生成しかつテンソル投票アルゴリズムを採用して局部ブロックを回転整列する。
ステップ2:ステップ1で整列された局所ブロックを図に示すように変換し、トレーニングされたグラフ畳み込みニューラルネットワークに入力し、雑音のない法線方向を予測し、さらに予測された法線方向に基づいてメッシュモデルの頂点を更新し、雑音除去後のモデルを取得する。ここで、前記畳み込みニューラルネットワーク構造はL層EdgeConv、L層動的EdgeConv及びL層全結合(FC)層で構成される。
Since noise is a complex composition of mesh model surfaces, we generally estimate it using local methods. The target of the present invention is to take each patch in the dual domain of mesh triangles, block it with noise within a certain range, predict the original noiseless normal direction of the patch, and reproduce the noiseless model. Specifically, it includes the following steps.
Step 1: Generate a local block for each face in the noise mesh and employ a tensor voting algorithm to rotationally align the local block.
Step 2: The local blocks aligned in step 1 are transformed as shown in the figure, input to a trained graph convolutional neural network to predict noise-free normal directions, and further based on the predicted normal directions update the vertices of the mesh model to get the denoised model. Here, the convolutional neural network structure is composed of an L e layer EdgeConv, an L d layer dynamic EdgeConv and an L 1 fully connected (FC) layer.

図1は本発明における複数のグラフ畳み込みニューラルネットワークカスケードの雑音除去フローを説明する。以下、具体的な実施例を参照して本発明の方法をさらに説明する。 FIG. 1 illustrates the denoising flow of multiple graph convolutional neural network cascades in the present invention. The method of the present invention is further described below with reference to specific examples.

雑音メッシュに対して、まず入力三角形メッシュをM={V、F}と定義し、ここでV={vは全ての頂点を設定し、F={f Nfは全ての面を設定する。N及びNは、それぞれ頂点数及び面数である。Fにおける各面fに対して、そのローカルブロックデータpを生成する。Mにおける全てのブロックの集合をP={p Nfと定義する。同様に、面fの法線方向をnと表し、その重心をcとして表し、かつその面積をaとして表す。 For the noise mesh, first define the input triangular mesh as M={V, F}, where V={v k } 1 N v sets all vertices and F={f i } 1 Nf is Set all faces. Nv and Nf are the number of vertices and the number of faces, respectively. For each face f i in F, generate its local block data p i . Define the set of all blocks in M as P={p i } 1 Nf . Similarly, the normal direction of the face f i is denoted by n i , its centroid by c i and its area by a i .

ここで、ブロックpは小平面fの重心c上に位置する半径rの球内の全ての小平面(fを含む)を指し、即ちpは以下を満たすべきである。

Figure 0007171087000007
Here, block p i refers to all facets (including f i ) within a sphere of radius r located on the centroid c i of facet f i , i.e. p i should satisfy:
Figure 0007171087000007

異なる位置にあるが同様の性質を有するブロックはニューラルネットワークに面倒をもたらし、深層学習方法に対して空間変換を学習しにくいためである。この問題を解決するために、本発明はテンソル投票理論を採用して面を一つの公共座標系に明確に整合し、すなわち当該面中の全ての面投票テンソルを定義し、かつ特徴値及び単位特徴ベクトルを取得し、具体的には以下のとおりである。 This is because blocks with similar properties but in different locations create trouble for neural networks and make it difficult to learn spatial transformations for deep learning methods. To solve this problem, the present invention adopts tensor voting theory to unambiguously align surfaces to one public coordinate system, i.e., define all surface voting tensors in the surface, and define feature values and units Get the feature vector, specifically:

まずpを原点[0、0、0]に変換し、次にそれを単位境界ボックスにスケーリングする。1つの投票テンソルTの面fに対する定義は以下のとおりである。

Figure 0007171087000008
First transform pi to the origin [ 0,0,0 ] and then scale it to the unit bounding box. The definition for face f i of one voting tensor T i is:
Figure 0007171087000008

ここでμ=(a/a)exp(-||c-c||/σ)、σはパラメータであり、本実施例では1/3に設定され、ここでaはpにおける最大三角形面積であり、かつn′はfの投票法線ベクトルである。n′=2(n・w)w-n、ここでw=normalize{[(c-c)×n]×(c-c)}である。Tは半正則行列であるため、そのスペクトル分解により以下のように表すことができる。

Figure 0007171087000009
where μ j =(a j /a m )exp(−||c j −c i ||/σ), σ is a parameter, set to ⅓ in this embodiment, where a m is is the maximum triangle area at p i and n j ' is the voting normal vector of f j . n j '=2(n j ·w j )w j −n j , where w j =normalize{[(c j −c i )×n j ]×(c j −c i )}. Since T i is a semi-regular matrix, it can be expressed by its spectral decomposition as follows.
Figure 0007171087000009

ここでλ≧λ≧λはその特徴値であり、e、e及びeは対応する単位特徴ベクトルであり、それらは一組の直交基を構成する。 where λ 1 ≧λ 2 ≧λ 3 are its feature values and e 1 , e 2 and e 3 are the corresponding unit feature vectors, which constitute a set of orthogonal groups.

次に、1つの回転行列R=[e、e、e]を構築し、かつpにおける各小面の重心及び法線方向をR -1に乗算して新たなブロックデータ

Figure 0007171087000010
を生成する。 Next, construct one rotation matrix R i =[e 1 ,e 2 ,e 3 ] and multiply R i −1 by the centroid and normal direction of each facet at p i to obtain the new block data
Figure 0007171087000010
to generate

その後、各生成されたブロックに図構造を確立してそれを本発明者らの後のパターン畳み込みネットワークに適応させる。無向グラフG=(Q、E、Φ)を確立し、ここでブロック

Figure 0007171087000011
内の各面fに図面上のノードq∈Q、及び一つの辺e=(q、q)∈Eを作成して対応する面f及びfが隣接する。Φはノード特徴を表し、一組のノード属性を含む。各のφ∈Φ、対応面
Figure 0007171087000012

Figure 0007171087000013
及び
Figure 0007171087000014
は整列後の平面fiの重心及び法線方向を指す。dはfの1環近傍における隣接する面の数であり、境界面を区別することに役立つ。 We then establish a diagram structure for each generated block to adapt it to our later pattern convolution network. Establish an undirected graph G = (Q, E, Φ), where block
Figure 0007171087000011
For each face f in , create a node q i εQ on the drawing and one edge e=(q i , q j )εE to adjoin the corresponding faces f i and f j . Φ represents a node feature and contains a set of node attributes. For each φ i ∈ Φ, the corresponding surface
Figure 0007171087000012
.
Figure 0007171087000013
as well as
Figure 0007171087000014
refers to the centroid and normal direction of the plane fi after alignment. d i is the number of adjacent faces in one ring neighborhood of f i and serves to distinguish the boundary faces.

図2に示すように、本発明のGCNネットワークは複数の畳み込み層で構成されることを説明した。(Martin Simonovsky and Nikos Komodakis. 2017. Dynamic edge-conditioned filters in convolutional neural networks on graphs. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 29-38. )各層において、従来の畳み込みネットワークと類似し、本発明のGCNは各ノードの隣接ノードの特徴をまとめて更新し、畳み込み操作とも呼ばれる。各図は面に一定の連通性を有するが、それらの構造はブロックに非常に異なる。したがって本発明者らはECC(Edge-Conditioned Convolution)ポリシーを用いて畳み込みプロセスにおける異なる構造を処理する。G=(Q、E、Φ)はグラフ畳み込みにおける第1層であり、φはGにおける第個のノードの特徴ベクトルである。以下の方式でノード特徴を更新する。

Figure 0007171087000015
It has been described that the GCN network of the present invention is composed of multiple convolutional layers, as shown in FIG. (Martin Simonovsky and Nikos Komodakis. 2017. Dynamic edge-conditioned filters in convolutional neural networks on graphs. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 29-38. )各層において、従来の畳み込みネットワークと類似し, the GCN of the present invention collectively updates the features of each node's neighbors, also called a convolution operation. Each figure has a certain degree of connectivity in the plane, but their structure is very different in blocks. Therefore, we use an ECC (Edge-Conditioned Convolution) policy to handle different structures in the convolution process. G l = (Q l , E l , Φ l ) is the first layer in the graph convolution and φ i is the feature vector of the i th node in G l . Update the node features in the following manner.
Figure 0007171087000015

ここでΨは特徴集合であり、hΘ = LinearΘ (F ,F - F )である。ネットワーク内の各グラフリールのベース層に同様のLinearΘがある。 where Ψ is the feature set and h Θ l = Linear Θ l (F l i , F l j - F l i ). There is a similar Linear Θ at the base layer of each graph reel in the network.

幾何学的図形から連通性のマッピングは一対一の関数ではないため、元の図形構造のみを利用して畳み込みプロセスにおいていくつかの情報が失われる可能性がある。グラフノードの受信領域を豊富にするために、本発明はさらに畳み込みプロセスにおいて隣接しないグラフノードを接続することを可能にする。このようなグラフィックス変換は、動的Edge Convと呼ばれる。この技術案に対して、各ノードの近隣はいずれもノードのユークリッド距離に基づいてKNN(本実施例の実現においてK=8である)により動的に計算される。
本発明のネットワークアーキテクチャはL層の静的Edge Conv、L層の動的Edge Conv及びL層の全結合(FC)層で構成される。グラフ畳み込みの各層の後に、学習された特徴を一緒に接続してプール化を行う。本実施例において、平均プール及び最大プールをいずれも対称関数として使用し、それらは最も重要な特徴を選択することができる。最後に、FC層は3Dベクトルを回帰し、すなわち本発明の予測する法線方向である。最後のFC層以外、本発明のアーキテクチャにおける各層はバッチ処理正規化及び活性化関数LeakyReLUを有する。
Since the geometry-to-connectivity mapping is not a one-to-one function, some information may be lost in the convolution process using only the original geometry structure. To enrich the receiving area of graph nodes, the present invention also allows connecting non-adjacent graph nodes in the convolution process. Such graphics transforms are called dynamic Edge Conv. For this scheme, each node's neighbors are dynamically computed by KNN (where K=8 in the implementation of this embodiment) based on the node's Euclidean distance.
The network architecture of the present invention consists of a static Edge Conv on the L e layer, a dynamic Edge Conv on the L d layer and a fully connected (FC) layer on the L 1 layer. After each layer of graph convolution, the learned features are connected together for pooling. In this example, both the average pool and the maximum pool are used as symmetry functions, and they can select the most important features. Finally, the FC layer regresses the 3D vector, ie the normal direction we predict. Except for the final FC layer, each layer in our architecture has a batch processing normalization and activation function LeakyReLU.

好ましい解決手段として、カスケード接続されたGCN(GCN、…、GCN)で雑音無しの法線方向を段階的に回帰する。カスケード最適化における全てのGCNは同じアーキテクチャを有するが、異なる静的Edge Conv、動的Edge Conv及びFC層の数を有する。本実施例において、一つ目のGCNに対して、Le=3、Ld=3、かつLl=4を使用し、残りのGCNに対して、Le=2、Ld=2、Ll=3を使用する。 A preferred solution is to stepwise regress the noise-free normal direction with cascaded GCNs (GCN 1 , . . . , GCN X ). All GCNs in the cascade optimization have the same architecture, but different numbers of static Edge Conv, dynamic Edge Conv and FC layers. In this example, we use Le=3, Ld=3, and Ll=4 for the first GCN, and Le=2, Ld=2, and Ll=3 for the remaining GCNs. do.

毎回の法線方向予測の更新後にいずれも頂点の位置を更新する必要があり、本発明の方法において頂点更新は以下の式に定義することができ、ここで、

Figure 0007171087000016
には、該頂点の領域はその近傍頂点を含み、該頂点の領域はその隣接頂点の関連付けパッチを含む。
Figure 0007171087000017
It is necessary to update the vertex position after each normal prediction update, and the vertex update in the method of the present invention can be defined as the following equation, where:
Figure 0007171087000016
, the region of the vertex contains its neighboring vertices, and the region of the vertex contains the associated patches of its neighboring vertices.
Figure 0007171087000017

kは頂点更新の反復回数を示し、上付きgは目標法線方向を示し、前のx-1段のGCN更新において、ネットワーク出力の予測値であり、最終段の更新において、最適化後の法線方向を示す。eijはパッチにおける二つの頂点の間の辺を示す。 k denotes the number of vertex update iterations, the superscript g denotes the target normal direction, in the previous x−1 stage GCN update, the predicted value of the network output, and in the final stage update, the post-optimization Indicates normal direction. eij indicates an edge between two vertices in the patch.

オフライントレーニングステップにおいて、GCNの出力を用いてトレーニング集合の雑音メッシュに対して雑音除去を行い、次にこれらの更新されたメッシュから新しいデータを生成して次のGCNx+1をトレーニングする。ネットワークの検証セットでの誤差が減少しない場合、カスケードGCNを停止することができる。損失関数はネットワーク出力と基準値との間のMSEであり、すなわちR-1

Figure 0007171087000018
である。ここで、
Figure 0007171087000019
は面fの真の雑音メッシュの法線方向であり、Rは上記対応する回転行列である。 In the offline training step, the output of GCN x is used to denoise the noisy meshes of the training set and then new data is generated from these updated meshes to train the next GCN x+1 . Cascaded GCN can be stopped if the error on the validation set of the network does not decrease. The loss function is the MSE between the network output and the reference value, i.e. R −1
Figure 0007171087000018
is. here,
Figure 0007171087000019
is the normal direction of the true noise mesh of face f i and R is the corresponding rotation matrix above.

好ましい解決手段として、各3Dモデルに対して、異なるレベル及びタイプの雑音を生成してトレーニングする。テンソル投票アルゴリズムをデータセット中の無雑音モデルの各面に適用し、三つの特徴値λ1、λ2、λ3を取得する。各モデルに対して各面を四組に分け、{fi|λi 2<0.01Λλi 3<0.001}は平面であり、{fi|λi 2>0.01Λλi 3<0.1}は辺表面であり、{fi|λi 3>0.1}は角表面であり、残りは遷移面である。辺表面及び角表面は他の二種に比べて少なく、さらに二組に分けられ、平面及び遷移面で構成された特徴的な面は、辺表面及び角表面で構成された特徴面である。この二組の中にトレーニングデータとしてブロックを均一に収集する。このポリシーは全てのGCNをトレーニングすることに適用される。 A preferred solution is to generate and train different levels and types of noise for each 3D model. A tensor voting algorithm is applied to each face of the noiseless model in the dataset to obtain three feature values λ1, λ2, λ3. For each model, each face is divided into four sets, {fi|λi 2<0.01Λλi 3<0.001} are planes and {fi|λi 2>0.01Λλi 3<0.1} are edges , {fi|λi 3>0.1} are corner surfaces and the rest are transition surfaces. Side surfaces and corner surfaces are fewer than the other two types, and are further divided into two sets. Characteristic surfaces composed of planes and transition surfaces are characteristic surfaces composed of edge surfaces and corner surfaces. Blocks are uniformly collected as training data in these two sets. This policy applies to training all GCNs.

好ましい解決手段として、一つの入力雑音メッシュの予測法線方向を与え、局所処理による隣接面の間の不連続性を回避するために、バイラテラルフィルタ(Youyi Zheng、Hongbo Fu、Oscar Kin-Chung Au、and Chiew-Lan Tai.2011.Bilal normal filtering for mutenoising.IEEE Transisons on Visualization and Computer Graphics 17、10(2011)、1521-1530.)を適用してGCN予測の法線方向を微調整することができる。

Figure 0007171087000020
As a preferred solution, a bilateral filter (Youyi Zheng, Hongbo Fu, Oscar Kin-Chung Au , and Chiew-Lan Tai. 2011. Bilal normal filtering for mutenoising. IEEE Transions on Visualization and Computer Graphics 17, 10 (2011), 1521-1530.) can be applied to fine-tune the normal direction of the GCN prediction. can.
Figure 0007171087000020

この操作反復はm回反復することができるが、最後のカスケードGCNにおける法線出力のみに適用される。ここで

Figure 0007171087000021
は反復最適化m+1回の法線方向であり、
Figure 0007171087000022
はm回目の反復により得られた法線方向に基づいて頂点を更新した後のパッチに算出された法線方向である。Ωは隣接fの集合であり、WとWはそれぞれσsとσrコアのガウス関数である。 This manipulation iteration can be repeated m times, but only applies to the normal output in the last cascaded GCN. here
Figure 0007171087000021
is the normal direction of iterative optimization m+1 times, and
Figure 0007171087000022
is the normal direction computed for the patch after updating the vertices based on the normal direction obtained by the m-th iteration. Ω i is the set of neighbors f i and W s and W r are Gaussian functions of σs and σr cores respectively.

図1及び3はそれぞれ本方法のスレーブ装置がキャプチャした実際の雑音の元の走査モデル及び明瞭な特徴を含むCADモデルの雑音除去結果を示し、最も左が入力された雑音モデルであり、中間が結果であり、最も右が元の雑音レス真値である。図から分かるように、本発明の方法は良好な雑音除去効果を有し、効果と効率との間の良好なバランスを達成することができる。 Figures 1 and 3 show the denoising results of the original scanned model and the CAD model containing the distinct features, respectively, of the actual noise captured by the slave device of the method, the leftmost being the input noise model and the middle Result, rightmost is the original noiseless true value. As can be seen, the method of the present invention has a good denoising effect and can achieve a good balance between effectiveness and efficiency.

Claims (6)

グラフ畳み込みネットワークに基づくメッシュ雑音除去方法であって、以下のステップ1とステップ2を含み、
ステップ1では、雑音メッシュ内の各面に局所ブロックを生成しかつテンソル投票アルゴリズムを採用して局部ブロックを回転整列し、
ステップ2では、ステップ1で整列された局所ブロックをグラフに変換して示させ、トレーニングされたグラフ畳み込みニューラルネットワークに入力し、雑音のない法線方向を予測し、さらに予測された法線方向に基づいてメッシュモデルの頂点を更新し、雑音除去後のモデルを取得し、ここで、前記グラフ畳み込みニューラルネットワーク構造はL層EdgeConv、L層動的EdgeConv及びL層全結合(FC)層で構成される
ことを特徴とする方法。
A mesh denoising method based on graph convolutional networks, comprising the following steps 1 and 2:
In step 1, generate a local block for each face in the noise mesh and employ a tensor voting algorithm to rotationally align the local block;
In step 2, the local blocks aligned in step 1 are transformed into a graph and shown, input to a trained graph convolutional neural network, noise-free normal directions are predicted, and the predicted normal directions are update the vertices of the mesh model to obtain the denoised model, wherein the structure of the graph convolutional neural network is L e -layer EdgeConv, L d -layer dynamic EdgeConv and L 1 -layer fully connected (FC) A method characterized by comprising layers.
前記ステップ1が以下のサブステップ1.1~サブステップ1.3により実施され、
サブステップ1.1では、選択されたパッチ
Figure 0007171087000023
に対して、その領域の面積の一定の割合に応じてバウンディングスフィアを画定し、バウンディングスフィア内の全てのパッチを該局所ブロック
Figure 0007171087000024
中の面とし、
サブステップ1.2では、該局所ブロックにおける全ての面
Figure 0007171087000025
に対する投票テンソル
Figure 0007171087000026
を定義し、かつ特徴値及び単位特徴ベクトルを取得し、
サブステップ1.3では、サブステップ1.2で得られた特徴ベクトルに基づいて一つの回転行列Rを構築し、かつ
Figure 0007171087000027
中の各小面の重心及び法線をR -1に乗算して新たなブロックデータ
Figure 0007171087000028
を生成する
ことを特徴とする請求項1に記載のグラフ畳み込みネットワークに基づくメッシュ雑音除去方法。
said step 1 being performed by the following substeps 1.1 to 1.3;
In substep 1.1 the selected patch
Figure 0007171087000023
, define a bounding sphere according to a constant fraction of the area of the region, and delineate all patches within the bounding sphere into the local block
Figure 0007171087000024
as the inside surface,
In substep 1.2 all faces in the local block
Figure 0007171087000025
vote tensor for
Figure 0007171087000026
and obtain feature values and unit feature vectors,
in substep 1.3, constructing one rotation matrix R i based on the feature vectors obtained in substep 1.2; and
Figure 0007171087000027
Multiply R i −1 by the centroid and normal of each facet in the new block data
Figure 0007171087000028
The graph convolutional network-based mesh denoising method of claim 1, wherein generating .
前記ステップ2が以下のサブステップ2.1~サブステップ2.4によりされ、
サブステップ2.1では、入力された画像に対して静的EdgeConvによる静的辺畳み込み処理を反復し、隣接面特徴を取得し、
サブステップ2.2では、サブステップ2.1で得られた結果に対して動的EdgeConvによる動的辺畳み込み処理を反復し、特徴空間における最も隣接する特徴面を取得し、
サブステップ2.3では、グラフ畳み込みの後、学習された特徴を一緒に接続し、全結合層を介して特徴をまとめ、
サブステップ2.4では、対称性プール化により最も主要な特徴を選択して法線方向を最終的に予測する
ことを特徴とする請求項1に記載のグラフ畳み込みネットワークに基づくメッシュ雑音除去方法。
said step 2 is performed by the following substeps 2.1 to 2.4,
In sub-step 2.1, iterating the static edge convolution process with static EdgeConv on the input image to obtain adjacent surface features,
in substep 2.2, iterating the dynamic edge convolution process with dynamic EdgeConv on the result obtained in substep 2.1 to obtain the closest feature face in the feature space;
In sub-step 2.3, after graph convolution, connect the learned features together and aggregate the features via a fully connected layer,
The method of mesh denoising based on graph convolutional networks according to claim 1, characterized in that sub-step 2.4 selects the most dominant features by symmetry pooling to finally predict the normal direction.
前記グラフ畳み込みニューラルネットワークのトレーニングデータセットは以下の方法で構築され、
テンソル投票アルゴリズムをデータセット中の無雑音モデルの各面に適用し、三つの特徴値λ、λ、λを取得し、特徴値に基づいて全てのデータにおける全てのモデルの面を「面」及び「辺」の二組に分け、それぞれブロックデータを収集してトレーニングデータセットを構築する
ことを特徴とする請求項1に記載のグラフ畳み込みネットワークに基づくメッシュ雑音除去方法。
A training data set for said graph convolutional neural network is constructed in the following manner,
A tensor voting algorithm is applied to each face of the noiseless model in the dataset to obtain three feature values λ 1 , λ 2 , λ 3 , and based on the feature values all model faces in all data are The mesh denoising method based on graph convolutional network according to claim 1, characterized in that it divides into two sets of "faces" and "edges" and collects block data respectively to build a training data set.
複数のカスケード接続されたグラフ畳み込みニューラルネットワークをトレーニングして雑音無しの法線方向を予測し、トレーニングするとき、カスケード接続されたネットワークの損失が低下しなくなるまで、前段のグラフ畳み込みニューラルネットワークに予測された法線方向を利用して雑音除去後のメッシュモデルを構築して新たなデータを生成することで次の段のグラフ畳み込みニューラルネットワークをトレーニングする
ことを特徴とする請求項1に記載のグラフ畳み込みネットワークに基づくメッシュ雑音除去方法。
When training multiple cascaded graph convolutional neural networks to predict noise-free normal directions and training, until the loss of the cascaded networks no longer drops, the previous graph convolutional neural network predicts The graph convolution according to claim 1, wherein the normal direction is used to build a mesh model after noise removal and generate new data to train a graph convolution neural network in the next stage. A network-based mesh denoising method.
最終段のグラフ畳み込みニューラルネットワークにおいて、メッシュ上のバイラテラルフィルタ対の法線ベクトルにより反復最適化を行い、反復するたびに頂点を更新し、最終的に雑音除去後のメッシュモデルを取得する
ことを特徴とする請求項1に記載のグラフ畳み込みネットワークに基づくメッシュ雑音除去方法。
In the final-stage graph convolutional neural network, iterative optimization is performed using the normal vector of the bilateral filter pair on the mesh, the vertices are updated at each iteration, and finally the mesh model after denoising is obtained. Graph convolutional network-based mesh denoising method according to claim 1.
JP2021107136A 2020-09-09 2021-06-28 A mesh denoising method based on graph convolutional networks Active JP7171087B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010939418.4 2020-09-09
CN202010939418.4A CN112200733B (en) 2020-09-09 2020-09-09 Grid denoising method based on graph convolution network

Publications (2)

Publication Number Publication Date
JP2022045893A JP2022045893A (en) 2022-03-22
JP7171087B2 true JP7171087B2 (en) 2022-11-15

Family

ID=74005804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021107136A Active JP7171087B2 (en) 2020-09-09 2021-06-28 A mesh denoising method based on graph convolutional networks

Country Status (3)

Country Link
JP (1) JP7171087B2 (en)
CN (1) CN112200733B (en)
LU (1) LU500415B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011516A (en) * 2021-03-30 2021-06-22 华南理工大学 Three-dimensional mesh model classification method and device based on graph topology and storage medium
CN117315194A (en) * 2023-09-27 2023-12-29 南京航空航天大学 Triangular mesh representation learning method for large aircraft appearance
CN117197000B (en) * 2023-11-06 2024-03-19 武汉中观自动化科技有限公司 Quick grid denoising method and device and electronic equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190096038A1 (en) 2017-09-26 2019-03-28 Samsung Electronics Co., Ltd. Image denoising neural network architecture and method of training the same
CN109658348A (en) 2018-11-16 2019-04-19 天津大学 The estimation of joint noise and image de-noising method based on deep learning
JP2020115336A (en) 2018-12-29 2020-07-30 ダッソー システムズDassault Systemes Machine learning for estimating 3d modeled object

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190318227A1 (en) * 2018-04-13 2019-10-17 Fabula Al Limited Recommendation system and method for estimating the elements of a multi-dimensional tensor on geometric domains from partial observations
CN111626102B (en) * 2020-04-13 2022-04-26 上海交通大学 Bimodal iterative denoising anomaly detection method and terminal based on video weak marker

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190096038A1 (en) 2017-09-26 2019-03-28 Samsung Electronics Co., Ltd. Image denoising neural network architecture and method of training the same
CN109658348A (en) 2018-11-16 2019-04-19 天津大学 The estimation of joint noise and image de-noising method based on deep learning
JP2020115336A (en) 2018-12-29 2020-07-30 ダッソー システムズDassault Systemes Machine learning for estimating 3d modeled object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Diego Valsesia ほか2名,Deep Graph-Convolutional Image Denoising,IEEE Transactions on Image Processing ,2020年08月05日, Vol. 29,p.8226-8237

Also Published As

Publication number Publication date
CN112200733B (en) 2022-06-21
CN112200733A (en) 2021-01-08
JP2022045893A (en) 2022-03-22
LU500415B1 (en) 2022-03-09

Similar Documents

Publication Publication Date Title
JP7171087B2 (en) A mesh denoising method based on graph convolutional networks
Krull et al. Noise2void-learning denoising from single noisy images
JP6656111B2 (en) Method and system for removing image noise
Liu et al. Learning converged propagations with deep prior ensemble for image enhancement
Zhao et al. A robust method for vector field learning with application to mismatch removing
Li et al. Detail-preserving and content-aware variational multi-view stereo reconstruction
CN112634149B (en) Point cloud denoising method based on graph convolution network
Yin et al. Highly accurate image reconstruction for multimodal noise suppression using semisupervised learning on big data
CN110930334B (en) Grid denoising method based on neural network
Pistilli et al. Learning robust graph-convolutional representations for point cloud denoising
EP2817783A1 (en) Method and apparatus for mesh simplification
Li et al. Coarse-to-fine PatchMatch for dense correspondence
Chen et al. Deep point set resampling via gradient fields
Zhang et al. High-order total bounded variation model and its fast algorithm for Poissonian image restoration
Gong Mean curvature is a good regularization for image processing
Lalos et al. Signal processing on static and dynamic 3d meshes: Sparse representations and applications
D’Apice et al. On a variational problem with a nonstandard growth functional and its applications to image processing
Zhao et al. NormalNet: learning-based mesh normal denoising via local partition normalization
Pan et al. Two-step group-based adaptive soft-thresholding algorithm for image denoising
Wei et al. Image denoising with deep unfolding and normalizing flows
CN113610711A (en) Single-image-guided three-dimensional surface reconstruction method and device
Lin et al. Dyspn: Learning dynamic affinity for image-guided depth completion
Bougleux et al. Image smoothing and segmentation by graph regularization
Wu et al. Diffusion equations over arbitrary triangulated surfaces for filtering and texture applications
Szczȩsna The multiresolution analysis of triangle surface meshes with lifting scheme

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221026

R150 Certificate of patent or registration of utility model

Ref document number: 7171087

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150