JP2022540634A - 深層学習に基づく3d点群の物体検出およびインスタンスセグメント化 - Google Patents
深層学習に基づく3d点群の物体検出およびインスタンスセグメント化 Download PDFInfo
- Publication number
- JP2022540634A JP2022540634A JP2022501299A JP2022501299A JP2022540634A JP 2022540634 A JP2022540634 A JP 2022540634A JP 2022501299 A JP2022501299 A JP 2022501299A JP 2022501299 A JP2022501299 A JP 2022501299A JP 2022540634 A JP2022540634 A JP 2022540634A
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- network
- feature
- points
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 40
- 230000011218 segmentation Effects 0.000 title claims description 69
- 238000013135 deep learning Methods 0.000 title description 34
- 238000013528 artificial neural network Methods 0.000 claims abstract description 113
- 238000000034 method Methods 0.000 claims abstract description 84
- 230000003287 optical effect Effects 0.000 claims abstract description 26
- 239000013598 vector Substances 0.000 claims description 90
- 238000000605 extraction Methods 0.000 claims description 54
- 230000006870 function Effects 0.000 claims description 51
- 238000012549 training Methods 0.000 claims description 44
- 238000003860 storage Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 38
- 238000012545 processing Methods 0.000 description 36
- 238000003909 pattern recognition Methods 0.000 description 8
- 230000001788 irregular Effects 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 210000004513 dentition Anatomy 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000036346 tooth eruption Effects 0.000 description 6
- 238000010606 normalization Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 210000004283 incisor Anatomy 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000009828 non-uniform distribution Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0053—Optical means or methods, e.g. scanning the teeth by a laser or light beam
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Optics & Photonics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Geometry (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
Description
前処理アルゴリズムおよび少なくともトレーニングされた第1の3Dディープニューラルネットワークを含むコンピュータ可読プログラムコードを具現化したコンピュータ可読記憶媒体と、コンピュータ可読プログラムコードと、コンピュータ可読記憶媒体に結合されたプロセッサ、好ましくは、マイクロプロセッサとを備え、第1のコンピュータ可読プログラムコードの実行に応答して、プロセッサが、第1のタイプのディープニューラルネットワークによって、点群の点に関連する第1の特徴を決定することであって、点群が、点群の3D空間内の1つまたは複数の物体を表す点を含み、第1の特徴が、点群の各点に関する幾何学的情報を定義し、第1のタイプのディープニューラルネットワークが、点群の点を入力として受信するように構成される、決定することと、第2のタイプのディープニューラルネットワークによって、第1の特徴に基づいて、第2の特徴を決定することであって、第2の特徴が、均一3Dグリッドのノードの位置における点群に関する局所的な幾何学的情報を定義し、ノードが、点群の3D空間内に均一に分布される、決定することと、第2の特徴に基づいて、1つまたは複数の物体プロポーザルを生成することであって、物体プロポーザルが、均一3Dグリッドのノードを中心に位置する3Dバウンディングボックスを定義し、3Dバウンディングボックスが、物体を定義し得る点群の点を含み、3Dバウンディングボックスが3Dアンカーを定義する、生成することと、第3のタイプのディープニューラルネットワークによって、3Dアンカーに対するスコアを決定することであって、スコアが、3Dアンカーが物体または物体の部分を定義する点を含む確率を示し、決定することが、3Dアンカー内に位置特定された第2の特徴に基づく、決定することとを含む実行可能動作を実行するように構成される、コンピュータシステムに関し得る。
徴セットに基づく、決定することと、第5のタイプのディープニューラルネットワーク(マスク予測器ネットワーク)によって、点のセットおよび物体ボリューム内で位置特定された第1の点群特徴のセットに基づいて、物体インスタンスに属する第1の分類点および物体インスタンスに属さない第2の分類点を含む分類点を決定することとを含む実行可能動作を実行するように構成される、コンピュータシステムに関し得る。
101 処理ユニット
102 不規則な3D点群
103 メモリ
104 特徴抽出器
106 物体検出器
108 マスク生成器
202 3D空間
2041~3 第1の物体
2061、2 第2の物体
207 3Dグリッド、ノード
2081~3 第1の物体
2101,2 第2の物体
2121~3 点の3つにセグメント化されたセット
302 入力データ
306 物体検出器
308 マスク生成器
310 IOSパッチ
312 座標
314 法線ベクトル
316 特徴抽出ネットワーク
318 物体プロポーザルネットワーク
319 グリッド生成器
320 補間モジュール
322 物体分類ネットワーク
324 特徴ベクトル
326 3Dグリッド
332 分類された3Dアンカー
334 物体ロケーション予測器ネットワーク
336 3Dクロッピングモジュール
338 マスク予測器ネットワーク
340 情報
502 点群
504 特徴抽出ネットワーク、MLPベースのネットワークモデル
5061~9 χ-Conv層
510 ネットワーク
609 K個の最近隣(KNN)点
610 MLPネットワーク
612 MLPネットワーク
702 点群領域
704 物体プロポーザルネットワーク
706 グリッド領域
707 ノード
708 3Dグリッド生成器
710 密な均一3Dグリッド
7121~4 モンテカルロ(MC)空間畳み込み層
7121 第1のMC特殊畳み込み層
7141~6 バッチ正規化(BN)層
7161~3 1x1畳み込み層
800 ノード位置x
802 球状視野(FOV)
804 点yi
806 ガウス窓
808 3Dグリッド
900 特徴セット
9021~4 FC MLP層
9041~3 バッチ正規化層
906 3Dアンカー
10021~4 FC MLP層
10041~3 バッチ正規化層
1100 点
1101 関連特徴ベクトル
1102 MLPベースのネットワークモデル
11041~3 χ-Conv層
1600 データ処理システム
1602 プロセッサ
1604 メモリ要素
1606 システムバス
1608 ローカルメモリ
1610 大容量記憶デバイス
1612 入力デバイス
1614 出力デバイス
1616 ネットワークアダプタ
1618 アプリケーション
Claims (15)
- 口腔内走査(IOS)点群を含む3D光学スキャナによって生成された点群の中の物体検出の方法であって、
第1のタイプのディープニューラルネットワークによって、点群の点に関連する第1の特徴を決定するステップであって、
前記点群が、前記点群の少なくとも3D空間内の1つまたは複数の物体を表す点を含み、前記第1の特徴が、前記点群の各点に関する幾何学的情報を定義し、前記第1のタイプのディープニューラルネットワークが、前記点群の点を入力として受信するように構成される、ステップと、
第2のタイプのディープニューラルネットワークによって、前記第1の特徴に基づいて、点群の第2の特徴を決定するステップであって、
前記第2の特徴が、均一3Dグリッドのノードの位置における前記点群に関する局所的な幾何学的情報を定義し、前記ノードが、前記点群の前記3D空間内に均一に分布される、ステップと、
前記第2の特徴に基づいて、1つまたは複数の物体プロポーザルを生成するステップであって、
物体プロポーザルが、前記均一3Dグリッドのノードを中心に位置する3Dバウンディングボックスを定義し、前記3Dバウンディングボックスが、物体を定義し得る前記点群の点を含み、前記3Dバウンディングボックスが3Dアンカーを定義する、ステップと、
第3のタイプのディープニューラルネットワークによって、前記3Dアンカーに対するスコアを決定するステップであって、
前記スコアが、前記3Dアンカーが物体または前記物体の部分を定義する点を含む確率を示し、前記決定するステップが、前記3Dアンカー内に位置特定された第2の特徴に基づく、ステップと
を含む、方法。 - 点群の前記第1の特徴が第1の特徴ベクトルを含み、各第1の特徴ベクトルが、前記点群の点に関連付けられ、かつ/または
点群の前記第2の特徴が第2の特徴ベクトルを含み、各第2の特徴ベクトルが、前記均一3Dグリッドの前記ノードに関連付けられる、請求項1に記載の方法。 - 前記第1のタイプのディープニューラルネットワークが、
前記点群の点を受信し、
前記第1の特徴、好ましくは、前記点群の前記点に関連する第1の特徴ベクトルを生成するように構成された特徴抽出ネットワークを定義する、請求項1または2に記載の方法。 - 前記第1のタイプのディープニューラルネットワークが、多層パーセプトロン(MLP)を含む複数の畳み込み層を含み、
前記特徴抽出ネットワークが、
点群の点をその入力において受信し、
前記点群の各点に対する特徴ベクトルをその出力において生成するように構成される、請求項3に記載の方法。 - 前記特徴抽出ネットワークが、1つまたは複数のχ-Conv層を含み、
各χ-Conv層が、
前記χ-Conv層の入力に提供された点および対応する特徴を重み付けおよび置換し、
その後、前記置換された点および特徴に畳み込みカーネルを施すように構成され、
好ましくは、前記特徴抽出ネットワークが、χ-Conv層を含むPointCNNとして構成される、請求項3または4に記載の方法。 - 前記第2のタイプのディープニューラルネットワークが、物体プロポーザルネットワークを表し、
前記物体プロポーザルネットワークが複数の畳み込み層を含み、
前記複数の畳み込み層の各々が、1つまたは複数の畳み込みカーネルを含む多層パーセプトロン(MLP)を含み、
好ましくは、前記複数の畳み込み層のうちの少なくとも1つが、
前記第1の特徴および前記均一3Dグリッドの前記ノードを受信し、
前記第1の特徴に基づいて、前記第2の特徴を決定するように構成される、請求項1から5のいずれか一項に記載の方法。 - 前記物体プロポーザルネットワークが、複数のモンテカルロ(MC)空間畳み込み層を含む、モンテカルロ畳み込みネットワーク(MCCNet)として構成され、
好ましくは、MC空間畳み込み層が、前記点群の前記3D空間内に位置特定されたノードxのロケーションにおける畳み込みを決定するように構成された畳み込みカーネルを含み、
好ましくは、畳み込みを前記決定するステップが、
- 受容野r内の近隣点yを決定するステップであって、前記受容野が、前記畳み込みカーネルの視野(FOV)を定義する、ステップと、
- 各近隣点yに対して、確率密度関数p(x,y)を決定するステップと、
- 各近隣点yに対して、前記近隣点yおよび各近隣点に対する確率密度値p(x,y)を使用して、モンテカルロ推定に基づいて、前記ノードにおける前記畳み込みを決定するステップと
を含む、請求項6に記載の方法。 - 前記第3のタイプのディープニューラルネットワークが、物体分類ネットワークを表し、
前記第3のタイプのディープニューラルネットワークが、複数の全結合(FC)多層パーセプトロン(MLP)層を含み、
前記第2のタイプのディープニューラルネットワークが、
前記3Dアンカーに関連する特徴を受信し、
前記3Dアンカーに関連するスコアを決定するために、前記特徴を使用するように構成され、
前記スコアが、前記3Dアンカーが物体または前記物体の部分を定義する点を含む確率を示す、請求項1から7のいずれか一項に記載の方法。 - 口腔内走査(IOS)点群を含む3D光学スキャナによって生成された点群のインスタンスセグメント化の方法であって、
第1のタイプのディープニューラルネットワークによって、点群の点に関連する第1の特徴を決定するステップであって、
前記点群が、前記点群の3D空間内の1つまたは複数の物体を表す点を含み、前記第1の特徴が、前記点群の各点に関する幾何学的情報を定義し、前記第1のタイプのディープニューラルネットワークが、前記点群の点を入力として受信するように構成される、ステップと、
第2のタイプのディープニューラルネットワークによって、前記第1の特徴に基づいて、第2の特徴を決定するステップであって、
前記第2の特徴が、均一3Dグリッドのノードの位置における前記点群に関する局所的な幾何学的情報を定義し、前記ノードが、前記点群の前記3D空間内に均一に分布される、ステップと、
前記第2の特徴に基づいて、物体プロポーザルを生成するステップであって、
物体プロポーザルが、物体を定義し得る点を含む3Dボリュームを定義し、前記物体プロポーザルの前記3Dボリュームが、前記均一3Dグリッドのノードを中心に位置する3Dアンカーを定義する、ステップと、
第3のタイプのディープニューラルネットワークによって、分類された3Dアンカーを決定するステップであって、
前記決定するステップが、第2の特徴セットに基づき、前記第2の特徴セットが、前記3Dアンカー内に位置特定された前記第2の特徴のサブセットである、ステップと、
第4のタイプのディープニューラルネットワークによって、物体ボリュームを決定するステップであって、
前記物体ボリュームの中心位置が、物体インスタンスの中心ロケーションに一致し、前記物体ボリュームの次元が、前記物体インスタンスの外部次元にマッチし、前記決定するステップが、前記第2の特徴セットに基づく、ステップと、
第5のタイプのディープニューラルネットワークによって、前記物体ボリューム内に位置特定される点のセットおよび第1の点群特徴のセットに基づいて、分類点を決定するステップであって、
前記分類点が、前記物体インスタンスに属する第1の分類点および前記物体インスタンスに属さない第2の分類点を含む、ステップと
を含む、方法。 - 前記第1のタイプのディープニューラルネットワークが、特徴抽出ネットワークを定義し、
前記特徴抽出ネットワークが、多層パーセプトロン(MLP)を含む複数の畳み込み層を含み、
前記特徴抽出ネットワークが、
点群の点をその入力において受信し、
前記点群の各点に対する特徴ベクトルをその出力において生成するように構成され、かつ/または、
前記第2のタイプのディープニューラルネットワークが、物体プロポーザルネットワークを表し、
前記物体プロポーザルネットワークが、複数のモンテカルロ(MC)空間畳み込み層を含むモンテカルロ畳み込みネットワーク(MCCNet)として構成され、
好ましくは、前記物体プロポーザルネットワークが、複数の畳み込み層を含み、
各層が1つまたは複数の畳み込みカーネルを含む多層パーセプトロン(MLP)を含み、
好ましくは、前記複数の畳み込み層の少なくとも1つが、
前記第1の点群特徴および前記均一3Dグリッドのノードを受信し、
前記第1の点群特徴を点群の前記第2の特徴に変換するように構成され、かつ/または、
前記第3のタイプのディープニューラルネットワークが、物体分類ネットワークを表し、
前記第3のタイプのディープニューラルネットワークが、複数の全結合(FC)多層パーセプトロン(MLP)層を含み、かつ/または、
前記第4のタイプのディープニューラルネットワークが、物体ロケーション予測器ネットワークを表し、
前記第4のタイプのディープニューラルネットワークが、複数の全結合(FC)多層パーセプトロン(MLP)層を含み、かつ/または、
前記第5のタイプのニューラルネットワークが、マスク予測器ネットワークを表し、
前記第5のタイプのディープニューラルネットワークが、1つまたは複数のχ-Conv層を含み、
各χ-Conv層が、
前記χ-Conv層の入力に提供された点および対応する特徴を重み付けおよび置換し、
その後、前記置換された点および特徴に畳み込みカーネルを施すように構成される
請求項9に記載の方法。 - 口腔内走査(IOS)点群を含む3D光学スキャナによって生成された点群の中の物体検出のためにディープニューラルネットワークシステムをトレーニングする方法であって、
1つまたは複数のラベル付けされた物体インスタンスを含むトレーニング点群サンプルを前記ディープニューラルネットワークシステムの入力に提供するステップであって、
前記ディープニューラルネットワークシステムが、少なくとも特徴抽出ネットワーク、物体プロポーザルネットワーク、および物体分類ネットワークを含む、ステップと、
第2の特徴に基づいて、物体プロポーザルを計算するステップであって、
前記第2の特徴が、均一3Dグリッドのノードの位置における前記点群に関する局所的な幾何学的情報を定義し、
前記ノードが、前記点群の3D空間内に均一に分布され、
前記第2の特徴が、前記物体プロポーザルネットワークによって決定され、
前記物体プロポーザルネットワークが、前記トレーニング点群サンプルをその入力において受信する前記特徴抽出ネットワークによって生成された第1の特徴に基づいて、前記第2の特徴を決定するように構成され、
前記物体プロポーザルが、物体を定義する点を含み得る前記均一3Dグリッドのノードを中心とする3Dバウンディングボックスを定義し、
前記3Dバウンディングボックスが3Dアンカーを定義する、ステップと、
前記3Dアンカーと前記トレーニング点群サンプル内のラベル付けされた物体インスタンスの3Dバウンディングボックスとの間の重複を決定し、前記3Dアンカーを、前記重複が所定のしきい値を上回る場合、正とラベル付けし、前記重複が所定のしきい値を下回る場合、負とラベル付けするステップと、
前記3Dアンカー内の点群特徴を使用して、前記物体分類ネットワークによって正および/または負にラベル付けされた3Dアンカーに対する1つまたは複数の物体予測を決定し、前記1つまたは複数の物体予測、前記正および/または負にラベル付けされた3Dアンカー、および第1の損失関数に基づいて、第1の損失値を決定するステップと、
逆伝搬方法を使用して、前記特徴抽出ネットワーク、前記物体プロポーザルネットワーク、および前記物体分類ネットワークをトレーニングするために、前記第1の損失値を使用するステップと
を含む、方法。 - 口腔内走査(IOS)点群を含む3D光学スキャナによって生成された点群のインスタンスセグメント化のためにディープニューラルネットワークシステムをトレーニングする方法であって、
1つまたは複数のラベル付けされた物体インスタンスを含むトレーニング点群サンプルを前記ディープニューラルネットワークシステムの入力に提供するステップであって、
前記ディープニューラルネットワークシステムが、少なくとも特徴抽出ネットワーク、物体プロポーザルネットワーク、物体分類ネットワーク、物体ロケーション予測器ネットワーク、およびマスク予測器ネットワークを含む、ステップと、
第2の特徴に基づいて、物体プロポーザルを計算するステップであって、
前記第2の特徴が、均一3Dグリッドのノードの位置における前記点群に関する局所的な幾何学的情報を定義し、
前記ノードが、前記点群の3D空間内に均一に分布され、
前記第2の特徴が、前記物体プロポーザルネットワークによって決定され、
前記物体プロポーザルネットワークが、前記トレーニング点群サンプルをその入力において受信する前記特徴抽出ネットワークによって生成された第1の特徴に基づいて、前記第2の特徴を決定するように構成され、
前記物体プロポーザルが、物体を定義する点を含み得る前記均一3Dグリッドのノードを中心とする3Dバウンディングボックスを定義し、
前記3Dバウンディングボックスが3Dアンカーを定義する、ステップと、
前記3Dアンカーと前記トレーニング点群サンプル内のラベル付けされた物体インスタンスの3Dバウンディングボックスとの間の重複を決定し、前記重複が所定のしきい値を上回る場合、正の3Dアンカーを決定し、前記重複が所定のしきい値を下回る場合、負の3Dアンカーを決定するステップと、
前記3Dアンカー内の点群特徴を使用して、前記物体分類ネットワークによって正にラベル付けされた3Dアンカーおよび負にラベル付けされた3Dアンカーに対する1つまたは複数の物体予測を決定し、前記1つまたは複数の物体予測および第1の損失関数に基づいて、第1の損失値を決定するステップと、
前記物体ロケーション予測器ネットワークによって、前記3Dアンカー内の特徴に基づいて、物体ボリュームのロケーションおよびサイズ予測を決定し、第2の損失寄与を決定するために、前記ロケーションおよびサイズ予測、および第2の損失関数を使用するステップと、
前記マスク予測器ネットワークによって、前記物体ボリューム内の点群特徴に基づいて、前記物体インスタンスに属する第1の分類点および前記物体インスタンスに属さない第2の分類点を含む分類点を決定し、第3の損失寄与を決定するために、前記分類点および第3の損失関数を使用するステップと、
逆伝搬方法を使用して、前記特徴抽出ネットワーク、前記物体プロポーザルネットワーク、前記物体分類ネットワーク、前記物体ロケーション予測器ネットワーク、および前記マスク予測器ネットワークをトレーニングするために、前記第1、第2、および第3の損失寄与を使用するステップと
を含む、方法。 - 口腔内走査(IOS)点群を含む3D光学スキャナによって生成された点群の中の物体検出のために適合されたコンピュータシステムであって、
前処理アルゴリズムおよび少なくともトレーニングされた第1の3Dディープニューラルネットワークを含むコンピュータ可読プログラムコードを具現化したコンピュータ可読記憶媒体と、前記コンピュータ可読プログラムコードと、前記コンピュータ可読記憶媒体に結合されたプロセッサ、好ましくは、マイクロプロセッサと
を備え、前記コンピュータ可読プログラムコードの実行に応答して、前記プロセッサが、
第1のタイプのディープニューラルネットワークによって、点群の点に関連する第1の特徴を決定することであって、
前記点群が、前記点群の3D空間内の1つまたは複数の物体を表す点を含み、前記第1の特徴が、前記点群の各点に関する幾何学的情報を定義し、前記第1のタイプのディープニューラルネットワークが、前記点群の点を入力として受信するように構成される、決定することと、
第2のタイプのディープニューラルネットワークによって、前記第1の特徴に基づいて、第2の特徴を決定することであって、
点群の前記第2の特徴が、均一3Dグリッドのノードの位置における前記点群に関する局所的な幾何学的情報を定義し、前記ノードが、前記点群の前記3D空間内に均一に分布される、決定することと、
前記第2の特徴に基づいて、1つまたは複数の物体プロポーザルを生成することであって、
物体プロポーザルが、前記均一3Dグリッドのノードを中心に位置する3Dバウンディングボックスを定義し、前記3Dバウンディングボックスが、物体を定義し得る前記点群の点を含み、前記3Dバウンディングボックスが、3Dアンカーを定義する、生成することと、
第3のタイプのディープニューラルネットワークによって、前記3Dアンカーに対するスコアを決定することであって、
前記スコアが、前記3Dアンカーが物体または前記物体の部分を定義する点を含む確率を示し、前記決定することが、前記3Dアンカー内に位置特定された第2の特徴に基づく、決定することと
を含む実行可能動作を実行するように構成される、コンピュータシステム。 - 口腔内走査(IOS)点群を含む3D光学スキャナによって生成された点群のインスタンスセグメント化のために適合されたコンピュータシステムであって、
前処理アルゴリズムおよび少なくともトレーニングされた第1の3Dディープニューラルネットワークを含むコンピュータ可読プログラムコードを具現化したコンピュータ可読記憶媒体と、前記コンピュータ可読プログラムコードと、前記コンピュータ可読記憶媒体に結合されたプロセッサ、好ましくは、マイクロプロセッサと
を備え、前記コンピュータ可読プログラムコードの実行に応答して、前記プロセッサが、
第1のタイプのディープニューラルネットワークによって、点群の点に関連する第1の特徴を決定することであって、
前記点群が、前記点群の3D空間内の1つまたは複数の物体を表す点を含み、前記第1の特徴が、前記点群の各点に関する幾何学的情報を定義する、決定することと、
第2のタイプのディープニューラルネットワークによって、前記第1の特徴に基づいて、第2の特徴を決定することであって、
前記第2の特徴が、前記点群の前記3D空間に広がる均一3Dグリッドのノードの位置における前記点群に関する局所的な幾何学的情報を定義し、前記第1のタイプのディープニューラルネットワークが、前記点群の点を入力として受信するように構成される、決定することと、
前記第2の特徴に基づいて、物体プロポーザルを生成することであって、
物体プロポーザルが、物体を定義し得る点を含む3Dボリュームを定義し、前記物体プロポーザルの前記3Dボリュームが、前記均一3Dグリッドのノードを中心に位置する3Dアンカーを定義し、前記ノードが、前記点群の前記3D空間内に均一に分散される、生成することと、
第3のタイプのディープニューラルネットワークによって、分類された3Dアンカーを決定することであって、
前記決定することが、第2の特徴セットに基づき、前記第2の特徴セットが、前記3Dアンカー内に位置特定された前記第2の特徴のサブセットである、決定することと、
第4のタイプのディープニューラルネットワークによって、物体ボリュームを決定することであって、
前記物体ボリュームの中心位置が、物体インスタンスの中央ロケーションに一致し、前記物体ボリュームの次元が、前記物体インスタンスの外部次元にマッチし、前記決定することが、前記第2の特徴セットに基づく、決定することと、
第5のタイプのディープニューラルネットワークによって、前記物体ボリューム内に位置特定された点のセットおよび第1の点群特徴のセットに基づいて、分類点を決定することであって、
前記分類点が、前記物体インスタンスに属する第1の分類点および前記物体インスタンスに属さない第2の分類点を含む、決定することと
を含む実行可能動作を実行するように構成される、コンピュータシステム。 - コンピュータのメモリ内で実行されると、請求項1から12のいずれか一項に記載の方法を実行するように構成されたソフトウェアコード部分を備えた、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19186357.0A EP3767521A1 (en) | 2019-07-15 | 2019-07-15 | Object detection and instance segmentation of 3d point clouds based on deep learning |
EP19186357.0 | 2019-07-15 | ||
PCT/EP2020/070046 WO2021009258A1 (en) | 2019-07-15 | 2020-07-15 | Object detection and instance segmentation of 3d point clouds based on deep learning |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022540634A true JP2022540634A (ja) | 2022-09-16 |
JP7605817B2 JP7605817B2 (ja) | 2024-12-24 |
Family
ID=67303386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022501299A Active JP7605817B2 (ja) | 2019-07-15 | 2020-07-15 | 深層学習に基づく3d点群の物体検出およびインスタンスセグメント化 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20230186476A1 (ja) |
EP (2) | EP3767521A1 (ja) |
JP (1) | JP7605817B2 (ja) |
KR (1) | KR20220034210A (ja) |
CN (1) | CN114401666B (ja) |
BR (1) | BR112022000616A2 (ja) |
CA (1) | CA3146240A1 (ja) |
IL (1) | IL289728A (ja) |
WO (1) | WO2021009258A1 (ja) |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112019028132A2 (pt) | 2017-06-30 | 2020-07-28 | Promaton Holding B.V | sistema de computador adaptado para processar dados de imagem 3d e seu método, produto de programa de computador |
EP3462373A1 (en) | 2017-10-02 | 2019-04-03 | Promaton Holding B.V. | Automated classification and taxonomy of 3d teeth data using deep learning methods |
EP3503038A1 (en) | 2017-12-22 | 2019-06-26 | Promaton Holding B.V. | Automated 3d root shape prediction using deep learning methods |
EP3561778A1 (en) | 2018-04-26 | 2019-10-30 | Promaton Holding B.V. | Automated correction of metal affected voxel representations of x-ray data using deep learning techniques |
EP3591616A1 (en) | 2018-07-03 | 2020-01-08 | Promaton Holding B.V. | Automated determination of a canonical pose of a 3d dental structure and superimposition of 3d dental structures using deep learning |
US20210312248A1 (en) * | 2018-08-08 | 2021-10-07 | Technion Research & Development Foundation Limited | System and method for sequential probabilistic object classification |
EP3620130A1 (en) | 2018-09-04 | 2020-03-11 | Promaton Holding B.V. | Automated orthodontic treatment planning using deep learning |
EP3671531A1 (en) | 2018-12-17 | 2020-06-24 | Promaton Holding B.V. | Semantic segmentation of non-euclidean 3d data sets using deep learning |
WO2021095093A1 (ja) * | 2019-11-11 | 2021-05-20 | 日本電信電話株式会社 | 3次元点群ラベル学習装置、3次元点群ラベル推定装置、方法、及びプログラム |
EP3839793A1 (en) * | 2019-12-16 | 2021-06-23 | Dassault Systèmes | Interactive object selection |
US11723748B2 (en) * | 2019-12-23 | 2023-08-15 | Align Technology, Inc. | 2D-to-3D tooth reconstruction, optimization, and positioning frameworks using a differentiable renderer |
US11842484B2 (en) | 2021-01-04 | 2023-12-12 | James R. Glidewell Dental Ceramics, Inc. | Teeth segmentation using neural networks |
DE102020115628A1 (de) | 2020-06-12 | 2021-12-16 | Schunk Gmbh & Co. Kg Spann- Und Greiftechnik | Sensoreinrichtung für ein Greifsystem, Verfahren zur Erzeugung von optimalen Greifposen zur Ansteuerung einer Greifvorrichtung und zugehöriges Greifsystem |
US12236624B2 (en) * | 2020-09-23 | 2025-02-25 | Smith & Nephew, Inc. | Optical caliper for 3-D endoscopic imaging and measurement |
US12175698B2 (en) * | 2020-12-08 | 2024-12-24 | Samsung Electronics Co., Ltd. | Method and apparatus with object pose estimation |
CN112785526B (zh) * | 2021-01-28 | 2023-12-05 | 南京大学 | 一种用于图形处理的三维点云修复方法 |
CN112966696B (zh) * | 2021-02-05 | 2023-10-27 | 中国科学院深圳先进技术研究院 | 一种处理三维点云的方法、装置、设备以及存储介质 |
CN112801200B (zh) * | 2021-02-07 | 2024-02-20 | 文远鄂行(湖北)出行科技有限公司 | 一种数据包筛选方法、装置、设备和存储介质 |
CN112837420B (zh) * | 2021-03-09 | 2024-01-09 | 西北大学 | 基于多尺度和折叠结构的兵马俑点云的形状补全方法及系统 |
US20220289237A1 (en) * | 2021-03-10 | 2022-09-15 | Gm Cruise Holdings Llc | Map-free generic obstacle detection for collision avoidance systems |
CN112990010B (zh) * | 2021-03-15 | 2023-08-18 | 深圳大学 | 点云数据处理方法、装置、计算机设备和存储介质 |
US11875424B2 (en) | 2021-03-15 | 2024-01-16 | Shenzhen University | Point cloud data processing method and device, computer device, and storage medium |
US11410388B1 (en) | 2021-03-16 | 2022-08-09 | Huawei Technologies Co., Ltd. | Devices, systems, methods, and media for adaptive augmentation for a point cloud dataset used for training |
CN113011113B (zh) * | 2021-03-23 | 2022-04-05 | 中国空气动力研究与发展中心计算空气动力研究所 | 一种离散点云重复点快速查找方法 |
CN113850811B (zh) * | 2021-03-25 | 2024-05-28 | 北京大学 | 基于多尺度聚类和掩码打分的三维点云实例分割方法 |
KR102428740B1 (ko) * | 2021-03-30 | 2022-08-02 | 센스타임 인터내셔널 피티이. 리미티드. | 포인트 클라우드 완성 네트워크 생성 및 포인트 클라우드 데이터 처리 |
US12136208B2 (en) | 2021-03-31 | 2024-11-05 | James R. Glidewell Dental Ceramics, Inc. | Automatic clean up of jaw scans |
CN113255444A (zh) * | 2021-04-19 | 2021-08-13 | 杭州飞步科技有限公司 | 图像识别模型的训练方法、图像识别方法和装置 |
US12210802B2 (en) | 2021-04-30 | 2025-01-28 | James R. Glidewell Dental Ceramics, Inc. | Neural network margin proposal |
CN113139991A (zh) * | 2021-05-13 | 2021-07-20 | 电子科技大学 | 一种基于重叠区域掩模预测的3d点云配准方法 |
CN113570692B (zh) * | 2021-06-03 | 2025-01-28 | 清华大学 | 一种使用面片卷积的三维模型特征提取方法 |
CN113554654B (zh) * | 2021-06-07 | 2024-03-22 | 之江实验室 | 基于图神经网络的点云特征提取系统及分类分割方法 |
CN113487713B (zh) * | 2021-06-16 | 2022-09-02 | 中南民族大学 | 一种点云特征提取方法、装置及电子设备 |
CN114004934B (zh) * | 2021-11-02 | 2024-07-26 | 国网浙江省电力有限公司湖州供电公司 | 一种基于分组分批归一化的输电线路点云分类方法 |
CN114118247B (zh) * | 2021-11-18 | 2025-05-02 | 同济大学 | 一种基于多传感器融合的无锚框3d目标检测方法 |
CN113808133B (zh) * | 2021-11-19 | 2022-01-25 | 西南交通大学 | 一种基于三维点云的地铁闸瓦故障检测方法 |
KR102762617B1 (ko) * | 2021-12-20 | 2025-02-06 | 한국전자기술연구원 | 포인트 클라우드 기반 3차원 객체 인지 모델의 컨텍스트 별 학습 방법 |
CN113963335B (zh) * | 2021-12-21 | 2022-03-22 | 山东融瓴科技集团有限公司 | 基于图像和点云数据的路面障碍物检测方法 |
AU2022428774A1 (en) * | 2021-12-29 | 2024-05-23 | Imagoworks Inc. | Method for automatically separating teeth from 3d scan data by using teeth boundary curves, and computer-readable recording medium having program for executing same on computer recorded thereon |
CN114266279B (zh) * | 2021-12-29 | 2025-07-15 | 北京大学深圳研究生院 | 一种基于复数网络表达的点云特征提取方法及装置 |
US12295806B2 (en) | 2022-01-10 | 2025-05-13 | James R. Glidewell Dental Ceramics, Inc. | Automatic determination of trim-line for aligners |
DE102022102045B4 (de) * | 2022-01-28 | 2023-10-26 | epitome GmbH | Vorrichtung und Verfahren zur Erfassung von Biofilm im Mundraum |
CN114509785A (zh) * | 2022-02-16 | 2022-05-17 | 中国第一汽车股份有限公司 | 三维物体检测方法、装置、存储介质、处理器及系统 |
CN114549958B (zh) * | 2022-02-24 | 2023-08-04 | 四川大学 | 基于上下文信息感知机理的夜间和伪装目标检测方法 |
CN114549862B (zh) * | 2022-03-04 | 2024-07-23 | 重庆邮电大学 | 一种基于多任务学习的人体点云骨架提取方法 |
CN114399762B (zh) * | 2022-03-23 | 2022-06-10 | 成都奥伦达科技有限公司 | 一种道路场景点云分类方法及存储介质 |
CN117152170A (zh) * | 2022-05-18 | 2023-12-01 | 中国科学院沈阳自动化研究所 | 一种面向标签数据的三维点云分割方法 |
WO2023224304A1 (en) * | 2022-05-19 | 2023-11-23 | Samsung Electronics Co., Ltd. | Method and electronic device for achieving accurate point cloud segmentation |
FR3136153A1 (fr) * | 2022-06-07 | 2023-12-08 | Olivier Querbes | Procédé de commande d’un bras robotisé pour imagerie intra-orale |
CN115019105B (zh) * | 2022-06-24 | 2024-07-19 | 厦门大学 | 点云分类模型的隐语义分析方法、装置、介质及设备 |
CN115049833A (zh) * | 2022-06-30 | 2022-09-13 | 西安理工大学 | 一种基于局部特征增强和相似性度量的点云部件分割方法 |
CN114882020B (zh) * | 2022-07-06 | 2022-11-11 | 深圳市信润富联数字科技有限公司 | 产品的缺陷检测方法、装置、设备及计算机可读介质 |
KR102610716B1 (ko) * | 2022-08-25 | 2023-12-07 | 이마고웍스 주식회사 | 3차원 스캔 데이터로부터 보철물을 자동으로 생성하는 방법 및 이를 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체 |
CN115457496B (zh) * | 2022-09-09 | 2023-12-08 | 北京百度网讯科技有限公司 | 自动驾驶的挡墙检测方法、装置及车辆 |
WO2024160290A1 (en) * | 2023-02-03 | 2024-08-08 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for point cloud coding |
CN116246069B (zh) * | 2023-02-07 | 2024-01-16 | 北京四维远见信息技术有限公司 | 自适应地形点云滤波的方法、装置、智能终端及存储介质 |
CN116152267B (zh) * | 2023-04-24 | 2023-07-04 | 中国民用航空飞行学院 | 基于对比性语言图像预训练技术的点云实例分割方法 |
KR102591078B1 (ko) * | 2023-05-02 | 2023-10-19 | 주식회사 렛서 | 인공지능 모델을 이용하여 3차원 객체 탐지를 수행하는 전자 장치 및 이의 동작 방법 |
WO2025014122A1 (ko) * | 2023-07-13 | 2025-01-16 | 주식회사 메디트 | 구강 이미지 처리 장치 및 구강 이미지 처리 장치의 동작 방법 |
EP4494596A1 (en) | 2023-07-18 | 2025-01-22 | Promaton Holding B.V. | Automatic generation of a crown shape for a dentition |
CN116631634B (zh) * | 2023-07-19 | 2023-09-19 | 南京铖联激光科技有限公司 | 一种基于点云深度学习的可摘全口义齿的智能设计方法 |
CN117274454B (zh) * | 2023-08-29 | 2024-10-18 | 西交利物浦大学 | 一种基于部件信息的三维点云补全方法、设备及存储介质 |
CN116883673B (zh) * | 2023-09-08 | 2023-12-26 | 腾讯科技(深圳)有限公司 | 语义分割模型训练方法、装置、设备及存储介质 |
CN117496309B (zh) * | 2024-01-03 | 2024-03-26 | 华中科技大学 | 建筑场景点云分割不确定性评估方法、系统及电子设备 |
CN118799835B (zh) * | 2024-07-01 | 2024-12-31 | 清华大学 | 基于三维感知的堆垛机避碰方法和装置 |
CN119832254B (zh) * | 2025-03-17 | 2025-07-04 | 招商局检测车辆技术研究院有限公司 | 基于动态卷积的点云实例分割模型及slam地图构建方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016037300A1 (en) * | 2014-09-10 | 2016-03-17 | Xiaoou Tang | Method and system for multi-class object detection |
ES2959341T3 (es) | 2017-06-30 | 2024-02-23 | Dental Imaging Technologies Corp | Mapeo de superficies usando un escáner intraoral con capacidades de penetración |
US10650286B2 (en) * | 2017-09-07 | 2020-05-12 | International Business Machines Corporation | Classifying medical images using deep convolution neural network (CNN) architecture |
US10438371B2 (en) * | 2017-09-22 | 2019-10-08 | Zoox, Inc. | Three-dimensional bounding box from two-dimensional image and point cloud data |
US11004202B2 (en) * | 2017-10-09 | 2021-05-11 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for semantic segmentation of 3D point clouds |
US10824862B2 (en) * | 2017-11-14 | 2020-11-03 | Nuro, Inc. | Three-dimensional object detection for autonomous robotic systems using image proposals |
CN108171217A (zh) * | 2018-01-29 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于点融合网络的三维物体检测方法 |
CN108319957A (zh) * | 2018-02-09 | 2018-07-24 | 深圳市唯特视科技有限公司 | 一种基于超点图的大规模点云语义分割方法 |
CN109118564B (zh) * | 2018-08-01 | 2023-09-19 | 山东佳音信息科技有限公司 | 一种基于融合体素的三维点云标记方法和装置 |
CN109410321B (zh) * | 2018-10-17 | 2022-09-20 | 大连理工大学 | 基于卷积神经网络的三维重建方法 |
CN109829399B (zh) * | 2019-01-18 | 2022-07-05 | 武汉大学 | 一种基于深度学习的车载道路场景点云自动分类方法 |
CN109948448B (zh) * | 2019-02-20 | 2021-03-12 | 苏州风图智能科技有限公司 | 用于3d障碍物的检测方法、装置、系统及计算机存储介质 |
CN109993748B (zh) * | 2019-03-30 | 2023-06-20 | 华南理工大学 | 一种基于点云处理网络的三维网格物体分割方法 |
-
2019
- 2019-07-15 EP EP19186357.0A patent/EP3767521A1/en not_active Withdrawn
-
2020
- 2020-07-15 CA CA3146240A patent/CA3146240A1/en active Pending
- 2020-07-15 JP JP2022501299A patent/JP7605817B2/ja active Active
- 2020-07-15 CN CN202080064691.5A patent/CN114401666B/zh active Active
- 2020-07-15 KR KR1020227004796A patent/KR20220034210A/ko active Pending
- 2020-07-15 BR BR112022000616A patent/BR112022000616A2/pt unknown
- 2020-07-15 WO PCT/EP2020/070046 patent/WO2021009258A1/en unknown
- 2020-07-15 EP EP20740315.5A patent/EP3999999A1/en active Pending
- 2020-07-15 US US17/626,744 patent/US20230186476A1/en active Pending
-
2022
- 2022-01-10 IL IL289728A patent/IL289728A/en unknown
Also Published As
Publication number | Publication date |
---|---|
EP3999999A1 (en) | 2022-05-25 |
BR112022000616A2 (pt) | 2022-03-03 |
IL289728A (en) | 2022-03-01 |
KR20220034210A (ko) | 2022-03-17 |
CN114401666A (zh) | 2022-04-26 |
CA3146240A1 (en) | 2021-01-21 |
US20230186476A1 (en) | 2023-06-15 |
JP7605817B2 (ja) | 2024-12-24 |
WO2021009258A1 (en) | 2021-01-21 |
EP3767521A1 (en) | 2021-01-20 |
CN114401666B (zh) | 2025-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7605817B2 (ja) | 深層学習に基づく3d点群の物体検出およびインスタンスセグメント化 | |
JP7665515B2 (ja) | ディープラーニングを使用した非ユークリッド3dデータセットの自動セマンティックセグメンテーション | |
Angelopoulos et al. | Image-to-image regression with distribution-free uncertainty quantification and applications in imaging | |
Zanjani et al. | Mask-MCNet: tooth instance segmentation in 3D point clouds of intra-oral scans | |
Doan et al. | SONNET: A self-guided ordinal regression neural network for segmentation and classification of nuclei in large-scale multi-tissue histology images | |
US11593627B2 (en) | Artificial neural network architectures based on synaptic connectivity graphs | |
CN114897914B (zh) | 基于对抗训练的半监督ct图像分割方法 | |
WO2021138083A1 (en) | Neural architecture search based on synaptic connectivity graphs | |
US11625611B2 (en) | Training artificial neural networks based on synaptic connectivity graphs | |
EP3692463A2 (en) | Automated classification and taxonomy of 3d teeth data using deep learning methods | |
CN113255420A (zh) | 使用未经标记的多视图数据训练的模型进行3d人体姿势估计 | |
US11816185B1 (en) | Multi-view image analysis using neural networks | |
CN111028327A (zh) | 一种三维点云的处理方法、装置及设备 | |
CN114842026A (zh) | 实时的风机叶片图像分割方法及系统 | |
CN114742750A (zh) | 异常细胞检测方法、装置、终端设备及可读存储介质 | |
Arumuga Arun et al. | Enhancement and detection of objects in underwater images using image super-resolution and effective object detection model | |
Chandra et al. | A novel framework for brain disease classification using quantum convolutional neural network | |
CN116883432A (zh) | 病灶图像的分割方法、装置、电子设备及可读存储介质 | |
Rajesh et al. | Prostate gland segmentation using semantic segmentation models u-net and linknet | |
Shilpa et al. | Cloud-based Deep Learning Model for Classifying Skin Cancer | |
CN114782768A (zh) | 预训练网络模型的训练方法、医学图像处理方法和设备 | |
CN118710992B (zh) | 颈部淋巴结识别方法以及装置 | |
Cooper et al. | Believe The HiPe: Hierarchical Perturbation for Fast, Robust, and Model-Agnostic Saliency Mapping | |
US20250174001A1 (en) | Image retrieval method, model training method, apparatus, and storage medium | |
Roberg | Towards meta-learning based, domain specifc AutoML systems in the example domain of cellular image analyses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230619 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240318 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240918 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7605817 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |