JP2017208092A - 記述子を使用して3dアイテムのデータベースを検索する方法及び装置 - Google Patents
記述子を使用して3dアイテムのデータベースを検索する方法及び装置 Download PDFInfo
- Publication number
- JP2017208092A JP2017208092A JP2017097161A JP2017097161A JP2017208092A JP 2017208092 A JP2017208092 A JP 2017208092A JP 2017097161 A JP2017097161 A JP 2017097161A JP 2017097161 A JP2017097161 A JP 2017097161A JP 2017208092 A JP2017208092 A JP 2017208092A
- Authority
- JP
- Japan
- Prior art keywords
- descriptor
- database
- feature
- specified
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】記述子は、データベースアイテム、又はモデル若しくはオブジェクトの画像から抽出された特徴量ベクトルの各々を含むベクトル列を有し、好ましくは、アイテム、又はモデル若しくはオブジェクトの寸法特徴量を表す、寸法に関連する特徴量も有する。3Dコンピュータ生成モデルについての記述子は、複数の軸の各々の回りに独立にモデルを完全に回転させることにより、固定視点からのモデルの複数の2Dのレンダリングされた画像を得て、各画像から、当該画像の特徴量を表す特徴量ベクトルを抽出することにより、作成される。モデルは、好ましくは、軸のうちの1つ以上の回りに角度ステップずつ回転され、各角度ステップは、各軸に対して同一であり得る。複数の軸は、3つの相互に垂直な軸を含み得る。この場合、各角度ステップは、30°から45°までの範囲にある。
【選択図】図4
Description
1.CAD、メッシュデータ、ポイントクラウド等といった、直接的に3Dデータを使用する形状記述子
2.3D形状の1つ以上の2D投影を使用することにより、3Dモデルの形状のみを使用する形状記述子
1.投影ベースの記述子は、人間の知覚に非常に類似する方法で形状の類似度を評価する:すなわち、2つの3Dモデルが全ての角度から類似して見えるときに限り、2つの3Dモデルは類似する。
2.画像認識のための深層学習ネットワークは、3Dモデルと比較して利用可能な画像(ラベル付けされるものとラベル付けされないものとの両方)のはるかに大きな量を主に理由として、3Dオブジェクト認識のための深層学習ネットワークよりもはるかに成熟している。
複数の異なる軸の各々の回りに独立に前記3Dコンピュータ生成モデルを完全に回転させることにより、固定された視点からの前記3Dコンピュータ生成モデルの複数の2次元(2D)のレンダリングされた画像を得るステップと、
各2Dのレンダリングされた画像から、当該2Dのレンダリングされた画像の特徴量を表す特徴量ベクトルを抽出するステップであって、前記記述子は、前記の抽出された特徴量ベクトルの各々を含むベクトル列(vector string)を有する、ステップと、
を含む、方法が提供される。
前記3Dオブジェクトの少なくとも1つの2次元(2D)の画像を得るステップと、
各2Dの画像から、当該2Dの画像の特徴量を表す特徴量ベクトルを抽出するステップと、
を含み、
1つの2Dの画像のみが存在する場合、前記記述子は、前記の抽出された特徴量ベクトルを有し、2つ以上の2Dの画像が存在する場合、前記記述子は、前記の抽出された特徴量ベクトルの各々を含むベクトル列を有し、
前記記述子は、前記3Dオブジェクトの寸法特徴量をそれぞれ表す、寸法に関連する1つ以上の特徴量をさらに有する、方法が提供される。
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた記述子の1つ以上の特徴量ベクトルと、前記データベース内の前記3Dアイテムに関連付けられた記述子の特徴量ベクトルと、を使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと前記データベース内の1つ以上の3Dアイテムとの間の類似の程度を確認する類似度評価プロセス
を含み、
前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各々は、本発明の第1の態様又は第2の態様を具現化する方法に従って作成されたものであり、前記指定された3Dオブジェクトに関連付けられた前記記述子は、本発明の第2の態様を具現化する方法に従って作成されたものであり、あるいは、前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子は、本発明の第1の態様を具現化する方法に従って作成されたものである、方法が提供される。
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子の前記1つ以上の特徴量ベクトルを使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルについて特徴量行列fMsを作成するステップと、
前記データベース内の前記3Dアイテムに関連付けられた前記記述子の前記特徴量ベクトルを使用して、前記データベース内の各3Dアイテムについて特徴量行列fMdを作成するステップと、
前記データベース内の前記3Dアイテムについて作成された前記特徴量行列fMdを付加して、データベース行列dMを作成するステップと、
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルについての前記特徴量行列fMsと前記データベース行列dMとを使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子の各特徴量ベクトルと、前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各特徴量ベクトルと、の間の距離を示す類似度行列sMを算出するステップと、
前記類似度行列sMから類似度ベクトルsVを導出するステップであって、前記類似度ベクトルsVは、長さDSを有し、前記類似度ベクトルのj番目の要素は、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと、前記データベース内のj番目のアイテムと、の間の類似度を表す、ステップと、
を含んでもよい。
前記特徴量行列fMsの行の数NRsは、特徴量ベクトルの数と同じであり、前記特徴量行列fMsの列の数NCsは、前記1つ以上の特徴量ベクトルにおける特徴量の数と同じであり、前記特徴量行列fMsのi番目の行は、前記記述子のi番目の特徴量ベクトルに対応し、
前記特徴量行列fMdの行の数NRdは、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子における特徴量ベクトルの数と同じであり、前記特徴量行列fMdの列の数NCdは、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子における各特徴量ベクトルにおける特徴量の数と同じであり、前記特徴量行列fMdのi番目の行は、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子のi番目の特徴量ベクトルに対応し、
前記データベース行列dMにおける行の数は、DS*NRdであり、DSは、前記データベース内のアイテムの総数であり、前記データベース行列dMにおける列の数は、NCdである。
複数の異なる軸の各々の回りに独立に前記3Dコンピュータ生成モデルを完全に回転させることにより、固定された視点からの前記3Dコンピュータ生成モデルの複数の2次元(2D)のレンダリングされた画像を得るよう構成されている画像レンダリング部と、
各2Dのレンダリングされた画像から、当該2Dのレンダリングされた画像の特徴量を表す特徴量ベクトルを抽出するよう構成されている特徴量ベクトル抽出部と、
前記の抽出された特徴量ベクトルの各々を含むベクトル列を組み立てることにより前記記述子を形成するよう構成されている記述子組み立て部と、
を有する、記述子作成装置が提供される。
前記3Dオブジェクトの1つ以上の2次元(2D)の画像の各2Dの画像から、当該2Dの画像の特徴量を表す特徴量ベクトルを抽出するよう構成されている特徴量ベクトル抽出部と、
1つの2Dの画像のみが存在する場合、前記の抽出された特徴量ベクトルから前記記述子を形成するよう構成されており、2つ以上の2Dの画像が存在する場合、前記の抽出された特徴量ベクトルの各々を含むベクトル列を組み立てるよう構成されている記述子組み立て部と、
を有し、
前記記述子組み立て部は、さらに、前記3Dオブジェクトの寸法特徴量をそれぞれ表す、寸法に関連する1つ以上の特徴量を、前記記述子に含めるよう構成されている、記述子作成装置が提供される。
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた記述子の1つ以上の特徴量ベクトルと、前記データベース内の前記3Dアイテムに関連付けられた記述子の特徴量ベクトルと、を使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと前記データベース内の1つ以上の3Dアイテムとの間の類似の程度を評価するよう構成されている類似度評価部
を有し、
前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各々は、本発明の第5の態様又は第6の態様を具現化する記述子作成装置により作成されたものであり、前記指定された3Dオブジェクトに関連付けられた前記記述子は、本発明の第6の態様を具現化する記述子作成装置により作成されたものであり、あるいは、前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子は、本発明の第5の態様を具現化する記述子作成装置により作成されたものである、検索装置が提供される。
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子の前記1つ以上の特徴量ベクトルを使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルについて特徴量行列fMsを作成するよう構成されている特徴量行列生成部であって、前記特徴量行列fMsの行の数NRsは、特徴量ベクトルの数と同じであり、前記特徴量行列fMsの列の数NCsは、前記1つ以上の特徴量ベクトルにおける特徴量の数と同じであり、前記特徴量行列fMsのi番目の行は、前記記述子のi番目の特徴量ベクトルに対応する、特徴量行列生成部と、
データベース行列生成部であって、
(a)前記データベース内の前記3Dアイテムに関連付けられた前記記述子の前記特徴量ベクトルを使用して、前記データベース内の各3Dアイテムについて特徴量行列fMdを作成するよう構成されており、ここで、そのような各特徴量行列fMdにおいて、当該特徴量行列fMdの行の数NRdは、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子における特徴量ベクトルの数と同じであり、当該特徴量行列fMdの列の数NCdは、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子における各特徴量ベクトルにおける特徴量の数と同じであり、当該特徴量行列fMdのi番目の行は、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子のi番目の特徴量ベクトルに対応し、
(b)前記データベース内の前記3Dアイテムについて作成された前記特徴量行列fMdを付加して、データベース行列dMを作成するよう構成されており、ここで、前記データベース行列dMにおける行の数は、DS*NRdであり、DSは、前記データベース内のアイテムの総数であり、前記データベース行列dMにおける列の数は、NCdである、
データベース行列生成部と、
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルについての前記特徴量行列fMsと前記データベース行列dMとを使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子の各特徴量ベクトルと、前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各特徴量ベクトルと、の間の距離を示す類似度行列sMを算出するよう構成されている類似度行列生成部と、
前記類似度行列sMから類似度ベクトルsVを導出するよう構成されている類似度ベクトル生成部であって、前記類似度ベクトルsVは、長さDSを有し、前記類似度ベクトルのj番目の要素は、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと、前記データベース内のj番目のアイテムと、の間の類似度を表す、類似度ベクトル生成部と、
を有してもよい。
以前に製造された又は製造のために準備された3次元(3D)アイテムのデータベースを設けるステップであって、前記データベースは、各アイテムに関連付けられた記述子を含み、前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各々は、本発明の第1の態様又は第2の態様を具現化する方法に従って作成されたものである、ステップと、
製造される製品を指定する情報を受信するステップであって、前記情報は、前記製品の幾何学配置を指定する幾何学情報を含む、ステップと、
本発明の第1の態様又は第2の態様を具現化する方法に従って、前記製品の前記幾何学情報から記述子を導出するステップと、
本発明の第3の態様を具現化する検索する方法を使用して、前記データベースを検索して、前記データベース内のアイテムと、製造される前記製品と、の間の類似の程度を確認するステップと、
前記データベース内のどのアイテムが、製造される前記製品に最も類似するかを判定するステップと、
製造される前記製品に最も類似すると判定されたアイテムの製造に関連付けられた製造プロセスに関連する記憶されている製造プロセス情報を取得し、前記の取得された製造プロセス情報を使用して、前記製品を製造するステップと、
を含む、方法が提供される。
1.サポートされている幾何学フォーマット(geometry format)で与えられる、物理オブジェクトのフル3Dモデル;又は
2.写真又は図面等の、物理3Dオブジェクトの1つの又は少しの画像(ビュー)のみ
・バウンディングボックスの最小寸法及び最大寸法
・表面積
・体積
・幾何学情報(例えば、CADモデル)
・数値情報(例えば、許容範囲)
・非数値情報(例えば、材料情報)
1.材料特性、許容範囲、及び、製品が製造されることを可能にするレベルに製品を記述するのに必要とされる任意の他の情報を含む製品仕様メタデータ
2.製造プロセスの段階、マシンパラメータ、エネルギー使用量、材料使用量等といった、使用される製造プロセスに関する情報を含む製造プロセスメタデータ(すなわち、蓄積されている製造ノウハウ)
3.(使用された製造プロセスに依存する可能性が高い)製造コスト、販売価格、納期等
・この製品を製造するために使用される最良の製造プロセスについての推奨
・推奨される製造プロセスが使用されるという仮定の下での、コスト、納期等といった情報を含む見積もり
3次元(3D)コンピュータ生成モデルについての記述子を作成する、コンピュータにより実施される方法であって、
複数の異なる軸の各々の回りに独立に前記3Dコンピュータ生成モデルを完全に回転させることにより、固定された視点からの前記3Dコンピュータ生成モデルの複数の2次元(2D)のレンダリングされた画像を得るステップと、
各2Dのレンダリングされた画像から、当該2Dのレンダリングされた画像の特徴量を表す特徴量ベクトルを抽出するステップであって、前記記述子は、前記の抽出された特徴量ベクトルの各々を含むベクトル列を有する、ステップと、
を含む、方法。
前記記述子は、前記3Dコンピュータ生成モデルの寸法特徴量をそれぞれ表す、寸法に関連する1つ以上の特徴量をさらに有する、付記1に記載の方法。
前記3Dコンピュータ生成モデルは、0より大きい大きさの角度ステップずつ前記複数の異なる軸のうちの1つ以上の回りに回転される、付記1又は2に記載の方法。
前記角度ステップは、各軸に対して同一である、付記3に記載の方法。
前記複数の異なる軸は、3つの相互に垂直な軸を含む、付記1乃至4いずれかに記載の方法。
各角度ステップは、30°から45°までの範囲にある、付記3又は4に付加されるとして読まれた場合の付記5に記載の方法。
3次元(3D)オブジェクトについての記述子を作成する、コンピュータにより実施される方法であって、
前記3Dオブジェクトの少なくとも1つの2次元(2D)の画像を得るステップと、
各2Dの画像から、当該2Dの画像の特徴量を表す特徴量ベクトルを抽出するステップと、
を含み、
1つの2Dの画像のみが存在する場合、前記記述子は、前記の抽出された特徴量ベクトルを有し、2つ以上の2Dの画像が存在する場合、前記記述子は、前記の抽出された特徴量ベクトルの各々を含むベクトル列を有し、
前記記述子は、前記3Dオブジェクトの寸法特徴量をそれぞれ表す、寸法に関連する1つ以上の特徴量をさらに有する、方法。
各特徴量ベクトルは、深層ニューラルネットワークを使用して、2Dの前記画像から抽出される、付記1乃至7いずれかに記載の方法。
指定された3次元(3D)オブジェクト又は指定された3Dコンピュータ生成モデルとの類似度について3Dアイテムのデータベースを検索するための、コンピュータにより実施される検索する方法であって、
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた記述子の1つ以上の特徴量ベクトルと、前記データベース内の前記3Dアイテムに関連付けられた記述子の特徴量ベクトルと、を使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと前記データベース内の1つ以上の3Dアイテムとの間の類似の程度を確認する類似度評価プロセス
を含み、
前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各々は、付記1乃至8いずれかに記載の方法に従って作成されたものであり、前記指定された3Dオブジェクトに関連付けられた前記記述子は、付記7に記載の方法に従って作成されたものであり、あるいは、前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子は、付記1乃至6及び8いずれかに記載の方法に従って作成されたものである、方法。
前記データベース内の前記3Dアイテムに関連付けられた前記記述子は、付記2に記載の方法に従って作成されたものであり、前記類似度評価プロセスは、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと前記データベース内の前記3Dアイテムとの前記記述子の寸法に関連する特徴量を使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルとサイズにおいて適合しない、前記データベース内の3Dアイテムを特定するステップを含む、付記9に記載の方法。
前記類似度評価プロセスは、
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子の前記1つ以上の特徴量ベクトルを使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルについて特徴量行列fMsを作成するステップと、
前記データベース内の前記3Dアイテムに関連付けられた前記記述子の前記特徴量ベクトルを使用して、前記データベース内の各3Dアイテムについて特徴量行列fMdを作成するステップと、
前記データベース内の前記3Dアイテムについて作成された前記特徴量行列fMdを付加して、データベース行列dMを作成するステップと、
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルについての前記特徴量行列fMsと前記データベース行列dMとを使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子の各特徴量ベクトルと、前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各特徴量ベクトルと、の間の距離を示す類似度行列sMを算出するステップと、
前記類似度行列sMから類似度ベクトルsVを導出するステップであって、前記類似度ベクトルsVは、長さDSを有し、前記類似度ベクトルのj番目の要素は、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと、前記データベース内のj番目のアイテムと、の間の類似度を表す、ステップと、
を含む、付記9又は10に記載の方法。
前記特徴量行列fMsの行の数NRsは、特徴量ベクトルの数と同じであり、前記特徴量行列fMsの列の数NCsは、前記1つ以上の特徴量ベクトルにおける特徴量の数と同じであり、前記特徴量行列fMsのi番目の行は、前記記述子のi番目の特徴量ベクトルに対応し、
各特徴量行列fMdにおいて、当該特徴量行列fMdの行の数NRdは、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子における特徴量ベクトルの数と同じであり、当該特徴量行列fMdの列の数NCdは、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子における各特徴量ベクトルにおける特徴量の数と同じであり、当該特徴量行列fMdのi番目の行は、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子のi番目の特徴量ベクトルに対応し、
前記データベース行列dMにおける行の数は、DS*NRdであり、DSは、前記データベース内のアイテムの総数であり、前記データベース行列dMにおける列の数は、NCdである、付記11に記載の方法。
コンピュータ上で実行されたときに前記コンピュータに付記1乃至12いずれかに記載の方法を実行させるコンピュータプログラム。
製品を製造する際に使用するための方法であって、
以前に製造された又は製造のために準備された3次元(3D)アイテムのデータベースを設けるステップであって、前記データベースは、各アイテムに関連付けられた記述子を含み、前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各々は、付記1乃至8いずれかに記載の方法に従って作成されたものである、ステップと、
製造される製品を指定する情報を受信するステップであって、前記情報は、前記製品の幾何学配置を指定する幾何学情報を含む、ステップと、
付記1乃至8いずれかに記載の方法に従って、前記製品の前記幾何学情報から記述子を導出するステップと、
付記9乃至12いずれかに記載の方法を使用して、前記データベースを検索して、前記データベース内のアイテムと、製造される前記製品と、の間の類似の程度を確認するステップと、
前記データベース内のどのアイテムが、製造される前記製品に最も類似するかを判定するステップと、
製造される前記製品に最も類似すると判定されたアイテムの製造に関連付けられた製造プロセスに関連する記憶されている製造プロセス情報を取得し、前記の取得された製造プロセス情報を使用して、前記製品を製造するステップと、
を含む、方法。
3次元(3D)コンピュータ生成モデルについての記述子を作成するよう構成されている記述子作成装置であって、
複数の異なる軸の各々の回りに独立に前記3Dコンピュータ生成モデルを完全に回転させることにより、固定された視点からの前記3Dコンピュータ生成モデルの複数の2次元(2D)のレンダリングされた画像を得るよう構成されている画像レンダリング部と、
各2Dのレンダリングされた画像から、当該2Dのレンダリングされた画像の特徴量を表す特徴量ベクトルを抽出するよう構成されている特徴量ベクトル抽出部と、
前記の抽出された特徴量ベクトルの各々を含むベクトル列を組み立てることにより前記記述子を形成するよう構成されている記述子組み立て部と、
を有する、記述子作成装置。
前記記述子組み立て部は、さらに、前記3Dコンピュータ生成モデルの寸法特徴量をそれぞれ表す、寸法に関連する1つ以上の特徴量を、前記記述子に含めるよう構成されている、付記15に記載の記述子作成装置。
前記画像レンダリング部は、0より大きい大きさの角度ステップずつ前記複数の異なる軸のうちの1つ以上の回りに前記3Dコンピュータ生成モデルを回転させるよう動作可能である、付記15又は16に記載の記述子作成装置。
前記角度ステップは、各軸に対して同一である、付記17に記載の記述子作成装置。
前記複数の異なる軸は、3つの相互に垂直な軸を含む、付記15乃至18いずれかに記載の記述子作成装置。
各角度ステップは、30°から45°までの範囲にある、付記17又は18に付加されるとして読まれた場合の付記19に記載の記述子作成装置。
3次元(3D)オブジェクトについての記述子を作成するよう構成されている記述子作成装置であって、
前記3Dオブジェクトの1つ以上の2次元(2D)の画像の各2Dの画像から、当該2Dの画像の特徴量を表す特徴量ベクトルを抽出するよう構成されている特徴量ベクトル抽出部と、
1つの2Dの画像のみが存在する場合、前記の抽出された特徴量ベクトルから前記記述子を形成するよう構成されており、2つ以上の2Dの画像が存在する場合、前記の抽出された特徴量ベクトルの各々を含むベクトル列を組み立てるよう構成されている記述子組み立て部と、
を有し、
前記記述子組み立て部は、さらに、前記3Dオブジェクトの寸法特徴量をそれぞれ表す、寸法に関連する1つ以上の特徴量を、前記記述子に含めるよう構成されている、記述子作成装置。
指定された3次元(3D)オブジェクト又は指定された3Dコンピュータ生成モデルとの類似度について3Dアイテムのデータベースを検索するよう構成されている検索装置であって、
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた記述子の1つ以上の特徴量ベクトルと、前記データベース内の前記3Dアイテムに関連付けられた記述子の特徴量ベクトルと、を使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと前記データベース内の1つ以上の3Dアイテムとの間の類似の程度を評価するよう構成されている類似度評価部
を有し、
前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各々は、付記15乃至21いずれかに記載の記述子作成装置により作成されたものであり、前記指定された3Dオブジェクトに関連付けられた前記記述子は、付記21に記載の記述子作成装置により作成されたものであり、あるいは、前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子は、付記15乃至20いずれかに記載の記述子作成装置により作成されたものである、検索装置。
前記データベース内の前記3Dアイテムに関連付けられた前記記述子は、付記15に記載の記述子作成装置により作成されたものであり、前記類似度評価部は、さらに、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと前記データベース内の前記3Dアイテムとの前記記述子の寸法に関連する特徴量を使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルとサイズにおいて適合しない、前記データベース内の3Dアイテムを特定するよう構成されている、付記22に記載の検索装置。
11 画像レンダリング部
12 特徴量ベクトル抽出部
13 記述子組み立て部
20 記憶部
31 特徴量行列(fM)生成部
32 データベース行列(dM)生成部
33 類似度行列(sM)生成部
34 類似度ベクトル(sV)生成部
35 寸法フィルタ部
993 プロセッサ
994 メモリ
995 ディスプレイユニット
996 入力機構
997 ネットワークインタフェース(ネットワークI/F)
Claims (23)
- 3次元(3D)コンピュータ生成モデルについての記述子を作成する、コンピュータにより実施される方法であって、
複数の異なる軸の各々の回りに独立に前記3Dコンピュータ生成モデルを完全に回転させることにより、固定された視点からの前記3Dコンピュータ生成モデルの複数の2次元(2D)のレンダリングされた画像を得るステップと、
各2Dのレンダリングされた画像から、当該2Dのレンダリングされた画像の特徴量を表す特徴量ベクトルを抽出するステップであって、前記記述子は、前記の抽出された特徴量ベクトルの各々を含むベクトル列を有する、ステップと、
を含む、方法。 - 前記記述子は、前記3Dコンピュータ生成モデルの寸法特徴量をそれぞれ表す、寸法に関連する1つ以上の特徴量をさらに有する、請求項1に記載の方法。
- 前記3Dコンピュータ生成モデルは、0より大きい大きさの角度ステップずつ前記複数の異なる軸のうちの1つ以上の回りに回転される、請求項1又は2に記載の方法。
- 前記角度ステップは、各軸に対して同一である、請求項3に記載の方法。
- 前記複数の異なる軸は、3つの相互に垂直な軸を含む、請求項1乃至4いずれか一項に記載の方法。
- 各角度ステップは、30°から45°までの範囲にある、請求項3又は4に付加されるとして読まれた場合の請求項5に記載の方法。
- 3次元(3D)オブジェクトについての記述子を作成する、コンピュータにより実施される方法であって、
前記3Dオブジェクトの少なくとも1つの2次元(2D)の画像を得るステップと、
各2Dの画像から、当該2Dの画像の特徴量を表す特徴量ベクトルを抽出するステップと、
を含み、
1つの2Dの画像のみが存在する場合、前記記述子は、前記の抽出された特徴量ベクトルを有し、2つ以上の2Dの画像が存在する場合、前記記述子は、前記の抽出された特徴量ベクトルの各々を含むベクトル列を有し、
前記記述子は、前記3Dオブジェクトの寸法特徴量をそれぞれ表す、寸法に関連する1つ以上の特徴量をさらに有する、方法。 - 各特徴量ベクトルは、深層ニューラルネットワークを使用して、2Dの前記画像から抽出される、請求項1乃至7いずれか一項に記載の方法。
- 指定された3次元(3D)オブジェクト又は指定された3Dコンピュータ生成モデルとの類似度について3Dアイテムのデータベースを検索するための、コンピュータにより実施される検索する方法であって、
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた記述子の1つ以上の特徴量ベクトルと、前記データベース内の前記3Dアイテムに関連付けられた記述子の特徴量ベクトルと、を使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと前記データベース内の1つ以上の3Dアイテムとの間の類似の程度を確認する類似度評価プロセス
を含み、
前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各々は、請求項1乃至8いずれか一項に記載の方法に従って作成されたものであり、前記指定された3Dオブジェクトに関連付けられた前記記述子は、請求項7に記載の方法に従って作成されたものであり、あるいは、前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子は、請求項1乃至6及び8いずれか一項に記載の方法に従って作成されたものである、方法。 - 前記データベース内の前記3Dアイテムに関連付けられた前記記述子は、請求項2に記載の方法に従って作成されたものであり、前記類似度評価プロセスは、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと前記データベース内の前記3Dアイテムとの前記記述子の寸法に関連する特徴量を使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルとサイズにおいて適合しない、前記データベース内の3Dアイテムを特定するステップを含む、請求項9に記載の方法。
- 前記類似度評価プロセスは、
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子の前記1つ以上の特徴量ベクトルを使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルについて特徴量行列fMsを作成するステップと、
前記データベース内の前記3Dアイテムに関連付けられた前記記述子の前記特徴量ベクトルを使用して、前記データベース内の各3Dアイテムについて特徴量行列fMdを作成するステップと、
前記データベース内の前記3Dアイテムについて作成された前記特徴量行列fMdを付加して、データベース行列dMを作成するステップと、
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルについての前記特徴量行列fMsと前記データベース行列dMとを使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子の各特徴量ベクトルと、前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各特徴量ベクトルと、の間の距離を示す類似度行列sMを算出するステップと、
前記類似度行列sMから類似度ベクトルsVを導出するステップであって、前記類似度ベクトルsVは、長さDSを有し、前記類似度ベクトルのj番目の要素は、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと、前記データベース内のj番目のアイテムと、の間の類似度を表す、ステップと、
を含む、請求項9又は10に記載の方法。 - 前記特徴量行列fMsの行の数NRsは、特徴量ベクトルの数と同じであり、前記特徴量行列fMsの列の数NCsは、前記1つ以上の特徴量ベクトルにおける特徴量の数と同じであり、前記特徴量行列fMsのi番目の行は、前記記述子のi番目の特徴量ベクトルに対応し、
各特徴量行列fMdにおいて、当該特徴量行列fMdの行の数NRdは、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子における特徴量ベクトルの数と同じであり、当該特徴量行列fMdの列の数NCdは、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子における各特徴量ベクトルにおける特徴量の数と同じであり、当該特徴量行列fMdのi番目の行は、前記データベース内の該当する3Dアイテムに関連付けられた前記記述子のi番目の特徴量ベクトルに対応し、
前記データベース行列dMにおける行の数は、DS*NRdであり、DSは、前記データベース内のアイテムの総数であり、前記データベース行列dMにおける列の数は、NCdである、請求項11に記載の方法。 - コンピュータ上で実行されたときに前記コンピュータに請求項1乃至12いずれか一項に記載の方法を実行させるコンピュータプログラム。
- 製品を製造する際に使用するための方法であって、
以前に製造された又は製造のために準備された3次元(3D)アイテムのデータベースを設けるステップであって、前記データベースは、各アイテムに関連付けられた記述子を含み、前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各々は、請求項1乃至8いずれか一項に記載の方法に従って作成されたものである、ステップと、
製造される製品を指定する情報を受信するステップであって、前記情報は、前記製品の幾何学配置を指定する幾何学情報を含む、ステップと、
請求項1乃至8いずれか一項に記載の方法に従って、前記製品の前記幾何学情報から記述子を導出するステップと、
請求項9乃至12いずれか一項に記載の方法を使用して、前記データベースを検索して、前記データベース内のアイテムと、製造される前記製品と、の間の類似の程度を確認するステップと、
前記データベース内のどのアイテムが、製造される前記製品に最も類似するかを判定するステップと、
製造される前記製品に最も類似すると判定されたアイテムの製造に関連付けられた製造プロセスに関連する記憶されている製造プロセス情報を取得し、前記の取得された製造プロセス情報を使用して、前記製品を製造するステップと、
を含む、方法。 - 3次元(3D)コンピュータ生成モデルについての記述子を作成するよう構成されている記述子作成装置であって、
複数の異なる軸の各々の回りに独立に前記3Dコンピュータ生成モデルを完全に回転させることにより、固定された視点からの前記3Dコンピュータ生成モデルの複数の2次元(2D)のレンダリングされた画像を得るよう構成されている画像レンダリング部と、
各2Dのレンダリングされた画像から、当該2Dのレンダリングされた画像の特徴量を表す特徴量ベクトルを抽出するよう構成されている特徴量ベクトル抽出部と、
前記の抽出された特徴量ベクトルの各々を含むベクトル列を組み立てることにより前記記述子を形成するよう構成されている記述子組み立て部と、
を有する、記述子作成装置。 - 前記記述子組み立て部は、さらに、前記3Dコンピュータ生成モデルの寸法特徴量をそれぞれ表す、寸法に関連する1つ以上の特徴量を、前記記述子に含めるよう構成されている、請求項15に記載の記述子作成装置。
- 前記画像レンダリング部は、0より大きい大きさの角度ステップずつ前記複数の異なる軸のうちの1つ以上の回りに前記3Dコンピュータ生成モデルを回転させるよう動作可能である、請求項15又は16に記載の記述子作成装置。
- 前記角度ステップは、各軸に対して同一である、請求項17に記載の記述子作成装置。
- 前記複数の異なる軸は、3つの相互に垂直な軸を含む、請求項15乃至18いずれか一項に記載の記述子作成装置。
- 各角度ステップは、30°から45°までの範囲にある、請求項17又は18に付加されるとして読まれた場合の請求項19に記載の記述子作成装置。
- 3次元(3D)オブジェクトについての記述子を作成するよう構成されている記述子作成装置であって、
前記3Dオブジェクトの1つ以上の2次元(2D)の画像の各2Dの画像から、当該2Dの画像の特徴量を表す特徴量ベクトルを抽出するよう構成されている特徴量ベクトル抽出部と、
1つの2Dの画像のみが存在する場合、前記の抽出された特徴量ベクトルから前記記述子を形成するよう構成されており、2つ以上の2Dの画像が存在する場合、前記の抽出された特徴量ベクトルの各々を含むベクトル列を組み立てるよう構成されている記述子組み立て部と、
を有し、
前記記述子組み立て部は、さらに、前記3Dオブジェクトの寸法特徴量をそれぞれ表す、寸法に関連する1つ以上の特徴量を、前記記述子に含めるよう構成されている、記述子作成装置。 - 指定された3次元(3D)オブジェクト又は指定された3Dコンピュータ生成モデルとの類似度について3Dアイテムのデータベースを検索するよう構成されている検索装置であって、
前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルに関連付けられた記述子の1つ以上の特徴量ベクトルと、前記データベース内の前記3Dアイテムに関連付けられた記述子の特徴量ベクトルと、を使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと前記データベース内の1つ以上の3Dアイテムとの間の類似の程度を評価するよう構成されている類似度評価部
を有し、
前記データベース内の前記3Dアイテムに関連付けられた前記記述子の各々は、請求項15乃至21いずれか一項に記載の記述子作成装置により作成されたものであり、前記指定された3Dオブジェクトに関連付けられた前記記述子は、請求項21に記載の記述子作成装置により作成されたものであり、あるいは、前記指定された3Dコンピュータ生成モデルに関連付けられた前記記述子は、請求項15乃至20いずれか一項に記載の記述子作成装置により作成されたものである、検索装置。 - 前記データベース内の前記3Dアイテムに関連付けられた前記記述子は、請求項15に記載の記述子作成装置により作成されたものであり、前記類似度評価部は、さらに、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルと前記データベース内の前記3Dアイテムとの前記記述子の寸法に関連する特徴量を使用して、前記指定された3Dオブジェクト又は前記指定された3Dコンピュータ生成モデルとサイズにおいて適合しない、前記データベース内の3Dアイテムを特定するよう構成されている、請求項22に記載の検索装置。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1608645.6 | 2016-05-17 | ||
GBGB1608645.6A GB201608645D0 (en) | 2016-05-17 | 2016-05-17 | Method and apparatus for searching a database of 3D items using descriptors |
DE102016208436.4 | 2016-05-17 | ||
DE102016208436 | 2016-05-17 | ||
EP17163735.8A EP3246851A1 (en) | 2016-05-17 | 2017-03-30 | Method and apparatus for searching a database of 3d items using descriptors |
EP17163735.8 | 2017-03-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017208092A true JP2017208092A (ja) | 2017-11-24 |
Family
ID=58461139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017097161A Pending JP2017208092A (ja) | 2016-05-17 | 2017-05-16 | 記述子を使用して3dアイテムのデータベースを検索する方法及び装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10210656B2 (ja) |
EP (1) | EP3246851A1 (ja) |
JP (1) | JP2017208092A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110766807A (zh) * | 2019-09-25 | 2020-02-07 | 稿定(厦门)科技有限公司 | 3d图形旋转方法、介质、设备及装置 |
JP6833114B1 (ja) * | 2019-11-28 | 2021-02-24 | 三菱電機株式会社 | ワーク画像検索装置およびワーク画像検索方法 |
KR20220163584A (ko) * | 2021-06-03 | 2022-12-12 | 고려대학교 산학협력단 | 기계가공 특징형상 인식 방법 및 이를 수행하기 위한 컴퓨팅 장치 |
EP4379629A1 (de) * | 2022-12-02 | 2024-06-05 | Hilti Aktiengesellschaft | Methode zur auswahl eines geeigneten bauprodukts und rechner |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10459995B2 (en) * | 2016-12-22 | 2019-10-29 | Shutterstock, Inc. | Search engine for processing image search queries in multiple languages |
US10552478B1 (en) * | 2016-12-28 | 2020-02-04 | Shutterstock, Inc. | Image search using intersected predicted queries |
US20180268614A1 (en) * | 2017-03-16 | 2018-09-20 | General Electric Company | Systems and methods for aligning pmi object on a model |
CA3115898C (en) * | 2017-10-11 | 2023-09-26 | Aquifi, Inc. | Systems and methods for object identification |
US20190251744A1 (en) * | 2018-02-12 | 2019-08-15 | Express Search, Inc. | System and method for searching 3d models using 2d images |
CN108595631B (zh) * | 2018-04-24 | 2021-05-07 | 西北工业大学 | 基于图谱理论的三维cad模型双层检索方法 |
CN108808547B (zh) * | 2018-06-01 | 2019-12-27 | 南京理工大学 | 一种带电更换避雷器作业现场的快速重构方法 |
EP3648065A1 (en) * | 2018-11-05 | 2020-05-06 | Twikit NV | A system for determining visually relevant design differences between 3d models |
CN111198870B (zh) * | 2019-12-23 | 2024-04-02 | 浙江中控技术股份有限公司 | 一种过程装备的建模方法及系统 |
EP4143739A4 (en) * | 2020-05-01 | 2023-09-27 | Magic Leap, Inc. | IMAGE DESCRIPTOR NETWORK WITH IMPOSED HIERARCHICAL NORMALIZATION |
US11815876B2 (en) * | 2021-03-16 | 2023-11-14 | Hcl Technologies Limited | Method and system for automatic identification of primary manufacturing process from three-dimensional model of product |
CN113901647B (zh) * | 2021-09-24 | 2024-08-13 | 成都飞机工业(集团)有限责任公司 | 一种零件工艺规程编制方法、装置、存储介质及电子设备 |
CN114020953B (zh) * | 2021-10-27 | 2022-12-13 | 北京中知智慧科技有限公司 | 外观设计产品的多图检索方法及装置 |
CN115239877B (zh) * | 2022-07-07 | 2023-05-09 | 青海师范大学 | 一种基于不变矩的谱形状描述符的三维模型匹配方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164503A (ja) * | 2002-11-15 | 2004-06-10 | Olympus Corp | 三次元モデル検索方法、三次元モデル検索装置、三次元モデル検索プログラム、及び三次元モデル検索システム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2688911B1 (fr) | 1992-02-24 | 1994-07-29 | Robert Pierre | Procede de creation de la signature d'un objet represente sur une image numerique, du type consistant a definir au moins un calibre dimensionnel caracteristique dudit objet, et procede correspondant de verification de la signature d'un objet. |
US10607355B2 (en) | 2005-10-26 | 2020-03-31 | Cortica, Ltd. | Method and system for determining the dimensions of an object shown in a multimedia content item |
US20080269942A1 (en) * | 2007-04-26 | 2008-10-30 | David Mitchell Free | Computer system and method for providing real-world market-based information corresponding with a theoretical cad model and/or rfq/rfp data |
JP2009129337A (ja) | 2007-11-27 | 2009-06-11 | Hitachi Ltd | 三次元類似形状検索装置 |
US8391611B2 (en) | 2009-10-21 | 2013-03-05 | Sony Ericsson Mobile Communications Ab | Methods, systems and computer program products for identifying descriptors for an image |
US8566325B1 (en) | 2010-12-23 | 2013-10-22 | Google Inc. | Building search by contents |
US8879815B2 (en) * | 2011-08-23 | 2014-11-04 | Siemens Aktiengesellschaft | Automatic initialization for 2D/3D registration |
US20150178321A1 (en) | 2012-04-10 | 2015-06-25 | Google Inc. | Image-based 3d model search and retrieval |
GB2514320B (en) | 2013-03-15 | 2020-01-29 | 3D Industries Ltd | A method and system for 3D model database retrieval |
US9530250B2 (en) | 2013-12-10 | 2016-12-27 | Dassault Systemes | Augmented reality updating of 3D CAD models |
US9922359B2 (en) | 2014-04-08 | 2018-03-20 | Imaginestics, Llc | Three-dimensional image searching using active label technology |
WO2016001920A1 (en) | 2014-07-03 | 2016-01-07 | Amiad Gurman | A method of perceiving 3d structure from a pair of images |
-
2017
- 2017-03-30 US US15/474,304 patent/US10210656B2/en not_active Expired - Fee Related
- 2017-03-30 EP EP17163735.8A patent/EP3246851A1/en not_active Withdrawn
- 2017-05-16 JP JP2017097161A patent/JP2017208092A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164503A (ja) * | 2002-11-15 | 2004-06-10 | Olympus Corp | 三次元モデル検索方法、三次元モデル検索装置、三次元モデル検索プログラム、及び三次元モデル検索システム |
Non-Patent Citations (1)
Title |
---|
HANG SU ET AL.: "Multi-view Convolutional Neural Networks for 3D Shape Recognition", 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV),US, JPN6021008649, 7 December 2015 (2015-12-07), ISSN: 0004582150 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110766807A (zh) * | 2019-09-25 | 2020-02-07 | 稿定(厦门)科技有限公司 | 3d图形旋转方法、介质、设备及装置 |
JP6833114B1 (ja) * | 2019-11-28 | 2021-02-24 | 三菱電機株式会社 | ワーク画像検索装置およびワーク画像検索方法 |
WO2021106154A1 (ja) * | 2019-11-28 | 2021-06-03 | 三菱電機株式会社 | ワーク画像検索装置、ワーク画像検索方法、および機械学習装置 |
US11580156B2 (en) | 2019-11-28 | 2023-02-14 | Mitsubishi Electric Corporation | Workpiece image search apparatus and workpiece image search method |
KR20220163584A (ko) * | 2021-06-03 | 2022-12-12 | 고려대학교 산학협력단 | 기계가공 특징형상 인식 방법 및 이를 수행하기 위한 컴퓨팅 장치 |
KR102596257B1 (ko) * | 2021-06-03 | 2023-10-30 | 고려대학교 산학협력단 | 기계가공 특징형상 인식 방법 및 이를 수행하기 위한 컴퓨팅 장치 |
EP4379629A1 (de) * | 2022-12-02 | 2024-06-05 | Hilti Aktiengesellschaft | Methode zur auswahl eines geeigneten bauprodukts und rechner |
WO2024115137A1 (de) * | 2022-12-02 | 2024-06-06 | Hilti Aktiengesellschaft | Methode zur auswahl eines geeigneten bauprodukts und rechner |
Also Published As
Publication number | Publication date |
---|---|
US20170337733A1 (en) | 2017-11-23 |
EP3246851A1 (en) | 2017-11-22 |
US10210656B2 (en) | 2019-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017208092A (ja) | 記述子を使用して3dアイテムのデータベースを検索する方法及び装置 | |
Wang et al. | Dynamic graph cnn for learning on point clouds | |
Shi et al. | From points to parts: 3d object detection from point cloud with part-aware and part-aggregation network | |
Armeni et al. | 3d scene graph: A structure for unified semantics, 3d space, and camera | |
Sfikas et al. | Ensemble of PANORAMA-based convolutional neural networks for 3D model classification and retrieval | |
Wang et al. | Sketch-based 3d shape retrieval using convolutional neural networks | |
Papadakis et al. | PANORAMA: A 3D shape descriptor based on panoramic views for unsupervised 3D object retrieval | |
CN109214366B (zh) | 局部目标重识别方法、装置及系统 | |
JPWO2020176304A5 (ja) | ||
Guo et al. | 3D free form object recognition using rotational projection statistics | |
Zou et al. | A novel 3D model retrieval approach using combined shape distribution | |
Cao et al. | Accurate 3-D reconstruction under IoT environments and its applications to augmented reality | |
Pickup et al. | Shrec’15 track: Canonical forms for non-rigid 3d shape retrieval | |
CN114022542A (zh) | 一种基于三维重建的3d数据库制作方法 | |
Srivastava et al. | 3D binary signatures | |
Shrestha et al. | A real world dataset for multi-view 3d reconstruction | |
Axenopoulos et al. | 3D model retrieval using accurate pose estimation and view-based similarity | |
CN111414802B (zh) | 蛋白质数据特征提取方法 | |
Wei et al. | BuilDiff: 3D Building Shape Generation using Single-Image Conditional Point Cloud Diffusion Models | |
Mitra et al. | Seethrough: Finding objects in heavily occluded indoor scene images | |
Tabia et al. | Deformable shape retrieval using bag-of-feature techniques | |
Wang et al. | PVONet: point-voxel-based semi-supervision monocular three-dimensional object detection using LiDAR camera systems | |
Bustos et al. | 3D shape matching for retrieval and recognition | |
Shi et al. | Pairwise attention encoding for point cloud feature learning | |
Zhang et al. | Unsupervised learning of ALS point clouds for 3-D terrain scene clustering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210512 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210831 |