JP6342180B2 - 3D CAD model similarity search method - Google Patents

3D CAD model similarity search method Download PDF

Info

Publication number
JP6342180B2
JP6342180B2 JP2014032343A JP2014032343A JP6342180B2 JP 6342180 B2 JP6342180 B2 JP 6342180B2 JP 2014032343 A JP2014032343 A JP 2014032343A JP 2014032343 A JP2014032343 A JP 2014032343A JP 6342180 B2 JP6342180 B2 JP 6342180B2
Authority
JP
Japan
Prior art keywords
dimensional
data
projection
model
projection data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014032343A
Other languages
Japanese (ja)
Other versions
JP2015158752A (en
Inventor
薫 片山
薫 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Metropolitan University
Original Assignee
Tokyo Metropolitan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Metropolitan University filed Critical Tokyo Metropolitan University
Priority to JP2014032343A priority Critical patent/JP6342180B2/en
Publication of JP2015158752A publication Critical patent/JP2015158752A/en
Application granted granted Critical
Publication of JP6342180B2 publication Critical patent/JP6342180B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、膨大であり且つ多種フォーマットで格納された3次元CADデータから従来の方法では検索困難であったアセンブリ構造を含めて必要なデータを簡易に検索できる検索方法に関する。   The present invention relates to a retrieval method capable of easily retrieving necessary data including an assembly structure, which is difficult to retrieve by a conventional method, from a large amount of 3D CAD data stored in various formats.

3次元CADデータは様々な製作現場で活用されているが、過去のデータを有効に活用して設計作業の効率化を行うことが求められているが、通常はCADソフトによってフォーマットが異なり、複数のデータから所望のデータを抽出することは困難であるという問題がある。また、通常のグラフを活用した検索システムではアセンブリ構造までは検出できないという問題がある。
そこで、これらの問題を解消した3次元CADの検索システムが種々提案されている。
たとえば、特許文献1には、配置調整および部品編集の両方の作業に適応した設計システムを実現し、部品要素の流用性を向上させるべく、三次元配置調整CADで作成した部品モデルの情報を処理する三次元配置調整CADの部品情報処理装置であって、この三次元配置調整CADの部品情報処理装置が、部品データをスプレッドシート形式で格納した部品テーブルを備え、この部品テーブルに格納された部品データの中から配置調整に必要な配置情報のみを抽出して部品配置調整する配置調整ツールと、前記部品テーブルから部品要素の編集に必要な部品要素編集情報のみを抽出して部品要素の編集を行う部品要素編集ツールとから構成されたことを特徴とする三次元配置調整CADの部品情報処理装置が提案されている。
また特許文献2には、CADデータとこのCADデータに関連する属性情報を格納したデータベースとを関連付けた理解支援データの作成装置として、文字列情報を有するCADデータから文字列情報を取得する文字列情報取得手段と、この文字列情報に関連する属性情報をデータベースから検索して取得する関連情報取得手段と、取得した関連情報に基づいて理解支援データを作成して出力する理解支援データ作成手段とを備えたものが提案されている。
Although 3D CAD data is used in various production sites, it is required to make effective use of past data to improve the efficiency of design work. There is a problem that it is difficult to extract desired data from the data. In addition, there is a problem that an assembly structure cannot be detected by a search system using a normal graph.
Therefore, various 3D CAD search systems that solve these problems have been proposed.
For example, in Patent Document 1, a design system adapted to both layout adjustment and part editing work is realized, and information on a part model created by a three-dimensional layout adjustment CAD is processed in order to improve the applicability of part elements. A three-dimensional placement adjustment CAD part information processing apparatus, which comprises a part table storing part data in a spreadsheet format, and the parts stored in the part table Only the placement information necessary for placement adjustment is extracted from the data, and the placement adjustment tool that adjusts the placement of the component, and only the component element editing information that is necessary for editing the component element is extracted from the part table to edit the component element. There has been proposed a part information processing apparatus for three-dimensional layout adjustment CAD, which is characterized by comprising a part element editing tool to be performed.
Patent Document 2 discloses a character string for acquiring character string information from CAD data having character string information as a device for creating understanding support data in which CAD data is associated with a database storing attribute information related to the CAD data. Information acquisition means, related information acquisition means for searching and acquiring attribute information related to the character string information from the database, understanding support data creation means for creating and outputting understanding support data based on the acquired related information, The one with is proposed.

特開2005−108023号公報JP 2005-108023 A 特開2006−344095号公報JP 2006-344095 A

大西 弘之、鈴木 寿、 有本 卓、“ハフおよびフーリエ変換を用いた回転と平行移動の検出“、電子情報通信学会論文誌、D-、情報・システム、-情報処理、J80-D-2(7)、pp.1668-1675、1997Hiroyuki Onishi, Hisashi Suzuki, Takashi Arimoto, “Detection of rotation and translation using Hough and Fourier transform”, IEICE Transactions, D-, Information / System, Information Processing, J80-D-2 ( 7), pp.1668-1675, 1997 坪井 辰彦、平井 慎一、“ラドン変換と一次元位相限定相関を用いた複数物体の平面移動検出”、 電子情報通信学会論文誌 D-Vol.J87-D- No.10 pp1963-1972 2004Atsuhiko Tsuboi and Shinichi Hirai, “Plane motion detection of multiple objects using Radon transform and one-dimensional phase-only correlation”, IEICE Transactions D-Vol.J87-D- No.10 pp1963-1972 2004 Ding-Yun Chen、Xiao-pei Tian、Yu-te Shen and Ming Ouhyoung、“On Visual Similarity Based 3D Model Re-trieval"、The Eurographics Association and Blackwell Pub-lishers 2003Ding-Yun Chen, Xiao-pei Tian, Yu-te Shen and Ming Ouhyoung, “On Visual Similarity Based 3D Model Re-trieval”, The Eurographics Association and Blackwell Pub-lishers 2003 新垣仁、福井和広、“多視点画による類似形状を有する 3 次元物体の高精度識別の検討”、電子情報通信学会技術研究報告。PRMU、パターン認識・メディア理解 107(539)、151-156、2008-03-03Jin Aragaki and Kazuhiro Fukui, “Examination of high-precision identification of 3D objects with similar shapes by multi-view images”, IEICE technical report. PRMU, pattern recognition / media understanding 107 (539), 151-156, 2008-03-03 延原 章平、松山 隆司、ウ 小軍、松浦 宣彦、“多視点画像を用いた複雑環境下における 3 次元形状・対象領域の同時推定"、MIRU2011Nobuhara Shohei, Matsuyama Takashi, U Small Army, Matsuura Nobuhiko, “Simultaneous estimation of 3D shape and target area under complex environment using multi-view images”, MIRU2011 石井 純平、酒井 修二、伊藤 康一、青木 孝文、“SIFT と POCを用いた高精度 3 次元復元とその応用”、映像情報メディア学会技術報告、Vol. 35、 No. 33、 pp.17-20、 2011Junpei Ishii, Shuji Sakai, Koichi Ito, Takafumi Aoki, “High-precision 3D reconstruction using SIFT and POC and its application”, ITE Technical Report, Vol. 35, No. 33, pp.17-20 , 2011 Tajima、 Yuichiro and Fudano、 Kinya and Ito、 Koichi and Aoki、 Takafumi、“Object recognition from local scale invari-ant features"、 IEICE Transactions、pp826-835、2013Tajima, Yuichiro and Fudano, Kinya and Ito, Koichi and Aoki, Takafumi, “Object recognition from local scale invari-ant features”, IEICE Transactions, pp826-835, 2013

しかし、上述の提案にかかるシステムでは、CADデータを文字として認識して処理しようとするものであるため、データの格納形式により検索できない場合や検索精度が低下する場合がある。また、文字データの場合には3次元化するに際して、部材のかかり方や位置、方向など詳細なデータを処理しようとすると検索に膨大な時間を要するため、データを検索しやすい形に再構築する必要があり、そのように再構築すると必要なデータが不足し、所望の3次元データを得にくいという問題もある。
また、3次元CADデータを画像として認識して処理することも試みられているが、従来提案されている手法では単にデータの外観がわかるだけであり、内部の構造や構成部品の詳細、位置関係、部品相互の関連性等実際のモノづくりに役立つデータは得られないという問題がある。
以下に投影データを用いた、2 データ間の回転角検出や拡大・縮小率検出の手法及び 3 次元ボリュームモデルを対象とした研究について紹介する。
有本ら (非特許文献1等)はハフ変換やフーリエ変換を用いて 2 つの画像間の回転角と平行移動量を推定するアルゴリズムを提案し、平面上に配置された機械部品の位置決めや印鑑照合への応用を提案している。
坪井ら(非特許文献2)はラドン変換と一次元位相限定相関を用いた対象物体の位置と姿勢を検出する手法を提案した。
Ding-YunChen ら(非特許文献3) は物体を中心とした正十二面体の頂点を定義し、その各頂点から20 枚のシルエット画像のセットを求め、この画像を Light field descriptor と呼んだ。この Light field descriptor を様々な角度から求め、3 次元モデルの回転を許容したマッチングを可能にした。新垣ら(非特許文献4) は 3 次元物体のマッチングに対し、多視点から撮影した画像を用いた。さらにこの画像に HLAC や輪郭線特徴などを抽出し、手法ごとに精度を比較した。彼らはマッチングのために制約相互部分空間法や相互部分空間法などを用いた。延原(非特許文献5)らは多視点シルエットなど事前情報を使わず、背景などが含まれた複雑な環境下でも対象の領域、また形状の推定を行うため、背景差分値やエッジ特徴量などを用いる手法を提案した。
石井(非特許文献6)らは位相限定相関法とSIFT を用いて、3Dモデルの多視点画像から 3 次元の形状を復元する提案をした。
ボリュームモデルを扱った研究では Tajima(非特許文献7)らが位相限定相関法による対応点検索を3 次元に拡張し、サブポクセル精度でボリュームモデル間の対応付けを行うことで、非剛体のレジストレーションにも拡張することができる、高精度かつ高速な医用ボリュームモデルのレジストレーション手法を提案した。
従って、本発明の目的は、膨大であり且つ多種フォーマットで格納された3次元CADデータから従来の方法では検索困難であったアセンブリ構造を含めて必要なデータを簡易に検索できる検索方法を提供することにある。
However, in the system according to the above proposal, since CAD data is to be recognized and processed as characters, the search may not be possible or the search accuracy may be lowered depending on the data storage format. Further, in the case of character data, when it is made three-dimensional, if it is attempted to process detailed data such as how members are applied, positions, and directions, it takes an enormous amount of time for the search. There is a problem that, if such reconstruction is performed, necessary data is insufficient and it is difficult to obtain desired three-dimensional data.
Attempts have also been made to recognize and process three-dimensional CAD data as images, but the conventionally proposed methods only show the appearance of the data, and the details of the internal structure and components, and the positional relationship. However, there is a problem that data useful for actual manufacturing such as the relationship between parts cannot be obtained.
The following introduces the method of detecting the rotation angle between two data, the method of detecting the enlargement / reduction ratio, and the research for the 3D volume model using projection data.
Arimoto et al. (Non-Patent Document 1, etc.) proposed an algorithm that estimates the rotation angle and translation amount between two images using Hough transform and Fourier transform, and positioning and seal of mechanical parts placed on a plane. Proposed application for verification.
Tsuboi et al. (Non-Patent Document 2) proposed a method for detecting the position and orientation of a target object using Radon transform and one-dimensional phase-only correlation.
Ding-YunChen et al. (Non-patent Document 3) defined the vertices of an icosahedron with an object as the center, obtained a set of 20 silhouette images from each vertex, and called this image a light field descriptor. This light field descriptor was obtained from various angles, and matching that allowed rotation of the 3D model was made possible. Aragaki et al. (Non-Patent Document 4) used images taken from multiple viewpoints for matching 3D objects. Furthermore, we extracted HLAC and contour features from this image, and compared the accuracy of each method. They used constrained mutual subspace method and mutual subspace method for matching. Nobuhara (Non-Patent Document 5) et al. Do not use prior information such as multi-viewpoint silhouettes, and perform estimation of the target region and shape even in a complex environment including the background, etc. We proposed a method using.
Ishii (Non-Patent Document 6) and others proposed a 3D shape reconstruction from multi-viewpoint images of 3D models using phase-only correlation and SIFT.
In a study that dealt with volume models, Tajima (Non-Patent Document 7) and others expanded the corresponding point search by the phase-only correlation method to three dimensions, and matched the volume models with subpoxel accuracy, thereby registering non-rigid bodies. A high-precision and high-speed registration method for medical volume models was proposed.
Accordingly, an object of the present invention is to provide a retrieval method that can easily retrieve necessary data including assembly structures, which is difficult to retrieve by a conventional method, from a large amount of 3D CAD data stored in various formats. There is.

本発明は上記目的に鑑みなされたものであり、以下の発明を提供するものである。
複数の3次元CADデータからなるデータ群から特定の3次元構造と類似する構造に係る3次元CADデータを特定する3次元CADデータの検索方法であって、
上記3次元CADデータを3次元モデル化するモデル化ステップ、
得られた3次元モデルを複数の方向からスキャニングして複数の2次元投影図を得る投影図化ステップ
別に検索対象の3次元CADデータを3次元モデル化し、検索対象となる3次元構造を示す2次元投影図が得られるようにスキャニングして対象投影図を得る対象データ取得ステップ、
得られた複数の2次元投影図の中から対象投影図と最も高い相関性を有する2次元投影図を選出する選出ステップ、
選出した2次元投影図が得られた3次元CADデータにアクセスして、当該3次元CADデータを検索結果として表示する表示ステップ
を具備する検索方法。
The present invention has been made in view of the above object, and provides the following inventions.
A method for retrieving 3D CAD data for specifying 3D CAD data relating to a structure similar to a specific 3D structure from a data group consisting of a plurality of 3D CAD data,
A modeling step for modeling the three-dimensional CAD data into a three-dimensional model;
Projection mapping step of obtaining a plurality of two-dimensional projections by scanning the obtained three-dimensional model from a plurality of directions 3D CAD data to be searched is converted into a three-dimensional model, and 2 indicating a three-dimensional structure to be searched A target data acquisition step of obtaining a target projection by scanning so as to obtain a three-dimensional projection;
A selection step of selecting a two-dimensional projection having the highest correlation with the target projection from the obtained two-dimensional projections;
A search method comprising a display step of accessing three-dimensional CAD data from which a selected two-dimensional projection map is obtained and displaying the three-dimensional CAD data as a search result.

本発明の3次元CADデータの検索方法によれば、膨大であり且つ多種フォーマットで格納された3次元CADデータから従来の方法では検索困難であったアセンブリ構造を含めて必要なデータを簡易に検索できる。
特に、本発明によれば、既存技術で検索が困難であった、複数の部品から構成されるアセンブリモデルであって、形状が同じであっても、材質の異なる部品から構成されたモデルや部品の配置が異なるモデルを検索することができる。
According to the 3D CAD data search method of the present invention, necessary data including an assembly structure, which is difficult to search by the conventional method, can be easily searched from a large amount of 3D CAD data stored in various formats. it can.
In particular, according to the present invention, it is an assembly model composed of a plurality of parts, which is difficult to search with the existing technology, and is a model or part composed of parts of different materials even if the shape is the same. It is possible to search for models having different arrangements.

図1は、頂点座標を 3 次元配列へ格納する態様を示す概要図である。FIG. 1 is a schematic diagram showing a mode in which vertex coordinates are stored in a three-dimensional array. 図2は、サーフェスモデルとボリュームモデルとを示す説明図である。FIG. 2 is an explanatory diagram showing a surface model and a volume model. 図3は、3次元モデル化のアルゴリズムを示す説明図である。FIG. 3 is an explanatory diagram showing an algorithm for three-dimensional modeling. 図4は、3投影データの求め方を示す概略図である。FIG. 4 is a schematic diagram showing how to obtain three projection data. 図5は、2 次元ラドン変換の態様を示す概要図である。FIG. 5 is a schematic diagram showing an embodiment of the two-dimensional radon transform. 図6は、投影データを2次元ラドン変換した例を示す説明図である。FIG. 6 is an explanatory diagram showing an example in which the projection data is two-dimensional radon transformed. 図7は、3 次元モデルの一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating an example of a three-dimensional model. 図8は、図7に示す3次元モデルの投影データの一例を示す説明図である。FIG. 8 is an explanatory diagram showing an example of projection data of the three-dimensional model shown in FIG. 図9は、従来の回転角検出の例を示す参考図である。FIG. 9 is a reference diagram showing an example of conventional rotation angle detection. 図10は、似ている投影データの一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of similar projection data.

以下、本発明の実施形態について、添付図面を参照して説明する。
<全体構成>
本発明の3次元CADデータの検索方法は、複数の3次元CADデータからなるデータ群から特定の3次元構造と類似する構造に係る3次元CADデータを特定する3次元CADデータの検索方法であって、
上記3次元CADデータを3次元モデル化するモデル化ステップ、
得られた3次元モデルを複数の方向からスキャニングして複数の2次元投影図を得る投影図化ステップ
別に検索対象の3次元CADデータを3次元モデル化し、検索対象となる3次元構造を示す2次元投影図が得られるようにスキャニングして対象投影図を得る対象データ取得ステップ、
得られた複数の2次元投影図の中から対象投影図と最も高い相関性を有する2次元投影図を選出する選出ステップ、
選出した2次元投影図が得られた3次元CADデータにアクセスして、当該3次元CADデータを検索結果として表示する表示ステップ
を行うことにより実施できる。
本発明の検索方法は、通常のコンピュータを用いて行うことができる。具体的には、中央処理演算装置(CPU)、データ及びプログラムを格納する、ハードディスクなどの記録媒体、データやプログラムを一時的に保存するメモリ、キーボードなどの入力デバイス、計算結果などを表示する液晶モニタ等の表示媒体を具備するコンピュータを用いて行うことができ、上記方法を実施できるようにコンピュータを作動させるプログラムを上記記録媒体に格納して実施できる。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
<Overall configuration>
The three-dimensional CAD data search method of the present invention is a three-dimensional CAD data search method for specifying three-dimensional CAD data related to a structure similar to a specific three-dimensional structure from a data group composed of a plurality of three-dimensional CAD data. And
A modeling step for modeling the three-dimensional CAD data into a three-dimensional model;
Projection mapping step of obtaining a plurality of two-dimensional projections by scanning the obtained three-dimensional model from a plurality of directions 3D CAD data to be searched is converted into a three-dimensional model, and 2 indicating a three-dimensional structure to be searched A target data acquisition step of obtaining a target projection by scanning so as to obtain a three-dimensional projection;
A selection step of selecting a two-dimensional projection having the highest correlation with the target projection from the obtained two-dimensional projections;
This can be implemented by accessing the three-dimensional CAD data from which the selected two-dimensional projection drawing is obtained and performing a display step of displaying the three-dimensional CAD data as a search result.
The search method of the present invention can be performed using a normal computer. Specifically, a central processing unit (CPU), a recording medium such as a hard disk that stores data and programs, a memory that temporarily stores data and programs, an input device such as a keyboard, and a liquid crystal that displays calculation results It can be performed using a computer having a display medium such as a monitor, and a program for operating the computer can be stored in the recording medium so that the method can be performed.

<モデル化ステップ>
このステップは、3次元CADデータを3次元モデル化するステップである。
なお、本明細書において3次元モデル化とは、3次元配列を意味する場合と物理的な実現とは関係しないモデル化を意味する場合との両方を含む。
ここで3次元CADデータとは、様々なCADソフトを用いて作成されたデータを意味し、そのフォーマットなどは特に制限されない。
3次元モデル化は、CADデータを3次元モデルにすることであり、通常の3Dモデル作成ソフトでデータを読み込んで3Dモデルをコンピュータ上で作成する際の手法を特に制限なく用いて実施することができる。
本発明において採用できる手法の一例を示すと、McGill 大学が公開している plyファイル (サーフェスモデル) を利用した.ply ファイルから頂点情報 (x; y; z) を取り出し、図1に示すように頂点に該当する3 次元配列を1で埋め (図1)、ボリュームモデルを作成する。その処理手順を図3のAlgorithm 1 に示す。また、図2にサーフェスモデルからボリュームモデルを作成した例を示す。
<Modeling step>
This step is a step of modeling the three-dimensional CAD data into a three-dimensional model.
In the present specification, the three-dimensional modeling includes both a case where a three-dimensional array is meant and a case where a modeling which is not related to physical realization is meant.
Here, the three-dimensional CAD data means data created using various CAD software, and the format thereof is not particularly limited.
Three-dimensional modeling is to convert CAD data into a three-dimensional model, and can be carried out without particular limitation using a method for reading data with ordinary 3D model creation software and creating a 3D model on a computer. it can.
An example of a method that can be used in the present invention is a ply file (surface model) published by McGill University. Vertex information (x; y; z) is extracted from the ply file, and a three-dimensional array corresponding to the vertices is filled with 1 as shown in FIG. 1 (FIG. 1) to create a volume model. The processing procedure is shown in Algorithm 1 of FIG. FIG. 2 shows an example of creating a volume model from a surface model.

<投影図化ステップ>
このステップは、得られた3次元モデルを複数の方向からスキャニングして複数の2次元投影図(以下、投影データと呼ぶ場合もある)を得るステップである。
ここで複数の方向とは、任意に選択される方向であるが、いわゆる6面方向に加えて物体の形状や部品の数等に応じて設定される。
スキャニングに際しては、「投影」を実装し、3 次元モデルから投影データを得る。
従来の手法では、モデルが同じシルエットや多視点画像であり、アセンブリ構造が異なる場合に正しくマッチングを行うことは難しい。そこで本発明においては、対象をアセンブリモデルであっても正確に構造などを把握し、精度の高い検索を実現するため、シルエットではなく投影データを求め、それらを特徴量として用いる。
投影データにはシルエットや多視点画像のようにモデルの形状の情報に加え、内部情報も含まれるため、アセンブリ構造を考慮することが可能である。3 次元モデルから投影データを得るため、図1に示すように3次元モデルを 0 ≦η<π、0≦ζ<2πの範囲で適当な間隔で回転させ、投影面 S に垂直な和を求め、投影データを得る。投影データを求める処理の流れを Algorithm2 に示す。
<Projection mapping step>
In this step, the obtained three-dimensional model is scanned from a plurality of directions to obtain a plurality of two-dimensional projection diagrams (hereinafter also referred to as projection data).
Here, the plurality of directions are directions that are arbitrarily selected, but are set according to the shape of the object, the number of parts, and the like in addition to the so-called six-plane direction.
When scanning, “projection” is implemented and projection data is obtained from the 3D model.
In the conventional method, it is difficult to perform matching correctly when the model is the same silhouette or multi-viewpoint image and the assembly structure is different. Therefore, in the present invention, even if the target is an assembly model, in order to grasp the structure and the like accurately and realize a highly accurate search, projection data is obtained instead of silhouettes, and these are used as feature quantities.
Since the projection data includes internal information in addition to model shape information such as silhouettes and multi-viewpoint images, it is possible to consider the assembly structure. In order to obtain projection data from the 3D model, the 3D model is rotated at appropriate intervals in the range of 0 ≤ η <π and 0 ≤ ζ <2π as shown in Fig. 1, and the sum perpendicular to the projection plane S is obtained. To obtain projection data. The flow of processing for obtaining projection data is shown in Algorithm2.

<対象データ取得ステップ>
このステップは、別に検索対象の3次元CADデータを3次元モデル化し、検索対象となる3次元構造を示す2次元投影図が得られるようにスキャニングして対象投影図を得るステップである。
検索対象の3次元データは、クエリデータの投影データをクエリ投影データと呼ぶ場合もある。
このデータの3次元モデルも、上述のモデル化ステップと同様にして得ることができる。
また、本ステップにおける対象投影図を得る手法は上記投影図化ステップと同様にして行うことができる。
<Target data acquisition step>
In this step, 3D CAD data to be searched is separately converted into a 3D model and scanned so as to obtain a 2D projection showing the 3D structure to be searched to obtain the target projection.
For the three-dimensional data to be searched, the projection data of the query data may be referred to as query projection data.
A three-dimensional model of this data can also be obtained in the same manner as the modeling step described above.
Further, the method for obtaining the target projection map in this step can be performed in the same manner as in the projection mapping step.

<選出ステップ>
本ステップは、得られた複数の2次元投影図の中から対象投影図と最も高い相関性を有する2次元投影図を選出するステップである。
以下に詳述する。
3 次元モデルを 0°≦η<180°、0°≦ζ<360°の範囲で投影計算し、保存したものを 3 次元モデルデータベースとする。クエリデータは内部構造が未知の 3 次元モデルとして扱い、その 3 次元モデルはどのような状態で存在しているか不明なものとする。もっとも高い相関性を有する2次元投影図を選出する、いわゆるマッチングでは 3 次元モデルデータベースに保存されている投影データとクエリ投影データの全てについて求められる相関値によって同一かどうかの判別を行う。
本発明では、3 次元モデルから得られた投影データを用いてマッチングを行う。3 次元モデルの投影データはη、ζの組み合わせから求まるため、3 次元モデルデータベースに保存される投影データを細かい間隔で計算することで、3 次元モデルデータベースと同一の 3 次元モデルのクエリ投影データが入力された場合、ほぼ同一のものが存在する可能性が高くなる。しかし、3 次元モデルデータベースのサイズが大きくなるにつれ、マッチング精度が向上する一方処理時間も膨大となってしまう。
その問題を解消するため、本発明では得られた投影データに対し、ラドン変換を用いた回転角検出を用いる。ラドン変換を用いた回転角検出は従来、図8のような同一な 2つの画像に対して行われる。2つの対象の回転量を平行移動量に置き換え、その平行移動量を位相限定相関法によって求める。高い相関値が検出されると、その相関値の座標から回転量が検出される。
即ち、従来は、
・高い相関値が検出された →回転角を求める
というアルゴリズムの流れである。
一方、本発明では姿勢検出ではなくデータの検出が目的であるため、
・高い相関値が検出された→検出されるということはクエリデータが存在する。
というアルゴリズムの流れにした。
その為、本発明では図8のような同一画像ではなく、図9のような、似ている投影画像の回転角検出を行う。この手法を用いることで、保存されている投影データとクエリ投影データが多少異なる場合でも、高い相関値が検出され、同一物体の投影であると判断することができる。
<Selection step>
This step is a step of selecting a two-dimensional projection diagram having the highest correlation with the target projection diagram from the obtained two-dimensional projection diagrams.
This will be described in detail below.
The 3D model is projected and calculated in the range of 0 ° ≦ η <180 ° and 0 ° ≦ ζ <360 °, and the stored one is used as the 3D model database. The query data is treated as a 3D model with an unknown internal structure, and it is unknown how the 3D model exists. In the so-called matching, which selects the two-dimensional projection map having the highest correlation, it is determined whether or not the projection data stored in the three-dimensional model database and the query projection data are the same based on the correlation values.
In the present invention, matching is performed using projection data obtained from a three-dimensional model. Since the projection data of the 3D model is obtained from the combination of η and ζ, the query projection data of the same 3D model as the 3D model database is obtained by calculating the projection data stored in the 3D model database at fine intervals. When input, there is a high possibility that almost the same thing exists. However, as the size of the 3D model database increases, matching accuracy improves while processing time increases.
In order to solve this problem, in the present invention, rotation angle detection using Radon transform is used for the obtained projection data. Conventionally, rotation angle detection using Radon transform is performed on two identical images as shown in FIG. The amount of rotation of the two objects is replaced with the amount of translation, and the amount of translation is obtained by the phase-only correlation method. When a high correlation value is detected, the rotation amount is detected from the coordinates of the correlation value.
That is, in the past,
・ High correlation value is detected → The algorithm flow is to obtain the rotation angle.
On the other hand, since the purpose of the present invention is not the posture detection but the data detection,
-A high correlation value is detected-> it is detected that there is query data.
The algorithm flow.
For this reason, in the present invention, the rotation angle of a similar projected image as shown in FIG. 9 is detected instead of the same image as shown in FIG. By using this method, even when the stored projection data and the query projection data are slightly different, a high correlation value is detected and it can be determined that the projections are the same object.

また、本発明においては、相互部分空間法を用いて、又は上記の手法に組み合わせて上記マッチングを行うことも可能である。
相互部分空間法とは、1985 年に前田らによって提案された部分空間法の拡張である。相互部分空間法では、複数の入力データが利用できる場合に適用される。入力パターンから特徴を抽出して入力部分空間を作り、それと辞書として登録された各クラスの部分空間とがなす最小角度 θ1 に基づいて識別を行う。相互部分空間法では M 次元部分空間 V と N 次元部分空間
U (M≦N) のなす最小角度の余弦を以下で定義し、これを類似度とする。
この角度 θ1 は、以下で定義される行列 S の最大固有値となる。
また 2 つの部分空間をなす角度である正準角を用いて相互部分空間法を一般化する。M 次元空間 V と N 次元空間 U の間には N 個の正準角が定義できる。ここで、un(1≦n≦N )、 vm(1≦m≦M) は、それぞれ正規直交基底である。第 2 正準角 θ2 は、第1正準角 θ1 に直交する方向において測った最小角、第 3 正準角 θ3 は θ1 と θ2 に直交する方向で測った最小角である。以下同様に N 個の正準角が順次求まる。これを式で書くと次のようになる。
ここで、ui ∈ U 、 vi ∈ V 、 ||ui ||≠0、 || vi ||≠0、 ui⊥uj (= 1
、 . . . 、 i - 1)、 vi⊥vj (= 1、 . . . 、 i - 1) である。また、上記式 (4) の第i 番目に大きい固有値が第 i 正準角 θi に対する cos2θi となる。
2 つの部分空間の構造的な類似性を測る尺度として、第 n 正準角まで考慮した類似度 S [n] (n ≧1) を次のように定義する。
本発明では第一正準角 cos2θ1 と S [n] を用いてマッチングを行い、両者の比較を行う。
In the present invention, the matching can be performed using the mutual subspace method or in combination with the above-described method.
The mutual subspace method is an extension of the subspace method proposed by Maeda et al. The mutual subspace method is applied when a plurality of input data can be used. Features are extracted from the input pattern to create an input subspace, and identification is performed based on the minimum angle θ1 formed by the subspace of each class registered as a dictionary. In the mutual subspace method, the M-dimensional subspace V and the N-dimensional subspace
The cosine of the minimum angle formed by U (M ≦ N) is defined below, and this is the similarity.
This angle θ1 is the maximum eigenvalue of the matrix S defined below.
We also generalize the mutual subspace method using the canonical angle, which is the angle between the two subspaces. N canonical angles can be defined between M-dimensional space V and N-dimensional space U. Here, un (1 ≦ n ≦ N) and vm (1 ≦ m ≦ M) are orthonormal bases, respectively. The second canonical angle θ2 is the minimum angle measured in the direction orthogonal to the first canonical angle θ1, and the third canonical angle θ3 is the minimum angle measured in the direction orthogonal to θ1 and θ2. In the same manner, N canonical angles can be obtained sequentially. This can be written as follows:
Where ui ∈ U, vi ∈ V, || ui || ≠ 0, || vi || ≠ 0, ui⊥uj (= 1
,..., I-1), vi⊥vj (= 1,..., I-1). In addition, the i-th largest eigenvalue in the above equation (4) is cos 2 θi with respect to the i-th canonical angle θi.
As a measure to measure the structural similarity between two subspaces, we define the similarity S [n] (n ≧ 1) considering the nth canonical angle as follows.
In the present invention, matching is performed using the first canonical angle cos 2 θ 1 and S [n], and the two are compared.

さらに本発明では、非線形的なパターン分布の識別の効果的な手法として知られている核非線形相互部分空間法を利用することもできる。かかる核非線形相互分空間法は Scholkopfが提案したカーネル主成分分析を相互部分空間法へと適用したものである。徴空間への非線形写像を: RN→ F と定義する。特徴ベクトルであるベクトルx を特徴空間へ写像すると (ベクトルx) となる。F は高次元もしくは無限次元であるため直接これらの内積を求めることは難しい。そこでカーネル主成分分析を用いることで、有限時間で計算を行えるようにした。クラス V と U の特徴空間上のベクトルを Vi (1≦i ≦m)、Uj (1≦j ≦n) とすると、それらの内積は次式で求められる。

ここで k(-, -) はカーネル関数、{αl }i,{α′l′ }j は係数であり、特徴ベクトルであるベクトルxvl,ベクトルxul′ から求まる。ベクトルxvl,ベクトルxul′ は V 、U の特徴ベクトルである。具体的にカーネル主成分分析で求められた基底同士の角度を計算するためには、数4の数式に代入すればよい。
Further, in the present invention, a nuclear nonlinear mutual subspace method known as an effective technique for identifying a nonlinear pattern distribution can be used. This nuclear nonlinear mutual subspace method is an application of the kernel principal component analysis proposed by Scholkopf to the mutual subspace method. We define a non-linear mapping to the collection space as: RN → F. When the vector x which is a feature vector is mapped to the feature space, (vector x) is obtained. Since F is high-dimensional or infinite-dimensional, it is difficult to directly find these inner products. Therefore, by using Kernel Principal Component Analysis, calculation can be performed in finite time. If the vectors on the feature space of classes V and U are Vi (1 ≤ i ≤ m) and Uj (1 ≤ j ≤ n), the inner product of them can be obtained by the following equation.

Here, k (-,-) is a kernel function, {αl} i, {α′l ′} j is a coefficient, and is obtained from a vector xvl and a vector xul ′ that are feature vectors. The vectors xvl and xul ′ are V and U feature vectors. Specifically, in order to calculate the angle between the bases obtained by the kernel principal component analysis, it may be substituted into the mathematical formula of Equation 4.

本発明において核非線形相互部分空間法を用いてマッチングを行う場合について詳述する。
上述の投影図化ステップにある方法で投影データを求め、この複数枚の投影データを用いて相互部分空間法によりマッチングを行なうと、角度により投影データは大きく異なり、非線形的な分布になり、相互部分空間法にそのまま投影データと認識率が低くなってしまう。この点を改善することができる。また 3 次元モデルが平行移動していてもマッチングできるように投影データをフーリエ変換したものや重心による位置合わせを用いる。
・重心による位置合わせ
本発明では、3 次元モデルが平行移動していてもマッチングできるようにするために、フーリエ変換を用いた場合と重心による位置合わせを用いる2通りで実験を行なった。本節では重心による位置合わせについて述べる。投影データ一枚一枚の重心を求め、その重心の位置を画像の中心に合わせるように移動させる。ここで投影データの位置 (xn, yn)(1≦n≦N ) における値を f (xn, yn) とすると投影データの画像の重心 (xg , yg ) は、以下の様に定義する。

こうして求められた重心の座標 (xg , yg ) を投影データの中心に合わせる。
なお、これらのデータは、.ply 形式のファイルであり、.ply 形式のファイルは3次元モデルの頂点座標を格納している。モデル化ステップにおいて、このサーフィスデータをボリュームデータに変換するためにまず、頂点座標に対応する番地の3次元配列に重みとしてボクセルの値 1を格納する。このままでは内部は空の状態なので空の部分にも同じく値1を与えることでボリュームデータとする。また部分的に内部の重みの値を1以外に変更することで内部構造の違いとした。今回の実験では重み (ボクセルの値) を20〜45に変更したモデルを作成した。
The case where matching is performed using the nuclear nonlinear mutual subspace method in the present invention will be described in detail.
When the projection data is obtained by the method in the projection mapping step described above and matching is performed by the mutual subspace method using the plurality of projection data, the projection data varies greatly depending on the angle and becomes a non-linear distribution. In the subspace method, the projection data and the recognition rate are lowered as they are. This point can be improved. In addition, the projection data is Fourier-transformed so that matching can be performed even if the 3D model moves in parallel, and alignment by the center of gravity is used.
-Alignment by Center of Gravity In the present invention, in order to enable matching even when the three-dimensional model is moved in parallel, experiments were performed in two ways using the Fourier transform and using alignment by the center of gravity. This section describes the alignment based on the center of gravity. The center of gravity of each piece of projection data is obtained and moved so that the position of the center of gravity matches the center of the image. Here, assuming that the value at the position (xn, yn) (1 ≦ n ≦ N) of the projection data is f (xn, yn), the centroid (xg, yg) of the image of the projection data is defined as follows.

The coordinates (xg, yg) of the center of gravity obtained in this way are aligned with the center of the projection data.
These data are .ply format files, and the .ply format files store the vertex coordinates of the 3D model. In the modeling step, in order to convert the surface data into volume data, first, the voxel value 1 is stored as a weight in a three-dimensional array of addresses corresponding to the vertex coordinates. Since the inside is empty as it is, volume data is obtained by assigning the value 1 to the empty portion as well. In addition, the internal structure was changed by partially changing the internal weight value to a value other than 1. In this experiment, a model was created in which the weight (voxel value) was changed to 20-45.

(学習フェーズ)
具体的にはまず辞書側となる 3 次元モデルに対し、3 次元ラドン変換により投影データをηが0°≦ζ<180°の範囲で、 η を 0°≦ζ<360°の範囲で 適当な間隔をあけて複数枚求める。投影データは複数の画像の集まりである。次に 3 次元モデルが平行移動していてもマッチングできるようにフーリエ変換もしくは重心による位置合わせをおこなう。次に相互部分空間法を用いてマッチングするために投影データから辞書側の部分空間を構成する。
投影データの画像一枚一枚をベクトル化する。
このベクトル vi (1 ≦i ≦M) からカーネル関数を用いて行列Kv ij = k(ベクトルvi , ベクトルvj ) を作り、固有ベクトル αvを求める。この固有ベクトルを固有値の昇順にソートし、正規化する。相互部分空間法の場合はベクトル化したあとベクトルを並べた行列を固有値分解することで固有値と固有ベクトルを求める。固有値の大きい順に固有ベクトルをソートし、これから部分空間 V を構成する。ここで M はクエリの投影データの入力枚数である。
アルゴリズムを数9 に示す。
(Learning phase)
Specifically, for the three-dimensional model on the dictionary side, projection data is appropriate within the range of 0 ° ≦ ζ <180 ° and η within the range of 0 ° ≦ ζ <360 ° by three-dimensional radon transformation. Find multiple sheets at intervals. Projection data is a collection of a plurality of images. Next, perform the Fourier transform or alignment by the center of gravity so that matching can be performed even if the 3D model is translated. Next, a subspace on the dictionary side is constructed from the projection data for matching using the mutual subspace method.
Each image of projection data is vectorized.
A matrix K v ij = k (vector vi, vector vj) is created from the vector vi (1 ≦ i ≦ M) using a kernel function, and an eigenvector α v is obtained. The eigenvectors are sorted and normalized in ascending order of eigenvalues. In the case of the mutual subspace method, eigenvalues and eigenvectors are obtained by eigenvalue decomposition of a matrix in which vectors are arranged after vectorization. Sort the eigenvectors in descending order of eigenvalues, and construct the subspace V from this. Here, M is the number of input query projection data.
The algorithm is shown in Equation 9.

(分類フェーズ)
学習フェーズと同様にクエリ側のクラス μ の 3 次元モデルの投影データをそれぞれ作成する。投影データから基底ベクトル uu j(1 ≦j≦N ) を作り、これからカーネル関数を用いて行列Kuを作り、固有ベクトル αuを求める。この固有ベクトルを固有値の昇順にソートし、正規化する。学習フェーズで求めた固有ベクトル αvと入力データをベクトル化した vi を数7の式に代入することで数4の行列 S を作る。但しすべての固有ベクトルを利用するのではなく、辞書側、入力側からそれぞれ設定した本数のベクトルを用いることができる。この行列の最大固有値から cos2θ1 と S [n] を求め、この値の最も高いクラスにクエリを分類する。
相互部分空間法の場合は学習フェーズと同様に基底ベクトルを並べて行列を作り、固有値分解して求めた固有値の順に固有ベクトルをソートし、正規化する。学習フェーズで求めた固有ベクトルと分類フェーズで求めた固有ベクトルを求めればよい。
アルゴリズムを数10に示す。
(Classification phase)
Similar to the learning phase, the projection data of the 3D model of the class μ on the query side is created. A basis vector u u j (1 ≦ j ≦ N) is created from the projection data, and a matrix Ku is created from this using a kernel function to obtain an eigenvector αu. The eigenvectors are sorted and normalized in ascending order of eigenvalues. By substituting the eigenvector αv obtained in the learning phase and vi obtained by vectorizing the input data into the formula (7), the matrix S of the formula (4) is created. However, not all eigenvectors are used, but the number of vectors set from the dictionary side and the input side can be used. Find cos 2 θ1 and S [n] from the largest eigenvalue of this matrix, and classify the query into the class with the highest value.
In the case of the mutual subspace method, as in the learning phase, the base vectors are arranged to form a matrix, and the eigenvectors are sorted and normalized in the order of eigenvalues obtained by eigenvalue decomposition. The eigenvector obtained in the learning phase and the eigenvector obtained in the classification phase may be obtained.
The algorithm is shown in Equation 10.

<表示ステップ>
このステップは、選出した2次元投影図が得られた3次元CADデータにアクセスして、当該3次元CADデータを検索結果として表示するステップである。
このステップは、データベースに存在する多数の3次元CADデータの中から目的とするCADデータを選択し、該当するCADデータを画面上に表示し、適宜編集や別名での保存が可能となるよう処理するものであり、通常の手法を特に制限なく用いることができる。
<Display step>
This step is a step of accessing the three-dimensional CAD data from which the selected two-dimensional projection map is obtained and displaying the three-dimensional CAD data as a search result.
In this step, target CAD data is selected from a large number of three-dimensional CAD data existing in the database, the corresponding CAD data is displayed on the screen, and can be appropriately edited and saved under a different name. Therefore, a normal method can be used without any particular limitation.

上述のように、本発明の検索方法は、アセンブリモデルの周囲から一様に投影を取って、データベースに格納するので投影の数が多い程検索精度は高くなる。
また、検索対象のモデルが与えられたら、ランダムな角度から適当な枚数の投影を取る。ここで、データベース中のモデルに対する投影方法と同じである必要はないが、ここでも投影の数が多い程検索精度は高くなる。
検索対象のモデルから投影データを一枚選び、それと最も高い相関値を持つ投影データをデータベース中から検索する。これらの一連の操作を全ての投影データについて行い、検索対象のモデルの投影データのどれかと最も高い相関値を持つ、データベース中の投影データを選び、その元のアセンブリモデルを検索結果とする。
ここで、以下の様な問題があるところ、本発明ではこれらの問題を解消したものであり、この点において特徴的である。
[上述の検索方法における問題点]
・回転に関する問題
投影角度の違いによって同じアセンブリモデルでも投影は異なる。投影角度の違いが小さくなるようにアセンブリモデルあたりの投影データの数が多くすると検索精度は高くなるが、処理時間やデータ容量が大きくなる。
・並行移動に関する問題
アセンブリモデルの投影を取る際、モデルの位置によって投影の位置もずれる。
[本発明において採用された解決策]
・2枚の投影データを比較する際、それぞれをラドン変換し位相限定相関法によって相関値を求める。ラドン変換とフーリエ変換とを併用することによって回転と並行移動に関する問題を解決することができる。投影角度の影響を小さくできるため、必要な投影データの枚数を少なくすることができる。
<その他>
以上の各ステップの他、必要に応じて他のステップを導入することもできる。
As described above, the search method of the present invention takes projections uniformly from the periphery of the assembly model and stores them in the database. Therefore, the search accuracy increases as the number of projections increases.
When a model to be searched is given, an appropriate number of projections are taken from a random angle. Here, it is not necessary to be the same as the projection method for the model in the database, but here the search accuracy increases as the number of projections increases.
One piece of projection data is selected from the model to be searched, and projection data having the highest correlation value is searched from the database. A series of these operations are performed on all projection data, and the projection data in the database having the highest correlation value with any of the projection data of the model to be searched is selected, and the original assembly model is used as the search result.
Here, there are the following problems. In the present invention, these problems are solved, and this point is characteristic.
[Problems in the above search method]
・ Problems related to rotation Projection varies depending on the projection angle even in the same assembly model. If the number of projection data per assembly model is increased so that the difference in projection angle is reduced, the search accuracy increases, but the processing time and data capacity increase.
・ Problems related to parallel movement When taking the projection of the assembly model, the position of the projection is also shifted depending on the position of the model.
[Solution adopted in the present invention]
When comparing two projection data, radon conversion is performed for each and the correlation value is obtained by the phase-only correlation method. By using the Radon transform and the Fourier transform together, the problems related to rotation and parallel movement can be solved. Since the influence of the projection angle can be reduced, the number of necessary projection data can be reduced.
<Others>
In addition to the above steps, other steps can be introduced as necessary.

以上本発明の3次元CADデータ検索方法について説明したが本発明はこれらに制限されるものではなく、本発明の趣旨を逸脱しない範囲で種々変更可能である。   Although the three-dimensional CAD data search method of the present invention has been described above, the present invention is not limited to these, and various modifications can be made without departing from the spirit of the present invention.

以下、本発明を実施例によりさらに具体的に説明するが、本発明はこれらに制限されるものではない。 Hereinafter, the present invention will be described more specifically with reference to examples, but the present invention is not limited thereto.

〔実施例1〕
実験に使用したデータを表 1 にまとめる。
実験で用いた 3 次元モデルデータベースには、 0°≦η≦180°、 0°≦ζ≦360°の範囲を
・η= 0°、5°、10°・・・・175°、ζ= 0°、5°、10°・・・・355°のように 5°間隔で計算されている 36×72 = 2592 枚の投影が保存されている 3 次元モデルデータベース DB1
・10°間隔で計算されている 18×36 = 648 枚の投影が保存されている 3 次元モデルデータベース DB2
・20°間隔で計算されている 9×18 = 162 枚の投影が保存されている 3 次元モデルデータベース DB3
をそれぞれ用意した。ここでのη、ζは図 1 に示す通りである。
[Example 1]
The data used for the experiment is summarized in Table 1.
In the 3D model database used in the experiment, the ranges of 0 ° ≦ η ≦ 180 ° and 0 ° ≦ ζ ≦ 360 ° are as follows: • η = 0 °, 5 °, 10 ° ··· 175 °, ζ = 0 3D model database DB1 that stores 36 × 72 = 2592 projections calculated at 5 ° intervals such as °, 5 °, 10 ° ... 355 °
・ 3D model database DB2 that stores 18 × 36 = 648 projections calculated at 10 ° intervals
・ 9 × 18 = 162 projections calculated at 20 ° intervals 3D model database DB3
Prepared. Here, η and ζ are as shown in FIG.

実験では、クエリデータとして表 1 の中の 3 次元モデルから1 つ選び、その 3 次元モデルの投影データを0°≦η≦180°、 0°≦ζ≦360°の範囲でランダムに求める。また、クエリデータは 1 枚ではなく、複数枚使用する実験も行い、精度と処理時間の評価も行った。求めたクエリの投影データと 3 次元モデルデータベースを提案手法 4. 4 を用いて、全ての組み合わせの相関値を求める。求められた相関値の高さから、クエリデータと 3 次元モデルデータベースが同一かどうかを判断する。実験に用いたクエリデータの例を表 2 に、実験結果を表 3 のようにまとめる。表 7〜18 では表のスペースの関係上 Query をQ、TABLE を TA、HUMAN を HU、SPIDER を SP と省略した。また表中で、正しくマッチングできていない組み合わせの相関値のセルを網掛けにした。 In the experiment, one of the three-dimensional models in Table 1 is selected as query data, and projection data of the three-dimensional model is randomly obtained in the range of 0 ° ≦ η ≦ 180 ° and 0 ° ≦ ζ ≦ 360 °. In addition, we conducted experiments using multiple query data instead of one, and evaluated accuracy and processing time. Using the proposed query projection data and 3D model database, the proposed method 4.4 is used to find correlation values for all combinations. Judge whether the query data and the 3D model database are the same from the height of the calculated correlation value. Examples of query data used in the experiment are summarized in Table 2, and the experimental results are summarized in Table 3. In Tables 7 to 18, Query is abbreviated as Q, TABLE as TA, HUMAN as HU, and SPIDER as SP because of the table space. In the table, the correlation value cells that are not correctly matched are shaded.

DB1 と様々な枚数のクエリ投影データと相関値検出を行った結果、クエリ投影データの枚数が 1 枚と少ない場合、相関値が非常に低く、TABLE1-1 と TABLE1-2 のように内部構造が非常に似ている 2 つの相関値に差が無く正しくマッチングを行えていない。クエリ投影データの枚数が多いほど、より高い相関値が検出され、正しい 3 次元データマッチングが行えていることがわかる。しかし、TABLE1-1 と TABLE1-2、TABLE2-1と TABLE2-2 のように内部構造が似ている場合他の TABLEや HUMAN、SPIDER のように全く異なる 3 次元モデルデータベースとの相関値と比べて高くなることがわかる。一方、クエリ投影データが増えるにつれ、処理時間が膨大となってしまうという問題点もあった。
DB2 と様々な枚数のクエリ投影データと相関値検出を行った結果、クエリ投影データの枚数が 1 枚と少ない場合、相関値が非常に低く、TABLE1-1 と TABLE1-2 のように内部構造が非常に似ている 2つの相関値に差が無く正しくマッチングを行えていない。また、TABLE1-3 と TABLE2-1 のように外見も内部構造も大きく異なる 2 つから最大の相関値が検出されてしまっている。DB1 と同様に TABLE1-1 と TABLE1-2、TABLE2-1 と TABLE2-2 のように内部構造が似ている場合、他の TABLE や HUMAN、SPIDER のように全く異なる 3 次元モデルデータベースとの相関値と比べて高くなることがわかる。
DB3 と様々な枚数のクエリ投影データと相関値検出を行った結果、クエリ投影データの枚数が 1 枚の場合 DB1、DB2 と同様に、内部構造が似ている場合、相関値が低くなってしまい、正しくマッチングを行えない。
クエリ投影データが 1 枚の場合、3 次元モデルデータベースのサイズに関わらず相関値が低くなってしまった。また、3 次元モデルデータベースのサイズに関わらず、マッチング率が非常に低い。
クエリ投影データが 4 枚の場合、相関値は 1 枚の場合よりも高くなり、正しくマッチングが行える。ランダムに得る投影データによっては、正しくマッチングが行えない場合があったが、クエリ投影データが 1 枚の場合よりも正しいマッチングが行える確率は上がる。
クエリ投影データが 9 枚の場合、相関値は 1 枚、4 枚の場合よりも高くなり、正しくマッチングが行える。ランダムに得る投影データによっては、正しくマッチングが行えない場合があったが、クエリ投影データが 1 枚、4 枚の場合よりも正しくマッチングが行える確率は上がる。また、3 次元モデルデータベースのサイズが大きいほど精度は上がるが、処理時間も増える。
クエリ投影データが 16 枚の場合、保存されている投影データが比較的多い DB1、DB2 では正しいマッチングをほぼ確実に行えるが、処理時間が膨大となってしまった。
今回の評価実験で、クエリ投影データをランダムな角度で求めたが、クエリ投影データによっては正しくマッチングが行われなかった。表 4 にそれぞれの 3 次元モデルデータベースとクエリ投影データの枚数についてのマッチング率を示す。表 4から、3 次元モデルデータベースのサイズが小さく、またクエリ投影データの枚数が少ないと、マッチング率が低下し、正しくマッチングが行われていないことがわかる。これは、クエリ投影データがランダムな角度で求められることから、 3 次元モデルデータベースに保存されている投影データとクエリ投影データの回転角検出が正しく行われず、相関値が低くなってしまったことが原因と考えられる。
この点本発明においては、クエリの投影を多数利用すれば高い精度でマッチングできることが分かった。
As a result of correlation value detection with DB1 and various numbers of query projection data, if the number of query projection data is as small as one, the correlation value is very low, and the internal structure is similar to TABLE1-1 and TABLE1-2. There is no difference between two very similar correlation values and matching is not performed correctly. It can be seen that the higher the number of query projection data, the higher the correlation value is detected, and the correct 3D data matching is performed. However, when the internal structure is similar, such as TABLE1-1 and TABLE1-2, TABLE2-1 and TABLE2-2, compared with the correlation value with a completely different 3D model database such as TABLE, HUMAN, or SPIDER. It turns out that it becomes high. On the other hand, there is a problem that the processing time becomes enormous as the query projection data increases.
As a result of correlation value detection with DB2 and various numbers of query projection data, if the number of query projection data is as small as one, the correlation value is very low, and the internal structure is similar to TABLE1-1 and TABLE1-2. There is no difference between two very similar correlation values, and matching is not performed correctly. In addition, the maximum correlation value has been detected from the two that differ greatly in appearance and internal structure like TABLE1-3 and TABLE2-1. Similar to DB1, if the internal structure is similar, such as TABLE1-1 and TABLE1-2, TABLE2-1 and TABLE2-2, the correlation value with a completely different 3D model database such as TABLE, HUMAN, or SPIDER It turns out that it becomes high compared with.
As a result of correlation value detection with DB3 and various numbers of query projection data, if the number of query projection data is 1, as in DB1 and DB2, the correlation value will be low if the internal structure is similar. , Can not match correctly.
When there is one query projection data, the correlation value is low regardless of the size of the 3D model database. The matching rate is very low regardless of the size of the 3D model database.
When the query projection data is 4, the correlation value is higher than that of 1 and the matching can be performed correctly. Depending on the projection data obtained at random, matching may not be performed correctly, but the probability of correct matching is higher than when only one query projection data is used.
When the query projection data is 9, the correlation value is higher than that of 1 or 4 images, and matching can be performed correctly. Depending on the projection data obtained at random, the matching may not be performed correctly, but the probability that the matching can be performed correctly is higher than when the query projection data is one or four. In addition, the larger the size of the 3D model database, the higher the accuracy but the processing time.
In the case of 16 query projection data, correct matching is almost certainly possible with DB1 and DB2, which have relatively many stored projection data, but the processing time has become enormous.
In this evaluation experiment, query projection data was obtained at random angles, but matching was not performed correctly depending on the query projection data. Table 4 shows the matching rate for each 3D model database and the number of query projection data. Table 4 shows that if the size of the 3D model database is small and the number of query projection data is small, the matching rate decreases and matching is not performed correctly. This is because the query projection data is obtained at random angles, so the rotation angle between the projection data stored in the 3D model database and the query projection data is not correctly detected, resulting in a low correlation value. Possible cause.
In this regard, in the present invention, it has been found that matching can be performed with high accuracy by using many query projections.

ここではマッチングの処理時間について表5及び6に示す。
計算環境は表 6 である。表 5 から処理時間は処理枚数に比例して増加することがわかる。マッチング率 (表 4) と処理時間 (表 5) から今回の実験で適切な 3 次元モデルデータベースとクエリ投影データの枚数は 10°間隔で計算されている 18×36 = 648 枚であり、クエリ投影データの枚数は 9 枚 であると判断した。
Here, the processing time of matching is shown in Tables 5 and 6.
Table 6 shows the calculation environment. Table 5 shows that the processing time increases in proportion to the number of processed sheets. Based on the matching rate (Table 4) and processing time (Table 5), the number of appropriate 3D model database and query projection data in this experiment is 18 × 36 = 648, which is calculated at 10 ° intervals. The number of data was determined to be nine.

以上示したように、本発明の3次元CADデータ検索方法は、投影データを用いることで、従来の手法では考慮することのできない、内部構造を含めたマッチングを行うことができ、実験により適切なクエリ投影データの枚数、3 次元モデルデータベースの構成枚数を評価した。 As described above, the 3D CAD data search method of the present invention can perform matching including the internal structure, which cannot be taken into consideration by the conventional method, by using projection data. We evaluated the number of query projection data and the number of 3D model databases.

〔実施例2〕
投影データを用いることの有効性を相互部分空間法及び核非線形相互部分空間法による類似度によって評価する。なお、実験は MATLAB2012 を Xenon E31245 3.3GHz、メインメモリ16Gb のマシン上で行った。また実験データのサーフィスデータは McGill 3D Shape Benchmark [9] の公開データセットを用いた。これに前章の変換を施してボリュームデータとした。
マッチングのサンプルとしては上述のボリュームデータを用いた。この中からクエリの部分空間を構成するための入力枚数 R を 50 〜 200 で変化させ類似度の推移を調べた。データベースの 3 次元モデルには
(1) 同一のモデル
(2) 回転移動させたモデル
(3) 平行移動させたモデル
(4) 回転及び平行移動させたモデル
(5) ボリュームデータの内部の値 (重み) を変えたモデル
の 5 種類を用いた。
核非線形相互部分空間を用いる際、辞書側部分空間の次元数rd、入力側部分空間次元数 ri、使用する正準角の数 nca、そしてスケールパラメーター s の 4 つがある。今回の実験では正準角の数は式 (5) の行列の行数、つまり辞書側部分空間の次元数rd と等しくした。rd = 6、ri = 5 として今回は主に実験を行った。
またカーネル関数としては下記のガウス型 RBFを用いた。
(Example 2)
The effectiveness of using projection data is evaluated by the similarity by mutual subspace method and nuclear nonlinear mutual subspace method. The experiment was performed on MATLAB 2012 on a machine with Xenon E31245 3.3GHz, main memory 16Gb. The surface data of the experimental data was the public dataset of McGill 3D Shape Benchmark [9]. This was converted to volume data by converting the previous chapter.
The volume data described above was used as a matching sample. Of these, the number of input R for constructing the query subspace was varied from 50 to 200, and the transition of similarity was examined. The 3D model of the database
(1) Same model
(2) Rotated model
(3) Translated model
(4) Rotated and translated model
(5) Five types of models with different internal values (weights) of volume data were used.
When using a nuclear non-linear mutual subspace, there are four dimensions: the dictionary-side subspace dimension number r d , the input-side subspace dimension number r i , the number of canonical angles used nca, and the scale parameter s. In this experiment, the number of canonical angles was made equal to the number of rows in the matrix in equation (5), that is, the number of dimensions r d in the dictionary side subspace. The experiment was mainly performed this time with r d = 6 and r i = 5.
The following Gaussian RBF was used as the kernel function.

スケールパラメーターは σ の値を決定するのに用いる。具体的には投影データから得られるベクトルを平均を計算しこれにスケールパラメーター s を乗じたものを σ とした。また精度の比較のために相互部分空間法を用いて同様の実験も行なった。相互部分空間法の場合は比較するモデルそれぞれの投影データから求めたベクトルを並べて行列を作る。その行列の固有ベクトルを式 (5) に代入することで類似度を求めた。 The scale parameter is used to determine the value of σ. Specifically, the average obtained from the vector obtained from the projection data and multiplied by the scale parameter s is defined as σ. A similar experiment was also performed using the mutual subspace method for accuracy comparison. In the case of the mutual subspace method, vectors obtained from projection data of the models to be compared are arranged to form a matrix. The similarity was obtained by substituting the eigenvector of the matrix into Equation (5).

まず異なる複数のモデルに対し核非線形相互部分空間法(KMSM) 及び相互部分空間法 (MSM) を用いた結果を示す。
まずどのモデルも重みは加えていないものとの類似度の結果を示す。ここで table1-1-rot とは table1-1 を θ、φ ともに 5°だけ回転させたものである。これは投影データを 10°ずつとるため、最大誤差である 5°に設定した。実験の結果の数値は空間同士の角度 θ を用いて表される cos2θ1 の値及び、S [n] である。
今回辞書側部分空間の次元数 rd と等しい n = 6 とした。類似度は cos2θ1、S [n] ともに最大 1 である。
表 12 の table1-1 と table1-1-rot より回転していても同一の物体の類似度が最も高くなっていることが分かる。また R = 50を例に取ると MSM では table1-1 と table1-1-rot との類似度が0.9871 で、次に高い類似度は spider と human の 0.9746 と差があまりない。これに対し KMSM では table1-1 と table1-1rotとの類似度は 0.9492 で次に高い spiderto human との類似度は0.8176 となり差が大きく表される。類似の値の差から MSM に比べ KMSM のほうが識別性能が高いことが確認できる。
次に回転の差がどれほど類似度の差として現れるか評価した。
同一の物体に対して投影を撮り始める角度を 1°ずつ変えた場合の結果を示す。実験は table1-2 を用いて行った。
表 13 より回転の違いが大きいほど類似度の低下につながっている。KMSM の方が S [n]、cos2θ1 の値は MSM よりも小さい。しかし表 12 の human と spider という異なる物体の中でも最も高い類似度が cos2θ1 = 0.8176、 S [n] = 0.2505 である。
このことから例え最大誤差の 5°回転していても同一物体であると認識できることが分かる。またこれらの実験から cos2θ1の値を 0.9 をしきい値とし、それ以上であればマッチングするモデル、それ以下であれば異なるモデルと判断することにする。
次に平行移動や重みを加味したした場合の結果を示す。 table1-2 を平行移動したモデル table1-2-1 と、平行移動かつ回転したモデル table1-2-2 を用いた。具体的にはボリュームデータの値を 1 から 20 に変更した。
表 14 より平行移動があってもマッチングは可能だと言える。
また同一形状であれば平行移動かつ回転移動していても高い類似度を示している。しかし一方で table1-2 と table1-3 の 0.9573のように構造が異なるモデル同士でも高い類似度を示している。次に重心による位置合わせを施した場合の結果を示す。表15 より table1-2 と table1-3 の類似度が 0.7804 となっており、table1-2 と table1-2-2、つまり同一物体が移動、回転している場合の類似度よりも高くなっている。このことからフーリエ変換を施すよりも効果的であることが確認できる。
さらに重みであるボリュームデータの値を 20 〜 45 に変え、さらに重みのある脚の本数も変え実験を行った。
表 16 より、table1-2 と table1-4、5、6 との類似度は低くなっている。この結果から重みのある位置が異なればそれも類似度の差として現れている。表 14 の table1-2 と table1-2 の類似度が高くなるのは脚の違いが一つであり、重みが1箇所しか違わないからと考えられる。フーリエ変換を施すと、 重みの位置が異なる場合や、重みの値の差が大きい場合は正しくマッチングできることがわかる。
表 17 より table1-4 と table1-5 の類似度は 0.6189 となり、0.9 を下回っている。このことからフーリエ変換では誤ってマッチングしてしまうものも区別できることがわかる。
投影データの枚数 R = 50、 100、 200 に変化させ、類似度の値の推移を調べた。形状の異なる 3 次元モデルを重心による位置合わせを施して類似度を求めた。結果を以下に示す。
表 18、19、20 から投影データの枚数を増やすと類似度の値が増加する傾向にあることが分かる。
本発明の実行時間について示す。相互部分空間法を用いてマッチングを行う時間に比べ投影データの計算時間のほうが大きくかかることが分かる。
本発明の結果として、今回用いた3次元モデルにおいては回転、移動、または回転移動していてもマッチングできた。さらに机の脚の位置や重みを変更した単純な構造の異なるアセンブリモデルではマッチングできることが確認できた。
First, we show the results of using the nuclear nonlinear mutual subspace method (KMSM) and the mutual subspace method (MSM) for different models.
First, the results of the similarity between the models without weights are shown. Here, table1-1-rot is obtained by rotating table1-1 by 5 ° for both θ and φ. Since the projection data is 10 ° at a time, the maximum error is set to 5 °. The numerical value of the experimental result is the value of cos 2 θ1 expressed by using the angle θ between the spaces and S [n].
This time, we set n = 6 which is equal to the dimension r d of the dictionary side subspace. The maximum similarity is 1 for both cos 2 θ1 and S [n].
From Table1-1 and Table1-1-rot in Table 12, it can be seen that the similarity of the same object is the highest even when rotating. Taking R = 50 as an example, the similarity between table1-1 and table1-1-rot is 0.9871 in MSM, and the next highest similarity is not much different from 0.9746 of spider and human. On the other hand, in KMSM, the similarity between table1-1 and table1-1rot is 0.9492, and the similarity with the next highest spiderto human is 0.8176, indicating a large difference. From the difference of similar values, it can be confirmed that KMSM has higher discrimination performance than MSM.
Next, it was evaluated how much the difference in rotation appears as a difference in similarity.
The results are shown when the angle at which the projection is started for the same object is changed by 1 °. The experiment was conducted using Table1-2.
The greater the difference in rotation from Table 13, the lower the similarity. In KMSM, S [n] and cos 2 θ1 are smaller than MSM. However, the highest similarity among the different human and spider objects in Table 12 is cos 2 θ1 = 0.8176 and S [n] = 0.2505.
From this, it can be seen that the same object can be recognized even if it is rotated by 5 °, which is the maximum error. Also, from these experiments, the cos 2 θ1 value is 0.9 as a threshold value, and if it is more than that, it will be judged as a matching model, and if it is less, it will be judged as a different model.
Next, the result when parallel movement and weight are taken into account is shown. A model table1-2-1 translated from table1-2 and a model table1-2-2 translated and rotated were used. Specifically, the volume data value was changed from 1 to 20.
From Table 14, it can be said that matching is possible even with parallel movement.
Moreover, if the shape is the same, a high degree of similarity is shown even if the object is translated and rotated. However, on the other hand, models with different structures, such as table1-2 and table1-3 0.9573, show high similarity. Next, the result when the alignment based on the center of gravity is performed will be shown. From Table 15, the similarity between table1-2 and table1-3 is 0.7804, which is higher than the similarity when table1-2 and table1-2-2, that is, the same object is moving and rotating. . From this, it can be confirmed that it is more effective than performing Fourier transform.
Furthermore, we changed the value of the volume data, which is weight, to 20-45, and also changed the number of weighted legs.
Table 16 shows that the similarity between table1-2 and table1-4,5,6 is low. From this result, if the weighted position is different, it also appears as a difference in similarity. The reason why the similarity between Table1-2 and Table1-2 in Table 14 is high is that there is only one leg difference and the weight is different only in one place. When the Fourier transform is applied, it can be seen that matching is possible when the position of the weight is different or when the difference in the value of the weight is large.
From Table 17, the similarity between table1-4 and table1-5 is 0.6189, which is below 0.9. From this, it can be seen that the Fourier transform can also distinguish the erroneously matched ones.
The number of projection data was changed to R = 50, 100, and 200, and the transition of the similarity value was examined. Similarity was obtained by aligning the 3D models with different shapes by the center of gravity. The results are shown below.
It can be seen from Tables 18, 19, and 20 that the similarity value tends to increase as the number of projection data increases.
The execution time of the present invention will be described. It can be seen that the calculation time of the projection data is much longer than the time for matching using the mutual subspace method.
As a result of the present invention, the three-dimensional model used this time can be matched even if it is rotated, moved, or rotated. Furthermore, it was confirmed that matching was possible with assembly models with different simple structures with different positions and weights of the desk legs.

Claims (1)

コンピュータに、複数の3次元CADデータからなるデータ群から特定の3次元構造と類似する構造に係る3次元CADデータを特定するための検索を実行させる方法であって、
上記3次元CADデータを3次元モデル化するモデル化ステップ
得られた3次元モデルを複数の方向からスキャニングして複数の2次元投影図を得る投影図化ステップと、
別に検索対象の3次元CADデータを3次元モデル化し、検索対象となる3次元構造を示す2次元投影図が得られるようにスキャニングして対象投影図を得る対象データ取得ステップ
得られた複数の2次元投影図の中から対象投影図と最も高い相関性を有する2次元投影図を選出するステップであって、2次元投影図と対象投影図のそれぞれをラドン変換した後にフーリエ変換したものについて位相限定相関法によって相関値を求め、最も高い相関値が検出された2次元投影図を選出する選出ステップ
選出した2次元投影図が得られた3次元CADデータにアクセスして、当該3次元CADデータを検索結果として表示する表示ステップと、
をコンピュータに実行させる方法
A method of causing a computer to execute a search for specifying 3D CAD data relating to a structure similar to a specific 3D structure from a data group consisting of a plurality of 3D CAD data,
And modeling step of three-dimensional modeling the three-dimensional CAD data,
A projection mapping step of obtaining a plurality of two-dimensional projections by scanning the obtained three-dimensional model from a plurality of directions ;
Separately three-dimensional model of the three-dimensional CAD data to be searched, the target data obtaining step of obtaining a target projection drawing by scanning such that two-dimensional projection view showing a three-dimensional structure to be searched is obtained,
A step of selecting a two-dimensional projection having the highest correlation with the target projection from the obtained two-dimensional projections, and performing Fourier transform after each of the two-dimensional projection and the target projection the correlation value by the phase-only correlation method for those converted, and selecting step of the highest correlation value is selected the two-dimensional projection view is detected,
A display step of accessing the three-dimensional CAD data from which the selected two-dimensional projection is obtained and displaying the three-dimensional CAD data as a search result ;
To let the computer run .
JP2014032343A 2014-02-21 2014-02-21 3D CAD model similarity search method Active JP6342180B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014032343A JP6342180B2 (en) 2014-02-21 2014-02-21 3D CAD model similarity search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014032343A JP6342180B2 (en) 2014-02-21 2014-02-21 3D CAD model similarity search method

Publications (2)

Publication Number Publication Date
JP2015158752A JP2015158752A (en) 2015-09-03
JP6342180B2 true JP6342180B2 (en) 2018-06-13

Family

ID=54182708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014032343A Active JP6342180B2 (en) 2014-02-21 2014-02-21 3D CAD model similarity search method

Country Status (1)

Country Link
JP (1) JP6342180B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7075654B2 (en) * 2017-02-23 2022-05-26 東京都公立大学法人 3D CAD model partial search method and 3D CAD model search method
KR102149105B1 (en) * 2019-09-18 2020-08-27 세종대학교산학협력단 Mixed reality based 3D sketching device and method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187426A (en) * 1992-12-16 1994-07-08 Nippon Telegr & Teleph Corp <Ntt> Method and device for reconstituting sectional image
WO2001084500A2 (en) * 2000-04-28 2001-11-08 The Trustees Of Columbia University In The City Of New York Method for tomographic reconstruction with non-linear diagonal estimators
JP2002207777A (en) * 2001-01-10 2002-07-26 Toray Ind Inc Method for generating neutral plane model
WO2006058292A2 (en) * 2004-11-29 2006-06-01 Purdue Research Foundation Methods for retrieving shapes and drawings
JP4693454B2 (en) * 2005-03-29 2011-06-01 富士通株式会社 3D shape comparison program and 3D similar shape search program
JP4956983B2 (en) * 2005-12-14 2012-06-20 コニカミノルタホールディングス株式会社 Authentication system, authentication method and program
CN101350016B (en) * 2007-07-20 2010-11-24 富士通株式会社 Device and method for searching three-dimensional model
DE102009048302B4 (en) * 2009-10-05 2011-07-07 Siemens Aktiengesellschaft, 80333 Correction of truncations in MR imaging
WO2012114457A1 (en) * 2011-02-22 2012-08-30 株式会社日立製作所 Analytical model information delivery device and analytical model information delivery program

Also Published As

Publication number Publication date
JP2015158752A (en) 2015-09-03

Similar Documents

Publication Publication Date Title
Bimbo et al. Content-based retrieval of 3D models
Mitra et al. Symmetry in 3d geometry: Extraction and applications
Papadakis et al. PANORAMA: A 3D shape descriptor based on panoramic views for unsupervised 3D object retrieval
Mitra et al. Partial and approximate symmetry detection for 3d geometry
Gorelick et al. Shape representation and classification using the poisson equation
Rehman et al. Content based image retrieval: survey
US8015125B2 (en) Multi-scale segmentation and partial matching 3D models
Zhang et al. Dynamic time warping under pointwise shape context
CN103914571B (en) Three-dimensional model search method based on mesh segmentation
Liu et al. Computing the inner distances of volumetric models for articulated shape description with a visibility graph
JP2012043419A (en) Apparatus and method for three-dimensional model retrieval, and apparatus and method for model library generation
Xu et al. Shape similarity measurement model for holed polygons based on position graphs and Fourier descriptors
Daras et al. A compact multi-view descriptor for 3D object retrieval
Tang et al. Signature of geometric centroids for 3d local shape description and partial shape matching
Liu et al. Upright orientation of 3D shapes with convolutional networks
Li et al. Combining topological and view-based features for 3D model retrieval
JP6342180B2 (en) 3D CAD model similarity search method
Chaudhuri et al. Exploring flow fields using space-filling analysis of streamlines
Guo et al. SGLBP: Subgraph‐based local binary patterns for feature extraction on point clouds
Lu et al. Three-dimensional object recognition using an extensible local surface descriptor
Sael et al. Protein surface representation and comparison: New approaches in structural proteomics
Berger et al. Medial kernels
Razzaghi et al. A new invariant descriptor for action recognition based on spherical harmonics
Jiménez-Badillo et al. Developing a recognition system for the retrieval of archaeological 3D models
Feng et al. A Descriptor for Voxel Shapes Based on the Skeleton Cut Space.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170213

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180516

R150 Certificate of patent or registration of utility model

Ref document number: 6342180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250