JP2015176485A - Three-dimensional model characteristic extraction method and three-dimensional model annotation system - Google Patents

Three-dimensional model characteristic extraction method and three-dimensional model annotation system Download PDF

Info

Publication number
JP2015176485A
JP2015176485A JP2014053957A JP2014053957A JP2015176485A JP 2015176485 A JP2015176485 A JP 2015176485A JP 2014053957 A JP2014053957 A JP 2014053957A JP 2014053957 A JP2014053957 A JP 2014053957A JP 2015176485 A JP2015176485 A JP 2015176485A
Authority
JP
Japan
Prior art keywords
pixel
dimensional model
depth buffer
boundary
buffer image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014053957A
Other languages
Japanese (ja)
Other versions
JP6355372B2 (en
Inventor
将也 鈴木
Masaya Suzuki
将也 鈴木
淳司 立間
Junji Tatema
淳司 立間
青野 雅樹
Masaki Aono
雅樹 青野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyohashi University of Technology NUC
Original Assignee
Toyohashi University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyohashi University of Technology NUC filed Critical Toyohashi University of Technology NUC
Priority to JP2014053957A priority Critical patent/JP6355372B2/en
Publication of JP2015176485A publication Critical patent/JP2015176485A/en
Application granted granted Critical
Publication of JP6355372B2 publication Critical patent/JP6355372B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a characteristic extraction method for searching for a three-dimensional model by comparing characteristic values of a border pixel pattern of the three-dimensional model being searched (with those of a known three-dimensional model), and to provide an annotation system.SOLUTION: Characteristic values of a boundary pixel pattern is obtained by sorting differences between an observed pixel and adjacent pixels to positive and negative for each border pixel, and extracting a histogram of appearance frequency of each. Comparison of the characteristic values of the border pixel pattern involves assessing dissimilarity, in terms of sum of maximum values of appearance frequency histograms for the border pixels extracted from each depth buffer image, between a known three-dimensional model and a three-dimensional model being searched using all combinations of the multiple viewpoints as an index.

Description

本発明は、三次元物体モデルのデータベースを検索し特徴を抽出する方法、及びアノテーションシステムに関する。三次元モデルのアノテーションとは、三次元モデルに対して、その形状を表す複数のキーワードを自動的に付与する技術である。 The present invention relates to a method for searching a database of a three-dimensional object model and extracting features, and an annotation system. Annotation of a 3D model is a technology that automatically assigns a plurality of keywords representing the shape of a 3D model.

自動車製造業に代表される機械部品の製造業では、三次元物体の形状モデルを三次元CAD/CAMシステムで製作するのが通常業務として行われている。また、建設業界でも建物の外観・内装や建物周辺の風景を建立前にCGを使ってシミュレーションするために、三次元の建物モデル、部屋のモデル、家具や樹木などのモデルを作成することが広く行われている。さらに、アニメーションや映画、コマーシャルフィルムなどの作成にも、今では三次元CG技術は欠かせないものとなっている。   In the machine parts manufacturing industry represented by the automobile manufacturing industry, it is a common practice to manufacture a shape model of a three-dimensional object using a three-dimensional CAD / CAM system. Also, in the construction industry, it is widely used to create 3D building models, room models, furniture and tree models in order to simulate the exterior and interior of buildings and the surrounding landscape using CG before construction. Has been done. Furthermore, 3D CG technology is now indispensable for creating animation, movies, commercial films, and the like.

しかしながら、このような応用分野で、精緻な三次元モデルを最初に作成する場合、2次元の図形描画よりもはるかに多くの労力と時間を要する。そこで、これらの応用分野で、一度人手や三次元スキャナなどの補助手段で入力し作成した三次元モデルを、三次元物体モデル・データベースに保存しておき、類似した三次元物体の形状モデルを作成する場合に、類似した形状の物体モデルを再利用することで大幅なコスト削減がはかれると考えられる。   However, in such an application field, when an elaborate three-dimensional model is first created, much more labor and time are required than two-dimensional drawing. Therefore, in these application fields, a 3D model that has been input and created once by an auxiliary means such as a human or a 3D scanner is stored in the 3D object model database, and a similar 3D object shape model is created. In this case, it is considered that a significant cost reduction can be achieved by reusing an object model having a similar shape.

特許文献1に記載の技術は、ポリゴンを一定の大きさに分割し、分割されたポリゴンの面積と法線ベクトルから特徴量を定義して検索する方法である。正対(正規化)を行わない古い手法であるため、位置、向き、大きさに依存した検索となってしまい、形状が類似していても検索できない、という問題がある。   The technique described in Patent Document 1 is a method of dividing a polygon into a certain size and defining and searching for feature quantities from the areas of the divided polygons and normal vectors. Since this is an old method that does not perform the normal (normalization), the search depends on the position, orientation, and size, and there is a problem that the search cannot be performed even if the shapes are similar.

特許文献2に記載の技術は、二次元画像を検索キーとした三次元モデル類似検索手法であり、複数の二次元画像から得られる投影像あるいは断面像をもとに特徴量を計算し、これに基づき検索するものである。なお、この特許での特徴量とは、物体表面に実際に付随するテクスチャに対して算出できるRGB、HSV、Lab等の各色情報の値を量子化したヒストグラム、エッジ微分を量子化した形状ヒストグラム、三次元オブジェクトの体積や表面積、頂点分布、ポリゴン分布のヒストグラム等である。このことから、形が類似していても、色が違うものは検索できないという問題がある。また、特許文献1と同じく、正対(正規化)処理がなく、かつ、周波数空間でのスペクトルを使わない点で、投影パラメータ(断面生成パラメータ)依存性などの問題もあり、高い検索精度は出ないと考えられる。   The technique described in Patent Document 2 is a three-dimensional model similarity search method using a two-dimensional image as a search key, and calculates feature amounts based on projection images or cross-sectional images obtained from a plurality of two-dimensional images. Search based on. The feature amount in this patent is a histogram obtained by quantizing each color information value such as RGB, HSV, Lab, etc., which can be calculated for the texture actually attached to the object surface, a shape histogram obtained by quantizing the edge derivative, These include the volume, surface area, vertex distribution, and polygon distribution histogram of a three-dimensional object. For this reason, there is a problem that even if the shapes are similar, those having different colors cannot be searched. Also, as in Patent Document 1, there is a problem such as dependency on projection parameters (cross-section generation parameters) in that there is no facing (normalization) processing and spectrum in the frequency space is not used, and high search accuracy is high. It is thought that it does not come out.

非特許文献1では複数の手法が提案されているが、最も良い検索精度なのは、Hybrid Descriptorである。これは、6方向の深度バッファ画像を2次元フーリエ変換し、パワースペクトルを求め、それを特徴量とするものと、3方向のシルエット画像を2次元フーリエ変換し、パワースペクトルを求め、それを特徴量とする。そして、中心から放射状に物体表面と接するまでベクトルを放ち、そのベクトルを特徴量とするものの3つを組み合わせた手法である。スペクトル特徴量と幾何学特徴量を組み合わせた複合特徴量であり、高性能を達成した。Vranic氏が作成したシステム名のDESIREから、しばしばDESIRE特徴量(あるいは公開されているプログラム名からDSR472特徴量)と呼ばれる。しかし、スペクトルと幾何学特徴量はかなり異質なものであり、インデックスの管理が複雑化すること、また、深度バッファ画像やシルエット画像からは、物体内部の形状が捉えられないなどの問題点が残る。   Non-Patent Document 1 proposes a plurality of methods, but the best search accuracy is the Hybrid Descriptor. This is a two-dimensional Fourier transform of a depth buffer image in six directions to obtain a power spectrum, which is used as a feature value, and a two-dimensional Fourier transform of a silhouette image in three directions to obtain a power spectrum and characterize it. Amount. Then, a vector is emitted from the center until it touches the object surface in a radial manner, and this vector is used as a feature amount. It is a composite feature that combines spectral feature and geometric feature, and achieves high performance. From the system name DESIRE created by Mr. Vranic, it is often called a DESIRE feature (or a DSR472 feature from the published program name). However, the spectrum and geometric features are quite different, complicating index management, and the problem that the shape inside the object cannot be captured from depth buffer images and silhouette images remains. .

非特許文献2では、100以上の異なる方向から256×256のシルエット画像を生成し、10個のフーリエ係数と35個のツェルニケモーメント係数を求め、これを特徴量とする。類似度計算時に、ある類似しているシルエット画像同士の部分を比較する。この特徴量をLight Field Descriptor(あるいは略してLFD特徴量)と呼ぶ。100以上の方向からレンダリングするため、特徴量の作成時間が猛烈に必要である。シルエットだけから形状を近似するため、微細な形状を見つけられないこと、また、物体内部の特徴が捉えられないなどの問題がある。   In Non-Patent Document 2, a 256 × 256 silhouette image is generated from 100 or more different directions, 10 Fourier coefficients and 35 Zernike moment coefficients are obtained, and these are used as feature quantities. At the time of similarity calculation, parts of similar silhouette images are compared. This feature amount is referred to as a Light Field Descriptor (or LFD feature amount for short). Since rendering is performed from more than 100 directions, the creation time of the feature amount is extremely necessary. Since the shape is approximated only from the silhouette, there are problems such as being unable to find a fine shape and not being able to capture the features inside the object.

非特許文献3では、Stehlingらは、BIC (Border/Interior pixel Classification)によるコンテンツベースの画像検索手法を述べている。BICは、各画素を、注目画素と4近傍いずれかの画素値が異なるものを境界画素(Border)、注目画素と4近傍全ての画素値が同一であるものを内部画素(Interior)として分類し、それぞれで画素値の出現頻度によるヒストグラムを作成する。三次元モデル検索を目的としていないため、深度バッファなどを使わない。   Non-Patent Document 3 describes a content-based image search method using BIC (Border / Interior pixel Classification). The BIC classifies each pixel as a boundary pixel (Border) if the pixel value differs from any of the four neighboring pixels, and as an internal pixel (Interior) if the pixel value of all of the four neighboring pixels is the same. , And create a histogram based on the appearance frequency of the pixel values. Depth buffer is not used because it is not intended for 3D model search.

特開2002−41530号公報JP 2002-41530 A 特開2004−164503号公報JP 2004-164503 A

D.Vranic, 3D Model Retrieval. Ph.D. thesis, University of Leipzig, 2004.D. Vranic, 3D Model Retrieval. Ph.D. thesis, University of Leipzig, 2004. D-Y. Chen, X-P. Tian, Y-T. Shen, M. Ouhyoung, On Visual Similarity Based 3D Model Retrieval. Computer Graphics Forum (2003), 223-232.D-Y. Chen, X-P. Tian, Y-T. Shen, M. Ouhyoung, On Visual Similarity Based 3D Model Retrieval.Computer Graphics Forum (2003), 223-232. R.O. Stehling, M.A. Nascimento, and A.X. Falcao, A Compact and Efficient Image Retrieval Approach Based on Border/Interior Pixel Classification," In Proc. of CIKM'02, pp.102-109, 2002.Stehling, M.A.Nascimento, and A.X. Falcao, A Compact and Efficient Image Retrieval Approach Based on Border / Interior Pixel Classification, "In Proc. Of CIKM'02, pp.102-109, 2002.

三次元モデルの特徴量では、上記の先行技術の非特許文献1及び2背景技術の様に、三次元モデルから複数視点で生成した二次元画像を解析する手法が優れた検索性能を得ていた。特に、三次元モデルの形状の凹凸を、画像の濃淡で表現した深度バッファ画像の解析は、三次元モデルの形状を捉えるのに適している。深度バッファ画像の性質から、濃淡の変化が大きい境界部分に形状の特徴は現れる。しかし、深度バッファ画像を扱う非特許文献1では、特に境界部分を強調することなく深度バッファ画像を解析している。   In the feature quantity of the 3D model, like the above-mentioned prior art Non-Patent Documents 1 and 2, the technique of analyzing a 2D image generated from multiple viewpoints from a 3D model had excellent search performance. . In particular, the analysis of the depth buffer image in which the unevenness of the shape of the 3D model is expressed by the shading of the image is suitable for capturing the shape of the 3D model. Due to the nature of the depth buffer image, a feature of the shape appears at the boundary portion where the change in shading is large. However, in Non-Patent Document 1 that handles a depth buffer image, the depth buffer image is analyzed without particularly enhancing the boundary portion.

一方、画像の類似検索では、非特許文献3のBICの様に、境界画素と内部画素に分類して解析をするものがある。しかし、BICは、注目画素と4近傍の画素値が同一であるか否かだけを考慮しており、画素値の大小は考慮されていない。形状の凹凸を捉えるという観点では、画素値の大小は重要な情報となる。   On the other hand, in the similarity search of images, there are those that analyze by classifying them into boundary pixels and internal pixels, as in BIC of Non-Patent Document 3. However, the BIC only considers whether or not the pixel of interest and the pixel values in the vicinity of 4 are the same, and does not consider the magnitude of the pixel value. From the viewpoint of capturing irregularities in the shape, the magnitude of the pixel value is important information.

また、三次元モデルの回転の任意性に対する解決法に関しても問題がある。非特許文献1では、主成分分析もしくは特異値分解により主軸を求め、三次元モデルの回転を一意に決定している。この方法では、類似した形状であっても、欠損などのノイズにより、主軸が変化してしまう問題がある。非特許文献2では、大量の視点から生成した二次元画像の特徴量を比較することで、回転の任意性を緩和している。特徴量の比較の際に、画像対で特徴量のユークリッド距離を計算し、その最小値を三次元モデル間の距離とする。結果として、単一視点で比較していることになり、回転の任意性は解決できているが、三次元モデルの形状を正確には比較できていない。
There are also problems with the solution to the arbitrary rotation of the 3D model. In Non-Patent Document 1, the principal axis is obtained by principal component analysis or singular value decomposition, and the rotation of the three-dimensional model is uniquely determined. This method has a problem that even if the shape is similar, the main axis changes due to noise such as a defect. Non-Patent Document 2 relaxes the arbitraryness of rotation by comparing feature quantities of two-dimensional images generated from a large number of viewpoints. When comparing feature amounts, the Euclidean distance of the feature amounts is calculated for the image pair, and the minimum value is set as the distance between the three-dimensional models. As a result, the comparison is made from a single viewpoint, and the arbitraryness of rotation can be solved, but the shapes of the three-dimensional models cannot be accurately compared.

本発明は、上記の先行技術の課題を鑑み、これを解決するために成されたものである。 The present invention has been made in order to solve the problems of the prior art described above.

請求項1に記載の三次元モデルの特徴抽出方法は、既知の三次元モデルの複数視点における深度バッファ画像について、各深度バッファ画像における注目画素と近傍の画素との画素値を比較したときの該画素値が異なるものを境界画素として、境界画素パターンの特徴量を予めデータベース化し、検索対象の三次元モデルの境界画素パターンの特徴量を比較することにより三次元モデルを検索する特徴抽出方法であって、前記境界画素パターンの特徴量は、前記境界画素における注目画素と近傍画素との差を正負に分類するとともに、それぞれの出現頻度によるヒストグラムを抽出したものであり、前記境界画素パターンの特徴量の比較は、各深度バッファ画像について抽出した境界画素の出現頻度によるヒストグラムの最大値の総和を複数視点の全組合せをインデックスとして、検索対象の三次元モデルとの間で相違度を判定するものであることを特徴とする。   The feature extraction method of the three-dimensional model according to claim 1 is a method of comparing pixel values of a target pixel and a neighboring pixel in each depth buffer image with respect to depth buffer images at a plurality of viewpoints of a known three-dimensional model. This is a feature extraction method that searches for a 3D model by creating a database of the feature values of the boundary pixel pattern in advance using a different pixel value as the boundary pixel, and comparing the feature values of the boundary pixel pattern of the 3D model to be searched. The boundary pixel pattern feature amount is obtained by classifying the difference between the target pixel and the neighboring pixel in the boundary pixel as positive and negative and extracting a histogram based on the appearance frequency of each of the boundary pixel patterns. Is compared with the sum of the maximum values of histograms based on the appearance frequency of the boundary pixels extracted for each depth buffer image. All combinations of points as an index, and characterized in that to determine the degree of difference between the search target of the three-dimensional model.

請求項2に記載の三次元モデルの検索方法は、前記深度バッファ画像は、三次元モデルの凹凸を濃淡で表現したものであり、前記境界画素は、前記注目画素と、該注目画素の上下左右に隣接する4つの近傍画素との画素値を比較したときの該画素値が異なるものが抽出されたものであることを特徴とする。   The 3D model search method according to claim 2, wherein the depth buffer image represents unevenness of the 3D model with shading, and the boundary pixel includes the target pixel and the top, bottom, left, and right of the target pixel. What is extracted is a pixel having a different pixel value when comparing pixel values with four neighboring pixels adjacent to.

請求項3に記載の三次元モデルの特徴抽出方法は、前記深度バッファ画像は、既知の三次元モデルを特異値分解して姿勢正規化した後、予め定めた視点数における所定のピクセルの大きさで生成されたものであることを特徴とする。   The feature extraction method for a three-dimensional model according to claim 3, wherein the depth buffer image is obtained by performing singular value decomposition on a known three-dimensional model and performing posture normalization, and then a predetermined pixel size at a predetermined number of viewpoints. It is generated by the above.

請求項4に記載の三次元モデルの特徴抽出方法は、前記相違度は、前記視点数における各深度バッファ画像の境界画素の出現頻度によるヒストグラムの最大値の総和の行列を計算し、該行列に対してハンガリアン法によって得た組合せの最小和の相違度であることを特徴とする。   The feature extraction method of the three-dimensional model according to claim 4, wherein the dissimilarity is calculated by calculating a matrix of sum totals of maximum values of histograms based on appearance frequencies of boundary pixels of each depth buffer image at the number of viewpoints. On the other hand, the difference is the difference in the minimum sum of the combinations obtained by the Hungarian method.

請求項5に記載の三次元モデルのアノテーションシステムは、既知の三次元モデルの複数視点における深度バッファ画像について、各深度バッファ画像における注目画素と近傍の画素との画素値を比較したときの該画素値が異なるものを境界画素として、予めデータベース化された境界画素パターンの特徴量と、検索対象の三次元モデルの境界画素パターンの特徴量とを比較することにより三次元モデルを検索するアノテーションシステムであって、検索対象の三次元モデルから複数視点における深度バッファ画像を生成する手段と、各深度バッファ画像について注目画素と近傍画素との画素値を比較して境界画素を検出する手段と、検出された各境界画素ごとに注目画素と近傍画素との差を正負に分類するとともに、それぞれの出現頻度によるヒストグラムを抽出する手段と、各深度バッファ画像について抽出した前記ヒストグラムの最大値の総和を複数視点の全組合せをインデックスとして、既知の三次元モデルと検索対象の三次元モデルとの間で相違度を判定する手段とを備えることを特徴とする。   The three-dimensional model annotation system according to claim 5, wherein the pixel values of the pixel of interest and the neighboring pixels in each depth buffer image are compared for depth buffer images at a plurality of viewpoints of the known three-dimensional model. An annotation system that searches for a 3D model by comparing the feature values of a boundary pixel pattern stored in advance in a database and the feature values of a boundary pixel pattern of a 3D model to be searched, with different values as boundary pixels. A means for generating a depth buffer image at a plurality of viewpoints from a three-dimensional model to be searched; a means for detecting a boundary pixel by comparing pixel values of a target pixel and neighboring pixels for each depth buffer image; For each boundary pixel, the difference between the target pixel and neighboring pixels is classified as positive and negative, and A difference between a known three-dimensional model and a three-dimensional model to be searched, with the total sum of the histograms extracted for each depth buffer image as an index of all combinations of a plurality of viewpoints. And a means for determining.

前記手段により、高精度かつ高速な三次元モデルの特徴抽出方法及び三次元モデルのアノテーションシステムを実現できる。
By the above means, a highly accurate and high-speed 3D model feature extraction method and 3D model annotation system can be realized.

注目画素と4近傍との差の正負によるヒストグラムの作成を示した説明図である。It is explanatory drawing which showed preparation of the histogram by the positive / negative of the difference of an attention pixel and 4 vicinity. 本発明にかかる三次元モデル特徴抽出方法およびアノテーションシステムのフロー図である。It is a flowchart of the three-dimensional model feature extraction method and annotation system according to the present invention. 姿勢正規化(ステップ1)の説明図である。It is explanatory drawing of attitude | position normalization (step 1). 深度バッファ画像の生成(ステップ2)の説明図である。It is explanatory drawing of the production | generation (step 2) of a depth buffer image. 深度バッファ画像に対する境界画素と内部画素に分類を行う工程(ステップ3)の説明図である。It is explanatory drawing of the process (step 3) which classify | categorizes into the boundary pixel with respect to a depth buffer image, and an internal pixel. 注目画素の4近傍の各画素と該注目画素の差を算出する工程(ステップ4)の説明図である。It is explanatory drawing of the process (step 4) of calculating the difference of each pixel of 4 vicinity of an attention pixel, and this attention pixel. 深度バッファ画像ごとに4種類のヒストグラムの境界パターンヒストグラム(BPH)を作成する工程(ステップ5及びステップ6)の説明図である。It is explanatory drawing of the process (step 5 and step 6) which produces the boundary pattern histogram (BPH) of four types of histograms for every depth buffer image. BPHを特徴量としたk−近傍法によるアノテーション工程(ステップ7)の説明図である。It is explanatory drawing of the annotation process (step 7) by the k-neighbor method which used BPH as the feature-value.

本発明の実施の形態について図表を用いて説明を行う。本発明の実施は、計算機上で構成されるものであり、CPU及びメモリなどハードウェアを機能させて実行されるものである。 Embodiments of the present invention will be described with reference to the drawings. The embodiment of the present invention is configured on a computer and executed by causing hardware such as a CPU and a memory to function.

本発明技術では、三次元モデル(以下、三次元形状モデル、あるいは三次元物体ということがある。)から複数視点で生成した深度バッファ画像を解析することで、三次元モデルの特徴量を得る。深度バッファ画像を解析する際に、注目画素と4近傍いずれかの画素値が異なるものを境界画素、それ以外を内部画素として分類する。深度バッファ画像は、形状の凹凸を濃淡で表現したものであることから、本発明技術ではBIC(非特許文献3を参照)と異なり、濃淡の変化が現れる境界画素だけを解析対象とする。また、画素値の大小に現れる形状の凹凸変化を捉えるため、注目画素と各4近傍の画素との差を正負にわけ、それぞれで画素値の出現頻度によるヒストグラムを作成する。   In the technology of the present invention, a feature value of a three-dimensional model is obtained by analyzing a depth buffer image generated from a plurality of viewpoints from a three-dimensional model (hereinafter also referred to as a three-dimensional shape model or a three-dimensional object). When the depth buffer image is analyzed, a pixel whose pixel value differs from any of the four neighboring pixels is classified as a boundary pixel, and the other pixels are classified as internal pixels. Since the depth buffer image expresses unevenness of the shape with shading, in the technology of the present invention, unlike the BIC (see Non-Patent Document 3), only the boundary pixel in which the shading change appears is the analysis target. Further, in order to capture the unevenness of the shape appearing in the magnitude of the pixel value, the difference between the pixel of interest and each of the four neighboring pixels is divided into positive and negative, and a histogram based on the appearance frequency of the pixel value is created for each.

以上により、発明技術では、背景技術が十分に捉えられていなかった、三次元モデルの形状の凹凸を捉えることができる。   As described above, the invention technology can capture the unevenness of the shape of the three-dimensional model for which the background technology has not been sufficiently captured.

まず、三次元モデルをPoint SVDにより姿勢正規化する。三次元モデルでは、制作者やソフトウェアにより、大きさや位置・回転が任意となる。これらは抽出する三次元モデルの特徴量にも影響を与えるため、事前に正規化を行う必要がある。PointSVDは、三次元モデルの面にランダムに点を生成し、それらの点群の平均を三次元モデルの重心として、三次元空間の原点に平行移動することで位置の任意性を解決する。また、サンプル点を特異値分解することで、三次元モデルの主軸を求める。その主軸を、三次元空間のx軸,y軸,z軸に沿うように回転を行うことで回転の任意性を解決する。さらに、各頂点座標を原点からの最大距離で割ること正規化し、大きさの任意性を解決する。   First, posture normalization of the three-dimensional model is performed by Point SVD. In the 3D model, the size, position, and rotation are arbitrary depending on the creator and software. Since these affect the feature quantity of the extracted three-dimensional model, it is necessary to normalize in advance. PointSVD generates random points on the surface of the three-dimensional model, and solves the arbitraryness of position by translating to the origin of the three-dimensional space using the average of these point groups as the center of gravity of the three-dimensional model. Also, the principal axis of the three-dimensional model is obtained by performing singular value decomposition on the sample points. By rotating the main axis along the x-axis, y-axis, and z-axis of the three-dimensional space, the arbitrary rotation is solved. Furthermore, normalization is performed by dividing each vertex coordinate by the maximum distance from the origin to solve the arbitraryness of the size.

次に、複数視点Nν(例えばgeodesic sphereの各頂点を視点とした38視点)からM×M(例えば256×256)ピクセルの大きさで濃淡L段階(例えば32段階)の深度バッファ画像を生成する。各深度バッファ画像で、注目画素と4近傍のいずれかと画素値が異なるものを境界画素として検出する。そして、図1のように、境界画素において、注目画素と4近傍(Top、Right、Bottom、Left)との差を正負(Positive、Negative)に分類し、それぞれで画素値の出現頻度によるヒストグラムを作成する。よって、深度バッファ画像ごとに計算されるヒストグラムの大きさは4×2×Lビンとなる。各ヒストグラムは要素の総和により正規化される。 Next, a depth buffer image of light and shade L level (for example, 32 levels) is generated with a size of M × M (for example, 256 × 256) pixels from a plurality of viewpoints N ν (for example, 38 viewpoints with each vertex of geodesic sphere as a viewpoint). To do. In each depth buffer image, a pixel whose pixel value is different from any of the target pixel and any of the four neighbors is detected as a boundary pixel. Then, as shown in FIG. 1, in the boundary pixel, the difference between the target pixel and the four neighbors (Top, Right, Bottom, Left) is classified into positive and negative (Positive, Negative), and a histogram based on the appearance frequency of the pixel value is obtained for each. create. Therefore, the size of the histogram calculated for each depth buffer image is 4 × 2 × L bins. Each histogram is normalized by the sum of the elements.

本発明にかかる三次元モデルの特徴抽出方法およびアノテーションシステムのフロー(以下、流れということがある。)は、図2に示される。七つのステップからなり、処理の手順に従ってステップごとに説明を行う。データベースに大量の三次元形状モデルが蓄積されており、形状モデルごとに七つのステップを繰り返す。   FIG. 2 shows a flow of the 3D model feature extraction method and annotation system according to the present invention (hereinafter also referred to as a flow). It consists of seven steps, and each step is explained according to the processing procedure. A large number of three-dimensional shape models are stored in the database, and seven steps are repeated for each shape model.

<ステップ1>
データベースの各三次元形状モデルに対して、姿勢正規化を適用し、「位置」「回転」「大きさ」の任意性を解消する。姿勢正規化された三次元形状モデルは、その重心が半径1の球の中心にくるように配置される(図3)。
<Step 1>
Posture normalization is applied to each three-dimensional shape model in the database to eliminate the arbitraryness of “position”, “rotation”, and “size”. The posture-normalized three-dimensional shape model is arranged so that the center of gravity is at the center of a sphere having a radius of 1 (FIG. 3).

<ステップ2>
多数視点(例えば、38視点)の各々から深度バッファ画像を生成する。姿勢正規化された球を、38頂点をもつ三角パッチで近似し、その各頂点から球の中心に向かうベクトルに垂直な面に投影し深度バッファ画像(デプスバッファ画像)を生成する(図4)。
<Step 2>
A depth buffer image is generated from each of multiple viewpoints (for example, 38 viewpoints). The posture-normalized sphere is approximated by a triangular patch having 38 vertices, and projected onto a plane perpendicular to the vector from each vertex toward the center of the sphere to generate a depth buffer image (depth buffer image) (FIG. 4). .

<ステップ3>
各深度バッファ画像に対して、すべての画素を境界画素(Border)と内部画素(Interior)に分類する(図5)。
<Step 3>
For each depth buffer image, all pixels are classified into boundary pixels (Border) and internal pixels (Interior) (FIG. 5).

<ステップ4>
注目画素と、前記注目画素の4近傍の各画素値との差を算出する(図6)。
<Step 4>
The difference between the target pixel and each pixel value in the vicinity of the target pixel is calculated (FIG. 6).

<ステップ5>
前記ステップ4の差の値に応じて、深度バッファ画像ごとに4種類のヒストグラムの境界パターンヒストグラム(Border Pixel Pattern Histogram:BPPHという。)を作成する(図7)。
<Step 5>
Four types of boundary pattern histograms (Border Pixel Pattern Histogram: BPPH) are created for each depth buffer image in accordance with the difference value in Step 4 (FIG. 7).

<ステップ6>
前記ステップ5で得られたBPPH特徴量を前記ステップ2で適用する複数の視点からの深度バッファすべてに適用して得られた特徴量を三次元形状モデルの形状特徴量とし、検索におけるインデックスとして利用する。なお、最終的には、ヒストグラムの頻度合計が1.0となるように正規化を行う(図7)。
<Step 6>
The feature quantity obtained by applying the BPPH feature quantity obtained in step 5 to all the depth buffers from the plurality of viewpoints applied in step 2 is used as the shape feature quantity of the three-dimensional shape model and used as an index in the search. To do. Finally, normalization is performed so that the total frequency of the histogram becomes 1.0 (FIG. 7).

<ステップ7>
k−近傍法でアノテーションを行う。ここで、図8に示すように、たとえば、{vehicle, bicycle}は、訓練データとして、この二つのラベルのついた三次元形状モデルのアノテーションを表す。図8では、円弧の中心にある未知な三次元形状モデルに対して、k=3として、3近傍にあるラベルの和集合が出力ラベルに生成される。
<Step 7>
Annotate with the k-neighbor method. Here, as shown in FIG. 8, for example, {vehicle, bicycle} represents the annotation of the three-dimensional shape model with these two labels as training data. In FIG. 8, for an unknown three-dimensional shape model at the center of an arc, k = 3 and a union of labels in the vicinity of 3 is generated as an output label.

3Dモデル同士の類似度計算の際は、クエリ(検索質問)となる3Dモデルに上記の1〜6のステップで特徴量に変換し、その特徴量とデータベースにある特徴量との距離をステップ7で計算し、距離の小さい順にソーティングしたものが、類似する形状の順序となる。本実施例では、この距離計算を、(数1)に示される、Histogram Intersection距離を使って求めている。 When calculating the degree of similarity between 3D models, the 3D model to be a query (search question) is converted into a feature quantity in steps 1 to 6 above, and the distance between the feature quantity and the feature quantity in the database is calculated in step 7. The order of similar shapes is calculated by the above and sorted in ascending order of distance. In this embodiment, this distance calculation is obtained using the Histogram Intersection distance shown in (Equation 1).

Figure 2015176485
Figure 2015176485

なお、本発明の実施例における前記数値パラメータは実施形態の一例にすぎず、前記フローは、前記数値パラメータに依存しない。   The numerical parameter in the example of the present invention is merely an example of the embodiment, and the flow does not depend on the numerical parameter.

また、前記ステップ7を自動アノテーションの代わりに、検索や分類に変更することで、検索装置にも、また、分類装置にも適用することができる。   Further, the step 7 can be applied to a search device and a classification device by changing to the search and the classification instead of the automatic annotation.

BPH特徴量による三次元モデル・アノテーションシステムの有効性を確認するために、従来手法との比較実験を行った。   In order to confirm the effectiveness of the 3D model annotation system based on BPH features, we compared it with the conventional method.

まず、複数視点Nνの境界画素ヒストグラムの全組み合わせで相違度を計算し、Nν×Nνの大きさの相違度行列を計算する。そして、相違度行列に対してハンガリアン法を適用することで得られる、組み合わせの最小和の相違度を三次元モデルの相違度とする。これにより、三次元モデルの回転の任意性の解決と、複数視点での三次元モデルの形状比較を実現することができる。 First, the dissimilarity is calculated for all combinations of the boundary pixel histograms of a plurality of viewpoints , and a dissimilarity matrix having a size of × is calculated. Then, the difference of the minimum sum of combinations obtained by applying the Hungarian method to the difference matrix is set as the difference of the three-dimensional model. As a result, it is possible to realize the solution of the arbitrary rotation of the 3D model and the shape comparison of the 3D model from a plurality of viewpoints.

今回の実験ではテストデータとしてSHREC’12 Generic 3D DatasetとPrinceton Shape Benchmark(PSB)の三次元物体を利用した。SHREC’12 Generic 3D DatasetとPSBは本来、三次元物体の形状検索のためのデータセットである。しかし、三次元物体のアノテーションを目的としたデータセットは、これまでに提案されていないため、これらの三次元物体に対して、人手で複数のラベルを付与した。例としては、家の形状をした三次元物体であれば、building、house、manmade、architectureのようにラベル付けが行われている。今回の実験では、SHREC’12 Generic 3D Datasetの1,200個の三次元物体に、合計で120種類のラベル付けを行った。また、PSBでは、1,814個の三次元物体に,188種類のラベル付けを行った。これらのデータセットは、様々な三次元物体から構成され、一般的な検索精度を評価することができる。   In this experiment, a three-dimensional object of SHREC'12 Generic 3D Dataset and Princeton Shape Benchmark (PSB) was used as test data. SHREC'12 Generic 3D Dataset and PSB are essentially data sets for shape search of a three-dimensional object. However, since a data set for the purpose of annotation of a three-dimensional object has not been proposed so far, a plurality of labels are manually attached to these three-dimensional objects. For example, in the case of a three-dimensional object in the shape of a house, labeling is performed such as building, house, manmade, and architecture. In this experiment, a total of 120 kinds of labels were applied to 1,200 three-dimensional objects of SHREC'12 Generic 3D Dataset. In PSB, 188 types of labeling were performed on 1,814 three-dimensional objects. These data sets are composed of various three-dimensional objects, and general search accuracy can be evaluated.

これらの三次元物体に対し、Leave−one−out法を用いて、それぞれのデータに対してアノテーションを行った。この手法では、SHREC’12 Generic 3D Datasetであれば、1,199個の三次元物体を訓練データとし、残りの1個の三次元物体に対し、アノテーションを行う。   These three-dimensional objects were annotated with respect to the respective data using the Leave-one-out method. In this method, for SHREC'12 Generic 3D Dataset, 1,199 three-dimensional objects are used as training data, and the remaining one three-dimensional object is annotated.

ラベル推定アルゴリズムにはk−近傍識別機(k−Nearest Neighbor Classifier 、 k−NN)を用いた。k−NNは、特徴空間上で、テストデータと訓練データとの比較を行い、テストデータのk−近傍にある訓練データが属するクラスの内、 最多数を占めたクラスを、識別結果として出力する分類器である。   For the label estimation algorithm, a k-nearest neighbor classifier (k-NN) was used. k-NN compares the test data and training data on the feature space, and outputs the class that occupies the largest number among the classes to which training data in the k- vicinity of the test data belongs as the identification result. It is a classifier.

k−NNをアノテーションに用いる場合は、図8のようになる。訓練データにクラスではなく複数ラベルを付与しておき、テストデータのk−近傍にある訓練データのラベルを、アノテーション結果として出力する。k−NNはシンプルなアルゴリズムでありながら、画像の自動アノテーションでは優れた性能を示している。今回は、k=1として、最近傍法を用いた。   When k-NN is used for annotation, it is as shown in FIG. A plurality of labels, not classes, are assigned to the training data, and training data labels in the k- vicinity of the test data are output as annotation results. Although k-NN is a simple algorithm, it shows excellent performance in automatic image annotation. This time, the nearest neighbor method was used with k = 1.

評価尺度としては、画像のアノテーションと同様に、ラベルに対する再現率であるRecall、適合率であるPrecision、 調和平均であるF−Measureを用いた。いずれの評価尺度も値が大きくなるほど、キーワードの推定性能が優れていると言える。   As an evaluation scale, similar to the annotation of an image, Recall, which is the recall for the label, Precision, which is a precision, and F-Measure, which is a harmonic average. It can be said that the higher the value of any evaluation scale, the better the keyword estimation performance.

比較手法としては、関連研究で述べた、Light Field Descriptor(LFD)、DESIRE Descriptor(DESIRE)、Border / Interior Pixel Classification(BIC)、Spherical Harmonics Descriptor(SHD)を用いた。BICについては、二次元画像の特徴抽出手法であるため、BPHと同様に、深度バッファ画像に対して処理を行った。   As a comparison method, Light Field Descriptor (LFD), DESIRE Descriptor (DESIRE), Border / Interior Pixel Classification (BIC), and Scientific Harmonics Descriptor (HD) described in the related research were used. Since BIC is a feature extraction method of a two-dimensional image, processing was performed on a depth buffer image in the same manner as BPH.

表1はSGDにおける各特徴量の適合率、再現率、F−値をまとめたものである。発明技術は全ての評価尺度において最も優れたアノテーション性能となった。従来技術よりも高い適合率でありながら、一般に適合率とトレードオフの関係にある再現率においても、従来技術より高い値となっている。これは、発明技術が、三次元モデルのアノテーションにおいて、正確性と網羅性を兼ね備えていることを示している。   Table 1 summarizes the precision, recall, and F-value of each feature in SGD. Inventive technology has the best annotation performance on all evaluation scales. Although the relevance rate is higher than that of the prior art, the reproducibility generally having a trade-off relationship with the relevance rate is higher than that of the prior art. This indicates that the inventive technique has both accuracy and completeness in the annotation of the three-dimensional model.

Figure 2015176485
Figure 2015176485


Claims (5)

既知の三次元モデルの複数視点における深度バッファ画像について、各深度バッファ画像における注目画素と近傍の画素との画素値を比較したときの該画素値が異なるものを境界画素として、境界画素パターンの特徴量を予めデータベース化し、検索対象の三次元モデルの境界画素パターンの特徴量を比較することにより三次元モデルを検索する特徴抽出方法であって、
前記境界画素パターンの特徴量は、前記境界画素における注目画素と近傍画素との差を正負に分類するとともに、それぞれの出現頻度によるヒストグラムを抽出したものであり、
前記境界画素パターンの特徴量の比較は、各深度バッファ画像について抽出した境界画素の出現頻度によるヒストグラムの最大値の総和を複数視点の全組合せをインデックスとして、検索対象の三次元モデルとの間で相違度を判定するものである
ことを特徴とする三次元モデルの特徴抽出方法。
Features of boundary pixel patterns for depth buffer images at multiple viewpoints of a known three-dimensional model, with pixel values that differ when the pixel values of the target pixel and neighboring pixels in each depth buffer image are compared as boundary pixels A feature extraction method for searching a three-dimensional model by creating a database in advance and comparing feature quantities of boundary pixel patterns of a three-dimensional model to be searched,
The feature amount of the boundary pixel pattern is obtained by classifying the difference between the target pixel and the neighboring pixel in the boundary pixel as positive and negative and extracting a histogram based on the appearance frequency of each pixel
The comparison of the feature values of the boundary pixel pattern is performed by using the sum of the maximum values of the histogram based on the appearance frequency of the boundary pixels extracted for each depth buffer image as an index with all combinations of a plurality of viewpoints as an index. A feature extraction method for a three-dimensional model, characterized by determining a degree of difference.
前記深度バッファ画像は、三次元モデルの凹凸を濃淡で表現したものであり、前記境界画素は、前記注目画素と、該注目画素の上下左右に隣接する4つの近傍画素との画素値を比較したときの該画素値が異なるものが抽出されたものである請求項1に記載の三次元モデルの特徴抽出方法。   The depth buffer image is a representation of the unevenness of the three-dimensional model in shades, and the boundary pixel is a comparison of pixel values of the pixel of interest and four neighboring pixels adjacent to the pixel of interest in the upper, lower, left, and right directions. 2. The method of extracting features of a three-dimensional model according to claim 1, wherein the ones having different pixel values are extracted. 前記深度バッファ画像は、既知の三次元モデルを特異値分解して姿勢正規化した後、予め定めた視点数における所定のピクセルの大きさで生成されたものである請求項1または2に記載の三次元モデルの特徴抽出方法。   3. The depth buffer image according to claim 1, wherein the depth buffer image is generated with a predetermined pixel size at a predetermined number of viewpoints after performing singular value decomposition and normalizing a known three-dimensional model. Feature extraction method for 3D models. 前記相違度は、前記視点数における各深度バッファ画像の境界画素の出現頻度によるヒストグラムの最大値の総和の行列を計算し、該行列に対してハンガリアン法によって得た組合せの最小和の相違度である請求項1ないし3のいずれかに記載の三次元モデルの特徴抽出方法。   The dissimilarity is calculated by calculating a matrix of the sum of the maximum values of histograms based on the appearance frequency of boundary pixels in each depth buffer image at the number of viewpoints, and the dissimilarity of the minimum sum of combinations obtained by the Hungarian method for the matrix The method for extracting a feature of a three-dimensional model according to any one of claims 1 to 3. 既知の三次元モデルの複数視点における深度バッファ画像について、各深度バッファ画像における注目画素と近傍の画素との画素値を比較したときの該画素値が異なるものを境界画素として、予めデータベース化された境界画素パターンの特徴量と、検索対象の三次元モデルの境界画素パターンの特徴量とを比較することにより三次元モデルを検索するアノテーションシステムであって、
検索対象の三次元モデルから複数視点における深度バッファ画像を生成する手段と、
各深度バッファ画像について注目画素と近傍画素との画素値を比較して境界画素を検出する手段と、
検出された各境界画素ごとに注目画素と近傍画素との差を正負に分類するとともに、それぞれの出現頻度によるヒストグラムを抽出する手段と、
各深度バッファ画像について抽出した前記ヒストグラムの最大値の総和を複数視点の全組合せをインデックスとして、既知の三次元モデルと検索対象の三次元モデルとの間で相違度を判定する手段とを備える、ことを特徴とする三次元モデルのアノテーションシステム。


The depth buffer images in a plurality of viewpoints of a known three-dimensional model are preliminarily stored in a database with the pixel values of the target pixel and the neighboring pixels in each depth buffer image being different from each other as boundary pixels. An annotation system that searches a 3D model by comparing a feature quantity of a boundary pixel pattern and a feature quantity of a boundary pixel pattern of a 3D model to be searched,
Means for generating a depth buffer image in a plurality of viewpoints from a three-dimensional model to be searched;
Means for comparing the pixel values of the target pixel and neighboring pixels for each depth buffer image to detect a boundary pixel;
A means for classifying the difference between the target pixel and the neighboring pixel into positive and negative for each detected boundary pixel, and extracting a histogram based on the appearance frequency;
Means for determining the degree of difference between a known three-dimensional model and a three-dimensional model to be searched with the sum of the maximum values of the histogram extracted for each depth buffer image as an index of all combinations of a plurality of viewpoints; An annotation system for 3D models.


JP2014053957A 2014-03-17 2014-03-17 3D model feature extraction method and 3D model annotation system Active JP6355372B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014053957A JP6355372B2 (en) 2014-03-17 2014-03-17 3D model feature extraction method and 3D model annotation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014053957A JP6355372B2 (en) 2014-03-17 2014-03-17 3D model feature extraction method and 3D model annotation system

Publications (2)

Publication Number Publication Date
JP2015176485A true JP2015176485A (en) 2015-10-05
JP6355372B2 JP6355372B2 (en) 2018-07-11

Family

ID=54255593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014053957A Active JP6355372B2 (en) 2014-03-17 2014-03-17 3D model feature extraction method and 3D model annotation system

Country Status (1)

Country Link
JP (1) JP6355372B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809680A (en) * 2016-03-06 2016-07-27 中国水利水电科学研究院 Soil moisture characteristic curve simulating method based on multiple fractal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366958A (en) * 2001-06-08 2002-12-20 Toshiba Corp Method and device for recognizing image
WO2008056757A1 (en) * 2006-11-10 2008-05-15 National University Corporation Toyohashi University Of Technology Three-dimensional model search method, computer program, and three-dimensional model search system
JP2009129337A (en) * 2007-11-27 2009-06-11 Hitachi Ltd Three-dimensional similar shape retrieval device
JP2011113313A (en) * 2009-11-26 2011-06-09 Secom Co Ltd Attitude estimation device
JP2012038244A (en) * 2010-08-11 2012-02-23 Fuji Xerox Co Ltd Learning model creation program, image identification information giving program, learning model creation device, image identification information giving device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366958A (en) * 2001-06-08 2002-12-20 Toshiba Corp Method and device for recognizing image
WO2008056757A1 (en) * 2006-11-10 2008-05-15 National University Corporation Toyohashi University Of Technology Three-dimensional model search method, computer program, and three-dimensional model search system
JP2009129337A (en) * 2007-11-27 2009-06-11 Hitachi Ltd Three-dimensional similar shape retrieval device
JP2011113313A (en) * 2009-11-26 2011-06-09 Secom Co Ltd Attitude estimation device
JP2012038244A (en) * 2010-08-11 2012-02-23 Fuji Xerox Co Ltd Learning model creation program, image identification information giving program, learning model creation device, image identification information giving device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
馬場 伊美子: "構造情報に基づく英字印刷文字認識", 情報処理学会研究報告 VOL.94 NO.110 IPSJ SIG NOTES, vol. グラフィクスとCAD 72-75, JPN6018009037, 17 December 1994 (1994-12-17), JP, pages 183 - 190, ISSN: 0003757407 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809680A (en) * 2016-03-06 2016-07-27 中国水利水电科学研究院 Soil moisture characteristic curve simulating method based on multiple fractal

Also Published As

Publication number Publication date
JP6355372B2 (en) 2018-07-11

Similar Documents

Publication Publication Date Title
Li et al. Automatic pavement crack detection by multi-scale image fusion
US10176404B2 (en) Recognition of a 3D modeled object from a 2D image
Salti et al. A performance evaluation of 3d keypoint detectors
Bagri et al. A comparative study on feature extraction using texture and shape for content based image retrieval
Fernández-García et al. Automatic generation of consensus ground truth for the comparison of edge detection techniques
Yang et al. Ranking 3D feature correspondences via consistency voting
JP2018136946A (en) Three-dimensional cad model part search method and three-dimensional cad model search method
Nanni et al. Ensemble of shape descriptors for shape retrieval and classification
Zhou et al. Histograms of Gaussian normal distribution for 3D feature matching in cluttered scenes
JP6355372B2 (en) 3D model feature extraction method and 3D model annotation system
Li et al. 3D large-scale point cloud semantic segmentation using optimal feature description vector network: OFDV-Net
Chen et al. Road object detection using a disparity-based fusion model
Lumban-Gaol et al. A comparative study of point clouds semantic segmentation using three different neural networks on the railway station dataset
Betsas et al. 3D edge detection and comparison using four-channel images
JP6320806B2 (en) 3D model search method and 3D model search system
Chen et al. Exemplar-based building element retrieval from point clouds
Baek et al. Bayesian learning of a search region for pedestrian detection
Sipiran Mendoza Local features for partial shape matching and retrieval
Feng et al. A Descriptor for Voxel Shapes Based on the Skeleton Cut Space.
Chen et al. Automatic object detection employing viewing angle histogram for range images
Murugan et al. 2D and 3D active shape model with SURF algorithm for OBJECT retrieval: Content Based Image Retrieval
Venkatesan et al. Supervised and unsupervised learning approaches for tracking moving vehicles
Yu et al. Novel SGH recognition algorithm based robot binocular vision system for sorting process
Zhang et al. Graph-cut based interactive image segmentation with texture constraints
Mahmood et al. Surface Patch Detection of 3D Point Cloud Using Local Shape Descriptor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180612

R150 Certificate of patent or registration of utility model

Ref document number: 6355372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250