JP2012053004A - Three-dimensional-point group synthesis method - Google Patents

Three-dimensional-point group synthesis method Download PDF

Info

Publication number
JP2012053004A
JP2012053004A JP2010197779A JP2010197779A JP2012053004A JP 2012053004 A JP2012053004 A JP 2012053004A JP 2010197779 A JP2010197779 A JP 2010197779A JP 2010197779 A JP2010197779 A JP 2010197779A JP 2012053004 A JP2012053004 A JP 2012053004A
Authority
JP
Japan
Prior art keywords
measurement
dimensional
point group
target
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010197779A
Other languages
Japanese (ja)
Other versions
JP5639821B2 (en
Inventor
Kazutaka Ikeda
一貴 池田
Harutaka Imoto
治孝 井本
Toshihiro Hayashi
俊寛 林
Nobuya Kowashi
宜也 小鷲
Kiyofumi Fujimura
清文 藤村
Tsutomu Kakinouchi
勉 垣之内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
IHI Marine United Inc
Original Assignee
IHI Corp
IHI Marine United Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp, IHI Marine United Inc filed Critical IHI Corp
Priority to JP2010197779A priority Critical patent/JP5639821B2/en
Publication of JP2012053004A publication Critical patent/JP2012053004A/en
Application granted granted Critical
Publication of JP5639821B2 publication Critical patent/JP5639821B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional-point group synthesis method capable of automatically synthesizing three-dimensional-point groups obtained by measuring a measuring object in plural directions.SOLUTION: A three-dimensional-point group synthesis method includes: a three-dimensional (3D) measurement step (S2) of measuring plural measuring targets disposed nearby or on a surface of a measuring object for identifying a solid body by using 3D measurement means to obtain them as a 3D-point group; a solid-body point-group discrimination step (S3) of extracting target point groups applicable to measuring targets from the 3D-point group to discriminate which measuring target each of the extracted target point groups is applicable to; a step of repeating the 3D measurement step and solid-body point-group discrimination step in plural directions with positions of the 3D measurement means changed; and a point-group synthesis step (S4) of synthesizing target point groups indicating the same property among target point groups discriminated in one direction and other target point groups discriminated in other directions in the solid-body point-group discrimination step.

Description

本発明は、3次元点群の合成方法および対象体計測装置に係り、詳しくは複数方向から3次元計測手段を用いて取得した構造物等の計測対象体の3次元点群を合成する方法に関するものである。   The present invention relates to a method for synthesizing a three-dimensional point group and an object measurement apparatus, and more particularly to a method for synthesizing a three-dimensional point group of a measurement object such as a structure acquired from a plurality of directions using a three-dimensional measurement unit. Is.

従来、構造物等の計測対象物の3次元形状を計測する際に、計測対象物とその近傍または表面に計測用ターゲットを配置し、カメラ等を使用して計測対象物及び計測用ターゲットを撮像し、算出された各計測用ターゲットの3次元座標に基づいて3次元形状を作成する計測方法が知られている。
計測対象物の3次元形状を作成する具体的な方法として、計測対象物とターゲットと基準ターゲットとを3次元形状用カメラを使用して複数方向から撮像し、ターゲット及び基準ターゲットの中心座標を算出し、複数の画像に共通して写っているターゲットまたは基準ターゲットの中心を重ね合わせて計測対象物全体の3次元形状を作成する方法が知られている(特許文献1)。
このように、計測用ターゲットを使用することによって画像中の計測対象物をより正確に認識することができる。
Conventionally, when measuring a three-dimensional shape of a measurement object such as a structure, a measurement target is arranged on the measurement object and its vicinity or surface, and the measurement object and the measurement target are imaged using a camera or the like. A measurement method for creating a three-dimensional shape based on the calculated three-dimensional coordinates of each measurement target is known.
As a specific method of creating a 3D shape of a measurement object, the measurement object, target, and reference target are imaged from multiple directions using a 3D shape camera, and the center coordinates of the target and reference target are calculated. In addition, there is known a method for creating a three-dimensional shape of the entire measurement object by superimposing the centers of targets or reference targets that are commonly displayed in a plurality of images (Patent Document 1).
In this way, the measurement target in the image can be recognized more accurately by using the measurement target.

特開2007−64668号公報JP 2007-64668 A

一方、計測対象物及び計測用ターゲットについて、レーザスキャナ等を使用して計測し、計測対象物及び計測用ターゲットの形状データを3次元の点群として取得する方法も知られている。
このような場合においても、計測対象物全体の3次元形状を作成する際に複数の方向から計測対象物を計測し、取得した点群を合成する必要がある。
この点に関し、上記従来技術は、複数の方向から撮像した画像データに対して合成を行うものであり、複数の方向から計測して取得した3次元の点群に対して合成を行うものではない。
On the other hand, a method is also known in which a measurement target and a measurement target are measured using a laser scanner or the like, and shape data of the measurement target and the measurement target is acquired as a three-dimensional point group.
Even in such a case, when creating the three-dimensional shape of the entire measurement object, it is necessary to measure the measurement object from a plurality of directions and synthesize the acquired point cloud.
In this regard, the above-described conventional technique performs composition on image data captured from a plurality of directions, and does not perform composition on a three-dimensional point group obtained by measurement from a plurality of directions. .

複数の方向から計測対象物を計測して取得した各点群を合成する場合、計測対象物の近傍または表面に複数の計測用ターゲットを配置し、計測して取得した3次元の点群の中から、各計測用ターゲットに該当する点群に作業者がそれぞれ番号を振り、複数の方向から計測して取得した各点群に対しても同様の処理を行い、同一の番号の点群を重ね合わせて合成する処理を行う必要がある。しかし、このような方法では作業者の作業効率が悪いことや、作業者による手作業が入るために人為的なミスが混入することを防止できないという問題があり、これらの問題を解決することが従来の課題となっていた。
本発明は、上述した課題を解決すべくなされたものであり、その目的とするところは、複数の方向から計測対象物を計測して取得した3次元点群を自動的に合成することの可能な3次元点群の合成方法を提供することにある。
When combining each point cloud acquired by measuring a measurement object from multiple directions, place a plurality of measurement targets near or on the surface of the measurement object, and measure and acquire the 3D point cloud From the above, the operator assigns a number to each point cloud corresponding to each measurement target, performs the same processing for each point cloud obtained by measuring from multiple directions, and stacks the point clouds with the same number. It is necessary to perform a process of combining them. However, this method has problems that the worker's work efficiency is poor and that human error cannot be prevented due to manual work by the worker, which can solve these problems. It has been a conventional problem.
The present invention has been made to solve the above-described problems, and an object of the present invention is to automatically synthesize a three-dimensional point group obtained by measuring a measurement object from a plurality of directions. Another object of the present invention is to provide a method for synthesizing a three-dimensional point group.

上記の目的を達成するべく、請求項1の3次元点群の合成方法は、計測対象物の近傍または表面に配置された個体識別する複数の計測用ターゲットの各性状データを、3次元計測手段を用いて計測して3次元の点群として取得する3次元計測ステップと、前記点群から前記計測用ターゲットに該当するターゲット点群を抽出し、該ターゲット点群がいずれの前記計測用ターゲットに該当するかを判別する個体点群判別ステップと、前記3次元計測手段の位置を変更して複数の方向から前記3次元計測ステップと前記個体点群判別ステップとを繰り返した後、前記個体点群判別ステップにより一方向において判別した各ターゲット点群及び他方向において判別した各ターゲット点群の中で同一性状を示すターゲット点群同士をそれぞれ重ね合わせて合成する点群合成ステップとを備えたことを特徴とする。   In order to achieve the above object, the method for synthesizing a three-dimensional point group according to claim 1 is characterized in that each property data of a plurality of measurement targets for identifying individuals arranged in the vicinity of or on the surface of the measurement object is three-dimensional measurement means. A three-dimensional measurement step to measure and acquire as a three-dimensional point cloud, and extract a target point cloud corresponding to the measurement target from the point cloud, and the target point cloud to which of the measurement targets An individual point group determining step for determining whether it corresponds, and a step of changing the position of the three-dimensional measuring means and repeating the three-dimensional measuring step and the individual point group determining step from a plurality of directions, and then the individual point group Each target point group discriminated in one direction by the discriminating step and each target point group discriminating in the other direction are overlapped with each other. Further comprising a point group synthesizing step of synthesizing Te characterized.

請求項2の3次元点群の合成方法では、請求項1において、さらに、前記点群合成ステップの後に、合成した点群から前記計測対象物の3次元形状を作成する形状モデリングステップを備えることを特徴とする。
請求項3の3次元点群の合成方法では、請求項1または2において、前記複数の計測用ターゲットは、それぞれ半径の大きさが異なる球体であって、前記同一性状は同一半径であることを特徴とする。
The method for synthesizing a three-dimensional point group according to claim 2 further comprises a shape modeling step for creating a three-dimensional shape of the measurement object from the synthesized point group after the point group synthesizing step. It is characterized by.
In the method for synthesizing the three-dimensional point group according to claim 3, in claim 1 or 2, the plurality of measurement targets are spheres having different radii, and the same property is the same radius. Features.

請求項4の3次元点群の合成方法では、請求項1または2において、前記複数の計測用ターゲットは、それぞれ前記個体点群判別ステップにおいて前記計測用ターゲットを判別可能な異なる輝度帯の輝度を有する球体であって、前記同一性状は同一輝度帯の輝度であることを特徴とする。   According to a method for synthesizing a three-dimensional point group according to claim 4, in the first or second aspect, each of the plurality of measurement targets has a luminance in a different luminance band that can identify the measurement target in the individual point group determination step. The same property is a luminance of the same luminance band.

請求項5の3次元点群の合成方法では、請求項4において、前記輝度帯は10以上220以下の範囲から複数選択されることを特徴とする。
請求項6の3次元点群の合成方法では、請求項4または5において、前記3次元計測ステップでは、前記計測用ターゲットをモノクロの3次元計測手段を使用して計測することを特徴とする。
The method for synthesizing a three-dimensional point group according to claim 5 is characterized in that, in claim 4, a plurality of the luminance bands are selected from a range of 10 to 220.
The method for synthesizing a three-dimensional point group according to claim 6 is characterized in that, in the three-dimensional measurement step, the measurement target is measured using a monochrome three-dimensional measurement means.

本発明に係る3次元点群の合成方法によれば、計測対象物の近傍または表面に配置された個体識別する複数の計測用ターゲットを3次元計測手段により3次元の点群を取得する3次元計測ステップと、点群から計測用ターゲットに該当するターゲット点群を抽出し、抽出したターゲット点群がいずれの計測用ターゲットに該当するのかを判別する個体点群判別ステップと、3次元計測手段の位置を変更して複数の方向から3次元計測ステップと固体点群判別ステップとを繰り返し、一方向における各ターゲット点群及び他方向において判別された各ターゲット点群の中で同一性状を示すターゲット点群同士をそれぞれ重ね合わせて合成する点群合成ステップとを備える。   According to the method of synthesizing a three-dimensional point group according to the present invention, a three-dimensional point group is obtained by using a three-dimensional measuring unit to obtain a plurality of measurement targets for identifying individuals arranged near or on the surface of the measurement object. A measurement step, a target point cloud corresponding to the measurement target from the point cloud, an individual point cloud determination step for determining which measurement target the extracted target point cloud corresponds to, and a three-dimensional measurement means A target point showing the same property in each target point group in one direction and each target point group determined in another direction by repeating the three-dimensional measurement step and the solid point group determination step from a plurality of directions by changing the position. A point group synthesizing step for superimposing and synthesizing the groups.

従って、一方向から取得した点群の中から個体識別する計測用ターゲットに該当するターゲット点群を判別することにより、複数の方向から計測して取得した点群に含まれるターゲット点群のうち、同一の性状を示すターゲット点群を探索して自動的に合成するので、人為的なミスの混入を防止することができ、作業効率を向上させることができる。   Therefore, by determining the target point cloud corresponding to the measurement target for identifying the individual from the point cloud acquired from one direction, among the target point cloud included in the point cloud measured and acquired from a plurality of directions, Since target point groups having the same properties are searched for and automatically synthesized, it is possible to prevent human error from occurring and improve work efficiency.

本発明の実施形態に供試される3次元計測装置を含む概略構成図である。It is a schematic block diagram containing the three-dimensional measuring device used for embodiment of this invention. 本発明の3次元点群の合成方法を示すフローチャートである。It is a flowchart which shows the synthetic | combination method of the three-dimensional point group of this invention. (A)は本発明の第1実施形態における図1の上面図、(B)は図1の3次元計測手段の位置を変更した場合の上面図、(C)は(A)、(B)の計測結果を合成して作成したモデルの上面図である。(A) is a top view of FIG. 1 in the first embodiment of the present invention, (B) is a top view when the position of the three-dimensional measuring means of FIG. 1 is changed, and (C) is (A), (B). It is a top view of the model created by synthesizing the measurement results. 第1実施形態において、3次元計測手段と計測用ターゲットとの距離と算出される球体の精度との調査を行うための概略構成図である。In 1st Embodiment, it is a schematic block diagram for investigating the distance of a three-dimensional measuring means and the measurement target, and the precision of the calculated sphere. (A)は72.5mmの半径を有する計測用ターゲットと距離との計測結果を表したグラフ、(B)は19.0mmの半径を有する計測用ターゲットと距離との計測結果を表したグラフである。(A) is a graph showing the measurement result of the measurement target having a radius of 72.5 mm and the distance, and (B) is a graph showing the measurement result of the measurement target having a radius of 19.0 mm and the distance. is there. (A)は本発明の第2実施形態における図1の上面図、(B)は図1の3次元計測手段の位置を変更した場合の上面図、(C)は(A)、(B)の計測結果を合成して作成したモデルの上面図である。(A) is a top view of FIG. 1 in the second embodiment of the present invention, (B) is a top view when the position of the three-dimensional measuring means of FIG. 1 is changed, and (C) is (A), (B). It is a top view of the model created by synthesizing the measurement results. 第2実施形態において、3次元計測手段を使用して色見本の輝度情報の調査を行うための概略構成図である。In 2nd Embodiment, it is a schematic block diagram for investigating the luminance information of a color sample using a three-dimensional measuring means. (A)は計測用ターゲットに使用可能な4段階の輝度帯を示す色見本−輝度の関係を表したグラフ、(B)は計測用ターゲットに使用可能な5段階の輝度帯を示す色見本−輝度の関係を表したグラフである。(A) is a color sample that shows four levels of luminance bands that can be used for a measurement target-a luminance sample, and (B) is a color sample that shows five levels of luminance bands that can be used for a measurement target- It is a graph showing the relationship of luminance.

以下、本発明の実施形態について図面を参照しながら説明する。
図1は、本発明の実施形態に供試される対象体認識装置1を含む概略構成図である。
図1に示すように、対象体認識装置1は計測対象物(以下、ワークという)2の形状を仮想座標空間において表現する装置である。対象体認識装置1は、ワーク2の近傍となる複数の所定位置に計測用ターゲット4を配置し、ワーク2及び支持体6に支持された計測用ターゲット4を計測して形状データ(性状データ)を取得する3次元計測手段8と、3次元計測手段8により取得された形状データから仮想座標空間におけるワーク2及び計測用ターゲット4を算出して合成する演算手段10と、演算手段10により算出され合成された結果等を格納するメモリ装置12と、合成された結果等を出力する外部出力手段14とを備える。なお、計測用ターゲット4はワーク2の表面や周囲の構造物に配置されてもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic configuration diagram including an object recognition device 1 used in an embodiment of the present invention.
As shown in FIG. 1, the object recognition device 1 is a device that expresses the shape of a measurement object (hereinafter referred to as a workpiece) 2 in a virtual coordinate space. The target object recognition apparatus 1 arranges measurement targets 4 at a plurality of predetermined positions in the vicinity of the workpiece 2 and measures the measurement target 4 supported by the workpiece 2 and the support 6 to obtain shape data (property data). Calculated by the three-dimensional measuring means 8, the calculating means 10 for calculating and synthesizing the workpiece 2 and the measurement target 4 in the virtual coordinate space from the shape data acquired by the three-dimensional measuring means 8, and the calculating means 10. A memory device 12 for storing the synthesized result and the like and an external output means 14 for outputting the synthesized result and the like are provided. The measurement target 4 may be disposed on the surface of the workpiece 2 or a surrounding structure.

ワーク2は、例えば船舶ブロックであるが、3次元の形状を維持するワークであればこれに限られない。
計測用ターゲット4は、計測したワーク2の3次元形状を3次元の仮想座標空間で形成する際に用いられるものである。図1に示すように、計測用ターゲット4の形状は球体である。
The workpiece 2 is, for example, a ship block, but is not limited to this as long as the workpiece 2 maintains a three-dimensional shape.
The measurement target 4 is used when the measured three-dimensional shape of the workpiece 2 is formed in a three-dimensional virtual coordinate space. As shown in FIG. 1, the shape of the measurement target 4 is a sphere.

本実施形態では、3次元計測手段8としてレーザスキャナを使用しており、当該レーザスキャナはレーザ距離計として機能し、レーザ光の射出とその反射レーザの受光とにより3次元計測手段8の位置からワーク2及び計測用ターゲット4上の各計測点までの距離をレーザ計測し、同時にレーザ光を発射した方向を計測することで3次元の点群として取得することにより、ワーク2及び計測用ターゲット4の形状データを取得する。   In the present embodiment, a laser scanner is used as the three-dimensional measuring unit 8, and the laser scanner functions as a laser distance meter. From the position of the three-dimensional measuring unit 8 by emitting laser light and receiving the reflected laser. By measuring the distance to each measurement point on the workpiece 2 and the measurement target 4 and measuring the direction in which the laser beam is emitted at the same time to obtain a three-dimensional point group, the workpiece 2 and the measurement target 4 are obtained. Get shape data.

演算手段10とメモリ装置12とは、図示しないがコンピュータに備えられている。演算手段10は当該コンピュータの中央演算処理装置により構成され、メモリ装置12はRAM、ROM等を含んで構成されている。
外部出力手段14は、シリアル通信、LANのネットワーク通信、画面出力、外部メモリ書き込み、またはファイル出力等により合成した結果等を出力する。
The computing means 10 and the memory device 12 are provided in a computer (not shown). The calculation means 10 is constituted by a central processing unit of the computer, and the memory device 12 is constituted by including RAM, ROM and the like.
The external output unit 14 outputs a result of synthesis by serial communication, LAN network communication, screen output, external memory writing, file output, or the like.

以下、このように構成された本発明の第1実施形態に係る対象体認識装置1の3次元点群の合成方法について説明する。
図2は、3次元点群の合成方法のフローチャートを示している。以下に述べるステップS2〜S6までの各処理は、メモリ装置12に格納されている各プログラムを演算手段10で実行することにより行われる。
Hereinafter, a method for synthesizing a three-dimensional point group of the object recognition apparatus 1 according to the first embodiment of the present invention configured as described above will be described.
FIG. 2 shows a flowchart of a method for synthesizing a three-dimensional point group. Each process from step S2 to S6 described below is performed by executing each program stored in the memory device 12 by the calculation means 10.

ステップS1では、ワーク2の周囲に複数の計測用ターゲット4を設置する。詳しくは図3(A)に図1の上面図を示すように、それぞれ半径(性状)の異なる計測用ターゲット4a、4b、4c、4dを配置する。計測用ターゲット4a〜4dは、3次元計測手段8がそれぞれを識別可能な大きさの球体である。ここで使用する計測用ターゲット4a〜4dの大きさは、使用する3次元計測手段8の種類や波長、または計測する環境によって決められる。   In step S <b> 1, a plurality of measurement targets 4 are installed around the work 2. Specifically, as shown in the top view of FIG. 1 in FIG. 3A, measurement targets 4a, 4b, 4c, and 4d having different radii (properties) are arranged. The measurement targets 4a to 4d are spheres of a size that can be identified by the three-dimensional measurement means 8. The sizes of the measurement targets 4a to 4d used here are determined depending on the type and wavelength of the three-dimensional measurement means 8 to be used, or the measurement environment.

ステップS2では、3次元計測手段8を使用してワーク2及び計測用ターゲット4a〜4dの形状データを3次元の点群として取得する(3次元計測ステップ)。例えば図3(A)に示すように、計測用ターゲット4c、4d側に3次元計測手段8を配置して計測する。ここで、3次元計測装置8の視点はワーク2側にある。なお、計測の際は、計測用ターゲット4a〜4dのうち最低3つは3次元計測手段8により計測される必要がある。   In step S2, the shape data of the workpiece 2 and the measurement targets 4a to 4d are acquired as a three-dimensional point group using the three-dimensional measurement means 8 (three-dimensional measurement step). For example, as shown in FIG. 3A, the measurement is performed by arranging the three-dimensional measuring means 8 on the measurement targets 4c and 4d side. Here, the viewpoint of the three-dimensional measuring apparatus 8 is on the workpiece 2 side. Note that at the time of measurement, at least three of the measurement targets 4 a to 4 d need to be measured by the three-dimensional measurement means 8.

ステップS3では、上記ステップS2で取得した計測点群の中から球体を構成する点群をターゲット点群として判別し、ターゲット点群の中心座標と半径とを算出して計測用ターゲット4a〜4dの何れに該当するかを判別する(個体点群判別ステップ)。
ステップS3が終了し、後述する点群合成に必要な複数方向からのワーク2のデータを取得していない場合には、上記ステップS2へ戻る。この際、図3(B)に示すように、例えば3次元計測装置8を計測用ターゲット4b、4d側へ移動後、ステップS2を実行する。
一方、点群合成に必要なデータを取得した場合には、ステップS4へ進む。
In step S3, the point group constituting the sphere is determined as the target point group from the measurement point group acquired in step S2, and the center coordinates and radius of the target point group are calculated to determine the measurement targets 4a to 4d. Which one corresponds is determined (individual point group determination step).
When step S3 is completed and the data of the workpiece 2 from a plurality of directions necessary for point group synthesis described later has not been acquired, the process returns to step S2. At this time, as shown in FIG. 3B, for example, after the three-dimensional measuring device 8 is moved to the measurement targets 4b and 4d, step S2 is executed.
On the other hand, if the data necessary for the point cloud synthesis is acquired, the process proceeds to step S4.

ステップS4では、上記ステップS2で取得した点群を合成する(点群合成ステップ)。
例えば、図3(C)に図3(A)、(B)を計測して取得した点群を合成して作成したモデルの上面図を示すように、上記ステップS2を繰り返して取得した各方向におけるワーク2及び計測用ターゲット4a〜4dの点群を、上記ステップS3で判別した各ターゲット点群の半径に従って、同じ半径のターゲット点群が重なり合うように合成する。
In step S4, the point cloud acquired in step S2 is synthesized (point cloud synthesis step).
For example, as shown in FIG. 3C, a top view of a model created by combining the point clouds obtained by measuring FIGS. 3A and 3B, each direction obtained by repeating step S2 above. The point groups of the workpiece 2 and the measurement targets 4a to 4d are combined so that the target point groups having the same radius overlap according to the radius of each target point group determined in step S3.

ステップS5では、上記ステップS4で合成した点群からワーク2を構成する点群の3次元座標を算出して形状モデリングを行い、ワーク2のモデルを作成する(形状モデリングステップ)。
ステップS6では、形状モデリングにより作成されたワーク2のモデルの寸法計測及びモデルの形状評価を行う。
In step S5, the three-dimensional coordinates of the point group constituting the work 2 are calculated from the point group synthesized in step S4 to perform shape modeling, and a model of the work 2 is created (shape modeling step).
In step S6, the dimension measurement of the model of the workpiece 2 created by the shape modeling and the shape evaluation of the model are performed.

ここで、上述した方法で、図4に概略構成図を示すように3次元計測手段8を使用して計測用ターゲット4までの距離Lを2m〜32mまで変化させて計測用ターゲット4を計測し、計測用ターゲット4に該当するターゲット点群から算出される球体の半径の精度を調査した。なお、使用した3次元計測手段8の波長は650nm近傍である。
調査した結果を図5(A)、(B)に示す。ここで、図5(A)は半径72.5mmの球体を計測用ターゲット4として使用した場合のグラフであり、図5(B)は半径19.0mmの球体を計測用ターゲット4として使用した場合のグラフである。
Here, by the method described above, the measurement target 4 is measured by changing the distance L to the measurement target 4 from 2 m to 32 m using the three-dimensional measuring means 8 as shown in the schematic configuration diagram of FIG. The accuracy of the radius of the sphere calculated from the target point group corresponding to the measurement target 4 was investigated. Note that the wavelength of the three-dimensional measuring means 8 used is around 650 nm.
The investigation results are shown in FIGS. 5 (A) and 5 (B). Here, FIG. 5A is a graph when a sphere with a radius of 72.5 mm is used as the measurement target 4, and FIG. 5B is a case when a sphere with a radius of 19.0 mm is used as the measurement target 4. It is a graph of.

図5(A)から、距離Lが長くなるにつれて取得できる点数はL-1.8に比例して減少し、32mで取得できた点数は70点程度であった。しかし、距離Lが延びるにつれて取得できる点数が減少するにもかかわらず、算出した計測用ターゲット4の半径のばらつきは小さく、精度良く半径を算出することが可能であった。
図5(B)についても上述した内容とほぼ同様のことが言えるが、32mで取得できた点数は5点程度であったため点群から球体を判別することができず、半径の算出はできなかった。
From FIG. 5A, the number of points that can be acquired as the distance L increases decreases in proportion to L −1.8, and the number of points that can be acquired at 32 m is about 70 points. However, although the number of points that can be acquired decreases as the distance L increases, the calculated variation in the radius of the measurement target 4 is small, and the radius can be calculated with high accuracy.
The same can be said for FIG. 5B as described above, but since the number of points acquired at 32 m was about 5, the sphere could not be determined from the point group and the radius could not be calculated. It was.

従って、計測用ターゲット4に使用する球体は大きい方がよく、例えば従来使用している半径が77mmより大きいものを用いるのがよい。また、3次元計測手段8の波長により精度が変化するため、計測用ターゲット4a〜4dの半径の差の付け方は使用する3次元計測手段8の波長によって決められる。   Therefore, the sphere used for the measurement target 4 is preferably large. For example, it is preferable to use a sphere having a conventionally used radius larger than 77 mm. In addition, since the accuracy varies depending on the wavelength of the three-dimensional measuring unit 8, the method of adding the difference in radius between the measurement targets 4a to 4d is determined by the wavelength of the three-dimensional measuring unit 8 to be used.

このように、本実施形態によれば、ワーク2の周囲に設置された半径の異なる計測用ターゲット4a〜4dに対して、3次元計測手段8を使用してワーク2及び計測用ターゲット4a〜4dの形状データを3次元の点群として取得し、点群の中から計測用ターゲット4a〜4dに該当する球体を構成する点群をターゲット点群として判別して各球体の中心座標と半径とを算出する。そして、3次元計測手段8の位置を変更して複数の方向からワーク2及び計測用ターゲット4a〜4dの計測及び判別を繰り返した後、各方向から取得した各点群における同じ半径のターゲット点群が重なり合うように合成する。   As described above, according to the present embodiment, the workpiece 2 and the measurement targets 4a to 4d using the three-dimensional measurement means 8 with respect to the measurement targets 4a to 4d having different radii installed around the workpiece 2 are used. Shape data is acquired as a three-dimensional point group, and the point group constituting the sphere corresponding to the measurement targets 4a to 4d is determined as the target point group from the point group, and the center coordinates and the radius of each sphere are determined. calculate. Then, after changing the position of the three-dimensional measuring means 8 and repeating the measurement and discrimination of the workpiece 2 and the measurement targets 4a to 4d from a plurality of directions, the target point group having the same radius in each point group acquired from each direction Are combined so that they overlap.

これにより、個々を識別可能な半径を有する球体を計測用ターゲット4として使用することにより、演算手段10は3次元計測手段8を使用して取得した3次元の点群から計測用ターゲット4a〜4dに該当するターゲット点群をそれぞれ自動的に判別することができ、同じ半径のターゲット点群を基準に各方向から取得した点群を合成するので、人為的なミスの混入を防止することができ、作業効率を向上させることができる。
さらに、自動的に合成した点群からワーク2の形状モデリングを行うので、作成されたワーク2のモデルの信頼性をより向上させることができる。
Thereby, by using a sphere having a radius that can be individually identified as the measurement target 4, the calculation means 10 can measure the measurement targets 4 a to 4 d from the three-dimensional point group obtained by using the three-dimensional measurement means 8. The target point cloud corresponding to each can be automatically discriminated and the point cloud acquired from each direction is synthesized based on the target point cloud of the same radius, so that human error can be prevented from being mixed. , Work efficiency can be improved.
Furthermore, since the shape modeling of the workpiece 2 is performed from the automatically synthesized point group, the reliability of the created model of the workpiece 2 can be further improved.

次に、本発明の第2実施形態について説明する。
本実施形態の3次元点群の合成方法では、第1実施形態に対して、計測用ターゲット4a〜4dの半径は略同一として、それぞれ異なる色相を有する球体とした点が相違しており、その他の構成は共通している。従って、共通箇所の説明は省略し、相違点について説明する。
Next, a second embodiment of the present invention will be described.
The method of synthesizing the three-dimensional point group of this embodiment is different from the first embodiment in that the radii of the measurement targets 4a to 4d are substantially the same and the spheres have different hues. The configuration is the same. Therefore, the description of the common part is omitted, and the difference is described.

図6(A)、(B)は、本発明の第2実施形態における図1の上面図である。これを、上述した図2の3次元点群の合成方法を示すフローチャートと共に以下に説明する。
ステップS1では、それぞれの色相ひいては輝度(性状)が異なる計測用ターゲット4a’〜4d’をワーク2の周囲に配置する。ここで使用する計測用ターゲット4a’〜4d’は、使用する3次元計測手段8の種類や波長、または計測するワーク2の反射によって決められる。
FIGS. 6A and 6B are top views of FIG. 1 in the second embodiment of the present invention. This will be described below together with a flowchart showing the method for synthesizing the three-dimensional point group in FIG. 2 described above.
In step S <b> 1, measurement targets 4 a ′ to 4 d ′ having different hues and thus different luminances (properties) are arranged around the work 2. The measurement targets 4a ′ to 4d ′ used here are determined by the type and wavelength of the three-dimensional measurement means 8 to be used or the reflection of the workpiece 2 to be measured.

ステップS2では、3次元計測手段8を使用してワーク2及び計測用ターゲット4a’〜4d’の形状データを3次元の点群として取得する。
ステップS3では、3次元計測手段8を使用して取得した点群から計測用ターゲット4a’〜4d’の輝度情報を取得し、計測用ターゲット4a’〜4d’の何れに該当するかを判別する(個体点群判別ステップ)。ここで、3次元計測手段8はレーザスキャナであるので、取得した点群を演算手段10で処理することにより輝度情報を取得する。
In step S2, the shape data of the workpiece 2 and the measurement targets 4a ′ to 4d ′ are acquired as a three-dimensional point group by using the three-dimensional measuring unit 8.
In step S3, the luminance information of the measurement targets 4a ′ to 4d ′ is acquired from the point cloud acquired using the three-dimensional measurement unit 8, and it is determined which of the measurement targets 4a ′ to 4d ′ corresponds. (Individual point group discrimination step). Here, since the three-dimensional measuring unit 8 is a laser scanner, luminance information is acquired by processing the acquired point group by the calculating unit 10.

ステップS3が終了し、点群合成に必要な複数方向からのワーク2のデータを取得していない場合には、上記ステップS2へ戻る。この際、図6(B)に示すように、例えば3次元計測装置8を計測用ターゲット4b、4d側へ移動した後にステップS2を実行する。
一方、点群合成に必要なデータを取得した場合には、ステップS4へ進む。
ステップS4では、複数の方向からワーク2及び計測用ターゲット4a’〜4d’を計測して取得した各点群を、図6(C)に示すように同じ輝度帯の輝度を有するターゲット点群が重なり合うように合成する(点群合成ステップ)。
When step S3 is completed and data of the workpiece 2 from a plurality of directions necessary for the point group synthesis has not been acquired, the process returns to step S2. At this time, as shown in FIG. 6B, for example, step S2 is executed after the three-dimensional measuring device 8 is moved to the measurement targets 4b and 4d.
On the other hand, if the data necessary for the point cloud synthesis is acquired, the process proceeds to step S4.
In step S4, each point cloud obtained by measuring the workpiece 2 and the measurement targets 4a ′ to 4d ′ from a plurality of directions is obtained as a target point cloud having the same luminance band as shown in FIG. 6C. The overlapping is performed (point group combining step).

ここで、上述した方法で、図7に概略構成図を示すように、色見本4eを3次元計測手段8で計測し、計測用ターゲット4として使用可能な輝度帯を調査した。ここでは、カラー情報(R/G/B)の値を用いれば容易に違いを認識することができるが、データ容量が大きくなり点群の合成処理に多くの時間を要するため、モノクロレーザスキャナで計測して輝度情報を調査した。なお、使用した3次元計測手段8の波長は650nm近傍であり、3次元計測手段8と色見本4eとの距離は一定とした。   Here, as shown in the schematic configuration diagram of FIG. 7, the color sample 4 e was measured by the three-dimensional measuring unit 8 and the luminance band that can be used as the measurement target 4 was investigated by the method described above. Here, the difference can be easily recognized by using the value of color information (R / G / B). However, since the data capacity is large and the point cloud compositing process requires a lot of time, the monochrome laser scanner uses it. The brightness information was investigated by measuring. Note that the wavelength of the three-dimensional measuring unit 8 used is near 650 nm, and the distance between the three-dimensional measuring unit 8 and the color sample 4e is constant.

使用可能な輝度帯として、図8(A)、(B)に色見本−輝度の関係を表すグラフを示す。色見本としてPANTONE社が出しているカラーチップを使用した。図8(A)、(B)にはそれぞれのカラーコードを示しており、平均値は各カラーコードでの輝度の平均値を表している。図8(A)に示すように、10〜210の輝度帯を4段階、つまり10〜60、61〜110、111〜160、161〜210に分割した各輝度帯、または図8(B)に示すように、20〜220の輝度帯を5段階、つまり20〜60、61〜100、101〜140、141〜180、181〜220に分割した各輝度帯とすることにより判別が可能であった。しかし、上述した範囲内での輝度帯をさらに増やすと、判別がつかなくなる可能性がある。   As usable luminance bands, graphs showing the relationship between the color sample and the luminance are shown in FIGS. A color chip from PANTONE was used as a color sample. Each color code is shown in FIGS. 8A and 8B, and the average value represents the average value of luminance in each color code. As shown in FIG. 8A, the luminance bands of 10 to 210 are divided into four stages, that is, the respective luminance bands divided into 10 to 60, 61 to 110, 111 to 160, and 161 to 210, or FIG. As shown, it was possible to discriminate by dividing the luminance band of 20 to 220 into five levels, that is, each luminance band divided into 20 to 60, 61 to 100, 101 to 140, 141 to 180, and 181 to 220. . However, if the luminance band in the above-described range is further increased, there is a possibility that the determination cannot be made.

ここで、3次元計測手段8の波長が変わると同じ色相でも異なる輝度になると想定されるため、計測用ターゲット4の輝度の差の付け方は使用する3次元計測手段8の波長によって決められる。
さらに、計測用ターゲット4の反射率によっても輝度が変わるため、計測用ターゲット4には夕日等を反射しない素材を使用する必要がある。
Here, when the wavelength of the three-dimensional measuring unit 8 changes, it is assumed that the same hue results in different luminances. Therefore, the method of adding the luminance difference of the measurement target 4 is determined by the wavelength of the three-dimensional measuring unit 8 to be used.
Furthermore, since the luminance varies depending on the reflectance of the measurement target 4, it is necessary to use a material that does not reflect sunset or the like for the measurement target 4.

このように、本実施形態ではそれぞれ輝度の異なる計測用ターゲット4a’〜4d’を使用して3次元計測手段8により計測して取得した3次元の点群から、計測用ターゲット4a’〜4d’に該当するターゲット点群に対して計測用ターゲット4a’〜4d’から取得した輝度情報に基づいて、複数の方向からワーク2及び計測用ターゲット4a’〜4d’を計測して取得した各点群を同じ輝度帯の輝度を有するターゲット点群が重なり合うように合成する。   As described above, in this embodiment, the measurement targets 4a ′ to 4d ′ are obtained from the three-dimensional point group measured and acquired by the three-dimensional measurement unit 8 using the measurement targets 4a ′ to 4d ′ having different luminances. Point groups obtained by measuring the workpiece 2 and the measurement targets 4a ′ to 4d ′ from a plurality of directions based on the luminance information acquired from the measurement targets 4a ′ to 4d ′ for the target point group corresponding to Are combined so that target point groups having the same luminance band overlap.

これにより、計測用ターゲット4a’〜4d’の輝度情報に基づいてターゲット点群を判別して3次元の点群を合成するので、上記第1実施形態と同様の効果を得ることができる。
また、計測用ターゲット4a’〜4d’に使用される輝度は10〜220の範囲の輝度帯から選択されることにより、確実に各輝度帯を判別することができるので、自動的にターゲット点群の合成を行うことができ、作業効率を向上させることができる。
Thereby, since the target point group is discriminated based on the luminance information of the measurement targets 4a ′ to 4d ′ and the three-dimensional point group is synthesized, the same effect as in the first embodiment can be obtained.
In addition, since the luminance used for the measurement targets 4a ′ to 4d ′ is selected from the luminance bands in the range of 10 to 220, each luminance band can be reliably determined, so that the target point group is automatically set. Thus, the working efficiency can be improved.

さらに、モノクロレーザスキャナで計測した計測用ターゲット4a’〜4d’の点群を処理して輝度情報を取得することにより、カラー情報としてデータを取得する場合よりもデータ容量が少なくなり、点群を合成する処理もより速くなるので、作業効率を向上させることができる。   Furthermore, by processing the point cloud of the measurement targets 4a ′ to 4d ′ measured by the monochrome laser scanner and acquiring the luminance information, the data capacity is smaller than when acquiring data as color information, and the point cloud is reduced. Since the process of synthesizing becomes faster, the working efficiency can be improved.

なお、本発明は上述した実施形態に限定されるものではない。
例えば、上記第1実施形態では異なる半径の計測用ターゲット4を使用し、上記第2実施形態では輝度の異なる計測用ターゲット4を使用してターゲット点群を判別したが、ターゲット4は異なる半径及び異なる輝度を組み合わせて構成されてもよい。これにより、ターゲット点群の判別精度をさらに向上させることができる。
また、上記各実施形態では、ワーク2を船舶ブロックとして説明したが、ワーク2はこれに限られず、橋やビルに対しても適用可能である。
In addition, this invention is not limited to embodiment mentioned above.
For example, in the first embodiment, the measurement target 4 having a different radius is used, and in the second embodiment, the target point group is determined using the measurement target 4 having a different luminance. You may comprise combining different brightness | luminance. Thereby, the discrimination accuracy of the target point group can be further improved.
Moreover, although each said embodiment demonstrated the workpiece | work 2 as a ship block, the workpiece | work 2 is not restricted to this, It is applicable also to a bridge and a building.

1 対象体認識装置
2 ワーク(計測対象物)
4、4a、4b、4c、4d、4a’、4b’、4c’、4d’ 計測用ターゲット
8 3次元計測手段
10 演算手段
12 メモリ装置
1 Object Recognition Device 2 Workpiece (Measurement Object)
4, 4a, 4b, 4c, 4d, 4a ', 4b', 4c ', 4d' Measuring target 8 Three-dimensional measuring means 10 Arithmetic means 12 Memory device

Claims (6)

計測対象物の近傍または表面に配置された個体識別する複数の計測用ターゲットの各性状データを、3次元計測手段を用いて計測して3次元の点群として取得する3次元計測ステップと、
前記点群から前記計測用ターゲットに該当するターゲット点群を抽出し、該ターゲット点群がいずれの前記計測用ターゲットに該当するかを判別する個体点群判別ステップと、
前記3次元計測手段の位置を変更して複数の方向から前記3次元計測ステップと前記個体点群判別ステップとを繰り返した後、前記個体点群判別ステップにより一方向において判別した各ターゲット点群及び他方向において判別した各ターゲット点群の中で同一性状を示すターゲット点群同士をそれぞれ重ね合わせて合成する点群合成ステップと、
を備えたことを特徴とする3次元点群の合成方法。
A three-dimensional measurement step of measuring each property data of a plurality of measurement targets to be identified that are arranged near or on the surface of the measurement object using a three-dimensional measurement means and obtaining them as a three-dimensional point group;
An individual point group determination step of extracting a target point group corresponding to the measurement target from the point group and determining to which measurement target the target point group corresponds;
After changing the position of the three-dimensional measurement means and repeating the three-dimensional measurement step and the individual point group determination step from a plurality of directions, each target point group determined in one direction by the individual point group determination step and A point group synthesis step for superposing and synthesizing target point groups showing the same properties among the target point groups determined in the other direction,
A method for synthesizing a three-dimensional point group.
さらに、前記点群合成ステップの後に、合成した点群から前記計測対象物の3次元形状を作成する形状モデリングステップを備えることを特徴とする、請求項1に記載の3次元点群の合成方法。   The method for synthesizing a three-dimensional point group according to claim 1, further comprising a shape modeling step for creating a three-dimensional shape of the measurement object from the synthesized point group after the point group synthesizing step. . 前記複数の計測用ターゲットは、それぞれ半径の大きさが異なる球体であって、前記同一性状は同一半径であることを特徴とする、請求項1または2に記載の3次元点群の合成方法。   3. The method for synthesizing a three-dimensional point group according to claim 1, wherein the plurality of measurement targets are spheres having different radii, and the same property is the same radius. 前記複数の計測用ターゲットは、それぞれ前記個体点群判別ステップにおいて前記計測用ターゲットを判別可能な異なる輝度帯の輝度を有する球体であって、前記同一性状は同一輝度帯の輝度であることを特徴とする、請求項1または2に記載の3次元点群の合成方法。   The plurality of measurement targets are spheres each having a luminance in a different luminance band capable of determining the measurement target in the individual point group determination step, and the same property is a luminance in the same luminance band. The method for synthesizing a three-dimensional point group according to claim 1 or 2. 前記輝度帯は10以上220以下の範囲から複数選択されることを特徴とする、請求項4に記載の3次元点群の合成方法。   The method for synthesizing a three-dimensional point group according to claim 4, wherein a plurality of the luminance bands are selected from a range of 10 to 220. 前記3次元計測ステップでは、前記計測用ターゲットをモノクロの3次元計測手段を使用して計測することを特徴とする、請求項4または5に記載の3次元点群の合成方法。   6. The method for synthesizing a three-dimensional point group according to claim 4, wherein, in the three-dimensional measurement step, the measurement target is measured using a monochrome three-dimensional measurement means.
JP2010197779A 2010-09-03 2010-09-03 3D point cloud synthesis method Expired - Fee Related JP5639821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010197779A JP5639821B2 (en) 2010-09-03 2010-09-03 3D point cloud synthesis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010197779A JP5639821B2 (en) 2010-09-03 2010-09-03 3D point cloud synthesis method

Publications (2)

Publication Number Publication Date
JP2012053004A true JP2012053004A (en) 2012-03-15
JP5639821B2 JP5639821B2 (en) 2014-12-10

Family

ID=45906463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010197779A Expired - Fee Related JP5639821B2 (en) 2010-09-03 2010-09-03 3D point cloud synthesis method

Country Status (1)

Country Link
JP (1) JP5639821B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018119852A (en) * 2017-01-25 2018-08-02 株式会社トプコン Position specification device, position specification method, position specification system, program for position specification, unmanned aircraft, and target for identifying unmanned aircraft
JP2019053003A (en) * 2017-09-19 2019-04-04 株式会社トプコン Data processor, method for processing data, and data processing program
JP2020012645A (en) * 2018-07-13 2020-01-23 株式会社トプコン Target device and survey system
JP2020537242A (en) * 2017-10-08 2020-12-17 マジック アイ インコーポレイテッド Calibration of sensor systems including multiple movable sensors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09329418A (en) * 1996-06-12 1997-12-22 Topcon Corp Calibrating method for camera
JP2002008014A (en) * 2000-06-20 2002-01-11 Ricoh Co Ltd Method and device for extracting three-dimensional shape, and recording medium
JP2003269936A (en) * 2002-03-19 2003-09-25 Sanyo Electric Co Ltd Automatic size-measuring method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09329418A (en) * 1996-06-12 1997-12-22 Topcon Corp Calibrating method for camera
JP2002008014A (en) * 2000-06-20 2002-01-11 Ricoh Co Ltd Method and device for extracting three-dimensional shape, and recording medium
JP2003269936A (en) * 2002-03-19 2003-09-25 Sanyo Electric Co Ltd Automatic size-measuring method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018119852A (en) * 2017-01-25 2018-08-02 株式会社トプコン Position specification device, position specification method, position specification system, program for position specification, unmanned aircraft, and target for identifying unmanned aircraft
JP2019053003A (en) * 2017-09-19 2019-04-04 株式会社トプコン Data processor, method for processing data, and data processing program
JP2020537242A (en) * 2017-10-08 2020-12-17 マジック アイ インコーポレイテッド Calibration of sensor systems including multiple movable sensors
JP2020012645A (en) * 2018-07-13 2020-01-23 株式会社トプコン Target device and survey system
JP2022141815A (en) * 2018-07-13 2022-09-29 株式会社トプコン surveying system
JP7292831B2 (en) 2018-07-13 2023-06-19 株式会社トプコン Target device and survey system
JP7343664B2 (en) 2018-07-13 2023-09-12 株式会社トプコン surveying system

Also Published As

Publication number Publication date
JP5639821B2 (en) 2014-12-10

Similar Documents

Publication Publication Date Title
CN105184765B (en) Check equipment, inspection method and program
CN103673925B (en) For measuring information processor and the method for target object
KR101604037B1 (en) method of making three dimension model and defect analysis using camera and laser scanning
CN105787923B (en) Vision system and analysis method for plane surface segmentation
RU2679964C1 (en) Image rendering of laser scan data
CN103608666B (en) For analyzing the device of hair fiber and method using the device
JP6364777B2 (en) Image data acquisition system and image data acquisition method
JP4885584B2 (en) Rangefinder calibration method and apparatus
EP2339292A1 (en) Three-dimensional measurement apparatus and method thereof
JP2018514237A (en) Texture mapping apparatus and method for dental 3D scanner
EP3079122B1 (en) Shading cg representations of materials
CN107025663A (en) It is used for clutter points-scoring system and method that 3D point cloud is matched in vision system
US20210004987A1 (en) Image processing apparatus, image processing method, and storage medium
JP5639821B2 (en) 3D point cloud synthesis method
CN108447081A (en) The system and method to score color candidate attitudes in coloured image in vision system
US10002437B2 (en) Method and electronic device of identifying redundant data
KR20020076177A (en) Method and apparatus for evaluating patterns, and computer-readable recording media
JP6410451B2 (en) Information processing apparatus, measurement system, information processing method, and program.
US9990724B2 (en) Image recording simulation in a coordinate measuring machine
Razali et al. Quality Assessment of 3D Point Clouds on the Different Surface Materials Generated from iPhone LiDAR Sensor.
JP2019045299A (en) Three-dimensional information acquisition device
JP2018205062A (en) Method for evaluation and evaluation system
US9674536B2 (en) Technique for visualizing elements in images by color coding
JP2015064755A (en) Three-dimensional shape measuring system and color information attachment method
JP6184339B2 (en) Appearance inspection apparatus, appearance inspection method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141027

R150 Certificate of patent or registration of utility model

Ref document number: 5639821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees