JPWO2016103492A1 - Shape measuring method and apparatus - Google Patents

Shape measuring method and apparatus Download PDF

Info

Publication number
JPWO2016103492A1
JPWO2016103492A1 JP2016565833A JP2016565833A JPWO2016103492A1 JP WO2016103492 A1 JPWO2016103492 A1 JP WO2016103492A1 JP 2016565833 A JP2016565833 A JP 2016565833A JP 2016565833 A JP2016565833 A JP 2016565833A JP WO2016103492 A1 JPWO2016103492 A1 JP WO2016103492A1
Authority
JP
Japan
Prior art keywords
shape
measurement
image
unit
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016565833A
Other languages
Japanese (ja)
Inventor
敦史 谷口
敦史 谷口
渡辺 正浩
正浩 渡辺
達雄 針山
達雄 針山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016103492A1 publication Critical patent/JPWO2016103492A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Abstract

対象の形状や表面状態にかかわらず、大物形状、長尺、広範囲の計測する汎用性を有する形状計測を可能にする。計測対象の形状を計測する方法及びその装置を、計測対象に複数の光源から発射された複数の照明光を照射し、計測対象の複数の照明光が照射された領域をカラーカメラで撮像し、カラーカメラで撮像して得られた検査対象のカラー画像を波長に応じて複数の画像に分離し、分離した複数の画像に対してそれぞれ異なる画像処理を施し、異なる画像処理を施した画像を合成して合成画像を作成し、作成した合成画像に基づいて計測対象の形状を計測するように構成した。Regardless of the shape and surface state of the target, it enables shape measurement that has the versatility of measuring large shapes, long shapes, and a wide range. A method and apparatus for measuring the shape of a measurement target is irradiated with a plurality of illumination lights emitted from a plurality of light sources on the measurement target, and an area irradiated with the plurality of illumination lights of the measurement target is imaged with a color camera, The color image to be inspected obtained by the color camera is separated into multiple images according to the wavelength, and each of the separated images is subjected to different image processing, and the images subjected to different image processing are combined. Thus, a composite image is created, and the shape of the measurement target is measured based on the created composite image.

Description

本発明は、測定対象物の三次元の形状を光学的に非接触で計測する形状計測方法およびその装置に関する。   The present invention relates to a shape measuring method and apparatus for measuring a three-dimensional shape of a measurement object optically in a non-contact manner.

測定対象物の三次元形状を光学的に非接触で計測する方法として、いろいろな方法が提案されている。   Various methods have been proposed as a method for optically measuring the three-dimensional shape of a measurement object in a non-contact manner.

特許文献1には、三次元形状の測定対象物に対して照射光を照射する光照射手段と、前記照射光が照射された測定対象物を撮像する撮像手段と、この撮像手段で撮像された光投影画像に基づいて前記測定対象物の座標を算出する画像処理手段とを備えた三次元形状の計測装置において、前記光照射手段を複数有すると共に,これら光照射手段がいずれも前記測定対象物に対して異なる方向から照射光を照射し、当該各光照射手段から照射する照射光をいずれも異なる波長に設定したことを特徴とする三次元形状の計測装置について記載されている。   In Patent Document 1, light irradiation means for irradiating irradiation light to a three-dimensional shape measurement object, imaging means for imaging the measurement object irradiated with the irradiation light, and the imaging means In a three-dimensional shape measuring apparatus comprising an image processing means for calculating coordinates of the measurement object based on a light projection image, the light irradiation means includes a plurality of light irradiation means, and each of the light irradiation means is the measurement object. The three-dimensional measuring device is characterized in that the irradiation light is irradiated from different directions and the irradiation light irradiated from the respective light irradiation means is set to different wavelengths.

特許文献2には、相対的に連続移動する測定対象物体に、垂直方向に対して所定の角度だけ傾いた方向から、異なる投影機で一定輝度光と濃度傾斜パターン光とを投影し、移動方向に直列に配置された少なくとも3台のラインセンサーによって、前記一定輝度光を投影した状態、前記濃度傾斜パターン光を投影した状態および光を投影しない状態のそれぞれの状態にある測定対象物の画像を撮影して同一位置の輝度を測定し、算出した同一位置の輝度比から形状計測を可能としたラインセンサーを用いた形状計測装置であって、前記一定輝度光と濃度傾斜パターン光の投影経路または前記測定対象物による反射経路に各ラインセンサーに一部の波長域の光のみを入射させる波長制限手段を設け、前記投影機の光軸をそれぞれ垂直方向に対して同じ方向に等しい角度で傾斜させて対応するラインセンサーの視線とのなす角度を等しくし、各ラインセンサー間で入力光量に対する出力の関係を線形化し、直線ゲイン係数を等しく設定したことを特徴とするラインセンサーを用いた形状計測装置について記載されている。   In Patent Document 2, a constant luminance light and a density gradient pattern light are projected onto a measurement object that moves relatively continuously from a direction inclined by a predetermined angle with respect to a vertical direction by using different projectors. An image of the measurement object in each of a state in which the constant luminance light is projected, a state in which the density gradient pattern light is projected, and a state in which the light is not projected is obtained by at least three line sensors arranged in series. A shape measuring device using a line sensor that measures the luminance at the same position by photographing and measures the shape from the calculated luminance ratio at the same position, wherein the projection path of the constant luminance light and the density gradient pattern light or Wavelength limiting means for allowing only light in a part of the wavelength range to enter each line sensor in the reflection path by the measurement object is provided, and the optical axis of the projector is set to be perpendicular to the vertical direction Inclined at the same angle in the same direction to equalize the angle formed with the line of sight of the corresponding line sensor, linearize the relationship of output to the input light quantity between each line sensor, and set the linear gain coefficient equal A shape measuring device using a line sensor is described.

特開平11−63954号公報JP-A-11-63554 特開2005−140537号公報JP 2005-140537 A

特許文献1には、複数の照射方向、および波長の異なる照明を用いた形状計測装置に関し記載されているが、いずれも一般に光切断法と呼ばれる形状計測方法を使用するものであり、対象の形状や表面状態による得手不得手がある。また、光切断方式ではレーザラインが照射されている箇所のみの計測になるため、大物形状、長尺、広範囲の計測には向かない。   Patent Document 1 describes a shape measuring apparatus using illumination with different irradiation directions and wavelengths, but all use a shape measuring method generally called a light cutting method, and the shape of an object. There are weaknesses due to surface condition. In addition, since the optical cutting method measures only the portion irradiated with the laser line, it is not suitable for measuring large shapes, long shapes, and a wide range.

特許文献2では、複数の異なる照明下での画像を、照明の波長を変えることで同時取得しているが、対象物の形状と反射率があらかじめ推定できることが前提であり、汎用性が低い。   In Patent Document 2, images under a plurality of different illuminations are acquired simultaneously by changing the wavelength of illumination. However, it is premised that the shape and reflectance of an object can be estimated in advance, and versatility is low.

本発明は、上記従来技術の課題を解決して、対象の形状や表面状態にかかわらず、大物形状、長尺、広範囲の計測を可能にする汎用性を有する形状計測方法及びその装置を提供するものである。   The present invention solves the above-mentioned problems of the prior art, and provides a versatile shape measuring method and apparatus capable of measuring a large shape, a long length, and a wide range regardless of the shape and surface state of an object. Is.

上記課題を解決するために、本発明では、計測対象の形状を計測する方法において、計測対象に複数の光源から発射された複数の照明光を照射し、計測対象の複数の照明光が照射された領域をカラーカメラで撮像し、カラーカメラで撮像して得られた検査対象のカラー画像を波長に応じて複数の画像に分離し、分離した複数の画像に対してそれぞれ異なる画像処理を施し、異なる画像処理を施した画像を合成して合成画像を作成し、作成した合成画像に基づいて計測対象の形状を計測するようにした。   In order to solve the above problems, in the present invention, in a method for measuring the shape of a measurement object, the measurement object is irradiated with a plurality of illumination lights emitted from a plurality of light sources, and the measurement object is irradiated with a plurality of illumination lights. The image area is imaged with a color camera, the color image to be inspected obtained with the color camera is separated into a plurality of images according to the wavelength, and each of the separated images is subjected to different image processing, A composite image is created by combining images subjected to different image processing, and the shape of the measurement object is measured based on the created composite image.

また、上記課題を解決するために、本発明では、計測対象の形状を計測する方法において、計測対象に複数の光源から発射された波長の異なる複数の照明光を照射し、計測対象の波長の異なる複数の照明光が照射された領域をカラーカメラで撮像し、カラーカメラで撮像して得られた計測対象のカラー画像を異なる波長に応じて複数の画像に分離し、波長に応じて分離した複数の画像に対してそれぞれ異なる画像処理を施し、異なる画像処理を施した画像を合成して合成画像を作成し、作成した合成画像を参照画像と比較して合成画像における計測対象の欠陥を検出し、合成画像と検出した欠陥との情報を出力するようにした。   In order to solve the above problem, in the present invention, in the method for measuring the shape of the measurement target, the measurement target is irradiated with a plurality of illumination lights having different wavelengths emitted from a plurality of light sources, and the measurement target wavelength is measured. The area irradiated with multiple different illumination lights was imaged with a color camera, and the color image of the measurement object obtained by imaging with the color camera was separated into multiple images according to different wavelengths, and separated according to the wavelengths Apply different image processing to multiple images, create a composite image by combining the images with different image processing, and compare the created composite image with the reference image to detect the measurement target defect in the composite image In addition, information on the composite image and the detected defect is output.

更に、上記課題を解決するために、本発明では、計測対象の形状を計測する装置を、計測対象に複数の照明光を照射する複数の光源を備えた光照射部と、計測対象の光照射部により複数の照明光が照射された領域を撮像して取得した検査対象のカラー画像を波長に応じて複数の画像に分離して出力する画像取得部と、画像取得部から分離して出力された複数の画像に対してそれぞれ異なる画像処理を施す画像処理部と、画像処理部で異なる画像処理を施した画像を合成して合成画像を作成する合成画像作成部と、合成画像作成部で作成した合成画像に基づいて計測対象の形状を計測する形状計測部と、形状計測部で計測対象の形状を計測した結果を出力する出力部とを備えて構成した。   Furthermore, in order to solve the above-described problems, in the present invention, an apparatus for measuring the shape of a measurement target includes a light irradiation unit including a plurality of light sources that irradiates a measurement target with a plurality of illumination lights, and light irradiation of the measurement target. An image acquisition unit that separates and outputs a color image to be inspected obtained by imaging a region irradiated with a plurality of illumination light by a unit, and outputs the separated color image from the image acquisition unit. Created by an image processing unit that performs different image processing on multiple images, a composite image creation unit that creates a composite image by combining images that have undergone different image processing by the image processing unit, and a composite image creation unit And a shape measuring unit that measures the shape of the measurement target based on the synthesized image, and an output unit that outputs the result of measuring the shape of the measurement target by the shape measuring unit.

本発明によれば、対象の形状や表面状態にかかわらず、大物形状、長尺、広範囲の計測を可能にする汎用性を有する形状計測を行うことができる。   According to the present invention, it is possible to perform shape measurement having versatility that enables measurement of a large shape, a long length, and a wide range regardless of the shape and surface state of the target.

本発明の実施例1に係る形状計測装置の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the shape measuring apparatus which concerns on Example 1 of this invention. 本発明の実施例1に係る形状計測装置の計測の処理の流れを示すフロー図である。It is a flowchart which shows the flow of a measurement process of the shape measuring apparatus which concerns on Example 1 of this invention. 本発明の実施例1に係る特殊透過フィルタの透過率特性を示すグラフである。It is a graph which shows the transmittance | permeability characteristic of the special transmission filter which concerns on Example 1 of this invention. 本発明の実施例1に係る照明部のスペクトルの特性を示すグラフである。It is a graph which shows the characteristic of the spectrum of the illumination part which concerns on Example 1 of this invention. 本発明の実施例1に係るカラーカメラによる取得画像の模式図である。It is a schematic diagram of the acquired image by the color camera which concerns on Example 1 of this invention. 本発明の実施例1に係るカラーカメラによる取得画像のうちのR線分の波長による画像の模式図である。It is a schematic diagram of the image by the wavelength of R line segment among the acquisition images by the color camera which concerns on Example 1 of this invention. 本発明の実施例1に係るカラーカメラによる取得画像のうちのG線分の波長による画像の模式図である。It is a schematic diagram of the image by the wavelength of G line segment among the acquisition images by the color camera which concerns on Example 1 of this invention. 本発明の実施例1に係るカラーカメラによる取得画像のうちのB線分の波長による画像の模式図である。It is a schematic diagram of the image by the wavelength of B line segment among the images acquired by the color camera which concerns on Example 1 of this invention. 本発明の実施例1に係るG画像からの形状復元の結果得られる画像の模式図である。It is a schematic diagram of an image obtained as a result of shape restoration from a G image according to Example 1 of the present invention. 本発明の実施例1に係る位置姿勢計測部の概略の構成を示す斜視図である。It is a perspective view which shows the schematic structure of the position and orientation measurement part which concerns on Example 1 of this invention. 本発明の実施例1に係る処理部の処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process of the process part which concerns on Example 1 of this invention. 本発明の実施例1に係る複数のG画像の模式図である。It is a schematic diagram of the several G image which concerns on Example 1 of this invention. 本発明の実施例1に係る複数のG画像から形状復元した結果得られる画像の模式図である。It is a schematic diagram of an image obtained as a result of shape restoration from a plurality of G images according to the first embodiment of the present invention. 本発明の実施例1に係る複数のR画像の模式図である。It is a schematic diagram of a plurality of R images according to Embodiment 1 of the present invention. 本発明の実施例1に係る複数のR画像から得られる特徴量画像の模式図である。It is a schematic diagram of the feature-value image obtained from the some R image which concerns on Example 1 of this invention. 本発明の実施例1に係る複数のR画像の特徴量画像から得られたの形状復元結果を示す模式図である。It is a schematic diagram which shows the shape restoration result obtained from the feature-value image of several R image which concerns on Example 1 of this invention. 本発明の実施例1に係るG、R画像の形状復元結果を統合した結果を示す模式図である。It is a schematic diagram which shows the result of having integrated the shape restoration result of the G and R image which concerns on Example 1 of this invention. 本発明の実施例2に係る形状計測部の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the shape measurement part which concerns on Example 2 of this invention. 本発明の実施例2に係る形状計測部のリングビーム発生部の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the ring beam generation part of the shape measurement part which concerns on Example 2 of this invention. 本発明の実施例2に係る特殊透過フィルタの透過率特性を示すグラフである。It is a graph which shows the transmittance | permeability characteristic of the special transmission filter which concerns on Example 2 of this invention. 本発明の実施例2に係る照明部のスペクトルの特性を示すグラフである。It is a graph which shows the characteristic of the spectrum of the illumination part which concerns on Example 2 of this invention. 本発明の実施例3に係る形状計測部の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the shape measurement part which concerns on Example 3 of this invention. 本発明の実施例4に係る形状計測部の概略の構成を示す斜視図である。It is a perspective view which shows the schematic structure of the shape measurement part which concerns on Example 4 of this invention. 本発明の実施例4に係る形状計測部の概略の構成を示す斜視図である。It is a perspective view which shows the schematic structure of the shape measurement part which concerns on Example 4 of this invention. 本発明の実施例5に係る形状計測部の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the shape measurement part which concerns on Example 5 of this invention. 本発明の実施例6に係る形状計測部の概略の構成を示す斜視図である。It is a perspective view which shows the schematic structure of the shape measurement part which concerns on Example 6 of this invention. 本発明の実施例6に係る形状計測部の概略の構成を示す斜視図である。It is a perspective view which shows the schematic structure of the shape measurement part which concerns on Example 6 of this invention.

本発明は、撮像手段を計測対象に沿って移動させながら取得したカラー画像を複数の画像に分離し、分離したそれぞれのを画像を処理した後に合成することにより、対象の形状や表面状態にかかわらず、大物形状、長尺、広範囲の計測を可能にする汎用性を有する形状計測を可能にした形状計測方法及びその装置に関するものである。
以下に、本発明の実施例を、図を用いて説明する。
The present invention separates the acquired color image into a plurality of images while moving the imaging means along the measurement object, and synthesizes each separated image after processing the image, thereby depending on the shape and surface state of the object. In particular, the present invention relates to a shape measuring method and apparatus that enable shape measurement having versatility that enables measurement of large shapes, long shapes, and a wide range.
Embodiments of the present invention will be described below with reference to the drawings.

本実施例では、1つのカラーカメラで取得されるRGBそれぞれで異なる形状計測手法を適用することで高精度・高密度な形状情報を取得することを可能にする。本発明の実施例1を図1〜図11を用いて説明する。   In this embodiment, it is possible to acquire high-precision and high-density shape information by applying different shape measurement methods for each of RGB acquired by one color camera. A first embodiment of the present invention will be described with reference to FIGS.

図1に本実施例の形状計測装置1000の構成を示す。測定対象1として電車の車両構体の内部形状を想定する。本実施例による形状計測装置1000は、測定対象1の形状を計測する計測ヘッド10と、測定対象1の位置と姿勢を計測するトラッカー部400と、計測ヘッドからの出力信号を処理する処理部500、全体を制御する制御部600を備えている。   FIG. 1 shows the configuration of a shape measuring apparatus 1000 according to this embodiment. As the measurement object 1, an internal shape of a train vehicle structure is assumed. The shape measuring apparatus 1000 according to this embodiment includes a measuring head 10 that measures the shape of the measuring object 1, a tracker unit 400 that measures the position and orientation of the measuring object 1, and a processing unit 500 that processes an output signal from the measuring head. A control unit 600 for controlling the whole is provided.

測定対象1の形状を計測する計測ヘッド10は、形状計測部100、位置姿勢計測部200、搬送部300を備えている。形状計測部100は、レーザ光源111とコーンミラー112とを備えてリング状のビームを形成するリングビーム発生部110と、結像レンズ121と特殊透過フィルタ122とカラーカメラ123を備えた画像検出部120、測定対象1を一様に照明する照明部130を備えて構成される。   The measuring head 10 that measures the shape of the measuring object 1 includes a shape measuring unit 100, a position / orientation measuring unit 200, and a conveying unit 300. The shape measuring unit 100 includes a laser beam source 111 and a cone mirror 112 to form a ring beam, a ring beam generating unit 110, an imaging lens 121, a special transmission filter 122, and an image detecting unit including a color camera 123. 120, configured to include an illumination unit 130 that uniformly illuminates the measurement target 1.

リングビーム発生部110から発生したリングビーム115が測定対象1に照射された箇所をカラーカメラ123にて撮像する。また、その際の計測ヘッド10の位置姿勢は位置姿勢計測部200により計測される。計測ヘッド10は搬送部300により移動しながら、カラーカメラ123による撮像、位置姿勢計測部200による位置姿勢計測を行う。例えば、搬送部300による計測ヘッド10の搬送は、測定対象1中に張られたワイヤ301上を進む構成とする。   A color camera 123 captures an image of a portion where the ring beam 115 generated from the ring beam generator 110 is irradiated on the measuring object 1. Further, the position and orientation of the measurement head 10 at that time is measured by the position and orientation measurement unit 200. The measuring head 10 performs imaging by the color camera 123 and position / orientation measurement by the position / orientation measurement unit 200 while moving by the transport unit 300. For example, the conveyance of the measurement head 10 by the conveyance unit 300 is configured to proceed on the wire 301 stretched in the measurement target 1.

搬送部300による搬送中(移動中)の計測ヘッド10の位置及び姿勢の計測は、計測ヘッド10にトラッカー部400から照射される複数本のレーザを、計測ヘッド10に設けた位置姿勢計測部200にて検出することで行う。計測ヘッド10の位置に応じてトラッカー部400が計測ヘッド10の位置と姿勢とを正確にトラッキングするよう、制御部600にてトラッカー部400から計測ヘッド10に照射するレーザの位置を制御する。   The position and orientation of the measuring head 10 being transported (moving) by the transport unit 300 is measured by the position / orientation measuring unit 200 in which the measuring head 10 is provided with a plurality of lasers irradiated from the tracker unit 400. This is done by detecting at. The controller 600 controls the position of the laser irradiated from the tracker unit 400 to the measuring head 10 so that the tracker unit 400 accurately tracks the position and orientation of the measuring head 10 according to the position of the measuring head 10.

処理部500は、形状計測部100のカラーカメラ123からの出力を処理して2次元の画像を生成する画像生成部501、位置姿勢計測部200からの出力を受けて計測ヘッド10の位置や姿勢を計測する位置・姿勢計測部502、画像生成部501で生成した画像を位置・姿勢計測部502で計測した計測ヘッド10の位置や姿勢の情報を用いて補正するが補正処理部503、補正処理部503で補正した画像データを処理して測定対象1の3次元画像を形成する3次元画像形成部504、3次元画像形成部504で形成した3次元画像から測定対象1の形状欠陥を抽出する欠陥抽出部505、3次元画像形成部504で形成した3次元画像と欠陥抽出部504で抽出した欠陥の情報とを画面上に表示する出力部506を備えている。   The processing unit 500 processes the output from the color camera 123 of the shape measuring unit 100 to generate a two-dimensional image, receives the output from the position / orientation measuring unit 200, and the position and orientation of the measuring head 10. The position / orientation measuring unit 502 for measuring the image and the image generated by the image generating unit 501 are corrected using the position / orientation information of the measuring head 10 measured by the position / orientation measuring unit 502, but the correction processing unit 503 and the correction process are corrected. The image data corrected by the unit 503 is processed to form a three-dimensional image of the measurement target 1. A three-dimensional image forming unit 504 that extracts a shape defect of the measurement target 1 from the three-dimensional image formed by the three-dimensional image formation unit 504. The defect extraction unit 505 includes an output unit 506 that displays the three-dimensional image formed by the three-dimensional image formation unit 504 and the defect information extracted by the defect extraction unit 504 on a screen.

制御部600は、測定対象1の3次元形状計測と欠陥の検出を実行するために、計測ヘッド10と、トラッカー部400と、処理部500とを制御する。   The control unit 600 controls the measurement head 10, the tracker unit 400, and the processing unit 500 in order to execute the three-dimensional shape measurement and defect detection of the measurement target 1.

形状計測装置1000を用いた計測のフローを図2に示す。まず、制御部600に、図示していない入力装置から計測ヘッド10の移動速度、加減速度、画像取得レート、計測終了位置のz座標等の形状条件を設定し(S100)、制御部600で搬送部300を制御して計測ヘッド10を移動開始させるとともに、形状計測部100及び位置姿勢計測部200で計測を始める(S101)。   A measurement flow using the shape measuring apparatus 1000 is shown in FIG. First, shape conditions such as the moving speed, acceleration / deceleration, image acquisition rate, z-coordinate of the measurement end position, and the like are set in the control unit 600 from an input device (not shown) (S100). The measurement head 10 is started to move by controlling the unit 300, and measurement is started by the shape measuring unit 100 and the position / orientation measuring unit 200 (S101).

計測ヘッド10が移動しながら、カラーカメラ123にて測定対象1の画像を取得し(S102)、同時に位置姿勢計測部200からの出力を処理部500の位置・姿勢計測部502で受けて計測ヘッド10の位置や姿勢を計測する(S103)。なお、制御部600は、トラッカー部400から照射される位置姿勢計測用レーザが計測ヘッド10の位置姿勢計測部200からはずれないようトラッキングする(S104)。   While the measuring head 10 is moving, the color camera 123 acquires an image of the measuring object 1 (S102), and at the same time, the position / orientation measuring unit 502 of the processing unit 500 receives the output from the position / orientation measuring unit 200 and the measuring head. 10 positions and orientations are measured (S103). The control unit 600 tracks so that the position / orientation measurement laser emitted from the tracker unit 400 does not deviate from the position / orientation measurement unit 200 of the measurement head 10 (S104).

処理部500の位置・姿勢計測部502は、位置計測部200で位置姿勢計測用レーザを検出した信号を処理して得られる位置姿勢計測結果とトラッキング結果より計測ヘッド10の座標、傾きを算出する(S105)。位置姿勢計測用レーザが照射された位置姿勢計測部200からの出力を受けて、処理部500の位置・姿勢計測部502は、移動する計測ヘッド10のz軸上の位置を常時計測ており、その位置が事前に設定した計測ヘッド10の停止位置を越えるか否かをモニタリングしておき(S106)、停止位置に到達するまでS102からS105を繰り返し、計測ヘッド10の位置が停止位置を越えたら制御部600で搬送部300を制御して計測ヘッド10を停止させる(S107)。   The position / orientation measurement unit 502 of the processing unit 500 calculates the coordinates and inclination of the measurement head 10 from the position / orientation measurement result obtained by processing the signal detected by the position measurement unit 200 for the position / orientation measurement laser and the tracking result. (S105). In response to the output from the position / orientation measurement unit 200 irradiated with the position / orientation measurement laser, the position / orientation measurement unit 502 of the processing unit 500 constantly measures the position of the moving measurement head 10 on the z-axis. It is monitored whether or not the position exceeds the preset stop position of the measuring head 10 (S106), and S102 to S105 are repeated until the stop position is reached, and if the position of the measuring head 10 exceeds the stop position. The control unit 600 controls the transport unit 300 to stop the measuring head 10 (S107).

次に、S102とS105にて取得された画像と計測ヘッドの位置姿勢情報とから、補正処理部503で補正した画像データを3次元画像形成部504処理して計測対象1の3次元形状を算出する(S108)。ここで、カラーカメラ123により撮像された画像、位置姿勢計測部200の計測は同期して行われている。詳細は後述するが、補正処理部503では、カラーカメラ123により移動しながら撮像されて画像生成部501で生成された複数の画像より測定対象1の形状を表す点群を算出し、その座標を位置・姿勢計測部502により有られた位置姿勢計測結果より高精度に補正する。
以下、各部の詳細を説明する。
Next, the image data corrected by the correction processing unit 503 is processed by the three-dimensional image forming unit 504 from the images acquired in S102 and S105 and the position and orientation information of the measurement head, and the three-dimensional shape of the measurement target 1 is calculated. (S108). Here, the image captured by the color camera 123 and the measurement by the position / orientation measurement unit 200 are performed in synchronization. Although details will be described later, the correction processing unit 503 calculates a point cloud representing the shape of the measurement target 1 from a plurality of images captured by the color camera 123 and generated by the image generation unit 501, and the coordinates thereof are calculated. The position / orientation measurement unit 502 corrects the position / orientation measurement result with higher accuracy.
Details of each part will be described below.

(形状計測部)
本実施例における形状計測部100の特徴は、レンズ121とカラーカメラ123との間に特殊透過フィルタ122を用いることである。図3に、特殊透過フィルタ122の透過率特性122aを示す。図4の(a)には、レンズ121だけを装着して特殊透過フィルタ122を用いない場合のカラーカメラ123のRGB(Green,Red,Bule)それぞれの透過率特性123a〜123cを示す。図3及び図4の(a)において、横軸が波長を示し、縦軸に透過率を示す。図3には、図4の(a)に示したような特殊透過フィルタ122を用いない場合のカラーカメラ123のRGBそれぞれの透過率特性123a〜123cを、特殊透過フィルタ122の透過率特性122aと重ねて表示してある。
(Shape measurement unit)
The feature of the shape measuring unit 100 in this embodiment is that a special transmission filter 122 is used between the lens 121 and the color camera 123. FIG. 3 shows the transmittance characteristic 122 a of the special transmission filter 122. 4A shows transmittance characteristics 123a to 123c of RGB (Green, Red, Blue) of the color camera 123 when only the lens 121 is attached and the special transmission filter 122 is not used. 3A and 4A, the horizontal axis indicates the wavelength, and the vertical axis indicates the transmittance. 3 shows the transmittance characteristics 123a to 123c of RGB of the color camera 123 when the special transmission filter 122 as shown in FIG. 4A is not used, and the transmission characteristics 122a of the special transmission filter 122. Overlaid.

図3に示したように、特殊透過フィルタ122を用いない場合のカラーカメラ123のRGBそれぞれの透過率特性123a〜123cに対し、特殊透過フィルタ122の透過率122aには、以下のような透過率特性を持たせる。すなわち、レーザライン115aを形成するためのリングビーム生成部110に用いるレーザ光源111から発射されるレーザはGの波長帯域122bを有するが、特殊透過フィルタ122の透過率122aは、Gの波長領域123bではレーザ光源111の波長領域122bに対して透過率が高く、Gの波長領域123bの他の波長は通さない、かつRの波長領域123a及びBの波長領域123cでは再び透過させるという特徴を持たせる。また、照明部130から発射されるレーザのスペクトル130aは、図4に示すように、レーザライン115aを取得するG帯域の波長は含まず、BとRの帯域の波長を持つことを特徴とする。   As shown in FIG. 3, the transmittance 122 a of the special transmission filter 122 has the following transmittance as compared to the RGB transmittance characteristics 123 a to 123 c of the color camera 123 when the special transmission filter 122 is not used. Give a characteristic. That is, the laser emitted from the laser light source 111 used in the ring beam generation unit 110 for forming the laser line 115a has the G wavelength band 122b, but the transmittance 122a of the special transmission filter 122 is in the G wavelength region 123b. Then, the transmittance is high with respect to the wavelength region 122b of the laser light source 111, the other wavelengths of the G wavelength region 123b are not passed, and the R wavelength region 123a and the B wavelength region 123c are transmitted again. . Further, as shown in FIG. 4, the spectrum 130a of the laser emitted from the illumination unit 130 does not include the wavelength in the G band for acquiring the laser line 115a, and has the wavelengths in the B and R bands. .

上記したような透過率特性を有する各光学素子を用いて取得した画像を、図5A乃至図5Dに模式的に示す。図5Aに示したように、取得した画像551(カラー画像)中には、リングビーム115が測定対象1にあたり生じるレーザライン115aがあり、特殊透過フィルタ122がBとRの波長領域の一部を透過することから、レーザライン115aだけでなく、その周辺の照明部130により照明された領域も撮像される。   Images acquired using the respective optical elements having the transmittance characteristics as described above are schematically shown in FIGS. 5A to 5D. As shown in FIG. 5A, in the acquired image 551 (color image), there is a laser line 115a generated when the ring beam 115 hits the measurement target 1, and the special transmission filter 122 covers a part of the B and R wavelength regions. Since the light is transmitted, not only the laser line 115a but also the area illuminated by the surrounding illumination unit 130 is imaged.

図5Aに示したカラー画像をRGBそれぞれに分解した画像を図5B〜図5Dに示す。照明部130から発射されるレーザには、図4の(b)に示したように、Gの波長領域成分の波長を含まないという特性を有しているために、図5Cに示したGの波長領域の検出信号だけを用いて形成した画像(以下、G画像と記す)には、ほぼレーザライン115aのみが撮像されている。一方、図5Bに示したBの波長領域123cの検出信号だけを用いて形成した画像(以下、B画像と記す)と図5Cに示したRの波長領域123aの検出信号だけを用いて形成した画像(以下、R画像と記す)とには、レーザライン115aは表示されず、カラーカメラ123視野内の計測対象1の像が撮像されている。   Images obtained by decomposing the color image shown in FIG. 5A into RGB are shown in FIGS. 5B to 5D. As shown in FIG. 4B, the laser emitted from the illuminating unit 130 has a characteristic that it does not include the wavelength of the wavelength region component of G. Therefore, the laser shown in FIG. In an image formed using only the detection signal in the wavelength region (hereinafter referred to as G image), only the laser line 115a is captured. On the other hand, an image formed using only the detection signal of the B wavelength region 123c shown in FIG. 5B (hereinafter referred to as a B image) and the detection signal of the R wavelength region 123a shown in FIG. In the image (hereinafter referred to as “R image”), the laser line 115a is not displayed, and an image of the measurement object 1 in the visual field of the color camera 123 is captured.

詳細は後述の(処理部)にて説明するが、図5Cに示したG画像からは、光切断法を用いて、図6に示すように測定対象1のレーザライン115a上の断面形状115bを算出することができる。一方、図5Bに示したR画像、及び図5Dに示したB画像は、計測ヘッド10を動かしながら取得した複数枚の画像を用いてモーションステレオ法を利用し、計測対象1の形状を算出するのに用いることができる。   The details will be described later (processing unit), but from the G image shown in FIG. 5C, the cross-sectional shape 115b on the laser line 115a of the measuring object 1 is shown as shown in FIG. Can be calculated. On the other hand, the R image shown in FIG. 5B and the B image shown in FIG. 5D use the motion stereo method to calculate the shape of the measurement object 1 using a plurality of images acquired while moving the measurement head 10. Can be used.

(位置姿勢計測部)
図7に位置姿勢計測部200とトラッカー部400との構成を示す。位置姿勢計測部200は、ビームスプリッタ210、2次元検出素子230a及び230bを備え、形状計測部の位置3自由度(x、y、z)、傾き3自由度(θx、θy、θz)の計6自由度を計測する。トラッカー部400は、レーザビーム発振部410とxyステージ430及び反射光検出部440を備え、レーザビーム発振部410から位置姿勢計測用レーザ410aと410b、距離計測用レーザ420が出射される。
(Position and orientation measurement unit)
FIG. 7 shows a configuration of the position / orientation measurement unit 200 and the tracker unit 400. The position / orientation measurement unit 200 includes a beam splitter 210 and two-dimensional detection elements 230a and 230b. The position / orientation measurement unit 200 measures the three degrees of freedom (x, y, z) and three degrees of freedom (θx, θy, θz) of the shape measurement unit. Measure 6 degrees of freedom. The tracker unit 400 includes a laser beam oscillation unit 410, an xy stage 430, and a reflected light detection unit 440, and position and orientation measurement lasers 410 a and 410 b and a distance measurement laser 420 are emitted from the laser beam oscillation unit 410.

レーザビーム発振部410から出力された位置姿勢計測用レーザ410aと410bは互いに平行なビームであり、位置姿勢計測部200に入射してビームスプリッタ210により、姿勢計測用レーザ410aと410bは透過光として、距離計測用レーザ420は反射光として分岐される。ビームスプリッタ210を透過した姿勢計測用レーザ410aと410bはCCD、CMOSなどの2次元検出素子230aで受光される。一方、ビームスプリッタ210で反射した距離計測用レーザ420はレンズ204により2次元検出素子230b上に集光される。   The position / orientation measurement lasers 410a and 410b output from the laser beam oscillation unit 410 are parallel beams, and enter the position / orientation measurement unit 200 and the beam splitter 210 causes the attitude measurement lasers 410a and 410b to be transmitted light. The distance measuring laser 420 is branched as reflected light. The attitude measurement lasers 410a and 410b that have passed through the beam splitter 210 are received by a two-dimensional detection element 230a such as a CCD or CMOS. On the other hand, the distance measuring laser 420 reflected by the beam splitter 210 is condensed on the two-dimensional detection element 230 b by the lens 204.

2次元検出素子230aおよび230bは受光したレーザの中心の座標を算出する役割を果たす。2次元検出素子230aには、姿勢計測用レーザ410aと410bがそれぞれ異なる位置に入射し、姿勢計測用レーザ410aと410bとに対応する点像410pおよび410qのある画像231aを得る。姿勢計測用レーザ410aと410bは平行に伝播しているため、画像231a上の2つの点像410pと410qのそれぞれの中心位置を結ぶ直線232aと、トラッカー部400が傾いていない時の基準線232bとの成す角、即ち傾きがθzとなる。   The two-dimensional detection elements 230a and 230b serve to calculate the coordinates of the center of the received laser. On the two-dimensional detection element 230a, posture measurement lasers 410a and 410b are incident on different positions, and an image 231a having point images 410p and 410q corresponding to the posture measurement lasers 410a and 410b is obtained. Since the posture measuring lasers 410a and 410b are propagating in parallel, a straight line 232a connecting the center positions of the two point images 410p and 410q on the image 231a and a reference line 232b when the tracker unit 400 is not tilted. Is the angle, ie, the inclination is θz.

ここで、点像410pと410qのそれぞれの中心は、得られた輝度分布に対し、ガウス関数をフィッティングする、又は、点像の重心を算出するなどして求めることができる。また、2次元検出素子230bより得られる画像231bにおける距離計測用レーザ420に対応する点像410rの基準点233からのズレdx、dyから   Here, the respective centers of the point images 410p and 410q can be obtained by fitting a Gaussian function to the obtained luminance distribution or calculating the center of gravity of the point image. Further, from the deviations dx and dy from the reference point 233 of the point image 410r corresponding to the distance measuring laser 420 in the image 231b obtained from the two-dimensional detection element 230b.

Figure 2016103492
Figure 2016103492

Figure 2016103492
Figure 2016103492

を用いてx、yそれぞれの軸を回転軸とした回転角度θx、θyが算出される。ここで、fはレンズ204と2次元検出素子230bとの距離である。 Are used to calculate rotation angles θx and θy with the respective axes of x and y as rotation axes. Here, f is the distance between the lens 204 and the two-dimensional detection element 230b.

このように、並行な2本のビームである姿勢計測用レーザ410aと410bを用いることで、位置姿勢計測部200の3次元の傾き(θx、θy、θz)を算出することができる。   As described above, the three-dimensional inclinations (θx, θy, θz) of the position / orientation measurement unit 200 can be calculated by using the attitude measurement lasers 410a and 410b, which are two parallel beams.

さらに、レーザは直進するため、画像231a上の点像410pもしくは点像410qの位置情報と3次元の傾き(θx、θy、θz)の情報とを用いて、計測ヘッド10を移動させるためのワイヤ301のたわみや振動により、位置姿勢計測部200がx軸、y軸方向に基準値から平行移動した量も算出できる。残りのz軸方向の距離は、2次元検出器230bの表面で反射しビームスプリッター210で反射して再びトラッカー部400に入射した距離計測用レーザ420をトカッラー部400の検出器440で検出して得たデータを用いて算出し、位置3自由度(x、y、z)が全て求まる。   Further, since the laser goes straight, a wire for moving the measuring head 10 using the position information of the point image 410p or the point image 410q on the image 231a and the information of the three-dimensional inclination (θx, θy, θz). The amount of translation of the position / orientation measurement unit 200 from the reference value in the x-axis and y-axis directions can also be calculated by the deflection and vibration of 301. The remaining distance in the z-axis direction is detected by the detector 440 of the Toccara section 400 by detecting the distance measuring laser 420 reflected by the surface of the two-dimensional detector 230b, reflected by the beam splitter 210 and incident on the tracker section 400 again. Calculation is performed using the obtained data, and all the three degrees of freedom (x, y, z) of the position are obtained.

ここで距離計測用レーザ420は、2次元検出器230bの表面反射を用いて計測しているが、位置姿勢計測部200の光学系の外に別途反射板を用意し、その反射板との距離を計測するようにしてもよい。   Here, the distance measuring laser 420 measures using the surface reflection of the two-dimensional detector 230b. However, a separate reflecting plate is prepared outside the optical system of the position / orientation measuring unit 200, and the distance from the reflecting plate is measured. May be measured.

(トラッカー部)
トラッカー部400は、上記に説明したように、レーザビーム発振部410とxyステージ430及び反射光検出部440を備え、レーザビーム発振部410から位置姿勢計測部200による位置姿勢計測に用いる位置姿勢計測用レーザ410a、410b、および距離計測用レーザ420を出射する。
(Tracker part)
As described above, the tracker unit 400 includes the laser beam oscillation unit 410, the xy stage 430, and the reflected light detection unit 440, and the position and orientation measurement used for the position and orientation measurement by the position and orientation measurement unit 200 from the laser beam oscillation unit 410. Lasers 410a and 410b and distance measuring laser 420 are emitted.

ここで、計測ヘッド10がワイヤ301に沿って移動中にxy平面内で大きく変位した場合、レーザビーム発振部410から位置姿勢計測部200に向けて出力された位置姿勢計測用レーザ410a、410bが、計測ヘッド10内部の位置姿勢計測部200の2次元検出素子230a、230bから外れてしまう可能性がある。   Here, when the measurement head 10 is largely displaced in the xy plane while moving along the wire 301, the position / orientation measurement lasers 410a and 410b output from the laser beam oscillation unit 410 toward the position / orientation measurement unit 200 are detected. There is a possibility that the two-dimensional detection elements 230a and 230b of the position / orientation measurement unit 200 inside the measurement head 10 may come off.

そのため、常に位置姿勢計測部200の位置姿勢をモニタリングしながら、レーザビーム発振部410から出射した位置姿勢計測用レーザ410a、410bが、位置姿勢計測部200の2次元検出素子230a、230bから外れないようトラッカー部400内のレーザビーム発振部410載せたxyステージ430を制御して、計測ヘッド10の動きに追従させる構成とする。   Therefore, while constantly monitoring the position and orientation of the position and orientation measurement unit 200, the position and orientation measurement lasers 410a and 410b emitted from the laser beam oscillation unit 410 do not come off from the two-dimensional detection elements 230a and 230b of the position and orientation measurement unit 200. The xy stage 430 mounted on the laser beam oscillation unit 410 in the tracker unit 400 is controlled to follow the movement of the measurement head 10.

例えば、点像位置410pが2次元検出素子230a内に設定した領域(図示せず)から外れたら、設定領域内に戻るようxyステージ430にフィードバック処理をかける。このxyステージ430の移動量を位置姿勢計測部200からの出力から求めた位置座標に加算し、最終的な位置座標とする。   For example, when the point image position 410p deviates from a region (not shown) set in the two-dimensional detection element 230a, feedback processing is applied to the xy stage 430 so as to return to the setting region. The movement amount of the xy stage 430 is added to the position coordinates obtained from the output from the position / orientation measurement unit 200 to obtain the final position coordinates.

(処理部)
処理部500では、位置姿勢計測用レーザ410aと410b、距離計測用レーザ420の出射、位置姿勢計測用各レーザ位置の制御、計測結果から形状算出を行う。位置姿勢計測用レーザ410aと410b、距離計測用レーザ420に関しては、上記した位置姿勢計測部200の説明の中で説明した。また、位置姿勢計測用各レーザ位置の制御は図2にて説明した。以下、形状計測部100で計測した形状計測結果から測定対象1の形状を算出する方法を、図8のフロー及び図9A乃至9C、図10A、図10B、及び図11を参照しながら説明する。
(Processing part)
In the processing unit 500, the position and orientation measurement lasers 410a and 410b, the distance measurement laser 420 are emitted, the position and orientation measurement laser positions are controlled, and the shape is calculated from the measurement results. The position / orientation measurement lasers 410a and 410b and the distance measurement laser 420 have been described in the description of the position / orientation measurement unit 200 described above. The control of the position and orientation measurement laser positions has been described with reference to FIG. Hereinafter, a method of calculating the shape of the measuring object 1 from the shape measurement result measured by the shape measuring unit 100 will be described with reference to the flow of FIG. 8 and FIGS. 9A to 9C, FIGS. 10A, 10B, and 11.

まず、形状計測部100のカラーカメラ123にて取得した測定対象1の画像を、RGB成分に分解する(S200)。次に、RGB成分に分解して得られた3種類の画像の内、リングビーム発生部110で発生させた波長領域がG成分のリングビームが照射されることにより測定対象1に形成されたレーザライン115aが撮像されている図9Aに示したようなG画像901について、光切断法を用いて断面形状を算出し(S201)、S201にて算出した断面形状の座標を位置姿勢計測部200にて計測した計測結果を用いて補正する(S202)。これらを計測ヘッド10をワイヤ301に沿って移動させながら取得した画像それぞれについて行うことで図9Bに示すようなに示すような測定対象1の断面の形状データ902が取得される。   First, the image of the measuring object 1 acquired by the color camera 123 of the shape measuring unit 100 is decomposed into RGB components (S200). Next, among the three types of images obtained by decomposing into RGB components, the laser formed on the measuring object 1 by irradiating the G component ring beam to the wavelength region generated by the ring beam generator 110. For the G image 901 as shown in FIG. 9A in which the line 115a is captured, the cross-sectional shape is calculated using the light cutting method (S201), and the coordinates of the cross-sectional shape calculated in S201 are input to the position / orientation measuring unit 200. Correction is performed using the measurement result measured in step S202. By performing these operations for each of the acquired images while moving the measuring head 10 along the wire 301, the shape data 902 of the cross section of the measuring object 1 as shown in FIG. 9B is acquired.

次に、R画像及びB画像に関しては形状を算出するために、図10A(R画像の場合を示す)に示したような画像1001中の特徴点を算出して、図10Bに示すような特徴画像1002を得る(S203)。この特徴画像1002を得る方法としては、例えば、エッジ抽出処理を行う。図10Cに模式図1003を示した。   Next, in order to calculate the shape of the R image and the B image, the feature points in the image 1001 as shown in FIG. 10A (showing the case of the R image) are calculated, and the features as shown in FIG. 10B are obtained. An image 1002 is obtained (S203). As a method of obtaining the feature image 1002, for example, edge extraction processing is performed. A schematic diagram 1003 is shown in FIG. 10C.

計測ヘッド10をワイヤ301に沿って動かしながら取得した複数枚の画像を用いてモーションステレオ法を利用し形状を算出する。図10Aに示したような計測ヘッド10が移動しながら取得した複数の画像1001は、それぞれ計測位置が異なるため、異なる画像で同じ個所が撮像されている場合に視差が異なる。この視差を位置姿勢計測部200及びトラッカー部400で計測して得られる計測ヘッド10の位置姿勢情報を位置・姿勢計測部502で算出した位置姿勢計測結果801を用いて図10Bに示したような特徴量画像1002から画像間の特徴量同士の対応点を算出し(S204)、ステレオ法に基づき図10Cに示したような形状1003を算出する(S205)。最後に、図11に示すように、G画像およびR画像とB画像より算出された形状を統合して形状画像1100を得る(S206)。   A shape is calculated using a motion stereo method using a plurality of images acquired while moving the measuring head 10 along the wire 301. The plurality of images 1001 acquired while the measurement head 10 as shown in FIG. 10A is moving has different measurement positions, and therefore the parallax is different when the same part is captured in different images. As shown in FIG. 10B using the position / orientation measurement result 801 calculated by the position / orientation measuring unit 502 for the position / orientation information of the measuring head 10 obtained by measuring the parallax with the position / orientation measuring unit 200 and the tracker unit 400. Corresponding points between the feature amounts between the images are calculated from the feature amount image 1002 (S204), and a shape 1003 as shown in FIG. 10C is calculated based on the stereo method (S205). Finally, as shown in FIG. 11, the shape image 1100 is obtained by integrating the shapes calculated from the G image, the R image, and the B image (S206).

次に、S206で統合して形成した形状画像1100を、CAD802に保管されている測定対象1の設計データと比較して差異を検出し(S207)、形状画像1100と設計データとの差異が予め設定した基準よりも大きいか所を欠陥として抽出し(S208)、抽出した欠陥1102の位置情報を、S206で統合して形成した形状画像1100と重ね合せてディスプレイ506上に表示する(S209)。   Next, the shape image 1100 integrated and formed in S206 is compared with the design data of the measurement object 1 stored in the CAD 802 to detect a difference (S207), and the difference between the shape image 1100 and the design data is detected in advance. A location larger than the set reference is extracted as a defect (S208), and the positional information of the extracted defect 1102 is displayed on the display 506 in a superimposed manner with the shape image 1100 formed by integrating in S206 (S209).

ステレオ法は、計測対象1の表面に特徴のない場合、画像に特徴点がないため、対応点の検出ができず形状を計算できない欠点がある。一方、光切断法は、表面に特徴がなくてもレーザラインよりその形状を算出することができる。このように複数手法を用いることで、計測手法の欠点を補い、より高精度な形状計測が実現する。また、光切断法はレーザラインの照射された箇所のみを計測するが、ステレオ法では、画像中に特徴となる点があれば、より広い領域の形状を一度に算出することができる。本実施例では、これら複数の計測手法の同時計測を、特殊透過フィルタとカラーカメラを用いることで実現する。   The stereo method has a drawback that when there is no feature on the surface of the measurement object 1, there is no feature point in the image, so that the corresponding point cannot be detected and the shape cannot be calculated. On the other hand, the optical cutting method can calculate the shape from the laser line even if the surface has no feature. By using a plurality of methods in this way, it is possible to compensate for the drawbacks of the measurement method and realize more accurate shape measurement. In addition, the light cutting method measures only the portion irradiated with the laser line. In the stereo method, if there is a characteristic point in the image, the shape of a wider region can be calculated at a time. In the present embodiment, the simultaneous measurement of the plurality of measurement methods is realized by using a special transmission filter and a color camera.

本実施例によれば、複数の計測処方による複数の画像を同時に得ることができるので、各計測手法で得られた画像間に位置のずれが発生せず、各画像を位置補正することなく重ね合せることにより高精度な形状計測を比較的短時間で実現することができる。   According to the present embodiment, a plurality of images based on a plurality of measurement prescriptions can be obtained at the same time, so that no positional deviation occurs between the images obtained by each measurement technique, and each image is superimposed without correcting the position. By combining them, highly accurate shape measurement can be realized in a relatively short time.

(搬送部)
形状計測部100、リングビーム発生部110、照明部130、位置姿勢計測部200、搬送部300を備えた計測ヘッド10の搬送方法として、図1にはワイヤー301による搬送の例を示した。本実施例の手法は、形状計測部100にカラーカメラ123を1台備えることで複数手法を実現できるため、装置が小型になるという特徴がある。そのため、搬送部300による搬送に変えて、手持ち、車輪による走行、UAV(Unmanned Aerial Vehicle)への搭載など様々な搬送方法を用いることができる。
(Transport section)
As a method of transporting the measuring head 10 including the shape measuring unit 100, the ring beam generating unit 110, the illumination unit 130, the position / orientation measuring unit 200, and the transporting unit 300, FIG. The technique of this embodiment has a feature that the apparatus can be downsized because a plurality of techniques can be realized by providing one color camera 123 in the shape measuring unit 100. Therefore, in place of the conveyance by the conveyance unit 300, various conveyance methods such as hand-held, traveling by wheels, and mounting on a UAV (Unmanned Aerial Vehicle) can be used.

本発明の実施例2を図12A〜図14を用いて説明する。   A second embodiment of the present invention will be described with reference to FIGS.

実施例1との違いは光切断用のリングビームが波長と照射方向の異なる2種類あり、それに伴い特殊透過フィルタ1222の透過特性、照明1230のスペクトルが異なる点である。その他の構成は図1を用いて説明した実施例1の形状測定装置1000の構成と同じであるので、説明を省略する。   The difference from the first embodiment is that there are two types of ring beams for light cutting with different wavelengths and irradiation directions, and accordingly, the transmission characteristics of the special transmission filter 1222 and the spectrum of the illumination 1230 are different. Other configurations are the same as the configuration of the shape measuring apparatus 1000 according to the first embodiment described with reference to FIG.

図12Aに、本実施例による形状計測部1200の概要を示す。本実施例においては、リングビーム発生部1210において、実施例1で説明したリングビーム115を計測対象1に照射するとともに、リングビーム115に対して傾斜したリングビーム116も測定対象1に照射される。リングビーム115の波長はG帯域の中心付近であり、リングビーム116の波長はR帯域の中心付近とする。   FIG. 12A shows an outline of the shape measuring unit 1200 according to this embodiment. In the present embodiment, the ring beam generator 1210 irradiates the measurement object 1 with the ring beam 115 described in the first embodiment, and also irradiates the measurement object 1 with the ring beam 116 inclined with respect to the ring beam 115. . The wavelength of the ring beam 115 is near the center of the G band, and the wavelength of the ring beam 116 is near the center of the R band.

図12Bに、リングビーム発生部1210の概略の構成を示す。リングビーム発生部1210は、G帯域の波長を有するレーザを発信するレーザ光源1211とリング状のビームを形成するコーンミラー1212との組み合わせと、R帯域の波長を有するレーザを発信するレーザ光源1213とリング状のビームを形成するコーンミラー1214との組み合わせとを備えている。   FIG. 12B shows a schematic configuration of the ring beam generator 1210. The ring beam generator 1210 includes a combination of a laser light source 1211 that emits a laser having a wavelength in the G band and a cone mirror 1212 that forms a ring-shaped beam, and a laser light source 1213 that emits a laser having a wavelength in the R band. And a cone mirror 1214 that forms a ring-shaped beam.

特殊透過フィルタ1222の透過特性を図13に示す。本実施例における特殊透過フィルタ1222は、B帯域とそれよりも短い波長の光を透過する透過特性1222aのほかに、レーザ光源1211とコーンミラー1212との組み合わせにより形成されるG帯域の波長を有するリングビーム115による測定対象1からの反射光を透過する透過特性1223bと、レーザ光源1213とコーンミラー1214との組み合わせにより形成されるR帯域の波長を有するリングビーム116による測定対象1からの反射光を透過する透過特性1223aとを持つ。   The transmission characteristics of the special transmission filter 1222 are shown in FIG. The special transmission filter 1222 in this embodiment has a wavelength in the G band formed by a combination of the laser light source 1211 and the cone mirror 1212 in addition to the transmission characteristic 1222a that transmits light in the B band and shorter wavelengths. Reflected light from the measuring object 1 by the ring beam 116 having an R band wavelength formed by a combination of the transmission characteristic 1223b that transmits the reflected light from the measuring object 1 by the ring beam 115 and the laser light source 1213 and the cone mirror 1214. Transmission characteristic 1223a.

図14の(a)には、レンズ121だけを装着して特殊透過フィルタ1222を用いない場合のカラーカメラ123のRGBそれぞれの波長領域に対する透過率特性1223a〜1223cを示す。   FIG. 14A shows transmittance characteristics 1223a to 1223c with respect to each wavelength region of RGB of the color camera 123 when only the lens 121 is attached and the special transmission filter 1222 is not used.

図13には、図14の(a)に示したような特殊透過フィルタ1222を用いない場合のカラーカメラ123のRGBそれぞれの透過率特性1223a〜1223cを、特殊透過フィルタ1222の透過率特性1222a、1223a,1223bと重ねて表示してある。   FIG. 13 shows the transmittance characteristics 1223 to 1223c of RGB of the color camera 123 when the special transmission filter 1222 as shown in FIG. 14A is not used, the transmittance characteristics 1222a of the special transmission filter 1222, 1223a and 1223b are displayed in an overlapping manner.

また、図14の(b)には、照明部1230から測定対象1に照射される照明光のスペクトル1230aを示す。カラーカメラ123のB帯域1223cに合わせたスペクトル1230aとなっており、B帯域の波長の光による画像取得が可能となる。   Further, FIG. 14B shows a spectrum 1230a of illumination light emitted from the illumination unit 1230 to the measurement object 1. The spectrum 1230a matches the B band 1223c of the color camera 123, and an image can be acquired using light having a wavelength in the B band.

2波長のリングビームを異なる方向に照射することにより、一方のリングビームでは、ビーム照射位置、もしくはビーム照射位置とカメラの位置関係により死角となる領域が、もう一方のリングビームでは検出可能となり、検出範囲が広がる。さらに、B帯域の波長の光にて取得した画像を用いたステレオ計測も行うことで、より計測時の死角が少ない計測を、1つのカメラにて行うことができる。   By irradiating two-wave ring beams in different directions, one ring beam can detect the beam irradiation position, or the area that becomes a blind spot due to the positional relationship between the beam irradiation position and the camera, and the other ring beam can detect it. The detection range is expanded. Furthermore, by performing stereo measurement using an image acquired with light of a wavelength in the B band, it is possible to perform measurement with fewer blind spots during measurement with one camera.

本発明の実施例3を図15を用いて説明する。
実施例1との違いは、リングビーム照明による光切断法、画像によるステレオ法に加え、ランダムドット照明を用いた形状計測法も同時に行う点にある。図15に形状計測部1500を示す。カラーカメラ123の帯域RGBそれぞれについて、R帯域にてランダムドット照明、G帯域にて光切断法、B帯域にてステレオ法を実施する。ランダムドット照明部1540は、R帯域の波長を持つ照明光を測定対象1に照射する。特殊透過フィルタ1522の透過特性は実施例2の図13で説明した特殊透過フィルタ1222と同様な透過率特性を有している。また、照明部1530のスペクトルも実施例2において図14の(b)に示した特性と同様である。
A third embodiment of the present invention will be described with reference to FIG.
The difference from the first embodiment is that a shape measurement method using random dot illumination is simultaneously performed in addition to the light cutting method using ring beam illumination and the stereo method using images. FIG. 15 shows a shape measuring unit 1500. For each band RGB of the color camera 123, random dot illumination is performed in the R band, a light cutting method is performed in the G band, and a stereo method is performed in the B band. The random dot illumination unit 1540 irradiates the measurement target 1 with illumination light having an R band wavelength. The transmission characteristics of the special transmission filter 1522 have the same transmittance characteristics as the special transmission filter 1222 described with reference to FIG. Further, the spectrum of the illumination unit 1530 is the same as the characteristic shown in FIG.

本実施例では、カラーカメラ123のRGBの帯域それぞれにて異なる3通りの形状計測手法を独立に実施することができる。ランダムドット照明部1540によるランダムドット照明は、測定対象1の表面に特徴が少ない時でも使用できる。また、光切断法においてリングビーム生成部1510で発生させたリングビームは一回の計測にて一断面を高精度に計測するが、ランダムドット照明は広い範囲に照明するため、計測範囲が広いという特徴がある。これらの計測手法を複数組み合わせ同時に実施することで、計測時の死角が少ない計測を、1つのカメラにて行うことができる。   In the present embodiment, three different shape measurement methods can be independently implemented for each of the RGB bands of the color camera 123. Random dot illumination by the random dot illumination unit 1540 can be used even when the surface of the measurement object 1 has few features. In addition, the ring beam generated by the ring beam generation unit 1510 in the light cutting method measures one section with high accuracy by one measurement, but random dot illumination illuminates a wide range, so the measurement range is wide. There are features. By performing a combination of a plurality of these measurement methods at the same time, measurement with a small blind spot at the time of measurement can be performed with one camera.

また、ランダムドット照明の代わりにパターン照明を用いることもできる。その場合も、各形状計測手法の欠点を補い合うことで、高精度・広範囲の計測が可能となる。   Also, pattern illumination can be used instead of random dot illumination. Even in this case, high-precision and wide-range measurement is possible by compensating for the disadvantages of each shape measurement method.

本発明の実施例4を図16を用いて説明する。
形状計測部1600を台車50に載せ、周囲の形状を計測しながら移動する。形状計測部1600を構成するリングビーム発生部110、カラーカメラ123、照明部130の構成は実施例1で説明したものと同様である。未知の環境で周囲形状を計測し、地図の構築および自己位置推定を行う技術であるSLAM(SIMULTANEOUS Localization and Mapping)を利用することで、位置同定システムへの適用が可能となる。
A fourth embodiment of the present invention will be described with reference to FIG.
The shape measuring unit 1600 is placed on the carriage 50 and moved while measuring the surrounding shape. The configurations of the ring beam generation unit 110, the color camera 123, and the illumination unit 130 included in the shape measurement unit 1600 are the same as those described in the first embodiment. By using SLAM (SIMULTA NEOUS Localization and Mapping), which is a technology that measures surrounding shapes in an unknown environment, constructs a map, and performs self-position estimation, it can be applied to a position identification system.

SLAMにおける地図の構築、自己位置推定の精度は、形状計測精度そのもに依存するところが大きい。本発明の複数方式を搭載した形状計測部100により、光切断法による壁や障害物の認識の他、画像・ステレオ計測による周囲の特徴模様の計測を同時に行うことにより、SLAM高精度化が実現する。また、図17のように形状計測部1700を上向きに設置することもできる。床面、天井など環境に応じて特徴点が多い向きにカメラの視野が向くよう形状計測部100を設置する。   The accuracy of map construction and self-position estimation in SLAM largely depends on the shape measurement accuracy itself. The shape measuring unit 100 equipped with the multiple methods of the present invention realizes high accuracy of SLAM by simultaneously measuring walls and obstacles by light cutting and measuring surrounding feature patterns by image / stereo measurement. To do. In addition, as shown in FIG. 17, the shape measuring unit 1700 can be installed upward. The shape measuring unit 100 is installed so that the field of view of the camera faces in the direction with many feature points according to the environment such as the floor and the ceiling.

本発明の実施例5を図18を用いて説明する。本実施例では、測定対象の長軸が地面に対して斜めに傾いているときでも形状計測を行える形状計測装置の例を説明する。   A fifth embodiment of the present invention will be described with reference to FIG. In the present embodiment, an example of a shape measuring apparatus capable of measuring a shape even when the long axis of the measurement target is inclined obliquely with respect to the ground will be described.

図18に装置構成を示す。エスカレータ2の形状計測を例に説明する。エスカレータ2は台座20に固定されている。形状計測装置は、形状計測部100と、位置姿勢計測部200、搭載部314と、搭載部314と接続された搭載用ワイヤ310と、移動用ワイヤ311と、トラッカー部400及び、処理部500とを備えている。傾斜台431はXYステージ430に搭載したトラッカ―部400の向きを変更する役割を果たす。形状計測部の相対的な位置と姿勢を計測すればよく、傾斜台431は傾斜角度を測定する必要はなく、図7の位置姿勢計測用レーザ410a、410bが位置姿勢計測部200の2次元検出素子230a、230bに対して概垂直に入射するように角度を調整すればよい。   FIG. 18 shows the apparatus configuration. The shape measurement of the escalator 2 will be described as an example. The escalator 2 is fixed to the pedestal 20. The shape measuring device includes a shape measuring unit 100, a position / orientation measuring unit 200, a mounting unit 314, a mounting wire 310 connected to the mounting unit 314, a moving wire 311, a tracker unit 400, and a processing unit 500. It has. The tilt table 431 serves to change the direction of the tracker unit 400 mounted on the XY stage 430. It is only necessary to measure the relative position and orientation of the shape measurement unit, and the tilt table 431 does not need to measure the tilt angle, and the position and orientation measurement lasers 410a and 410b in FIG. What is necessary is just to adjust an angle so that it may inject substantially perpendicularly with respect to element 230a, 230b.

また、アダプタ330の取付位置を変え、形状計測部100と搭載部314の傾きを等しくすることができ、傾斜台430を用いることなく構成することができる。搭載部314は支柱313に固定された搭載用ワイヤ310に計測ヘッド10を搭載する役割を果たす。モータ321は巻き取り部320に配置されており移動用ワイヤ311を用いて形状計測部を移動する役割を果たす。計測の仕方は、実施例1で説明した方法と同じである。   Further, the mounting position of the adapter 330 can be changed to make the inclination of the shape measuring unit 100 and the mounting unit 314 equal, and the configuration can be made without using the tilting table 430. The mounting portion 314 plays a role of mounting the measuring head 10 on the mounting wire 310 fixed to the support column 313. The motor 321 is disposed in the winding unit 320 and serves to move the shape measuring unit using the moving wire 311. The measurement method is the same as the method described in the first embodiment.

本実施例によれば、エスカレータのように測定対象が重力方向に対して斜めに傾斜している場合でも、形状を計測することができる。   According to the present embodiment, the shape can be measured even when the measuring object is inclined obliquely with respect to the direction of gravity, such as an escalator.

これにより、本発明では、例えば設置、測定の工数が少ない方法で、移動手段の精度によらず、大きな測定対象の形状物を高精度に測定することが出来る。例えば10mを超える測定対象の形状を、例えば1mm以下の精度で測定できる測定形状計測システムを提供することができる。   As a result, in the present invention, for example, a large object to be measured can be measured with high accuracy regardless of the accuracy of the moving means by a method with less man-hours for installation and measurement. For example, it is possible to provide a measurement shape measurement system that can measure the shape of a measurement object exceeding 10 m with an accuracy of, for example, 1 mm or less.

本発明の実施例6を図20を用いて説明する。本実施例では、測定対象の長軸が地面に対して垂直のときでも形状計測を行える形状計測システムの例をエレベータのレールの形状計測を例に説明する。   A sixth embodiment of the present invention will be described with reference to FIG. In the present embodiment, an example of a shape measurement system that can perform shape measurement even when the long axis of a measurement target is perpendicular to the ground will be described by taking the shape measurement of an elevator rail as an example.

エレベータ3は、レール31、吊り上げ部801、エレベータ制御部802と乗車部分のかごから成る。図19はかごに変えて形状計測装置800を搭載した、レール31の形状計測例である。位置姿勢計測センサ部200を天板803に取り付け、形状計測部100の位置と姿勢を計測する。吊り下げワイヤ317で計測ヘッド10を吊り上げる。巻き取り部801で吊り下げワイヤ317を巻き取り、長さを調整することにより形状計測ヘッド10を上下に移動する。   The elevator 3 includes a rail 31, a lifting unit 801, an elevator control unit 802, and a car for a riding portion. FIG. 19 shows an example of shape measurement of the rail 31 in which a shape measuring device 800 is mounted instead of a cage. The position / orientation measurement sensor unit 200 is attached to the top plate 803, and the position and orientation of the shape measuring unit 100 are measured. The measuring head 10 is lifted by the hanging wire 317. The shape measuring head 10 is moved up and down by winding the suspension wire 317 at the winding unit 801 and adjusting the length.

図20は、吊り下げワイヤ317を用いることなく、ガイドレール901上を移動しながら形状計測を行う形状計測システム900の構成例である。形状計測ヘッド10に車輪902を取り付け、自重でレール上を移動しながら形状計測を行う。また、モータなどの駆動機構を用いて車輪901を駆動させる構成としても良い。   FIG. 20 is a configuration example of a shape measurement system 900 that performs shape measurement while moving on the guide rail 901 without using the hanging wire 317. A wheel 902 is attached to the shape measuring head 10 and the shape is measured while moving on the rail with its own weight. Moreover, it is good also as a structure which drives the wheel 901 using drive mechanisms, such as a motor.

これまで説明してきた実施例は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The embodiments described so far are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention is not limitedly interpreted by these. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

1・・・測定対象 2・・・エスカレータ 3・・・エレベータ 10・・・計測ヘッド 20・・・台座 31・・・レール 50・・・台車 100・・・形状計測部 110・・・リングビーム発生部 111・・・レーザ光源 112・・・コーンミラー 115、116・・・リングビーム 115a・・・レーザライン 120・・・画像検出部 121・・・結像レンズ 122・・・特殊透過フィルタ 123・・・カラーカメラ 130・・・照明部 140・・・ランダムドット照明部 200・・・位置姿勢計測部 230a、230b・・・2次元検出素子 232・・・基準線 233・・・基準点 300・・・搬送部 301・・・ワイヤ 310・・・搭載用ワイヤ 311・・・移動用ワイヤ 313・・・支柱 314・・・搭載部 317・・・吊り下げワイヤ 320・・・巻き取り部 321・・・モータ 330・・・アダプタ 400・・・トラッカー部 410a、410b・・・位置姿勢計測用レーザ 420・・・距離計測用レーザ 430・・・傾斜台 500・・・処理部 800・・・形状計測装置 801・・・吊り上げ部 802・・・エレベータ制御部。   DESCRIPTION OF SYMBOLS 1 ... Measuring object 2 ... Escalator 3 ... Elevator 10 ... Measuring head 20 ... Base 31 ... Rail 50 ... Carriage 100 ... Shape measuring part 110 ... Ring beam Generating unit 111... Laser light source 112... Cone mirror 115 and 116... Ring beam 115 a... Laser line 120. ... Color camera 130 ... Illumination unit 140 ... Random dot illumination unit 200 ... Position and orientation measurement unit 230a, 230b ... Two-dimensional detection element 232 ... Reference line 233 ... Reference point 300 ... Conveying part 301 ... Wire 310 ... Mounting wire 31 ... Moving wire 313 ... Post 314 ... Mounting part 317 ... Hanging wire 320 ... Winding part 321 ... Motor 330 ... Adapter 400 ... Tracker part 410a, 410b ... Position and orientation measurement laser 420 ... Distance measurement laser 430 ... Tilting table 500 ... Processing unit 800 ... Shape measuring device 801 ... Lifting unit 802 ... Elevator control unit.

上記課題を解決するために、本発明では、計測対象の形状を計測する方法において、計測対象に複数の光源から発射された複数の照明光を照射し、計測対象の複数の照明光が照射された領域をカラーカメラで撮像し、カラーカメラで撮像して得られた計測対象のカラー画像を波長に応じて複数の画像に分離し、分離した複数の画像に対してそれぞれ異なる画像処理を施し、異なる画像処理を施した画像を合成して合成画像を作成し、作成した合成画像に基づいて計測対象の形状を計測するようにした。 In order to solve the above problems, in the present invention, in a method for measuring the shape of a measurement object, the measurement object is irradiated with a plurality of illumination lights emitted from a plurality of light sources, and the measurement object is irradiated with a plurality of illumination lights. The color image of the measurement object obtained by imaging with the color camera and the image captured with the color camera is separated into a plurality of images according to the wavelength, and each of the separated images is subjected to different image processing, A composite image is created by combining images subjected to different image processing, and the shape of the measurement object is measured based on the created composite image.

更に、上記課題を解決するために、本発明では、計測対象の形状を計測する装置を、計測対象に複数の照明光を照射する複数の光源を備えた光照射部と、計測対象の光照射部により複数の照明光が照射された領域を撮像して取得した計測対象のカラー画像を波長に応じて複数の画像に分離して出力する画像取得部と、画像取得部から分離して出力された複数の画像に対してそれぞれ異なる画像処理を施す画像処理部と、画像処理部で異なる画像処理を施した画像を合成して合成画像を作成する合成画像作成部と、合成画像作成部で作成した合成画像に基づいて計測対象の形状を計測する形状計測部と、形状計測部で計測対象の形状を計測した結果を出力する出力部とを備えて構成した。
Furthermore, in order to solve the above-described problems, in the present invention, an apparatus for measuring the shape of a measurement target includes a light irradiation unit including a plurality of light sources that irradiates a measurement target with a plurality of illumination lights, and light irradiation of the measurement target. An image acquisition unit that separates and outputs a color image of a measurement target acquired by imaging a region irradiated with a plurality of illumination lights into a plurality of images according to wavelength, and is output separately from the image acquisition unit Created by an image processing unit that performs different image processing on multiple images, a composite image creation unit that creates a composite image by combining images that have undergone different image processing by the image processing unit, and a composite image creation unit And a shape measuring unit that measures the shape of the measurement target based on the synthesized image, and an output unit that outputs the result of measuring the shape of the measurement target by the shape measuring unit.

Claims (15)

計測対象の形状を計測する方法であって、
計測対象に複数の光源から発射された複数の照明光を照射し、
前記計測対象の前記複数の照明光が照射された領域をカラーカメラで撮像し、
前記カラーカメラで撮像して得られた前記検査対象のカラー画像を波長に応じて複数の画像に分離し、
前記分離した複数の画像に対してそれぞれ異なる画像処理を施し、
前記異なる画像処理を施した画像を合成して合成画像を作成し、
前記作成した合成画像に基づいて前記計測対象の形状を計測する
ことを特徴とする形状計測方法。
A method for measuring the shape of a measurement object,
Irradiate multiple illumination lights emitted from multiple light sources onto the measurement target,
The area irradiated with the plurality of illumination lights of the measurement object is imaged with a color camera,
The color image of the inspection object obtained by imaging with the color camera is separated into a plurality of images according to the wavelength,
Each of the separated images is subjected to different image processing,
A composite image is created by combining the images subjected to the different image processing,
A shape measuring method, wherein the shape of the measurement target is measured based on the created composite image.
請求項1記載の形状計測方法であって、前記計測対象の前記複数の照明光が照射された領域をカラーカメラで撮像することを、前記カラーカメラを前記計測対象に沿って移動させながら複数の位置で前記計測対象の前記複数の照明光が照射された領域をカラーカメラで撮像することを特徴とする形状計測方法。   2. The shape measurement method according to claim 1, wherein the area of the measurement object irradiated with the plurality of illumination lights is imaged with a color camera, and the color camera is moved along the measurement object. A shape measuring method comprising: imaging a region irradiated with the plurality of illumination lights to be measured with a color camera at a position. 請求項1記載の形状計測方法であって、照射前記計測対象に前記複数の照明光を照射することを、前記計測対象の比較的広い領域に第1の光源から発射された第1の照明光を照射し、前記計測対象の前記第1の光源から発射された第1の照明光が照射された領域に第2の光源から発射された前記第1の照明光とは異なる波長の第2の照明光を前記計測対象の比較的狭い領域の照射することを特徴とする形状計測方法。   2. The shape measurement method according to claim 1, wherein the first illumination light emitted from the first light source to a relatively wide area of the measurement target is used to irradiate the irradiation target with the plurality of illumination lights. The second illumination light having a wavelength different from that of the first illumination light emitted from the second light source is irradiated on the region irradiated with the first illumination light emitted from the first light source to be measured. A shape measurement method characterized by irradiating illumination light on a relatively narrow region of the measurement target. 請求項1記載の形状計測方法であって、前記計測対象の前記複数の照明光が照射された領域をカラーカメラで撮像することを、特定の波長領域の光を遮光する光学フィルタを介して前記カラーカメラで撮像することを特徴とする形状計測方法。   The shape measurement method according to claim 1, wherein the area to which the plurality of illumination lights to be measured is irradiated is imaged with a color camera via an optical filter that blocks light in a specific wavelength range. A shape measuring method characterized by capturing an image with a color camera. 請求項1記載の形状計測方法であって、前記分離した複数の画像に対してそれぞれ異なる画像処理を施すことが、前記分離した複数の画像のそれぞれに対して、光切断法、ステレオ法、パターン投影法、およびランダムドット法のうちの何れかの異なる画像処理を施すことを特徴とする形状計測方法。   The shape measurement method according to claim 1, wherein different image processing is performed on each of the plurality of separated images, and a light cutting method, a stereo method, and a pattern are performed on each of the plurality of separated images. A shape measuring method characterized by performing different image processing of any one of a projection method and a random dot method. 計測対象の形状を計測する方法であって、
計測対象に複数の光源から発射された波長の異なる複数の照明光を照射し、
前記計測対象の前記波長の異なる複数の照明光が照射された領域をカラーカメラで撮像し、
前記カラーカメラで撮像して得られた前記計測対象のカラー画像を前記異なる波長に応じて複数の画像に分離し、
前記波長に応じて分離した複数の画像に対してそれぞれ異なる画像処理を施し、
前記異なる画像処理を施した画像を合成して合成画像を作成し、
前記作成した合成画像を参照画像と比較して前記合成画像における前記計測対象の欠陥を検出し、
前記合成画像と前記検出した欠陥との情報を出力する
ことを特徴とする形状計測方法。
A method for measuring the shape of a measurement object,
Irradiate multiple illumination lights with different wavelengths emitted from multiple light sources to the measurement target,
Image a region irradiated with a plurality of illumination lights having different wavelengths of the measurement target with a color camera,
Separating the color image of the measurement object obtained by imaging with the color camera into a plurality of images according to the different wavelengths;
Each of the plurality of images separated according to the wavelength is subjected to different image processing,
A composite image is created by combining the images subjected to the different image processing,
Detecting the measurement target defect in the composite image by comparing the created composite image with a reference image;
Information on the synthesized image and the detected defect is output. A shape measuring method.
請求項6記載の形状計測方法であって、前記比較する参照画像が、前記計測対象のCAD画像であることを特徴とする形状計測方法。   The shape measurement method according to claim 6, wherein the reference image to be compared is a CAD image to be measured. 請求項6記載の形状計測方法であって、前記計測対象に前記波長の異なる複数の照明光を照射することを、前記計測対象の比較的広い領域に第1の光源から発射された第1の波長の照明光を照射し、前記計測対象の前記第1の光源から発射された第1の波長の照明光が照射された領域に第2の光源から発射された前記第1の照明光とは異なる波長の第2の照明光を前記計測対象の比較的狭い領域の照射することを特徴とする形状計測方法。   The shape measurement method according to claim 6, wherein the measurement object is irradiated with a plurality of illumination lights having different wavelengths from the first light source emitted from a first light source in a relatively wide area of the measurement object. What is the first illumination light emitted from the second light source to the region irradiated with the illumination light of the wavelength and irradiated with the illumination light of the first wavelength emitted from the first light source to be measured? A shape measuring method comprising irradiating a second illumination light having a different wavelength in a relatively narrow region of the measurement target. 請求項6記載の形状計測方法であって、前記計測対象の前記複数の照明光が照射された領域をカラーカメラで撮像することを、特定の波長領域の光を遮光する光学フィルタを介して前記カラーカメラで撮像することを特徴とする形状計測方法。   The shape measurement method according to claim 6, wherein the area to which the plurality of illumination lights of the measurement target is irradiated is imaged by a color camera through an optical filter that blocks light in a specific wavelength range. A shape measuring method characterized by capturing an image with a color camera. 請求項6記載の形状計測方法であって、前記分離した複数の画像に対してそれぞれ異なる画像処理を施すことが、前記分離した複数の画像のそれぞれに対して、光切断法、ステレオ法、パターン投影法、およびランダムドット法のうちの何れかの異なる画像処理を施すことを特徴とする形状計測方法。   The shape measurement method according to claim 6, wherein different image processing is performed on each of the plurality of separated images, and a light cutting method, a stereo method, and a pattern are performed on each of the plurality of separated images. A shape measuring method characterized by performing different image processing of any one of a projection method and a random dot method. 計測対象の形状を計測する装置であって、
計測対象に複数の照明光を照射する複数の光源を備えた光照射部と、
前記計測対象の前記光照射部により複数の照明光が照射された領域を撮像して取得した前記検査対象のカラー画像を波長に応じて複数の画像に分離して出力する画像取得部と、
前記画像取得部から分離して出力された複数の画像に対してそれぞれ異なる画像処理を施す画像処理部と、
前記画像処理部で異なる画像処理を施した画像を合成して合成画像を作成する合成画像作成部と、
前記合成画像作成部で作成した合成画像に基づいて前記計測対象の形状を計測する形状計測部と、
前記形状計測部で前記計測対象の形状を計測した結果を出力する出力部と
を備えたことを特徴とする形状計測装置。
An apparatus for measuring the shape of a measurement object,
A light irradiation unit comprising a plurality of light sources for irradiating a measurement object with a plurality of illumination lights;
An image acquisition unit that separates and outputs a color image of the inspection target obtained by imaging and acquiring a region irradiated with a plurality of illumination lights by the light irradiation unit of the measurement target; and
An image processing unit that performs different image processing on each of the plurality of images output separately from the image acquisition unit;
A composite image creation unit that creates a composite image by combining images subjected to different image processing in the image processing unit;
A shape measuring unit that measures the shape of the measurement target based on the composite image created by the composite image creating unit;
An output unit that outputs a result of measuring the shape of the measurement target by the shape measurement unit.
請求項11記載の形状計測装置であって、前記画像取得部を搬送する搬送部をさらに備え、前記画像取得部で計測対象の前記複数の照明光が照射された領域を撮像することを、前記搬送部で前記画像取得部を前記計測対象に沿って移動させながら複数の位置で前記計測対象の前記光照射部により複数の照明光が照射された領域を撮像することを特徴とする形状計測装置。   The shape measurement apparatus according to claim 11, further comprising a transport unit configured to transport the image acquisition unit, and imaging the region irradiated with the plurality of illumination lights to be measured by the image acquisition unit. A shape measuring apparatus that images a region irradiated with a plurality of illumination lights by the light irradiation unit of the measurement target at a plurality of positions while moving the image acquisition unit along the measurement target by a transport unit. . 請求項11記載の形状計測装置であって、前記照明部は、前記計測対象の比較的広い領域に第1の光源から発射された第1の照明光を照射する第1の光照射部と、前記計測対象の前記第1の光源から発射された第1の照明光が照射された領域に第2の光源から発射された前記第1の照明光とは異なる波長の第2の照明光を前記計測対象の比較的狭い領域の照射する第2の光照射部とを有することを特徴とする形状計測装置。   The shape measuring apparatus according to claim 11, wherein the illumination unit irradiates a first illumination light emitted from a first light source onto a relatively wide region of the measurement target; The second illumination light having a wavelength different from that of the first illumination light emitted from the second light source is applied to the region irradiated with the first illumination light emitted from the first light source to be measured. A shape measuring apparatus comprising: a second light irradiation unit configured to irradiate a relatively narrow region to be measured. 請求項11記載の形状計測装置であって、前記画像取得部は、特定の波長領域の光を遮光する光学フィルタと、前記計測対象の前記複数の照明光が照射された領域を前記光学フィルタを介して撮像するカラーカメラとを備えることを特徴とする形状計測装置。   The shape measurement apparatus according to claim 11, wherein the image acquisition unit uses an optical filter that blocks light in a specific wavelength region, and an area of the measurement target irradiated with the plurality of illumination lights. A shape measuring apparatus comprising: a color camera that picks up images. 請求項11記載の形状計測装置であって、前記画像処理部は、前記分離した複数の画像に対してそれぞれ異なる画像処理を施すことを、前記分離した複数の画像のそれぞれに対して、光切断法、ステレオ法、パターン投影法、およびランダムドット法のうちの何れかの異なる方法を用いて画像処理を施すことを特徴とする形状計測装置。   The shape measuring apparatus according to claim 11, wherein the image processing unit performs different image processing on each of the plurality of separated images, and performs optical cutting on each of the plurality of separated images. A shape measuring device that performs image processing using any one of a method, a stereo method, a pattern projection method, and a random dot method.
JP2016565833A 2014-12-26 2014-12-26 Shape measuring method and apparatus Pending JPWO2016103492A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/084640 WO2016103492A1 (en) 2014-12-26 2014-12-26 Shape measurement method and device

Publications (1)

Publication Number Publication Date
JPWO2016103492A1 true JPWO2016103492A1 (en) 2017-06-08

Family

ID=56149575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016565833A Pending JPWO2016103492A1 (en) 2014-12-26 2014-12-26 Shape measuring method and apparatus

Country Status (2)

Country Link
JP (1) JPWO2016103492A1 (en)
WO (1) WO2016103492A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6968568B2 (en) * 2017-04-20 2021-11-17 株式会社日立製作所 Shape measurement system and shape measurement method
JP7086643B2 (en) * 2018-03-02 2022-06-20 株式会社パスコ Building structure shape calculation system and building structure photography equipment
CN109142382A (en) * 2018-10-12 2019-01-04 成都精工华耀科技有限公司 A kind of track visualization inspection two dimension and three-dimensional fusion imaging system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63229311A (en) * 1987-03-19 1988-09-26 Fujitsu Ltd Detection of cross-sectional shape
JPH07334680A (en) * 1994-06-02 1995-12-22 Mitsubishi Heavy Ind Ltd Three-dimensional shape processing device
JP2009002912A (en) * 2007-06-25 2009-01-08 Nippon Steel Corp Method and device for measuring 3-dimensional profile of luminescent object
JP2013029350A (en) * 2011-07-27 2013-02-07 Hitachi Ltd Appearance inspection method and device for the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63229311A (en) * 1987-03-19 1988-09-26 Fujitsu Ltd Detection of cross-sectional shape
JPH07334680A (en) * 1994-06-02 1995-12-22 Mitsubishi Heavy Ind Ltd Three-dimensional shape processing device
JP2009002912A (en) * 2007-06-25 2009-01-08 Nippon Steel Corp Method and device for measuring 3-dimensional profile of luminescent object
JP2013029350A (en) * 2011-07-27 2013-02-07 Hitachi Ltd Appearance inspection method and device for the same

Also Published As

Publication number Publication date
WO2016103492A1 (en) 2016-06-30

Similar Documents

Publication Publication Date Title
US10234278B2 (en) Aerial device having a three-dimensional measurement device
EP3134869B1 (en) 3d point clouds
KR100753885B1 (en) Image obtaining apparatus
US8554395B2 (en) Method and system for facilitating autonomous landing of aerial vehicles on a surface
US11307031B2 (en) Surveying device, and calibration checking method and calibration checking program for surveying device
JP2019519760A (en) Method of calibrating multiple scanners in an additive manufacturing device
US20160139269A1 (en) Elevator shaft internal configuration measuring device, elevator shaft internal configuration measurement method, and non-transitory recording medium
CN101821578A (en) Non-contact measurement apparatus and method
JP2014517285A (en) Optical measurement method and optical measurement system for obtaining 3D coordinates on a measurement target surface
JP2014509730A (en) Shape measuring apparatus, shape measuring method, and structure manufacturing method
WO2016171263A1 (en) Shape measuring apparatus and shape measuring method
KR101427364B1 (en) Scanning system for producing indoor map using LIDAR
JP2004198330A (en) Method and apparatus for detecting position of subject
US9131219B2 (en) Method and apparatus for triangulation-based 3D optical profilometry
GB2508958A (en) Size measurement using synthesised range image
JP2017026487A (en) Shape measurement device, shape measurement system and shape measurement method
WO2016103492A1 (en) Shape measurement method and device
JP2014169947A (en) Shape inspection method and device thereof
JP2015132540A (en) Distance measuring device and robot picking system
JP2017528714A (en) Method for optical measurement of three-dimensional coordinates and control of a three-dimensional measuring device
KR101427369B1 (en) System for producing indoor map using LIDAR
CN102538707A (en) Three dimensional localization device and method for workpiece
EP3626433A1 (en) Method for calibrating an irradiation device
JP6714393B2 (en) Measuring device, system, measuring method, and article manufacturing method
JP6129545B2 (en) Spatial coordinate measuring apparatus and spatial coordinate measuring method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180306