JP5565222B2 - measuring device - Google Patents

measuring device Download PDF

Info

Publication number
JP5565222B2
JP5565222B2 JP2010200471A JP2010200471A JP5565222B2 JP 5565222 B2 JP5565222 B2 JP 5565222B2 JP 2010200471 A JP2010200471 A JP 2010200471A JP 2010200471 A JP2010200471 A JP 2010200471A JP 5565222 B2 JP5565222 B2 JP 5565222B2
Authority
JP
Japan
Prior art keywords
line sensor
target
image
coordinates
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010200471A
Other languages
Japanese (ja)
Other versions
JP2012058045A (en
Inventor
輝顕 下餅原
誠 庭川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP2010200471A priority Critical patent/JP5565222B2/en
Publication of JP2012058045A publication Critical patent/JP2012058045A/en
Application granted granted Critical
Publication of JP5565222B2 publication Critical patent/JP5565222B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、測定装置に関する。   The present invention relates to a measuring apparatus.

従来、エリアカメラやラインセンサを用いて撮像した画像を基に、測定対象物の位置を測定する方法が知られている。
例えば、下記特許文献1には、2つのエリアカメラで測定対象物を撮像し、ステレオ画像から位置を求める方法が開示されている。
また、下記特許文献2,3には、測定対象物に特殊なマーカーを付け、ラインセンサでマーカーを撮像することで、測定対象物の高さのみを求める方法が開示されている。
Conventionally, a method for measuring the position of an object to be measured based on an image captured using an area camera or a line sensor is known.
For example, Patent Document 1 below discloses a method of capturing a measurement object with two area cameras and obtaining a position from a stereo image.
Patent Documents 2 and 3 below disclose methods for obtaining only the height of a measurement object by attaching a special marker to the measurement object and imaging the marker with a line sensor.

上記特許文献1に開示される方法では、通常のエリアカメラを用いた場合にはエリアカメラの解像度が低く、高精度の測定を行うことができない。このため、精度を高めるために解像度の高いエリアカメラを用いた場合、コストが高くなるという問題がある。また、解像度の高いエリアカメラを用いた場合、保存する画像サイズが肥大化するという問題がある。   In the method disclosed in Patent Document 1, when an ordinary area camera is used, the resolution of the area camera is low and high-precision measurement cannot be performed. For this reason, when an area camera with high resolution is used in order to increase accuracy, there is a problem that the cost increases. In addition, when an area camera with a high resolution is used, there is a problem that the image size to be saved is enlarged.

このため、測定対象物の高さだけを求めたい場合には、下記特許文献2,3に開示される方法のようにラインセンサを用いる。下記特許文献2,3に開示される方法においては、まず、下記非特許文献1に開示される方法により測定対象物の焦点距離を求め、次に、下記特許文献2に開示される方法によりラインセンサの姿勢を求めることができる。   For this reason, when it is desired to obtain only the height of the measurement object, a line sensor is used as in the methods disclosed in Patent Documents 2 and 3 below. In the methods disclosed in the following Patent Documents 2 and 3, first, the focal length of the measurement object is obtained by the method disclosed in Non-Patent Document 1 below, and then the line is obtained by the method disclosed in Patent Document 2 below. The attitude of the sensor can be obtained.

特許第3608305号公報Japanese Patent No. 3608305 特開2009−300137号公報JP 2009-300137 A 特開2009−300138号公報JP 2009-300138 A

社団法人日本写真測量学会・解析写真測量委員会、「解析写真測量」、改訂版、社団法人日本写真測量学会、平成9年4月10日、p.149−152Japan Photogrammetry Society, Analytical Photogrammetry Committee, “Analytical Photogrammetry”, revised edition, Japan Photogrammetry Society, April 10, 1997, p. 149-152

しかし、上記特許文献2,3ではラインセンサの撮像面から測定対象物が設置される壁面までの距離を既知としている。通常、ラインセンサの撮像面は外箱内部に隠れるため、この値を既知とするような設置は困難である。   However, in Patent Documents 2 and 3, the distance from the imaging surface of the line sensor to the wall surface on which the measurement object is installed is known. Usually, since the imaging surface of the line sensor is hidden inside the outer box, it is difficult to install such a value as known.

また、測定対象物の高さだけでなく位置をも求めたい場合には、変位を求めるためにエリアカメラとラインセンサを組み合わせて測定することとなるが、この場合、測定装置が大掛かりになる上、エリアカメラを使用する変位の方が、高さに比べ精度が悪くなってしまうという問題がある。   In addition, when it is desired to obtain not only the height of the measurement object but also the position, measurement is performed by combining an area camera and a line sensor in order to obtain the displacement. In this case, however, the measurement apparatus becomes large. There is a problem that the displacement using the area camera is less accurate than the height.

以上のことから、本発明は、ラインセンサにより高さのみ及び高さと変位の両方を高精度に測定することができ、設置作業が容易な測定装置を提供することを目的とする。   In view of the above, an object of the present invention is to provide a measuring apparatus that can measure only height and both height and displacement with high accuracy by a line sensor and can be easily installed.

上記の課題を解決するための第1の発明に係る測定装置は、
5つ以上の高さ方向の絶対座標が分かるキャリブレーションターゲットと、
前記キャリブレーションターゲットの画像を撮像し、撮像した画像の画像信号を出力するラインセンサと、
前記画像信号に基づき画像情報を作成する入力画像作成部と、
前記画像情報に基づきターゲット座標を検出するターゲット検出部と、
前記ターゲット座標及び予め取得した絶対座標に基づきDLT法の係数を算出する係数算出部と、
前記係数に基づき前記ラインセンサの姿勢を計算する姿勢計算部と、
前記係数に基づき前記ラインセンサの焦点距離を計算する焦点距離計算部と、
前記係数に基づき前記ラインセンサの位置を計算する位置計算部と
を備える
ことを特徴とする。
A measuring apparatus according to a first invention for solving the above-described problem is
A calibration target that knows absolute coordinates in five or more height directions,
A line sensor that captures an image of the calibration target and outputs an image signal of the captured image;
An input image creation unit for creating image information based on the image signal;
A target detection unit for detecting target coordinates based on the image information;
A coefficient calculation unit for calculating a coefficient of the DLT method based on the target coordinates and the absolute coordinates acquired in advance;
An attitude calculation unit that calculates the attitude of the line sensor based on the coefficient;
A focal length calculation unit for calculating a focal length of the line sensor based on the coefficient;
And a position calculator that calculates the position of the line sensor based on the coefficient.

上記の課題を解決するための第の発明に係る測定装置は、
5つ以上の絶対座標が分かる円柱状のポールが配置されたキャリブレーションターゲットと、
測定対象物の画像を撮像し、撮像した画像の画像信号を出力する第1のラインセンサと、
前記測定対象物の画像を撮像し、撮像した画像の画像信号を出力する第2のラインセンサと、
前記第1のラインセンサの画像信号及び前記第2のラインセンサの画像信号に基づき画像情報を作成する画像作成部と、
前記第1のラインセンサの画像情報及び前記第2のラインセンサの画像情報に基づき前記第1のラインセンサのターゲット座標と、前記第2のラインセンサのターゲット座標とを検出するターゲット検出部と、
前記ターゲット座標及び予め取得した絶対座標に基づきDLT法の係数を算出する係数算出部と、
前記係数に基づき前記第1のラインセンサ及び前記第2のラインセンサの姿勢を計算する姿勢計算部と、
前記係数に基づき前記第1のラインセンサ及び前記第2のラインセンサの焦点距離を計算する焦点距離計算部と、
前記係数に基づき前記第1のラインセンサ及び前記第2のラインセンサの位置を計算する位置計算部と
を備える
ことを特徴とする。
上記の課題を解決するための第3の発明に係る測定装置は、第2の発明に係る測定装置において、
前記第1のラインセンサのターゲット座標及び前記第2のラインセンサのターゲット座標と、前記姿勢計算部、前記焦点距離計算部および前記位置計算部により予め取得した前記第1のラインセンサの姿勢、焦点距離及び位置と、前記第2のラインセンサの姿勢、焦点距離及び位置とに基づきターゲット絶対座標を算出するステレオ計測部を備える
ことを特徴とする。
A measuring apparatus according to a second invention for solving the above-described problem is
A calibration target with a cylindrical pole with five or more absolute coordinates,
A first line sensor that captures an image of a measurement object and outputs an image signal of the captured image;
A second line sensor that captures an image of the measurement object and outputs an image signal of the captured image;
An image creating unit that creates image information based on the image signal of the first line sensor and the image signal of the second line sensor;
A target detection unit that detects target coordinates of the first line sensor and target coordinates of the second line sensor based on image information of the first line sensor and image information of the second line sensor;
A coefficient calculation unit for calculating a coefficient of the DLT method based on the target coordinates and the absolute coordinates acquired in advance;
An attitude calculator that calculates attitudes of the first line sensor and the second line sensor based on the coefficient;
A focal length calculation unit that calculates focal lengths of the first line sensor and the second line sensor based on the coefficient;
And a position calculator that calculates positions of the first line sensor and the second line sensor based on the coefficient.
A measuring device according to a third invention for solving the above-described problem is the measuring device according to the second invention,
The target coordinates of the first line sensor and the target coordinates of the second line sensor, and the attitude and focus of the first line sensor acquired in advance by the attitude calculator, the focal distance calculator, and the position calculator. A stereo measurement unit that calculates target absolute coordinates based on the distance and position and the attitude, focal length, and position of the second line sensor is provided.
It is characterized by that.

本発明によれば、ラインセンサにより高さのみ及び高さと変位の両方を高精度に測定することができ、設置作業が容易な測定装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, only a height and both a height and a displacement can be measured with high precision with a line sensor, and the measuring apparatus with easy installation work can be provided.

本発明の第1の実施例に係る測定装置の概略図である。1 is a schematic view of a measuring apparatus according to a first embodiment of the present invention. 本発明の第1の実施例に係る測定装置の構成を示した模式図である。It is the schematic diagram which showed the structure of the measuring apparatus which concerns on the 1st Example of this invention. 本発明の第1の実施例に係る測定装置における処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the process in the measuring apparatus which concerns on 1st Example of this invention. 本発明の第1の実施例に係る測定装置におけるキャリブレーションターゲットの例を示した模式図である。It is the schematic diagram which showed the example of the calibration target in the measuring apparatus which concerns on 1st Example of this invention. DLT法についての説明図である。It is explanatory drawing about DLT method. 本発明の第2の実施例に係る測定装置の概略図である。It is the schematic of the measuring apparatus which concerns on the 2nd Example of this invention. 本発明の第2の実施例に係る測定装置におけるステレオ計測における座標系を示した模式図である。It is the schematic diagram which showed the coordinate system in the stereo measurement in the measuring apparatus which concerns on the 2nd Example of this invention. 本発明の第2の実施例に係る測定装置の構成を示した模式図である。It is the schematic diagram which showed the structure of the measuring apparatus which concerns on the 2nd Example of this invention. 本発明の第2の実施例に係る測定装置における処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the process in the measuring apparatus which concerns on 2nd Example of this invention. 本発明の第3の実施例に係る測定装置の概略図である。It is the schematic of the measuring apparatus which concerns on the 3rd Example of this invention. 本発明の第3の実施例に係る測定装置におけるキャリブレーションターゲットの例を示した模式図である。It is the schematic diagram which showed the example of the calibration target in the measuring apparatus which concerns on the 3rd Example of this invention. 本発明の第3の実施例に係る測定装置における処理の手順を示したフローチャートである。It is the flowchart which showed the procedure of the process in the measuring apparatus which concerns on the 3rd Example of this invention. 本発明の第3の実施例に係る測定装置におけるひし形ターゲットの例を示した模式図である。It is the schematic diagram which showed the example of the rhombus target in the measuring apparatus which concerns on the 3rd Example of this invention. 本発明の第3の実施例に係る測定装置におけるキャリブレーションターゲット撮像時の様子を示した模式図である。It is the schematic diagram which showed the mode at the time of calibration target imaging in the measuring apparatus which concerns on 3rd Example of this invention. 本発明の第3の実施例に係る測定装置におけるキャリブレーションターゲット画像の例を示した模式図である。It is the schematic diagram which showed the example of the calibration target image in the measuring apparatus which concerns on 3rd Example of this invention.

以下、本発明に係る測定装置を実施するための形態について、図面を参照しながら説明する。   Hereinafter, embodiments for carrying out a measuring apparatus according to the present invention will be described with reference to the drawings.

以下、本発明に係る測定装置の第1の実施例について説明する。
本実施例においては、上記特許文献2,3のような構成で測定対象物の高さをラインセンサにより求める場合、必要なパラメータを後述するDLT法(Direct Linear Transformation)(上記非特許文献1参照)を用いて一度に取得する方法である。
Hereinafter, a first embodiment of the measuring apparatus according to the present invention will be described.
In the present embodiment, when the height of the measurement object is obtained by a line sensor with the configuration as described in Patent Documents 2 and 3, a necessary parameter is a DLT method (Direct Linear Transformation) described later (see Non-Patent Document 1 above). ) To obtain at once.

ただし、上記特許文献2,3においては、ラインセンサの中心が撮像面となっているが、本実施例においては上記非特許文献1のようにラインセンサの中心をラインセンサのレンズ中心としている。また、撮像画像から高さを求める方法も上記非特許文献1のように投影変換により求めることとする。   However, in Patent Documents 2 and 3, the center of the line sensor is the imaging surface, but in this embodiment, the center of the line sensor is the lens center of the line sensor as in Non-Patent Document 1. Further, the method for obtaining the height from the captured image is also obtained by projection conversion as in Non-Patent Document 1.

図1は、本実施例に係る測定装置の概略図である。なお、図1(a)は、本実施例に係る測定装置の側面から見た概略図である。また、図1(b)は、本実施例に係る測定装置におけるターゲットを正面から見た概略図である。   FIG. 1 is a schematic diagram of a measuring apparatus according to the present embodiment. FIG. 1A is a schematic view seen from the side of the measuring apparatus according to the present embodiment. Moreover, FIG.1 (b) is the schematic which looked at the target in the measuring apparatus which concerns on a present Example from the front.

図1(a)に示すように、本実施例に係る測定装置は、ラインセンサ1と、ラインセンサ1のパラメータを得るためのキャリブレーションターゲット2と、キャリブレーションターゲット2を照らす照明3とを備えている。なお、ラインセンサ1、キャリブレーションターゲット2及び照明3は、地面等の基準となる設置面4上に設置される。   As shown in FIG. 1A, the measuring apparatus according to the present embodiment includes a line sensor 1, a calibration target 2 for obtaining parameters of the line sensor 1, and an illumination 3 that illuminates the calibration target 2. ing. The line sensor 1, the calibration target 2, and the illumination 3 are installed on an installation surface 4 serving as a reference such as the ground.

キャリブレーションターゲット2には、高さ方向(図1中、X軸方向)について測定対象の可動範囲内に5つ以上の絶対値が分かるものを用いる。例えば、図1(b)に示すように、測定対象物の可動範囲内に縞の幅が既知の黒2aと白2bの縞模様を描き、その境界にP0〜P4を取る。キャリブレーションターゲット2の設置面4からP0までの高さを測定しておけば、相対的にP1〜P4の座標も分かる。このとき、Z座標はP0〜P4ですべて同じ座標であるため、例えば0としておけばキャリブレーションの結果として、キャリブレーションターゲット2からラインセンサ1のレンズまでの距離が分かることとなる。   As the calibration target 2, a calibration target 2 in which five or more absolute values are known within the movable range of the measurement object in the height direction (X-axis direction in FIG. 1) is used. For example, as shown in FIG. 1B, a stripe pattern of black 2a and white 2b whose stripe width is known is drawn within the movable range of the measurement object, and P0 to P4 are taken at the boundary. If the height from the installation surface 4 of the calibration target 2 to P0 is measured, the coordinates of P1 to P4 are relatively known. At this time, since the Z coordinates are all the same coordinates P0 to P4, for example, if it is set to 0, the distance from the calibration target 2 to the lens of the line sensor 1 can be known as a result of calibration.

図2は、本実施例に係る測定装置の構成を示した模式図である。
図2に示すように、本実施例に係る測定装置は、ラインセンサ1と、入力画像作成部10と、第1のメモリ11a、第2のメモリ11b及び第3のメモリ11cを備える記憶部11と、ターゲット検出部12と、係数算出部14と、焦点距離計算部15と、姿勢計算部16と、位置計算部17と、メモリ18と、ログ出力部19とにより構成されている。
FIG. 2 is a schematic diagram illustrating the configuration of the measurement apparatus according to the present embodiment.
As shown in FIG. 2, the measuring apparatus according to the present embodiment includes a line sensor 1, an input image creation unit 10, a storage unit 11 including a first memory 11a, a second memory 11b, and a third memory 11c. A target detection unit 12, a coefficient calculation unit 14, a focal length calculation unit 15, an attitude calculation unit 16, a position calculation unit 17, a memory 18, and a log output unit 19.

ラインセンサ1は、キャリブレーションターゲット2の画像を撮像し、撮像した画像の画像信号を入力画像作成部10に出力する。
入力画像作成部10は、入力した画像信号に基づき画像情報を作成し、記憶部11の第1のメモリ11aに出力する。
The line sensor 1 captures an image of the calibration target 2 and outputs an image signal of the captured image to the input image creation unit 10.
The input image creation unit 10 creates image information based on the input image signal and outputs the image information to the first memory 11 a of the storage unit 11.

ターゲット検出部12は、記憶部11の第1のメモリ11aに記憶された画像情報を読み込み、画像情報に基づきターゲット座標x1〜xnを検出し、記憶部11の第2のメモリ11bに出力する。
なお、記憶部11の第2のメモリ11bには、予め取得したターゲット絶対座標13に基づき、絶対座標(X1,Z1)〜(Xn,Zn)を予め記憶させておく。
The target detection unit 12 reads image information stored in the first memory 11 a of the storage unit 11, detects target coordinates x 1 to x n based on the image information, and outputs the target coordinates x 1 to x n to the second memory 11 b of the storage unit 11. To do.
The second memory 11b of the storage unit 11 stores absolute coordinates (X 1 , Z 1 ) to (X n , Z n ) in advance based on the target absolute coordinates 13 acquired in advance.

係数算出部14は、記憶部11の第2のメモリ11bに記憶されたターゲット座標x1〜xn及び絶対座標(X1,Z1)〜(Xn,Zn)を読み込み、ターゲット座標x1〜xn及び絶対座標(X1,Z1)〜(Xn,Zn)に基づき係数b1〜b5を算出し、記憶部11の第3のメモリ11cに出力する。 The coefficient calculation unit 14 reads the target coordinates x 1 to x n and the absolute coordinates (X 1 , Z 1 ) to (X n , Z n ) stored in the second memory 11b of the storage unit 11 and reads the target coordinates x Coefficients b 1 to b 5 are calculated based on 1 to x n and absolute coordinates (X 1 , Z 1 ) to (X n , Z n ), and output to the third memory 11 c of the storage unit 11.

焦点距離算出部15は、記憶部11の第3のメモリ11cに記憶された係数b1,b5又は係数b2,b4を読み込み、係数b1,b5又は係数b2,b4に基づき焦点距離fを計算し、メモリ18に出力する。 Focal length calculating unit 15 reads the third coefficient b 1 stored in the memory 11c, b 5 or coefficients b 2, b 4 of the storage unit 11, the coefficient b 1, b 5 or coefficients b 2, b 4 Based on this, the focal length f is calculated and output to the memory 18.

姿勢計算部16は、記憶部11の第3のメモリ11cに記憶された係数b1,b2又は係数b4,b5を読み込み、係数b1,b2又は係数b4,b5に基づきラインセンサ姿勢φを計算し、メモリ18に出力する。 Orientation calculation unit 16 reads the third coefficient stored in the memory 11c of b 1, b 2 or coefficients b 4, b 5 of the storage unit 11, based on the coefficients b 1, b 2 or coefficients b 4, b 5 The line sensor attitude φ is calculated and output to the memory 18.

位置計算部17は、記憶部11の第3のメモリ11cに記憶された係数b1〜b5を読み込み、係数b1〜b5に基づきラインセンサ位置座標(X0,Z0)を計算し、メモリ18に出力する。 Position calculating unit 17 reads the coefficient b 1 ~b 5 stored in the third memory 11c of the memory unit 11, calculates the line sensor position coordinates based on the coefficient b 1 ~b 5 (X 0, Z 0) , Output to the memory 18.

ログ出力部19は、メモリ18に記憶された焦点距離f、ラインセンサ姿勢φ及びラインセンサ座標(X0,Z0)を読み込み、焦点距離f、ラインセンサ姿勢φ及びラインセンサ座標(X0,Z0)のログ20を記録する。 Log output unit 19, the focal length f stored in the memory 18, reads the line sensor attitude φ and the line sensor coordinates (X 0, Z 0), the focal length f, the line sensor attitude φ and the line sensor coordinates (X 0, A log 20 of Z 0 ) is recorded.

図3は、本実施例に係る測定装置における処理の手順を示したフローチャートである。
図3に示すように、はじめに、ステップP10において、ラインセンサ1によりキャリブレーションターゲット2の撮影を行う。なお、撮像時にP0〜P4に対応する点がすべて入るように注意する。図1(b)においては、図1中にlで示す撮像ラインがキャリブレーションターゲット2正面のちょうど中心を鉛直方向に通っているが、すべての点が写っていれば中心でなくてもよい。また、撮像ラインは、真に鉛直とならなくてもよい。
FIG. 3 is a flowchart illustrating a processing procedure in the measurement apparatus according to the present embodiment.
As shown in FIG. 3, first, in step P10, the calibration target 2 is imaged by the line sensor 1. It should be noted that all points corresponding to P 0 to P 4 are entered during imaging. In FIG. 1B, the imaging line indicated by l in FIG. 1 passes through the center of the front of the calibration target 2 in the vertical direction, but may not be the center as long as all points are shown. Further, the imaging line does not have to be truly vertical.

次に、ステップP11において、入力画像作成部10により撮像した画像を2値化すると、図4に示すような2値化画像が得られる。
次に、ステップP12において、ターゲット検出部12により2値化画像から画像上の座標を求める。画像上の座標として、ラインセンサ1のセンサ画像上での長さ[mm]を用いるため、画像上でのピクセル数x[pix]を用いて以下の式により得る。

Figure 0005565222
ただし、Wは撮像の結果得られるラインセンサ画像の幅[pix]、Sはラインセンサ1上の素子の幅[mm]である。このとき、ラインセンサ1のセンサ中心が画像上の座標の原点となる。 Next, when the image captured by the input image creation unit 10 is binarized in step P11, a binarized image as shown in FIG. 4 is obtained.
Next, in step P12, the target detection unit 12 obtains coordinates on the image from the binarized image. Since the length [mm] on the sensor image of the line sensor 1 is used as the coordinates on the image, the number of pixels on the image x [pix] is used to obtain the following equation.
Figure 0005565222
Here, W is the width [pix] of the line sensor image obtained as a result of imaging, and S is the width [mm] of the element on the line sensor 1. At this time, the sensor center of the line sensor 1 is the origin of coordinates on the image.

次に、ステップP13において、係数算出部14、焦点距離算出部15、姿勢計算部16及び位置計算部17によりDLT法(上記非特許文献1参照)を用いてキャリブレーションを行う。ただし、3次元のDLT法をそのまま用いることは冗長であるため、2次元に落として考えることとする。DLT法を2次元に落として整理しなおすことで、DLT法のみでラインセンサ1の姿勢、焦点距離及び位置を得ることができる。さらに、これらすべてのパラメータは、レンズの収差等の誤差を含めた形で求まるため、キャリブレーションターゲット2を撮影した領域内で高精度の計測が可能となる。   Next, in step P13, calibration is performed by the coefficient calculation unit 14, the focal length calculation unit 15, the posture calculation unit 16, and the position calculation unit 17 using the DLT method (see Non-Patent Document 1 above). However, since it is redundant to use the three-dimensional DLT method as it is, it is assumed that it is reduced to two dimensions. By dropping the DLT method into two dimensions and rearranging it, the posture, focal length and position of the line sensor 1 can be obtained only by the DLT method. Further, all these parameters are obtained in a form including errors such as lens aberrations, so that high-precision measurement can be performed within the area where the calibration target 2 is imaged.

以下に、本実施例におけるキャリブレーション方法の詳細について説明する。
図5に示すように、空間内に測定対象物M(X,Z)があるとすると、Mとラインセンサ1のレンズ中心Olは共線条件を満たす。なお、図5中、Pはラインセンサ1の撮像面を示している。すなわち、下記式(2)を満足する。

Figure 0005565222
ここで、a1〜a4は、ラインセンサ1の姿勢行列Tの要素である。 Details of the calibration method in this embodiment will be described below.
As shown in FIG. 5, the measurement object M (X, Z) in the space when there is the lens center O l of M and the line sensor 1 is collinear condition is satisfied. In FIG. 5, P indicates the imaging surface of the line sensor 1. That is, the following formula (2) is satisfied.
Figure 0005565222
Here, a 1 to a 4 are elements of the attitude matrix T of the line sensor 1.

すなわち、

Figure 0005565222
となる。 That is,
Figure 0005565222
It becomes.

上記式(2)は、係数b1〜b5を用いて以下の二次の射影変換式に置き換えることができる。

Figure 0005565222
The above equation (2) can be replaced with the following quadratic projective transformation equation using the coefficients b 1 to b 5 .
Figure 0005565222

上記式(4)を変形すると、以下の式が得られる。

Figure 0005565222
上記式(5)は、b1〜b5について線形であるから、最低5点、すなわち5つの撮像対象物の座標(X1,Z1)〜(X5,Z5)と、それらを撮像したときのラインセンサ画像上の座標x1〜x5より回帰分析を行うことができる。このとき、xを被説明変数、X,Z,xX,xZを説明変数とする。 When the above equation (4) is modified, the following equation is obtained.
Figure 0005565222
Since the above equation (5) is linear with respect to b 1 to b 5 , at least five points, that is, the coordinates (X 1 , Z 1 ) to (X 5 , Z 5 ) of five imaging objects and the images thereof are taken. The regression analysis can be performed from the coordinates x 1 to x 5 on the line sensor image. At this time, x is an explanatory variable, and X, Z, xX, and xZ are explanatory variables.

以上から、係数b1〜b5を計算することができる。なお、5点以上の絶対値を用いないのであれば、以下のように行列表現し、掃き出し法等で得られた逆行列を左から掛けることでも係数b1〜b5が得られる。

Figure 0005565222
From the above, the coefficients b 1 to b 5 can be calculated. If absolute values of 5 points or more are not used, coefficients b 1 to b 5 can also be obtained by expressing the matrix as follows and multiplying the inverse matrix obtained by the sweep-out method or the like from the left.
Figure 0005565222

ところで、上記式(2)と上記式(4)とを比べると、a1〜a4とb1〜b5について以下の関係があることが分かる。ただし、C=−(a3l+a4l)である。

Figure 0005565222
Incidentally, when comparing the above equation (2) the formula and (4), it can be seen that there is a following relationship for a 1 ~a 4 and b 1 ~b 5. However, C = − (a 3 X l + a 4 Z l ).
Figure 0005565222

上記式(3)と上記式(7)とを比べることで、ラインセンサ1の姿勢φは以下となる。

Figure 0005565222
By comparing the above equation (3) with the above equation (7), the posture φ of the line sensor 1 is as follows.
Figure 0005565222

上記式(3)と上記式(7)とを比べることで、焦点距離fは以下となる。

Figure 0005565222
By comparing the above formula (3) with the above formula (7), the focal length f is as follows.
Figure 0005565222

上記式(8)より、

Figure 0005565222
とすると、両辺の左からB-1を掛けることで直ちに答えが得られる。 From the above equation (8),
Figure 0005565222
Then, an answer can be obtained immediately by multiplying B -1 from the left of both sides.

また、行列Tが正規直交行列であることから、

Figure 0005565222
としてもよい。 In addition, since the matrix T is an orthonormal matrix,
Figure 0005565222
It is good.

したがって、ステップP12で求めた画像上の座標xp0〜xp4[pix]〜x0〜x4[pix]と、キャリブレーションターゲット2の絶対座標P0(X0,Z0)〜P4(X4,Z4)用いて、最小二乗法によりラインセンサ1の姿勢、焦点距離及びレンズ中心位置(すなわち、ラインセンサ1の位置)を求めることができることが分かる。
最後に、ステップP14において、求めたパラメータをログ20として記録する。
Therefore, the coordinates x p0 to x p4 [pix] to x 0 to x 4 [pix] on the image obtained in step P12 and the absolute coordinates P 0 (X 0 , Z 0 ) to P 4 (P X 4 , Z 4 ), it can be seen that the attitude, focal length, and lens center position (that is, the position of the line sensor 1) of the line sensor 1 can be obtained by the least square method.
Finally, in step P14, the obtained parameters are recorded as a log 20.

以上説明したように、本実施例に係る測定装置によれば、ラインセンサ1の姿勢、焦点距離及び位置を、設置した後から計算により求めることができるため、ラインセンサ1を設置するときに所定の角度に固定する必要がなく、簡単に設置することができる。   As described above, according to the measuring apparatus according to the present embodiment, the posture, the focal length, and the position of the line sensor 1 can be obtained by calculation after the installation, so that the predetermined value is set when the line sensor 1 is installed. It is not necessary to fix to the angle of and can be installed easily.

また、本実施例に係る測定装置によれば、ラインセンサ1の姿勢、焦点距離及び位置を、設置した後から計算により求めることができるため、設置後に別の測定器により測定する必要がない。このため、設置後に別の測定器により測定する際に生じる測定誤差の影響を受けることがない。   Further, according to the measuring apparatus according to the present embodiment, the posture, focal length, and position of the line sensor 1 can be obtained by calculation after the installation, so that it is not necessary to measure with another measuring device after the installation. For this reason, it does not receive the influence of the measurement error produced when measuring with another measuring device after installation.

また、本実施例に係る測定装置によれば、ラインセンサ1の姿勢、焦点及び位置を統一した手法により求めることができるため、測定領域で十分な精度を得ることができる。   In addition, according to the measuring apparatus according to the present embodiment, the attitude, focus, and position of the line sensor 1 can be obtained by a unified method, so that sufficient accuracy can be obtained in the measurement region.

また、本実施例に係る測定装置によれば、ラインセンサ1を真に鉛直上方に向けずとも、キャリブレーションターゲット2さえ正しく設置できてさえいれば、ラインセンサ1の姿勢、焦点距離及び位置のパラメータ側でラインセンサ1の撮像面のずれを吸収することができるため、ラインセンサ1の設置を非常に容易に行うことができる。   Further, according to the measuring apparatus according to the present embodiment, the orientation, focal length, and position of the line sensor 1 can be changed as long as the calibration target 2 can be correctly installed without the line sensor 1 being directed vertically upward. Since the displacement of the imaging surface of the line sensor 1 can be absorbed on the parameter side, the line sensor 1 can be installed very easily.

以下、本発明に係る測定装置の第2の実施例について説明する。
本実施例においては、上記特許文献1のように、従来エリアカメラを用いて行われてきたステレオ計測を、2つのラインセンサ1a,1bを用いて行うことを特徴とする。これにより、高精度の測定を行うためにエリアカメラとラインセンサとを組み合わせて使うということをせずに済むため、測定装置をコンパクト、かつ低コストで構成することができる。
The second embodiment of the measuring apparatus according to the present invention will be described below.
In the present embodiment, as described in Patent Document 1, stereo measurement that has been performed using an area camera is performed using two line sensors 1a and 1b. Thereby, it is not necessary to use a combination of an area camera and a line sensor in order to perform highly accurate measurement, so that the measuring apparatus can be configured compactly and at low cost.

また、統一的な計算方法で精度良く測定対象物5の位置を計算することが可能となる。さらに、図7からも分かるように、測定装置の設置時にラインセンサ1a,1bのレンズ中心がどこに位置してもよいことから、測定装置の設置時に所定の位置にレンズ中心が位置するように配慮するなどの煩雑な作業をなくすことができる。   In addition, the position of the measurement object 5 can be calculated with high accuracy by a unified calculation method. Further, as can be seen from FIG. 7, the lens centers of the line sensors 1a and 1b may be located at any time when the measuring device is installed, so that the lens center is positioned at a predetermined position when the measuring device is installed. It is possible to eliminate troublesome work such as.

ただし、2つのラインセンサ1a,1bを用いたステレオ計測は、図7中にPで示す2つのラインセンサ1a,1bの撮像面が合ったごく狭い領域が測定対象領域となることと、後述するキャリブレーション方法から、ある程度の長さがあり、かつ丸い断面をした棒状の物体が適している。   However, in the stereo measurement using the two line sensors 1a and 1b, a very narrow area where the imaging surfaces of the two line sensors 1a and 1b indicated by P in FIG. From the calibration method, a rod-like object having a certain length and having a round cross section is suitable.

図6は、本実施例に係る測定装置の概略図である。
図6に示すように、本実施例に係る測定装置は、第1のラインセンサ1aと、第2のラインセンサ1bと、測定対象物5を照らす第1のラインセンサ1a側の照明3aと、測定対象物5を照らす第2のラインセンサ1b側の照明3bを備えている。本実施例においては、第1のラインセンサ1a及び第2のラインセンサ1bを用いてステレオ計測を行う。
FIG. 6 is a schematic diagram of a measuring apparatus according to the present embodiment.
As shown in FIG. 6, the measuring apparatus according to the present embodiment includes a first line sensor 1a, a second line sensor 1b, and an illumination 3a on the first line sensor 1a side that illuminates the measurement object 5. An illumination 3b on the second line sensor 1b side that illuminates the measurement object 5 is provided. In the present embodiment, stereo measurement is performed using the first line sensor 1a and the second line sensor 1b.

第1のラインセンサ1a及び第2のラインセンサ1bは、後述するキャリブレーション方法により撮像面が一致し、図7に示すように設定した座標系において、第1のラインセンサ1a及び第2のラインセンサ1bの姿勢、焦点距離及びレンズ中心座標(すなわち、第1のラインセンサ1a及び第2のラインセンサ1bの位置)が求まっているものとする。   The first line sensor 1a and the second line sensor 1b have the same imaging plane by a calibration method described later, and in the coordinate system set as shown in FIG. 7, the first line sensor 1a and the second line sensor 1b. Assume that the posture, focal length, and lens center coordinates of the sensor 1b (that is, the positions of the first line sensor 1a and the second line sensor 1b) are obtained.

図8は、本実施例に係る測定装置の構成を示した模式図である。
図8に示すように、本実施例に係る測定装置は、第1のラインセンサ1aと、第2のラインセンサ1bと、入力画像作成部30と、第1のメモリ31a、第2のメモリ31b及び第3のメモリ31cを備える記憶部31と、ターゲット検出部32と、ステレオ計測部34と、ログ出力部35とにより構成されている。
FIG. 8 is a schematic diagram illustrating the configuration of the measuring apparatus according to the present embodiment.
As shown in FIG. 8, the measuring apparatus according to this embodiment includes a first line sensor 1a, a second line sensor 1b, an input image creation unit 30, a first memory 31a, and a second memory 31b. And the memory | storage part 31 provided with the 3rd memory 31c, the target detection part 32, the stereo measurement part 34, and the log output part 35 are comprised.

第1のラインセンサ1a及び第2のラインセンサ1bは、測定対象物5の画像を撮像し、撮像した画像の画像信号を入力画像作成部30に出力する。入力画像作成部30は、入力した画像信号に基づき画像情報を作成し、記憶部31の第1のメモリ31aに出力する。   The first line sensor 1 a and the second line sensor 1 b capture an image of the measurement object 5 and output an image signal of the captured image to the input image creation unit 30. The input image creation unit 30 creates image information based on the input image signal and outputs the image information to the first memory 31 a of the storage unit 31.

ターゲット検出部32は、記憶部31の第1のメモリ31aに記憶された画像情報を読み込み、画像情報に基づき第1のラインセンサ1aのターゲット座標x1と、第2のラインセンサ2aのターゲット座標x2とを検出し、記憶部31の第2のメモリ31bに出力する。 The target detection unit 32 reads the image information stored in the first memory 31a of the storage unit 31, and based on the image information, the target coordinate x1 of the first line sensor 1a and the target coordinate of the second line sensor 2a. x 2 is detected and output to the second memory 31 b of the storage unit 31.

なお、記憶部31の第2のメモリ31bには、予め取得しておいたラインセンサ姿勢ログ33より第1のラインセンサ1aの姿勢φ1、焦点距離f1及びレンズ中心O1(すなわち、第1のラインセンサ1aの位置)と、第2のラインセンサ1bの姿勢φ2、焦点距離f2及びレンズ中心O2(すなわち、第2のラインセンサ1bの位置)とを予め記憶させておく。 The second memory 31b of the storage unit 31 stores the posture φ 1 of the first line sensor 1a, the focal length f 1 and the lens center O 1 (that is, the first center) from the line sensor posture log 33 acquired in advance. The position of the first line sensor 1a), the posture φ 2 of the second line sensor 1b, the focal length f 2 and the lens center O 2 (that is, the position of the second line sensor 1b) are stored in advance.

ステレオ計測部34は、記憶部31の第2のメモリ31bに記憶された第1のラインセンサ1aのターゲット座標x1及び第2のラインセンサ1bのターゲット座標x2と、第1のラインセンサ1aの姿勢φ1、焦点距離f1及びレンズ中心O1と、第2のラインセンサ1bの姿勢φ2、焦点距離f2及びレンズ中心O2とを読み込み、第1のラインセンサ1aのターゲット座標x1及び第2のラインセンサ1bのターゲット座標x2と、第1のラインセンサ1aの姿勢φ1、焦点距離f1及びレンズ中心O1と、第2のラインセンサ1bの姿勢φ2、焦点距離f2及びレンズ中心O2とに基づきターゲット絶対座標を算出し、記憶部31の第3のメモリ31cに出力する。 Stereo measurement unit 34 includes a target coordinate x 2 of the second of the first line sensor 1a which is stored in the memory 31b the target coordinate x 1 and the second line sensor 1b of the storage unit 31, the first line sensor 1a Posture φ 1 , focal length f 1 and lens center O 1, and posture φ 2 , focal length f 2 and lens center O 2 of the second line sensor 1 b are read, and target coordinates x of the first line sensor 1 a are read. The target coordinates x 2 of the first and second line sensors 1b, the posture φ 1 of the first line sensor 1a, the focal length f 1 and the lens center O 1 , the posture φ 2 of the second line sensor 1b, and the focal length The target absolute coordinates are calculated based on f 2 and the lens center O 2, and are output to the third memory 31 c of the storage unit 31.

ログ出力部35は、記憶部31の第3のメモリ31cに記憶されたターゲット絶対座標を読み込み、ターゲット絶対座標のログ36を記録する。   The log output unit 35 reads the target absolute coordinates stored in the third memory 31 c of the storage unit 31 and records a target absolute coordinate log 36.

図9は、本実施例に係る測定装置における処理の手順を示したフローチャートである。
図9に示すように、はじめに、ステップP20において、第1のラインセンサ及び第2のラインセンサにより測定対象物の画像を撮像する。
次に、ステップP21において、測定箇所5aの座標は、第1の実施例に係るステップP12と同様の方法で[pix]から[mm]に変換したものを用いる。そして、測定箇所5a(図6参照)の座標を求める。
次に、ステップP22において、ステレオ計測を行う。なお、ステレオ計測は、図7に示すような座標系を用いて以下のように行うことができる。
FIG. 9 is a flowchart illustrating a processing procedure in the measurement apparatus according to the present embodiment.
As shown in FIG. 9, first, in step P20, an image of the measurement object is captured by the first line sensor and the second line sensor.
Next, in step P21, the coordinates of the measurement location 5a are converted from [pix] to [mm] by the same method as in step P12 according to the first embodiment. And the coordinate of the measurement location 5a (refer FIG. 6) is calculated | required.
Next, in step P22, stereo measurement is performed. In addition, stereo measurement can be performed as follows using a coordinate system as shown in FIG.

図7において、第1のラインセンサのレンズ中心がO1(X01,Z01)に対応し、第2のラインセンサのレンズ中心がO2(X02,Z02)に対応し、第1のラインセンサにおいて撮像したときの撮像面上のターゲット座標がx1であり、第2のラインセンサにおいて撮像したときの撮像面上のターゲット座標がx2であるとする。図7に示す座標系において、ターゲット座標x1,x2は、以下のようにあらわされる。

Figure 0005565222
In FIG. 7, the lens center of the first line sensor corresponds to O 1 (X 01 , Z 01 ), and the lens center of the second line sensor corresponds to O 2 (X 02 , Z 02 ). target coordinates on the imaging plane when the imaging in the line sensor is x 1, the target coordinates on the imaging plane when the image pickup in the second line sensor is assumed to be x 2. In the coordinate system shown in FIG. 7, target coordinates x 1 and x 2 are expressed as follows.
Figure 0005565222

したがって、測定対象物の測定箇所5a(図6参照)の座標(X,Z)は、以下のようにあらわすことができる。

Figure 0005565222
Therefore, the coordinates (X, Z) of the measurement location 5a (see FIG. 6) of the measurement object can be expressed as follows.
Figure 0005565222

ただし、f1は第1のラインセンサの焦点距離、f2は第2のラインセンサの焦点距離であり、t1,t2は以下のとおりである。

Figure 0005565222
最後に、ステップP23において、測定結果をログに記録する。 Here, f 1 is the focal length of the first line sensor, f 2 is the focal length of the second line sensor, and t1 and t2 are as follows.
Figure 0005565222
Finally, in step P23, the measurement result is recorded in a log.

以上説明したように、本実施例に係る測定装置によれば、第1のラインセンサ及び第2のラインセンサのみを用いて測定対象物の位置を簡便かつ高精度に計測することができる。   As described above, according to the measuring apparatus according to the present embodiment, the position of the measurement object can be measured easily and with high accuracy using only the first line sensor and the second line sensor.

また、第1のラインセンサ及び第2のラインセンサのみを用いるため、測定装置をコンパクトかつ低コストで構成することができる。   In addition, since only the first line sensor and the second line sensor are used, the measuring apparatus can be configured compactly and at low cost.

また、本実施例に係る測定装置によれば、測定対象が棒状の物体である場合、上記特許文献2,3と異なり、棒状の物体そのものを測定することができる。   Further, according to the measuring apparatus according to the present embodiment, when the measurement target is a rod-shaped object, unlike the above-described Patent Documents 2 and 3, the rod-shaped object itself can be measured.

以下、本発明に係る測定装置の第3の実施例について説明する。
本実施例においては、第2の実施例に係る測定装置において第1のラインセンサ1a及び第2のラインセンサ1bの撮像面を合わせて、計算のために用いる第1のラインセンサ1a及び第2のラインセンサ1bのパラメータを得ることを特徴とする。これにより、第1のラインセンサ1a及び第2のラインセンサ1bの撮像面を一定の手順により合わせることができるため、第2の実施例に係る測定装置をより現実的に実現することができる。
The third embodiment of the measuring apparatus according to the present invention will be described below.
In the present embodiment, the first line sensor 1a and the second line sensor 1a and the second line sensor 1b, which are used for calculation, are combined with the imaging surfaces of the first line sensor 1a and the second line sensor 1b in the measurement apparatus according to the second embodiment. The parameter of the line sensor 1b is obtained. Thereby, since the imaging surfaces of the first line sensor 1a and the second line sensor 1b can be matched by a predetermined procedure, the measuring apparatus according to the second embodiment can be realized more realistically.

図10は、本実施例に係る測定装置の概略図である。なお、図10(a)は、本実施例に係る測定装置の正面から見た概略図である。また、図1(b)は、本実施例に係る測定装置におけるひし形ターゲットを正面から見た概略図である。   FIG. 10 is a schematic diagram of a measuring apparatus according to the present embodiment. In addition, Fig.10 (a) is the schematic seen from the front of the measuring apparatus which concerns on a present Example. Moreover, FIG.1 (b) is the schematic which looked at the rhombus target in the measuring apparatus based on a present Example from the front.

図10に示すように、本実施例に係る測定装置は、第1のラインセンサ1aと、第2のラインセンサ1bと、図11に示すような第1のラインセンサ1a及び第2のラインセンサ1bのパラメータを求めるためのキャリブレーションターゲット6と、図10(b)に示すような第1のラインセンサ1a及び第2のラインセンサ1bの撮像ラインを合わせるための複数のひし形が描かれたひし形ターゲット7と、キャリブレーションターゲット6及びひし形ターゲット7を照らす第1のラインセンサ1a側の照明3aと、キャリブレーションターゲット6及びひし形ターゲット7を照らす第2のラインセンサ1b側の照明3bとを備えている。なお、本実施例においては、キャリブレーションターゲット6は、正面の向く方向を容易に調整することができるように、回転角を調整することが可能な雲台(図示省略)上に設置することとする。   As shown in FIG. 10, the measuring apparatus according to the present embodiment includes a first line sensor 1a, a second line sensor 1b, and a first line sensor 1a and a second line sensor as shown in FIG. A rhombus in which a plurality of rhombuses for matching the calibration target 6 for obtaining the parameter 1b and the imaging lines of the first line sensor 1a and the second line sensor 1b as shown in FIG. 10B are drawn. A target 7, an illumination 3 a on the first line sensor 1 a side that illuminates the calibration target 6 and the rhombus target 7, and an illumination 3 b on the second line sensor 1 b side that illuminates the calibration target 6 and the rhombus target 7 are provided. Yes. In the present embodiment, the calibration target 6 is installed on a pan head (not shown) whose rotation angle can be adjusted so that the direction in which the front side faces can be easily adjusted. To do.

なお、本実施例においては、キャリブレーションターゲット6は、図11に示すように、断面が円となる5本以上の円柱状のポール6aを固定でき、かつ各ポール6aの絶対座標が分かるようにしておく。例えば、ポール6aを5本配置する場合には、図10に示すように、P0の絶対座標のみ分かるようにしておき、P0からの相対座標が分かるようにP1〜P4を配置するとよい。 In the present embodiment, as shown in FIG. 11, the calibration target 6 can fix five or more cylindrical poles 6a having a circular cross section and can know the absolute coordinates of each pole 6a. Keep it. For example, in the case of placing five poles 6a, as shown in FIG. 10, leave as seen only the absolute coordinates of P 0, when placing a P 1 to P 4 as seen relative coordinates from P 0 Good.

そして、本実施例においては、第1のラインセンサ1a及び第2のラインセンサ1bの撮像面を合わせることにより、第1の実施例に係る測定装置におけるキャリブレーション方法をそのまま適用することが可能である。したがって、本実施例に係る測定装置の構成は、第1の実施例に係る測定装置の構成と同様である。   In this embodiment, the calibration method in the measuring apparatus according to the first embodiment can be applied as it is by combining the imaging surfaces of the first line sensor 1a and the second line sensor 1b. is there. Therefore, the configuration of the measuring apparatus according to the present embodiment is the same as the configuration of the measuring apparatus according to the first embodiment.

すなわち、本実施例においては、第1のラインセンサ1aの画像信号及び第2のラインセンサ1bの画像信号に基づき画像情報を作成する画像作成部と、第1のラインセンサ1aの画像情報及び第2のラインセンサ1bの画像情報に基づき第1のラインセンサ1aのターゲット座標と、第2のラインセンサ1bのターゲット座標とを検出するターゲット検出部と、ターゲット座標及び予め取得した絶対座標に基づきDLT法の係数を算出する係数算出部と、係数に基づき第1のラインセンサ1a及び第2のラインセンサ1bの姿勢を計算する姿勢計算部と、係数に基づき第1のラインセンサ1a及び第2のラインセンサ1bの焦点距離を計算する焦点距離計算部と、係数に基づき第1のラインセンサ1a及び第2のラインセンサ1bの位置を計算する位置計算部とを備えている。   That is, in this embodiment, the image creation unit that creates image information based on the image signal of the first line sensor 1a and the image signal of the second line sensor 1b, the image information of the first line sensor 1a, and the first A target detection unit for detecting the target coordinates of the first line sensor 1a and the target coordinates of the second line sensor 1b based on the image information of the second line sensor 1b, and the DLT based on the target coordinates and the previously acquired absolute coordinates. A coefficient calculation unit for calculating the modulus of the modulus, an attitude calculation unit for calculating the attitudes of the first line sensor 1a and the second line sensor 1b based on the coefficients, and the first line sensor 1a and the second line sensor based on the coefficients The focal length calculation unit for calculating the focal length of the line sensor 1b, and the positions of the first line sensor 1a and the second line sensor 1b based on the coefficients. And a position calculator for calculation.

図12は、本実施例に係る測定装置における処理の手順を示したフローチャートである。
図12に示すように、はじめに、ステップP30において、図10に示すように、ひし形ターゲット7をキャリブレーションターゲット6のポール6a上に載置する。そして、第1のラインセンサ1a及び第2のラインセンサ1bの撮像面がキャリブレーションターゲット6上で一致するようにひし形ターゲット7を撮像しながら第1のラインセンサ1a及び第2のラインセンサ1bを設置している雲台の回転角を調整する。
FIG. 12 is a flowchart illustrating a processing procedure in the measurement apparatus according to the present embodiment.
As shown in FIG. 12, first, in step P30, the rhombus target 7 is placed on the pole 6a of the calibration target 6 as shown in FIG. Then, the first line sensor 1 a and the second line sensor 1 b are captured while capturing the rhombus target 7 so that the imaging surfaces of the first line sensor 1 a and the second line sensor 1 b coincide on the calibration target 6. Adjust the rotation angle of the installed pan head.

ここで、図13(b)は、ひし形ターゲット7を撮像したときに第1のラインセンサ1a及び第2のラインセンサ1bの撮像面が、図13(a)におけるA及びA´で示すようにひし形ターゲット7を横切る撮像ラインにおける画像の例である。   Here, in FIG. 13B, when the rhombus target 7 is imaged, the imaging surfaces of the first line sensor 1a and the second line sensor 1b are indicated by A and A ′ in FIG. It is an example of the image in the imaging line which crosses the rhombus target.

また、図13(c)は、ひし形ターゲット7を撮像したときに第1のラインセンサ1a及び第2のラインセンサ1bの撮像面が、図13(a)におけるB及びB´で示すようにひし形ターゲット7を横切る撮像ラインにおける画像の例である。   FIG. 13C shows a rhombus as shown by B and B ′ in FIG. 13A when the imaging surfaces of the first line sensor 1a and the second line sensor 1b when the rhombus target 7 is imaged. It is an example of the image in the imaging line which crosses the target.

図13(d)は、ひし形ターゲットを撮像したときに第1のラインセンサ1a及び第2のラインセンサ1bの撮像面が図13(a)におけるCで示すようにひし形ターゲット7を横切る撮像ラインにおける画像の例である。   FIG. 13D shows an imaging line in which the imaging surfaces of the first line sensor 1a and the second line sensor 1b cross the rhombus target 7 as indicated by C in FIG. 13A when the rhombus target is imaged. It is an example of an image.

そして、図13(d)に示すように、第1のラインセンサ1a及び第2のラインセンサ1bの撮像面がひし形ターゲット7の中央を横切るときに第1のラインセンサ1a及び第2のラインセンサ1bの撮像面が一致する。   And as shown in FIG.13 (d), when the imaging surface of the 1st line sensor 1a and the 2nd line sensor 1b crosses the center of the rhombus target 7, the 1st line sensor 1a and the 2nd line sensor The imaging surfaces of 1b coincide.

次に、ステップP31において、図14に示すように、ひし形ターゲット7をキャリブレーションターゲット6のポール6a上からはずした上で、第1のラインセンサ1a及び第2のラインセンサ1bにより撮像する。このとき、図15(a),(b)に示すように、第1のラインセンサ1aで撮像した画像と、第2のラインセンサ1bで撮像した画像とでは、各ポール6aのP0〜P4の写る場所が変わることに注意する。本実施例においては、ポール6aの数を5つとしているが、さらにポール6aの数を増やす場合には注意が必要である。 Next, in step P31, as shown in FIG. 14, the rhombus target 7 is removed from the pole 6a of the calibration target 6, and then imaged by the first line sensor 1a and the second line sensor 1b. At this time, as shown in FIGS. 15A and 15B, P 0 to P of each pole 6 a is obtained between the image captured by the first line sensor 1 a and the image captured by the second line sensor 1 b. Note that the location of 4 changes. In this embodiment, the number of poles 6a is five, but care must be taken when the number of poles 6a is further increased.

次に、ステップP32において、キャリブレーションターゲット6に配置された各ポール6aの下から照明を当てているため、キャリブレーションターゲット6に配置された各ポール6aのP0〜P4は、撮像した画像を2値化することにより白くなり、図15(a)に示すような第1のラインセンサ1aの画像と、図15(b)に示すような第1のラインセンサ1bの画像とを得ることができる。 Next, in Step P32, since illumination is applied from below the poles 6a arranged on the calibration target 6, P 0 to P 4 of the poles 6a arranged on the calibration target 6 are captured images. By binarizing the signal, the image becomes white and an image of the first line sensor 1a as shown in FIG. 15A and an image of the first line sensor 1b as shown in FIG. 15B are obtained. Can do.

次に、ステップP33において、2値化した画像から画像上の座標[mm]を求める。まず、図15(c)に示すように、各ポール6aの白い部分の幅の中心を求め、画像左端からのピクセル数x[pix]を求める。次に、第1の実施例に係るステップP12と同様の方法により、画像上の座標x[mm]を得る。   Next, in step P33, coordinates [mm] on the image are obtained from the binarized image. First, as shown in FIG. 15C, the center of the width of the white portion of each pole 6a is obtained, and the number of pixels x [pix] from the left end of the image is obtained. Next, the coordinate x [mm] on the image is obtained by the same method as in Step P12 according to the first embodiment.

次に、ステップP34において、キャリブレーションを行う。なお、本実施例においては、第1の実施例に係る測定装置におけるキャリブレーション方法と同様であるため、ここでの詳細な説明は省略する。
次に、ステップP35において、求めたパラメータをログとして記録する。
最後に、ステップP36において、第1のラインセンサ1a及び第2のラインセンサ1bのパラメータが求まったか判断し、第1のラインセンサ1a及び第2のラインセンサ1bのパラメータが求まった場合には一連の処理を終了し、第1のラインセンサ1a及び第2のラインセンサ1bのパラメータが求まっていない場合は、ステップP31〜ステップP36を再度実行する。
Next, in step P34, calibration is performed. In this embodiment, since it is the same as the calibration method in the measuring apparatus according to the first embodiment, detailed description thereof is omitted here.
Next, in step P35, the obtained parameters are recorded as a log.
Finally, in step P36, it is determined whether the parameters of the first line sensor 1a and the second line sensor 1b have been obtained. If the parameters of the first line sensor 1a and the second line sensor 1b have been obtained, When the above process is finished and the parameters of the first line sensor 1a and the second line sensor 1b have not been obtained, Steps P31 to P36 are executed again.

以上説明したように、本実施例に係る測定装置によれば、第1のラインセンサ1a及び第2のラインセンサ1bの撮像面を一定の手順により合わせることができるため、第2の実施例に係る測定装置をより現実的に実現することができる。   As described above, according to the measuring apparatus according to the present embodiment, the imaging surfaces of the first line sensor 1a and the second line sensor 1b can be matched by a certain procedure, and thus the second embodiment is used. Such a measuring apparatus can be realized more realistically.

本発明は、例えば、ラインセンサを用いた測定装置に利用することが可能である。   The present invention can be used, for example, in a measuring apparatus using a line sensor.

1 ラインセンサ
1a 第1のラインセンサ
1b 第2のラインセンサ
2 キャリブレーションターゲット
3,3a,3b 照明
4 設置面
5 測定対象物
6 キャリブレーションターゲット
7 ひし形ターゲット
DESCRIPTION OF SYMBOLS 1 Line sensor 1a 1st line sensor 1b 2nd line sensor 2 Calibration target 3,3a, 3b Illumination 4 Installation surface 5 Measurement object 6 Calibration target 7 Diamond target

Claims (3)

5つ以上の高さ方向の絶対座標が分かるキャリブレーションターゲットと、
前記キャリブレーションターゲットの画像を撮像し、撮像した画像の画像信号を出力するラインセンサと、
前記画像信号に基づき画像情報を作成する入力画像作成部と、
前記画像情報に基づきターゲット座標を検出するターゲット検出部と、
前記ターゲット座標及び予め取得した絶対座標に基づきDLT法の係数を算出する係数算出部と、
前記係数に基づき前記ラインセンサの姿勢を計算する姿勢計算部と、
前記係数に基づき前記ラインセンサの焦点距離を計算する焦点距離計算部と、
前記係数に基づき前記ラインセンサの位置を計算する位置計算部と
を備える
ことを特徴とする測定装置。
A calibration target that knows absolute coordinates in five or more height directions,
A line sensor that captures an image of the calibration target and outputs an image signal of the captured image;
An input image creation unit for creating image information based on the image signal;
A target detection unit for detecting target coordinates based on the image information;
A coefficient calculation unit for calculating a coefficient of the DLT method based on the target coordinates and the absolute coordinates acquired in advance;
An attitude calculation unit that calculates the attitude of the line sensor based on the coefficient;
A focal length calculation unit for calculating a focal length of the line sensor based on the coefficient;
And a position calculation unit that calculates a position of the line sensor based on the coefficient.
5つ以上の絶対座標が分かる円柱状のポールが配置されたキャリブレーションターゲットと、
測定対象物の画像を撮像し、撮像した画像の画像信号を出力する第1のラインセンサと、
前記測定対象物の画像を撮像し、撮像した画像の画像信号を出力する第2のラインセンサと、
前記第1のラインセンサの画像信号及び前記第2のラインセンサの画像信号に基づき画像情報を作成する画像作成部と、
前記第1のラインセンサの画像情報及び前記第2のラインセンサの画像情報に基づき前記第1のラインセンサのターゲット座標と、前記第2のラインセンサのターゲット座標とを検出するターゲット検出部と、
前記ターゲット座標及び予め取得した絶対座標に基づきDLT法の係数を算出する係数算出部と、
前記係数に基づき前記第1のラインセンサ及び前記第2のラインセンサの姿勢を計算する姿勢計算部と、
前記係数に基づき前記第1のラインセンサ及び前記第2のラインセンサの焦点距離を計算する焦点距離計算部と、
前記係数に基づき前記第1のラインセンサ及び前記第2のラインセンサの位置を計算する位置計算部と
を備える
ことを特徴とする測定装置。
A calibration target with a cylindrical pole with five or more absolute coordinates,
A first line sensor that captures an image of a measurement object and outputs an image signal of the captured image;
A second line sensor that captures an image of the measurement object and outputs an image signal of the captured image;
An image creating unit that creates image information based on the image signal of the first line sensor and the image signal of the second line sensor;
A target detection unit that detects target coordinates of the first line sensor and target coordinates of the second line sensor based on image information of the first line sensor and image information of the second line sensor;
A coefficient calculation unit for calculating a coefficient of the DLT method based on the target coordinates and the absolute coordinates acquired in advance;
An attitude calculator that calculates attitudes of the first line sensor and the second line sensor based on the coefficient;
A focal length calculation unit that calculates focal lengths of the first line sensor and the second line sensor based on the coefficient;
A measurement apparatus comprising: a position calculation unit that calculates positions of the first line sensor and the second line sensor based on the coefficient.
記第1のラインセンサのターゲット座標及び前記第2のラインセンサのターゲット座標と、前記姿勢計算部、前記焦点距離計算部および前記位置計算部により予め取得した前記第1のラインセンサの姿勢、焦点距離及び位置と、前記第2のラインセンサの姿勢、焦点距離及び位置とに基づきターゲット絶対座標を算出するステレオ計測部を備える
ことを特徴とする請求項2記載の測定装置。
Before SL and the target coordinates and target coordinates of the second line sensor of the first line sensor, the posture computing unit, the posture of the first line sensor obtained in advance by the focal length calculating unit and the position calculating unit, The measurement apparatus according to claim 2, further comprising a stereo measurement unit that calculates a target absolute coordinate based on a focal length and a position, and an attitude, a focal length, and a position of the second line sensor.
JP2010200471A 2010-09-08 2010-09-08 measuring device Active JP5565222B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010200471A JP5565222B2 (en) 2010-09-08 2010-09-08 measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010200471A JP5565222B2 (en) 2010-09-08 2010-09-08 measuring device

Publications (2)

Publication Number Publication Date
JP2012058045A JP2012058045A (en) 2012-03-22
JP5565222B2 true JP5565222B2 (en) 2014-08-06

Family

ID=46055326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010200471A Active JP5565222B2 (en) 2010-09-08 2010-09-08 measuring device

Country Status (1)

Country Link
JP (1) JP5565222B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6447055B2 (en) 2014-01-28 2019-01-09 株式会社リコー Calibration method, calibration device, measuring tool and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4112077B2 (en) * 1998-06-11 2008-07-02 株式会社トプコン Image measurement processing method and apparatus, and recording medium recording image measurement processing program
JP2003042760A (en) * 2001-07-27 2003-02-13 Sumitomo Electric Ind Ltd Instrument, method, and system for measurement
JP2004333368A (en) * 2003-05-09 2004-11-25 Photron Ltd Calibration tool for acquiring three dimensional constants for moving body photographing system
JP2006177852A (en) * 2004-12-24 2006-07-06 Toshiba Corp Surface inspection device and its method
JP2009236574A (en) * 2008-03-26 2009-10-15 Railway Technical Res Inst Method and device for measuring trolley wire deflection using stereo technique
JP4764896B2 (en) * 2008-04-08 2011-09-07 日本電信電話株式会社 Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JP5359038B2 (en) * 2008-06-11 2013-12-04 株式会社明電舎 Line sensor elevation angle measuring device by image processing

Also Published As

Publication number Publication date
JP2012058045A (en) 2012-03-22

Similar Documents

Publication Publication Date Title
US9965870B2 (en) Camera calibration method using a calibration target
JP5097765B2 (en) Measuring method, measuring program and measuring device
JP5029618B2 (en) Three-dimensional shape measuring apparatus, method and program by pattern projection method
TWI437205B (en) A method and apparatus of a portable imaging-based measurement with self calibration
JP3728900B2 (en) Calibration method and apparatus, and calibration data generation method
US20060215881A1 (en) Distance measurement apparatus, electronic device, distance measurement method, distance measurement control program and computer-readable recording medium
JP6296477B2 (en) Method and apparatus for determining the three-dimensional coordinates of an object
JP6209833B2 (en) Inspection tool, inspection method, stereo camera production method and system
JP5388921B2 (en) Three-dimensional distance measuring apparatus and method
JP6413595B2 (en) Image processing apparatus, system, image processing method, and program
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
WO2017090426A1 (en) Physical-object measurement device and physical-object measurement method
JP2012251997A (en) Three-dimensional measurement device, method for controlling three-dimensional measurement device and program
Xu et al. An optimization solution of a laser plane in vision measurement with the distance object between global origin and calibration points
TWI468658B (en) Lens test device and method
JP5487946B2 (en) Camera image correction method, camera apparatus, and coordinate transformation parameter determination apparatus
CN112985258B (en) Calibration method and measurement method of three-dimensional measurement system
JP2009168461A (en) Camera calibration device
JP5565222B2 (en) measuring device
KR102065337B1 (en) Apparatus and method for measuring movement information of an object using a cross-ratio
KR20180008066A (en) Measurement system and method of 3d displacement for structure using of single camera
KR101475742B1 (en) Apparatus and method for performing photogrammetry
JP2006349443A (en) Camera calibration device
JP2008164338A (en) Position sensor
JP5981353B2 (en) 3D measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140602

R150 Certificate of patent or registration of utility model

Ref document number: 5565222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150