KR100395773B1 - Apparatus for measuring coordinate based on optical triangulation using the images - Google Patents

Apparatus for measuring coordinate based on optical triangulation using the images Download PDF

Info

Publication number
KR100395773B1
KR100395773B1 KR10-2001-0020668A KR20010020668A KR100395773B1 KR 100395773 B1 KR100395773 B1 KR 100395773B1 KR 20010020668 A KR20010020668 A KR 20010020668A KR 100395773 B1 KR100395773 B1 KR 100395773B1
Authority
KR
South Korea
Prior art keywords
camera
source
target
image
measurement
Prior art date
Application number
KR10-2001-0020668A
Other languages
Korean (ko)
Other versions
KR20020080836A (en
Inventor
이호재
양주웅
Original Assignee
대우조선해양 주식회사
사단법인 고등기술연구원 연구조합
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대우조선해양 주식회사, 사단법인 고등기술연구원 연구조합 filed Critical 대우조선해양 주식회사
Priority to KR10-2001-0020668A priority Critical patent/KR100395773B1/en
Publication of KR20020080836A publication Critical patent/KR20020080836A/en
Application granted granted Critical
Publication of KR100395773B1 publication Critical patent/KR100395773B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing

Abstract

본 발명은 소스 카메라와 타켓 카메라를 이용하여 측정 대상물을 촬상함으로써 측정 대상물의 측정점들에 대한 3 차원 좌표를 검출하는 장치에 관한 것으로서 본 발명의 소스 카메라와 타켓 카메라는 하나의 고정 축에 각각 설치되어 측정 대상물을 각기 촬상하고, 프로세서는 소스 카메라 및 타켓 카메라에 촬상된 측정점들의 3차원 좌표를 하기식The present invention relates to an apparatus for detecting three-dimensional coordinates of the measuring points of the measurement object by imaging the measurement object using the source camera and the target camera, the source camera and the target camera of the present invention are respectively installed on one fixed axis Each object to be measured is imaged, and the processor calculates three-dimensional coordinates of the measurement points captured by the source camera and the target camera

(여기서, b는 XT축 방향으로 카메라간 중심 거리를 나타내며, (uTi, vTi,)는 타켓 영상에 있어 i번째 물체점의 좌표를, (uTo, vTo,)는 타켓 영상의 영상 중심 좌표, θi는 물체점(i)에 대한 소스 카메라의 회전각 또는 물체점(i)에 대한 타켓 카메라의 회전각)으로 검출하여 표시부에 표시한다.(Where b denotes the center distance between the cameras in the X T axis direction, (u Ti , v Ti ,) denotes the coordinate of the i th object point in the target image, and (u To , v To ,) denotes the target image. The image center coordinate θ i is detected as the rotation angle of the source camera with respect to the object point i or the rotation angle of the target camera with respect to the object point i) and displayed on the display unit.

즉, 본 발명에서는 소스 카메라에서 촬상된 측정 대상물의 측정점에 대한 영상 좌표와 타켓 카메라에서 촬상된 측정 대상물의 측정점들에 대한 영상 좌표를 이용하여 측정점들에 대한 3차원 위치를 파악함으로 측정 대상물에 형성되는 다수의 측정점들에 대한 3차원 위치를 일괄적으로 검출할 수 있다는 효과가 있다.That is, in the present invention, the three-dimensional position of the measurement points is determined by using the image coordinates of the measurement points of the measurement object captured by the source camera and the image coordinates of the measurement points of the measurement object captured by the target camera. There is an effect that it is possible to collectively detect the three-dimensional position with respect to the plurality of measurement points.

Description

두 장의 사진을 이용한 광 삼각법 삼차원 측정 장치{APPARATUS FOR MEASURING COORDINATE BASED ON OPTICAL TRIANGULATION USING THE IMAGES}Optical triangulation three-dimensional measuring device using two photos {APPARATUS FOR MEASURING COORDINATE BASED ON OPTICAL TRIANGULATION USING THE IMAGES}

본 발명은 물체의 삼차원 좌표를 측정하는 장치에 관한 것으로서, 더욱 상세하게는 최소 두 장의 사진을 이용하여 측정 대상물 내 여러 측정점의 3차원 좌표를 동시에 검출할 수 있는 두 장의 사진을 이용한 광 삼각법 삼차원 측정 장치에 관한 것이다.The present invention relates to an apparatus for measuring three-dimensional coordinates of an object, and more particularly, optical triangulation three-dimensional measurement using two photographs capable of simultaneously detecting three-dimensional coordinates of several measurement points in a measurement object using at least two photographs. Relates to a device.

물체의 삼차원 좌표를 측정하는 방법으로는 물체 상에 측정점을 형성하는 광원과 측정점을 인식하는 센서의 기하학적 관계를 이용하는 삼각 측량법이 많이 이용되고 있으며, 이러한 방법은 크게 구조광(structured light) 방법과 스테레오 비젼(stereo vision) 방법으로 구분된다.As a method of measuring three-dimensional coordinates of an object, a triangulation method using a geometric relationship between a light source forming a measuring point on an object and a sensor that recognizes the measuring point is widely used. Such methods are largely structured light and stereo. It is divided into stereo vision method.

구조광 방법은 기학학적 패턴을 가진 광원을 이용하여 측정 대상물을 조명하고, 조명된 물체의 영상을 획득하여 측정점의 좌표를 측정하는 방법이다. 이 중에서 도 1에서와 같이 레이저 투사기(11)와 카메라(12)를 이용하는 단점 투사 방식은 레이저 투사기(11)의 레이저 광선을 이용하여 물체 상에 측정점(13)을 형성시킨 후, 투사 각도(θ)와 카메라(12)의 영상면에 맺힌 영상점(15)의 위치(x',y') 및 레이저(11)와 카메라(12) 사이의 거리(b)를 이용하여 측정점(13)의 좌표(x, y, z)를 측정하는 방법이다.The structured light method is a method of illuminating a measurement object using a light source having a geometrical pattern, and obtaining an image of an illuminated object to measure coordinates of a measurement point. Among the disadvantages of using the laser projector 11 and the camera 12 as shown in FIG. 1, the projection angle after forming the measuring point 13 on the object by using the laser beam of the laser projector 11, the projection angle (θ) ) And the coordinates of the measurement point 13 using the position (x ', y') of the image point 15 formed on the image plane of the camera 12 and the distance b between the laser 11 and the camera 12. It is a method of measuring (x, y, z).

도 1의 기하를 이용하면 측정점(13)의 3차원 좌표는 수학식 1로부터 계산된다.Using the geometry of FIG. 1, the three-dimensional coordinates of the measuring point 13 are calculated from equation (1).

여기서 (x,y,z)T는 측정점(13)의 3차원 좌표이며, (x',y')T는 영상 좌표를 의미하고, f는 초점 거리를 의미한다.Here, (x, y, z) T is three-dimensional coordinates of the measurement point 13, (x ', y') T means image coordinates, f means the focal length.

그러나, 상술한 구조광 방법은 점 단위의 순차적인 측정을 하기 때문에 많은 측정 시간이 요구되며, 측정값의 정확도에 나쁜 영향을 준다는 단점이 있다.However, the above-described structured light method requires a lot of measurement time because of the sequential measurement in units of points, and has a disadvantage in that it adversely affects the accuracy of the measured value.

도 2에는 종래의 스테레오 비전 방법이 도시되어 있다. 도 2에서 공간상에 존재하는 물체상의 한점(P)은 양쪽 카메라에 투영되어 공액점(conjugate pair)이라 불리는 한 쌍의 점들 즉, (pl, pr)을 영상면에 형성시킨다. 카메라 렌즈 중심(optical center)(Cl, Cr)과 카메라로 투영되는 공간상의 물체의 점으로 만들어지는 평면(ΔClCrP)을 에피폴라 평면이라 하며, 에피폴라 평면과 영상 평면의 교선을 에피폴라 선이라고 정의한다. 영상면에 맺히는 두 개의 점들이 같은 y 좌표를 갖게 되고, 왼쪽 영상에 맺힌 물체의 점은 오른쪽 영상의 에피폴라 선위에 놓이게 된다. 왼쪽 영상에 나타나는 점은 오른쪽 영상에 존재할 수 도 있고 존재하지 않을 수도 있지만, 존재한다면 반드시 에피폴라 선 위에 나타나게 된다. 카메라의 이동 중에 발생되는 운동 오차 또는 계산 과정에서 삽입되는 수치 오차는 에피폴라 선을 어긋나게 만들어서 수직 방향의 불일치에 해당되는 종시차를 발생시킬 수 있지만 많은 스테레오 비전 알고리즘에서는 종시차를 0으로 가정한다.2 shows a conventional stereo vision method. In FIG. 2, a point P on an object existing in space is projected on both cameras to form a pair of points called conjugate pairs (p l , p r ) on the image plane. The plane (ΔC l C r P), which is made up of the optical center of the camera (C l , C r ) and the point of the object in space projected by the camera, is called the epipolar plane, and the intersection of the epipolar plane and the image plane Is defined as the epipolar line. Two points on the image plane have the same y coordinate, and the object point on the left image is placed on the epipolar line of the right image. The points that appear in the left image may or may not exist in the right image, but if they do, they will always appear on the epipolar line. Motion errors generated during camera movement or numerical errors inserted in the calculation process can cause epipolar lines to shift, resulting in vertical disparities corresponding to vertical mismatches, but many stereo vision algorithms assume zero zero.

두 개의 카메라가 굳게 연결되어 있으며 광축은 평행하고 거리(b)만큼 떨어져 있다고 하면, 이 때 x축 방향으로만 거리(b)만큼 떨어진 두 대의 카메라 렌즈 중심을 연결하는 선을 기초선(baseline)이라고 한다. 도 2에서는 영상 평면들이 동일 평면으로 모델링되어 있으며 기초선이 광축(optical axis)에 수직이고 x축의 방향이라면 x축과 평행하게 놓인다.If two cameras are firmly connected and the optical axes are parallel and separated by a distance (b), then the line connecting the centers of two camera lenses separated by the distance (b) only in the x-axis direction is called a baseline. do. In FIG. 2, the image planes are modeled in the same plane, and if the base line is perpendicular to the optical axis and in the direction of the x axis, the image planes lie parallel to the x axis.

공간에서 물체의 좌표(X, Y, Z)는 왼쪽 카메라의 렌즈 중심을 원점으로 하여 측정된다고 가정한다. 왼쪽 영상과 오른쪽 영상에서의 영상 좌표를 각각 (x'l,y'l), (x'r,y'r)이라고 하자, 왼쪽 영상의 상점(pl)과 물체상의 점(P)의 대응 관계로부터 수학식 2와 같은 관계가 성립한다.It is assumed that the coordinates (X, Y, Z) of the object in space are measured with the lens center of the left camera as the origin. Each of the image coordinates of the left image and the right image (x 'l, y' l ), (x 'r, y' r) Let the corresponding point (P) on the store the left image (p l) and the object From the relationship, the relationship as shown in equation (2) is established.

마찬가지로 오른쪽 영상의 상점(pr)과 물체상의 점(P)의 대응관계로부터 수학식 3 및 4가 성립한다.Similarly, Equations 3 and 4 are established from the correspondence between the shop p r of the right image and the point P on the object.

여기서, f는 초점 거리로서 각각의 카메라의 렌즈 중심에서 영상 평면까지의 거리이다.Here, f is a focal length, which is the distance from the lens center of each camera to the image plane.

왼쪽과 오른쪽 영상 평면의 좌표(x'l,y'l), (x'r,y'r)를 모두 측정할 수 있고, 초점 거리(f)는 카메라 보정(calibration)에 의해 결정되므로 수학식 2, 3, 4에서 모르는 것은 공간에서 물체의 카메라 좌표값 뿐이므로 X, Y, Z을 구할 수 있다.The coordinates (x ' l , y' l ) and (x ' r , y' r ) of the left and right image planes can be measured, and the focal length f is determined by camera calibration, so At 2, 3, and 4, we don't know anything about camera coordinates of objects in space, so we can find X, Y, and Z.

수학식 2 및 3에서 다음의 수학식 5의 관계식을 얻을 수 있다.In Equations 2 and 3, the following Equation 5 can be obtained.

영상 좌표에서 x좌표의 차이 x'r-x'l즉, 두 개의 영상이 합성되었을 때 공액점(conjugate pair)에 해당하는 두 점들 사이의 차를 불균형(disparity)이라 하며 공간상의 카메라 좌표의 추정값은 수학식 6과 같다.The difference between x coordinates in image coordinates x ' r -x' l In other words, the difference between two points corresponding to a conjugate pair when two images are combined is called disparity. Equation 6

한편, 상술한 바와 같이 종래의 구조광 방법은 주로 레이저를 광원으로 사용하여 물체상에 측정점을 형성하고, 이 때, 영상면에서 맺힌 영상점의 영상 좌표 및 광원과 카메라의 위치 관계로부터 측정점의 삼차원 좌표를 구한다. 그러나, 이러한 방법은 점 단위의 측정이 이루어지기 때문에 물체를 주사하는 과정이 반드시 포함되어야 하며, 이로 인하여 많은 측정 시간이 소요되고, 측정 결과에도 나쁜 영향을 미치게 된다. 또한, 대상물 표면의 반사율에 따라 결과에 영향을 미치게 되므로 같은 형상이라 하더라도 재질이나 표면의 상태에 따라 동일한 결과를 얻기 힘들다는 문제가 있다.On the other hand, as described above, the conventional structured light method mainly uses a laser as a light source to form a measurement point on an object, and at this time, the three-dimensional measurement point based on the image coordinate of the image point formed on the image plane and the positional relationship between the light source and the camera. Find the coordinates. However, this method must include the process of scanning the object because the measurement in points is made, it takes a lot of measurement time and adversely affects the measurement results. In addition, since the result depends on the reflectance of the object surface, even if the same shape, there is a problem that it is difficult to obtain the same result depending on the material or the state of the surface.

또한, 스테레오 비전 방법은 평행하게 설치된 두 대의 카메라로부터 획득된 1쌍의 영상을 이용하여 3 차원 좌표를 측정하는 방법으로 기초선(baseline)의 길이가 증가될수록 중첩되는 영상의 범위가 작아지기 때문에 넓은 측정 영역을 확보하기 어렵다는 단점이 있다.In addition, the stereo vision method is a method of measuring three-dimensional coordinates using a pair of images obtained from two parallel cameras. As the length of the baseline increases, the range of overlapping images decreases. The disadvantage is that it is difficult to secure the measurement area.

본 발명은 이러한 문제를 해결하기 위한 것으로서, 본 발명의 목적은, 실제광원 대신에 가상 광원인 CCD 카메라를 이용하여 측정점의 삼차원 좌표를 계산하는 두 장의 사진을 이용한 광 삼각법 삼차원 측정 장치를 제공하는데 있다.SUMMARY OF THE INVENTION The present invention has been made to solve this problem, and an object of the present invention is to provide an optical triangular three-dimensional measuring apparatus using two photographs for calculating three-dimensional coordinates of a measuring point using a CCD camera, which is a virtual light source, instead of an actual light source. .

이러한 목적을 달성하기 위하여 본 발명은, 측정 대상물에 위치하는 측정점들의 3 차원 좌표 위치를 검출하는 장치로서, 측정 대상물을 촬상하는 소스 카메라와; 소스 카메라와 소정 거리를 두고 상기 측정 대상물을 촬상하는 타켓 카메라와; 3차원 좌표값의 표시가 가능한 표시부와; 소스 카메라 및 타켓 카메라에 촬상된 측정점들의 3차원 좌표를 하기식In order to achieve the above object, the present invention provides a device for detecting the three-dimensional coordinate position of the measurement points located on the measurement object, a source camera for imaging the measurement object; A target camera for photographing the measurement object at a predetermined distance from a source camera; A display unit capable of displaying three-dimensional coordinate values; Three-dimensional coordinates of the measurement points captured by the source camera and the target camera

(여기서, b는 XT축 방향으로 카메라간 중심 거리를 나타내며, (uTi, vTi,)는 타켓 영상에 있어 i번째 물체점의 좌표를, (uTo, vTo,)는 타켓 영상의 영상 중심 좌표, θi는 물체점(i)에 대한 소스 카메라의 회전각 또는 물체점(i)에 대한 타켓 카메라의 회전각)으로 검출하여 표시부에 표시하는 프로세서를 구비한다.(Where b denotes the center distance between the cameras in the X T axis direction, (u Ti , v Ti ,) denotes the coordinate of the i th object point in the target image, and (u To , v To ,) denotes the target image. The image center coordinate θ i is provided as a processor for detecting and displaying the rotation angle of the source camera with respect to the object point i or the rotation angle of the target camera with respect to the object point i).

도 1은 종래의 구조광 방법을 이용하여 측정점의 위치를 검출하는 방법을 도시한 도면,1 is a view showing a method of detecting the position of a measuring point using a conventional structured light method;

도 2는 종래의 스테레오 비전 방법을 이용하여 측정점의 위치를 검출하는 방법을 도시한 도면,2 is a diagram illustrating a method of detecting a position of a measurement point using a conventional stereo vision method.

도 3은 본 발명에 따른 두 장의 사진을 이용한 광 삼각법 삼차원 측정 장치의 개략도,3 is a schematic diagram of an optical triangulation three-dimensional measuring apparatus using two photographs according to the present invention;

도 4는 본 발명에 따른 소스 카메라(source camera)와 타켓 카메라(target camera)의 기하학적 관계 및 사용된 좌표계를 도시한 도면,4 is a view showing a geometric relationship between a source camera and a target camera and a coordinate system used according to the present invention;

도 5는 소스 카메라의 투영 중심(OS)을 도 1의 레이저 광 축으로 고려하여 투영 중심을 출발하여 타켓의 투영 중심으로 들어가는 광선의 기하 관계를 도시한 도면,A 5 is the starting by the center projection in consideration with a laser beam axis in Figure 1 the projection center (O S) of the source camera showing the geometric relationship of the light beam entering the projection center of the target figure,

도 6은 렌즈의 투영 중심이 소스와 타켓의 카메라 중심이 XT축 선 상에 놓이지 않고 ZT방향으로 일정 거리(bz)만큼 떨어져 있는 경우의 기하 관계를 도시한 도면,FIG. 6 is a view showing a geometric relationship when the projection center of the lens is separated from the camera center of the source and the target by a predetermined distance b z in the Z T direction without being placed on the X T axis line;

도 7은 본 발명에 따른 두 장의 사진을 이용한 광 삼각법 삼차원 측정 장치의 블럭도,7 is a block diagram of an optical triangulation three-dimensional measuring apparatus using two photographs according to the present invention;

도 8은 본 발명에 따른 두 장의 사진을 이용한 광 삼각법 삼차원 측정 장치의 다른 실시예를 도시한 개략도.8 is a schematic diagram showing another embodiment of an optical triangulation three-dimensional measuring apparatus using two photographs according to the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

32 : 소스 카메라 33 : 타켓 카메라32: source camera 33: target camera

40 : 프로세서 50 : 표시부40: processor 50: display unit

이하, 첨부 도면을 참조하여 본 발명의 일 실시예를 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention;

도 3에는 본 발명을 행하는 시스템의 개략도가 도시되어 있다. 도시된 바와 같이 본 발명에서는 하나의 평행 고정축(31)에 고정된 두 개의 카메라(32,33)를 포함하며, 이 카메라(32,33)들 중 하나(33)는 렌즈 축을 중심으로 하여 회전이 가능하도록 구성되어 있다. 이러한 구성에서 카메라(32)는 고정된 상태에서 촬상하고자하는 촬상 대상물(34)을 촬상하며, 카메라(33)는 렌즈 축을 중심으로 회전하여 촬상 대상물(34)에 대한 촬상각이 설정된 상태에 촬상을 행한다.3 shows a schematic diagram of a system for practicing the present invention. As shown, the present invention includes two cameras 32 and 33 fixed to one parallel fixed shaft 31, one of which is rotated about the lens axis. It is configured to be possible. In this configuration, the camera 32 captures an image to be imaged 34 to be imaged in a fixed state, and the camera 33 rotates around the lens axis to capture the image in a state in which the image angle with respect to the image object 34 is set. Do it.

상술한 구성을 갖는 본 발명은 카메라(32,33)에서 촬상되는 각각의 화소를 하나의 점 광원으로 가정하고, 이에 대응하는 영상점의 영상 좌표를 구함으로써 측정점의 삼차원 좌표를 얻을 수 있다.According to the present invention having the above-described configuration, it is possible to obtain three-dimensional coordinates of a measurement point by assuming that each pixel photographed by the cameras 32 and 33 is a single point light source, and to obtain image coordinates of the image point corresponding thereto.

도 4에는 가상 광원을 제공하는 소스 카메라(source camera)(본 실시예에서는 카메라(33))와 영상점을 제공하는 타켓 카메라(target camera)(본 실시예에서는 카메라(32))의 기하학적 관계 및 사용된 좌표계가 도시되어 있다. 도시된 바와 같이 타켓 카메라(32)를 중심으로 소스 카메라(33)가 일정각(θ1)을 가지고 위치한다.4 shows a geometric relationship between a source camera providing a virtual light source (camera 33 in this embodiment) and a target camera providing an image point (camera 32 in this embodiment). The coordinate system used is shown. As shown, the source camera 33 is positioned with a certain angle θ 1 about the target camera 32.

도 4에서 측정점(P)은 각각의 카메라 투영 중심(OT, OS)을 지나 영상면에 영상점을 형성한다. 소스 카메라(33)의 투영 중심(OS)을 도 1의 레이저 광축으로 고려하면 투영 중심을 출발하여 타켓의 투영 중심으로 들어가는 광선의 기하 관계를 도 5와 같이 모델링 할 수 있다.In FIG. 4, the measurement point P forms an image point on the image plane passing through the respective camera projection centers O T and O S. Considering the projection center O S of the source camera 33 as the laser optical axis of FIG. 1, the geometric relationship of light rays starting from the projection center into the projection center of the target may be modeled as shown in FIG. 5.

도 5에서 보면 여러 개의 레이저 광원이 동시에 광선을 투사하는 형태로서 소스 카메라(33)의 영상 1 장이 다중 광원의 역할을 하고 있음을 알 수 있다. 따라서, 각각의 광선에 대하여 광선의 투사 각도(θi)를 구하여 수학식 1을 적용하면 측정점들의 3차원 좌표를 구할 수 있다.Referring to FIG. 5, it can be seen that one image of the source camera 33 serves as a multiple light source as a plurality of laser light sources simultaneously project rays. Therefore, by applying the equation 1 by obtaining the projection angle (θ i ) of the light ray for each light ray it is possible to obtain the three-dimensional coordinates of the measurement points.

타켓 카메라(32)에 대한 소스 카메라(33)의 회전각(θ1)은 구조광 방법에서와 마찬가지로 측정 시스템의 구성 조건으로 정확히 알고 있으며, 각각의 광선이 갖게 되는 투사 각도는 투영 중심에서 영상 평면까지의 거리 및 영상 좌표를 통하여 수학식 7과 같이 구할 수 있다.The rotation angle θ 1 of the source camera 33 with respect to the target camera 32 is known exactly as a configuration condition of the measurement system as in the structured light method, and the projection angle of each ray has an image plane at the projection center. It can be obtained as shown in Equation 7 through the distance and the image coordinates.

여기서, θi는 물체점(i)에 대한 투사각을 나타내며 usi는 소스에 맺힌 i번째 점의 영상 좌표 중에서 u성분을 uso는 소스의 영상 중심 좌표 중에서 u성분을 나타낸다. 또한 θ1는 YT축에 대한 소스 카메라(33)의 회전각으로서 시스템 구성 조건으로부터 알 수 있다.Here, θ i represents a projection angle with respect to the object point i, us i represents a u component among the image coordinates of the i-th point formed on the source, and us o represents a u component among the image center coordinates of the source. Θ 1 can also be known from the system configuration conditions as the rotation angle of the source camera 33 with respect to the Y T axis.

도 5의 기하를 이용하면 수학식 8과 같이 물체의 3차원 좌표를 계산할 수 있다.Using the geometry of FIG. 5, three-dimensional coordinates of an object may be calculated as shown in Equation 8.

여기서, b는 XT축 방향으로 카메라간 중심 거리를 나타내며, (uTi, vTi,)는 타켓 영상에 있어 i번째 물체점의 좌표를, (uTo, vTo,)는 영상 중심 좌표를 나타낸다.Here, b denotes the center distance between cameras in the X T axis direction, (u Ti , v Ti ,) denotes the coordinate of the i-th object point in the target image, and (u To , v To ,) denotes the image center coordinates. Indicates.

실질적으로 카메라를 구성하고 있는 렌즈의 투영 중심은 수학식 8에서와 같이 소스와 타켓의 카메라 중심이 XT축 선 상에 놓이지 않고 ZT방향으로 일정 거리(bz)만큼 떨어져 있다. 이러한 경우에 광선의 기하는 도 6과 같이 구성되며, 이때의 좌표 계산식은 수학식 9 및 10을 이용하여 구할 수 있다.Substantially, the projection center of the lens constituting the camera is as shown in Equation 8 so that the camera centers of the source and the target do not lie on the X T axis line but are separated by a predetermined distance b z in the Z T direction. In this case, the geometry of the ray is configured as shown in FIG. 6, and the coordinate calculation equation at this time can be obtained using Equations 9 and 10.

도 7에는 상술한 방법을 이용하여 측정점들의 삼차원 좌표를 구하는 장치의 블록도가 도시되어 있다.7 is a block diagram of an apparatus for obtaining three-dimensional coordinates of measurement points using the above-described method.

도시된 바와 같이 본 발명은 소스 카메라(33)와 타켓 카메라(32)를 구비하며, 카메라(32,33)에 촬상된 측정점들을 이용하여 측정점들의 좌표를 구하는 프로세서(40)를 구비한다. 여기서, 프로세서(40)가 수학식 8 또는 수학식 9, 10을 행하기 위해서는 소스 카메라(33)의 회전각()에 대한 정보, 소스 카메라(33) 및 타켓 카메라(32)에 촬상된 측정점들 중에서 상호 대응하는 측정점들에 대한 지정, 그리고 소스 카메라(33)와 타켓 카메라(32)간의 거리(b 또는 (bx, bz)정보가 필요할 것이며, 이러한 정보들은 운용자에 의하여 프로세서(40)에 제공되어야 할 것이다.As shown, the present invention includes a source camera 33 and a target camera 32, and a processor 40 for obtaining coordinates of the measurement points using the measurement points captured by the cameras 32 and 33. Here, in order for the processor 40 to perform Equation 8 or Equations 9 and 10, the rotation angle of the source camera 33 ( Information about the measurement points picked up by the source camera 33 and the target camera 32, and the distance between the source camera 33 and the target camera 32 (b or (b). x , b z ) information will be needed, and this information will have to be provided to the processor 40 by the operator.

프로세서(40)는 운용자들에 의하여 제공된 정보 및 촬상된 측정점들에 대한 정보를 이용하여 수학식 8(또는 수학식 9 및 10)을 이용하여 측정점들에 대한 3 차원 좌표를 검출하고, 검출된 3차원 좌표는 별도의 표시부(50)를 통하여 표시한다.The processor 40 detects three-dimensional coordinates of the measurement points using Equation 8 (or Equations 9 and 10) by using the information provided by the operator and the information about the measured measurement points, and detects the detected 3 Dimensional coordinates are displayed through a separate display unit 50.

한편, 도 3의 실시예에서는 두 개의 카메라(32,33)가 이용되었으나, 도 8에 도시된 바와 같이 단축 이송 스테이지(35)상에 하나의 카메라(36)를 부착하고, 이 카메라(36)를 소스 카메라 및 타켓 카메라로 동시에 사용할 수 있을 것이다. 즉, 카메라(36)를 임의의 위치(소스 위치)에 위치시켜 측정 대상물(34)을 촬상한다. 그리고, 단축 이송 스테이지(35)를 통하여 카메라(36)를 타켓 위치로 이동시키고 렌츠 축을 중심으로 회전시킨 후에 측정 대상물을 촬상함으로써 측정 대상물의 측정점의 3 차원 좌표를 검출하는데 필요한 소스 촬상 화면과 타켓 화면을 획득할 수 있다.Meanwhile, although two cameras 32 and 33 are used in the embodiment of FIG. 3, as shown in FIG. 8, one camera 36 is attached to the single-axis feed stage 35, and the camera 36 is attached. Can be used simultaneously as a source camera and a target camera. In other words, the camera 36 is positioned at an arbitrary position (source position) to capture the measurement object 34. Then, by moving the camera 36 to the target position through the single-axis feed stage 35 and rotating it around the lentz axis, the image of the measurement object is captured and the source imaging screen and the target screen necessary for detecting the three-dimensional coordinates of the measurement point of the measurement object. Can be obtained.

한편, 도 3의 실시예에서는 소스 카메라(33)와 타켓 카메라(32)간의 상대 위치(b)는 설정되어 있는 상태이나, 도 8의 실시예에서는 그 상태 위치(b)는 필요에 따라 조절될 수 있음을 알 수 있다. 즉, 도 8의 장치에서는 카메라(36)의 회전각과 상대 거리는 필요에 따라 조절될 수 있다.Meanwhile, in the embodiment of FIG. 3, the relative position b between the source camera 33 and the target camera 32 is set, but in the embodiment of FIG. 8, the state position b may be adjusted as necessary. It can be seen that. That is, in the apparatus of FIG. 8, the rotation angle and the relative distance of the camera 36 may be adjusted as necessary.

이와 같이 본 발명에서는 소스 카메라에서 촬상된 측정 대상물의 측정점과 타켓 카메라에서 촬상된 측정 대상물의 측정점들을 이용하여 측정점들에 대한 3차원 위치를 파악함으로 측정 대상물에 형성되는 다수의 측정점들에 대한 3차원 위치를 일괄적으로 검출할 수 있으며, 특히 본 발명의 타켓 또는 소스 카메라는 촬상각도의 변경이 가능함으로 종래의 스테레오 비전에서와 같이 두 대의 카메라의 촬상 각도가 상호 평행함에 따라 두 대의 카메라에 상대 위치가 소정 거리 이하로 위치하여야 한다는 제약이 없다는 효과가 있다.As described above, in the present invention, by measuring the three-dimensional position of the measurement point by using the measurement point of the measurement object imaged by the source camera and the measurement object imaged by the target camera, the three-dimensional image of the plurality of measurement points formed on the measurement object. Position can be collectively detected, and in particular, the target or source camera of the present invention can change the imaging angle, so that the relative positions of the two cameras are parallel as the imaging angles of the two cameras are parallel to each other, as in the conventional stereo vision. There is an effect that there is no restriction that must be located below a predetermined distance.

Claims (5)

측정 대상물에 위치하는 측정점들의 3 차원 좌표를 검출하는 장치로서,An apparatus for detecting three-dimensional coordinates of the measuring points located on the measurement object, 상기 측정 대상물을 촬상하는 소스 카메라와;A source camera which picks up the measurement object; 상기 소스 카메라와 소정 거리를 두고 상기 측정 대상물을 촬상하는 타켓 카메라와;A target camera configured to capture the measurement object at a predetermined distance from the source camera; 3차워 좌표값의 표시가 가능한 표시부와;A display unit capable of displaying three coordinate values; 상기 소스 카메라 및 타켓 카메라에 촬상된 측정점들의 3차원 좌표를 하기식Three-dimensional coordinates of the measurement points captured by the source camera and the target camera (여기서, b는 XT축 방향으로 카메라간 중심 거리를 나타내며, (uTi, vTi,)는 타켓 영상에 있어 i번째 물체점의 좌표를, (uTo, vTo,)는 타켓 영상의 영상 중심 좌표, θi는 물체점(i)에 대한 소스 카메라의 회전각 또는 물체점(i)에 대한 타켓 카메라의 회전각)(Where b denotes the center distance between the cameras in the X T axis direction, (u Ti , v Ti ,) denotes the coordinate of the i th object point in the target image, and (u To , v To ,) denotes the target image. Image center coordinate, θ i is the rotation angle of the source camera with respect to the object point (i) or the rotation angle of the target camera with respect to the object point (i)) 으로 검출하여 상기 표시부에 표시하는 프로세서를 구비하는 광 삼각법 삼차원 측정 장치.Optical triangulation three-dimensional measuring apparatus comprising a processor for detecting by the display to display on the display unit. 제 1 항에 있어서,The method of claim 1, 상기 물체점(i)에 대하여 소정 회전 각도(θi)를 갖는 소스 카메라 또는 타켓 카메라의 투영 중심은 상기 물체점(i)에 대하여 회전 각도(θi)를 갖지 않는 타켓 카메라 또는 소스 카메라의 투영 중심으로부터 Z축 방향으로 소정 거리 이격되어 형성되며, 상기 프로세서는 상기 소스 카메라 및 타켓 카메라에 촬상된 측정점들의 3차원 좌표를 하기식The projection center of the source camera or the target camera having a predetermined rotation angle θ i with respect to the object point i is from the projection center of the target camera or source camera having no rotation angle θ i with respect to the object point i. The processor is spaced apart from the predetermined distance in the Z-axis direction, and the processor calculates three-dimensional coordinates of the measurement points captured by the source camera and the target camera. 으로 검출하고, 여기서 bx는 xT축 방향의 이격 거리, bz는 zT축 방향의 이격 거리인 것을 특징으로 하는 광 삼각법 삼차원 측정 장치.Wherein b x is a separation distance in the x T- axis direction, and b z is a separation distance in the z T- axis direction. 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 회전각(θi)은 하기식The rotation angle θ i is 으로 검출하며, fs는 소스 영상의 초점 거리, usi는 소스에 맺힌 i번째 점의 영상 좌표 중에서 u성분을 uso는 소스의 영상 중심 좌표 중에서 u성분을 나타내는 것을 특징으로 하는 광 삼각법 삼차원 측정 장치.And detect, fs is the optical triangulation three-dimensional measuring device, characterized in that represents the u component in the focal length, us i is the u component from the image coordinates of Rimed i-th point source us o is the image coordinates of the center of the source of the source image . 제 3 항에 있어서,The method of claim 3, wherein 상기 소스 카메라와 타켓 카메라는 하나의 고정 축에 각각 설치됨을 특징으로 하는 광 삼각법 삼차원 측정 장치.And the source camera and the target camera are installed on one fixed axis, respectively. 제 3 항 있어서,The method of claim 3, 상기 소스 카메라와 타켓 카메라는 하나의 카메라로 구성되며, 상기 카메라는 단축 이송 스테이지에 이동 가능하도록 설치되어, 상기 소스 카메라로 구동하여 상기 측정 대상물을 촬상한 후 상기 단축 이송 스테이지를 통하여 이송된 후 상기 타켓 카메라로 구동하여 상기 측정 대상물을 촬상하는 것을 특징으로 하는 광 삼각법 삼차원 측정 장치.The source camera and the target camera are composed of one camera, and the camera is installed to be movable on the single axis transfer stage, and is driven by the source camera to capture the measurement object and then transferred through the single axis transfer stage. An optical trigonometry three-dimensional measuring apparatus for driving the target camera and imaging the measurement object.
KR10-2001-0020668A 2001-04-18 2001-04-18 Apparatus for measuring coordinate based on optical triangulation using the images KR100395773B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2001-0020668A KR100395773B1 (en) 2001-04-18 2001-04-18 Apparatus for measuring coordinate based on optical triangulation using the images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0020668A KR100395773B1 (en) 2001-04-18 2001-04-18 Apparatus for measuring coordinate based on optical triangulation using the images

Publications (2)

Publication Number Publication Date
KR20020080836A KR20020080836A (en) 2002-10-26
KR100395773B1 true KR100395773B1 (en) 2003-08-21

Family

ID=27701476

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0020668A KR100395773B1 (en) 2001-04-18 2001-04-18 Apparatus for measuring coordinate based on optical triangulation using the images

Country Status (1)

Country Link
KR (1) KR100395773B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100490525B1 (en) * 2001-09-29 2005-05-19 박상래 Position of Target Image Tracking System in DVR(Digital Video Recorder)
CN103167263B (en) * 2011-12-15 2017-05-24 联想(北京)有限公司 Collected image processing method and electronic equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6326523A (en) * 1986-07-21 1988-02-04 Res Dev Corp Of Japan Signal processing system for multiple-lens range finder device
JPH0526639A (en) * 1991-07-23 1993-02-02 Sanyo Mach Works Ltd Three-dimensional measuring method
JPH1114308A (en) * 1997-06-20 1999-01-22 Matsushita Electric Ind Co Ltd Three-dimensional position detecting method and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6326523A (en) * 1986-07-21 1988-02-04 Res Dev Corp Of Japan Signal processing system for multiple-lens range finder device
JPH0526639A (en) * 1991-07-23 1993-02-02 Sanyo Mach Works Ltd Three-dimensional measuring method
JPH1114308A (en) * 1997-06-20 1999-01-22 Matsushita Electric Ind Co Ltd Three-dimensional position detecting method and device

Also Published As

Publication number Publication date
KR20020080836A (en) 2002-10-26

Similar Documents

Publication Publication Date Title
US9672630B2 (en) Contour line measurement apparatus and robot system
JP5480914B2 (en) Point cloud data processing device, point cloud data processing method, and point cloud data processing program
JP2874710B2 (en) 3D position measuring device
US6674531B2 (en) Method and apparatus for testing objects
CN106595519A (en) Flexible 3D contour measurement method and device based on laser MEMS projection
JP2008096162A (en) Three-dimensional distance measuring sensor and three-dimensional distance measuring method
JP6880822B2 (en) Equipment, mobile equipment and methods
JP2021193400A (en) Method for measuring artefact
TWI521471B (en) 3 - dimensional distance measuring device and method thereof
JP2007093412A (en) Three-dimensional shape measuring device
KR19990068886A (en) Stereo Camera System by Prism
JP2017098859A (en) Calibration device of image and calibration method
JP3842988B2 (en) Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program
JP3696336B2 (en) How to calibrate the camera
JP2008275366A (en) Stereoscopic 3-d measurement system
JP3696335B2 (en) Method for associating each measurement point of multiple images
KR100395773B1 (en) Apparatus for measuring coordinate based on optical triangulation using the images
JP2010243273A (en) Measuring method and measuring apparatus for object having cylindrical shape
JP7119584B2 (en) Three-dimensional measuring device, position display method and program for three-dimensional measuring device
JP4918675B2 (en) 3D coordinate measurement method
JP3221384B2 (en) 3D coordinate measuring device
Clark et al. Measuring range using a triangulation sensor with variable geometry
JP2970835B2 (en) 3D coordinate measuring device
JP2004117186A (en) Three-dimensional shape measuring device
JP2003042730A (en) Apparatus and method for measurement of surface shape as well as surface-state mapping apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20060727

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee