KR920006741B1 - Noncontact type tire contour shape measurement system - Google Patents
Noncontact type tire contour shape measurement system Download PDFInfo
- Publication number
- KR920006741B1 KR920006741B1 KR1019900006154A KR900006154A KR920006741B1 KR 920006741 B1 KR920006741 B1 KR 920006741B1 KR 1019900006154 A KR1019900006154 A KR 1019900006154A KR 900006154 A KR900006154 A KR 900006154A KR 920006741 B1 KR920006741 B1 KR 920006741B1
- Authority
- KR
- South Korea
- Prior art keywords
- axis
- measurement
- computer
- sensor unit
- dimensional
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/30—Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
Abstract
Description
제1도는 본 발명장치의 블록다이어그램.1 is a block diagram of an apparatus of the present invention.
제2도는 본 발명의 센서부에 의한 비 접촉식 타이어 단면윤곽 형상계측에 대한 설명도.2 is an explanatory view of a non-contact tire profile contour measurement by the sensor unit of the present invention.
제3도는 본 발명의 센서부의 슬릿광 발생장치에 대한 설명도.3 is an explanatory diagram of a slit light generating device of the sensor unit of the present invention.
제4도는 교정블록으로 부터의 특징점 추출을 위한 최대 곡율점 계산에 대한 설명도.4 is an explanatory diagram for calculating a maximum curvature point for extracting feature points from a calibration block.
제5도는 교정블록에서 얻어지는 각종 파라미터에 대한 설명도.5 is an explanatory diagram of various parameters obtained from a calibration block.
제6도는 본 발명의 다축형 로보트 핸드의 구성도 및 센서부와 계측대상물체와 교정블록의 관련 배치도.6 is a configuration diagram of the multi-axis robot hand of the present invention and a related arrangement of the sensor unit, the measurement object and the calibration block.
제7도는 본 발명의 로보트 핸드 구동부의 블록다이어그램.7 is a block diagram of the robot hand drive unit of the present invention.
제8도는 본 발명의 센서부 카메라와 계측대상물체 사이의 거리에 따른 계측정밀도의 변화에 대한 설명도.8 is an explanatory diagram of a change in measurement accuracy according to the distance between the sensor unit camera and the measurement object of the present invention.
제9도는 본 발명에 따른 계측대상물체에서의 위치이동 계측시 사각 제거에 대한 설명도.9 is an explanatory diagram for removing the blind spots when measuring the position movement in the object to be measured according to the present invention.
제10도는 본 발명에 따른 교정플로우차트.10 is a calibration flowchart according to the present invention.
제11도는 본 발명에 따른 계측플로우차트.11 is a measurement flowchart according to the present invention.
* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings
10 : 컴퓨터 11 : 로보트 제어부10 computer 11: robot control unit
12 : I/O포트 13 : 영상처리부12: I / O port 13: image processing unit
14 : CPU 20 : 로보트 드라이버14: CPU 20: robot driver
21-23 : X-Y축 서어보 제어기 24,25 : α,β축 제어기21-23: X-Y
30 : 로보트 핸드 40 : 센서부30: robot hand 40: sensor
41 : 슬릿광 발생장치 42 : 카메라41: slit light generator 42: camera
45 : 지지대 60 : CRT45: support 60: CRT
90 : 계측대상물체 100 : 교정블록90: object to be measured 100: calibration block
본 발명은 어떤 물체의 특정부위의 형상 또는 전체적인 형상을 오차없이 정밀하게 계측하기 위한 장치에 관한 것으로, 특히 비접촉식 슬릿광 형상검출센서를 이용하여 타이어등의 어떠한 계측대상물체에서도 단일의 카메라로 연속계측이 가능하게 하고 또한 계측시 사각발생을 제거시킴으로써 물체의 3차원적 계측정밀도와 신속도를 높일 수 있도록 한 비 접촉식 타이어의 단면윤곽 형상계측장치에 관한 것이다.The present invention relates to an apparatus for accurately measuring the shape or the overall shape of a specific part of an object without error, and in particular, continuous measurement with a single camera on any measurement object such as a tire using a non-contact slit light shape detection sensor The present invention relates to a cross-sectional contour shape measuring apparatus of a non-contact tire which enables to increase the accuracy and speed of three-dimensional measurement of an object by eliminating rectangular generation during measurement.
일반적으로, 물체의 통상적인 계측방법인 접촉식 형상검출센서를 이용하여 특정물체를 계측할 때, 그 계측대상물체가 비교적 단단한 고체인 경우에는 계측오차가 크게 발생되지 않으나 계측대상물체가 반고체 상태이거나 또는 타이어등과 같이 센서의 접촉에 의해 본래의 형상에 변형이 오는 경우에는 상당한 계측오차를 초래하게 된다.In general, when measuring a specific object by using a contact shape detection sensor which is a common measurement method of the object, if the measurement object is a relatively solid solid, the measurement error does not occur significantly, but the measurement object is a semi-solid state Or when the deformation comes to the original shape due to the contact of the sensor such as a tire or the like, a considerable measurement error is caused.
특히 양쪽 사이드 월(Side Wal1)과 트레드(Tread)로 구성되는 타이어의 외각 단면윤곽을 계측하고자 하는 경우에는 상기의 접촉식 센서로는 그 계측자체에 결함을 가지게 되며, 가령 기존의 비 접촉식 계측장비를 이용한다 하더라도 각각의 부분에 대한 공간상의 3차원 좌표값을 알아내기 위해 여러가지 기구를 동원하여 수차례 연속 계측비교해야 하는 번거로움과 계측 오차발생을 무시할 수 없게 된다.In particular, when measuring the outer sectional contour of a tire composed of both side walls and treads, the contact sensor has a defect in the measurement itself, for example, a conventional non-contact measurement. Even if the equipment is used, it is impossible to ignore the hassles and measurement errors that need to be compared several times by using various instruments to find spatial three-dimensional coordinate values for each part.
본 발명은 상기와 같은 기존의 물체형상계측장치에서의 제반문제점들을 일시에 해소하면서 대상물체의 계측효율 및 계측정밀도를 현저히 향상시킬 수 있는 3차원 동시 형상계측장치를 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a three-dimensional simultaneous shape measurement apparatus that can significantly improve the measurement efficiency and measurement accuracy of an object while eliminating all the problems in the existing object shape measurement apparatus as described above.
본 발명의 특징은 슬릿광과 카메라를 이용하여 계측대상물체 및 교정블록의 2차원 좌표값을 일으키는 센서부와, 상기 센서부로 부터 얻어진 2차원 계측 좌표값을 상기 교정블록의 2차원 좌표값에 대응하는 공간 3차원 좌표값에 대입 계산처리하여 CRT 등에 3차원 형상을 출력하는 컴퓨터와, 상기 센서부의 계측위치를 다축변환시켜주는 로보트 핸드와 상기 로보트 핸드를 상기 컴퓨터의 제어신호에 따라 제어하는 로보트 드라이버를 포함하는 것으로 표현할 수 있다.A feature of the present invention is to use a slit light and a camera to generate a two-dimensional coordinate value of an object to be measured and a calibration block, and a two-dimensional measurement coordinate value obtained from the sensor part to correspond to the two-dimensional coordinate value of the calibration block. A computer that outputs a three-dimensional shape to a CRT or the like by substituting and calculating a spatial three-dimensional coordinate value, a robot hand for multi-axis transformation of the measurement position of the sensor unit, and a robot driver for controlling the robot hand according to the control signal of the computer. It can be expressed as including.
이러한 본 발명의 특징에 대한 구체적인 사항은 이하에 기술된 특허청구의 범위 제2항 이하에서 기술하고 있는 바와 같다.Details of these features of the present invention are as described in claim 2 below.
이하 첨부한 도면을 참고로 하여 본 발명의 실시예를 설명하면 다음과 같다.Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
제1도에서 도시하고 있는 바와같이, 로보트 제어부(11), I/O포트(12), 영상처리부(13) 및 CPU(14)를 포함하는 컴퓨터(10)의 상기 로보트 제어부(11)와 CPU (14)가 로보트 드라이버(20)와 데이터를 주고 받게 구성하고, 상기 로보트 드라이버(20)에 의해 구동하는 로보트 핸드(30)가 비접촉식 형상계측센서부(40)의 위치를 제어하게 구성하고, 상기 비 접촉식 센서부(40)의 형상계측신호가 상기 영상처리부(13)를 거쳐 CRT(60), 프린터(70), 플로터(80)등으로 출력되게 구성한다.As shown in FIG. 1, the
또한 I/O 포트(12)에는 키보드(50)에 의한 형상계측 실행신호 또는 데이터가 입력되게 구성한다.In addition, the I /
제2도는 상기 센서부(40)의 구성과 그 센서부(40)에 의한 형상계측 및 영상신호, 전송계통을 나타내고 있다.2 shows the configuration of the
여기에서는 지지대(45)상에 슬릿광 발생장치(41)와 카메라(42)를 고정하여, 상기 슬릿광 발생장치(41)에서 조사되는 슬릿광(평면광)에 의해 계측대상물체(90) 또는 교정블록(100)(제5도에서 도시하고 있음)의 형상에 따라 나타나게 되는 음영의 윤곽을 카메라(42)가 스캔하여 CRT(60)등에 출력되게 구성하고 있다.Here, the
상기 슬릿광 발생장치는 제3도에서 도시하고 있는 바와같이, 레이저에서 발생된 레이저 비임이 원통형렌즈를 통과하면서 슬릿광으로 변환되게 하고 있다.As shown in FIG. 3, the slit light generating device causes the laser beam generated by the laser to be converted into slit light while passing through the cylindrical lens.
제6도에는 로보트 핸드(30)를 상세하게 나타내고 있다.6 shows the
여기에서 알 수 있는 바와 같이, 로보트 핸드(30)는 베이스(31)상에서 X-Y축 방향으로 이동하는 이동판(32)상에 수직폴(33)을 설치하고, 상기 수직폴(33)의 상단 일측에는 홀더(34)를 이용하여 일측 선단에 제1모터 홀더(38)를 가지는 수평바(35)의 타단을 고정한다.As can be seen here, the
상기 제1모터 홀더(38)에는 제1모터(36)를 수직방향으로 설치하여, 제2모터 홀더(39)에 결합된 제2모터(37)를 비롯하여 센서부(40)가 동시에 좌우방향으로 이동가능하게 구성하고, 상기 제2모터(37)를 수평방향으로 설치하여 지지대(45)에 결합된 상기 센서부(40)가 상하방향으로 이동가능하게 구성한다.The
또한 제6도에서는 일예로써 타이어를 예시하고 있는 계측 대상물체(90)와 교정대(101)상의 교정블록(100)을 상기 센서부(40)가 그 위치를 이동하여 슬릿광의 조사 및 촬영이 가능하도록 배치됨을 나타내고 있다.In addition, in FIG. 6, the
제7도는 상기 로보트 핸드(30)의 베이스(31)내에 설치되는 서어보 모터(311-313) 및 엔코더(314-316)와 각각의 제 1, 2스태핑 모터(36,37)가 로보트 드라이버(20)내의 X-Z축 서어보 제어기(21-23)와 α,β축제어기(24,25)에 의해 제어되게 구성하고, 상기 X-Z축 서어보 제어기(21-23)와 α,β축 제어기(24,25)를 컴퓨터(10)내의 CPU(14)의 어드레스 및 데이터에 의해 제어되게 구성하고 있다.7 shows the servo motors 311-313 and encoders 314-316 installed in the
이와같이 구성된 본 발명의 실시예에 대한 작용 및 효과를 설명하면 다음과 같다.Referring to the operation and effects of the embodiment of the present invention configured as described above are as follows.
비 접촉식 단면 윤곽형상 계측장치의 센서부(40)는 제2도와 같이 슬릿광 발생장치(41)와 카메라(42)가 일정한 모양으로 고정되어 한세트로 구성되므로, 계측대상물체(90)의 계측부위에 슬릿광을 비추면 계측대상물체(90)와 슬릿광이 만나는 부위에 윤곽형상이 형성되는데 이것을 카메라(42)로 잡아 읽으면 CRT(60)상에 나타난 것과 같은 2차원 영상데이터를 얻을 수 있다.Since the
이 2차원 영상데이터를 해석하는 것으로 슬릿광 조사부위 각점에 대한 3차원 위치 데이터를 얻어서 타이어등의 계측대상물체(90)에 대한 형상계측이 이루어진다.By analyzing this two-dimensional image data, three-dimensional position data of each point of the slit light irradiation site is obtained, and shape measurement of the
3차원 공간좌표는 교정블록(100)으로 부터 카메라계에서의 2차원 좌표사이의 교정 매개변수 값을 얻어 여기에 대응시켜 얻게 된다.The three-dimensional spatial coordinates are obtained from the
상기 카메라계란 1개 또는 복수개의 카메라를 이용하는 장치나 평면광 조사장치와 같은 보조기구를 이용하는 장치를 총칭한다. 카메라계의 교정을 위해서는 적어도 몇개의 점에 대해 3차원 공간좌표값과 각 점에 대응하는 카메라계에서의 좌표값을 알아야 한다.The camera egg is a generic term for a device using one or a plurality of cameras or a device using an auxiliary device such as a plane light irradiation device. In order to calibrate a camera system, it is necessary to know three-dimensional spatial coordinate values for at least some points and coordinate values in the camera system corresponding to each point.
교정블록(100)의 모서리 또는 계단부분에 대한 영상을 카메라(42)로 입력하여 컴퓨터(10)로 분석하면 계단의 끝 부분과 모서리 부분은 직각으로 되어 있기 때문에 다른 점과 쉽게 구별하여 3차원 공간좌표상의 각점에 대한 카메라계의 좌표값을 특징점으로써 알아낼 수 있다. 또, 기준면에서 계단 또는 모서리까지의 칫수를 이미 알고 있으므로 기준면의 3차원 좌표값만 알고 있으면 각 계단과 모서리에 대한 3차원 좌표값을 알 수 있게 되는 것이다.When the image of the edge or the step of the
영상데이타의 해석을 위한 카메라계의 교정을 살펴보면, 제2도에서와 같이 공간상의 한점P(x,y,z)가 카메라의 영상면(lmageplane)에 맺힐때 그 영상계에서의 좌표가 P'(U.V)로 나타난다면 P'를 동차좌표계(Homogenous Coordinate)로 표현했을 때(u, v, h)로 표현되고Looking at the calibration of the camera system for the interpretation of the image data, as shown in Fig. 2, when a point P (x, y, z) in space forms on the image plane of the camera, the coordinate in the image system is P '. (UV), when P 'is expressed in Homogenous Coordinate (u, v, h),
로 관계 지어진다.Is related to.
P와 P'는P and P '
로 관계식이 형성되고 식(3)과 (4)로 부터The relation is formed and from equation (3) and (4)
식(1),(2)를 (5)(6)에 각각 대입하면Substituting equations (1) and (2) into (5) and (6) respectively
식(7)을 식(8), (9)에 각각 대입하여 정리하면,Substituting equation (7) into equations (8) and (9), respectively,
식(10),(11)는 다음의 세가지 경우로 이용되어질 수 있다.Equations (10) and (11) can be used in the following three cases.
경우 1) 영상면에서의 좌표값 : 변환행렬 T와 x, y, z를 미리 알고 있을 때, 미지수가 2개(U,V)식이 2개 이므로 영상면 좌표값을 알 수 있다.Case 1) Coordinate value on the image plane: When the transformation matrix T and x, y, z are known in advance, two coordinates (U, V) are unknown so the coordinate value of the image plane can be known.
경우 2) 계측 : 변환행렬 T와 U, V를 미리 알고 있을때, 미지수가 3개(x,y,z)고 식이 2개 이므로 해를 구할 수가 없다. 따라서 스테레오 비전(Stereo Vision)이나 평면광 투영법(Slit Ray Projection)에 의해 식을 더 추가시키면 해를 구할 수 있다.Case 2) Measurement: When the transformation matrixes T, U, and V are known in advance, the solution cannot be obtained because there are three unknowns (x, y, z) and two equations. Therefore, the solution can be solved by adding more equations by Stereo Vision or Slit Ray Projection.
경우 3) 교정(Calibration) : 3차원 공간상의 여러 점들의 위치(x1,y1,z1)를 알고 각 점들의 영상좌표(U1,V1)를 알 때, 변환행렬 T를 구할 수 있다.Case 3) Calibration: When we know the position (x 1 , y 1 , z 1 ) of several points in 3D space and know the image coordinates (U 1 , V 1 ) of each point, we can find the transformation matrix T. have.
식(10),(11)에 의해 2개의 방정식이 존재하고 미지수가 l2개이므로 6개점에 대한 공간상의 좌표값 및 영상좌표값(x1,yl,z1,U1,V1)이 필요하다. (i=1,~,6)Since equations (10) and (11) have two equations and there are l2 unknowns, the spatial and image coordinate values (x 1 , y l , z 1 , U 1 , V 1 ) for six points are need. (i = 1, ~, 6)
식(10),(11)은 동차 방정식이므로 C43=1로 가정하면 미지수가 11개가 되므로 5.5개 이상의 데이터로도 미지수를 구할 수 있다.Equations (10) and (11) are homogeneous equations, so if we assume C 43 = 1, there are 11 unknowns, so that unknowns can be obtained with 5.5 or more data.
이것을 행렬로 표현하면If you express this as a matrix
이를 간략히 쓰면In short
식(13)에서 슈도우 인버스(Pseudo-Inverse)에 의해 T를 구하면If T is obtained by Pseudo-Inverse in Equation (13),
여기서 평면관투영에 의한 교정을 살펴보면, 한 평면은 3개의 점에 의해 결정되고 그 방정식은Looking at the calibration by planar tube projection, one plane is determined by three points and the equation is
로 표현되며 행렬도Is represented by
로 표현된다.It is expressed as
계측시 카메라계 자체만으로는 미지수를 알아내기 위해 식이 불충분하므로 평면광 교정을 추가하여 이상의 카메라계 교정과 슬릿광 교정을 동시에 사용하여 3차원 측정을 행하기로 하고, 그에 따른 교정 파라미터를 구한다.Since the equations are insufficient to determine the unknown by the camera system itself during measurement, three-dimensional measurements are made by simultaneously using the above-described camera system correction and slit light correction by adding plane light correction, and obtaining the correction parameters accordingly.
식(3), (4)의 카메라 관련식과 식(16)의 슬릿광식으로 부터From the camera-related equations of equations (3) and (4) and the slit beam equation of equation (16)
식(17)로 부터From equation (17)
식(17), (18)의 관계에서In relation to equations (17) and (18)
식(18)과 (19)로 부터From equations (18) and (19)
U,V,x,y,z를 안다면 미지수가 12개가 되며(만약 M34=1로 하면 11개)식은 3개 이므로 적어도 4점에 대한 공간상의 좌표값과 영상좌표값을 알면 된다.If we know U, V, x, y, z, we have 12 unknowns (if M 34 = 1, 11) and we have 3 equations, so we need to know the spatial and image coordinates for at least four points.
이것을 행렬로 표현하면,If you express this as a matrix,
식 (25) 를 (25)
로 표현하면, 미지수 m은 슈도우 인버스에 의해Expressed in, unknown m is by the shadow inverse
로 계산되어 진다.It is calculated as
일단 m이 결정되면 영상좌표계에 나타나는 점들의 좌표 U,V를 알때 이로 부터 해당되는 점의 3차원 공간상의 좌표를 알 수 있다.Once m is determined, when the coordinates U and V of the points appearing in the image coordinate system are known, the coordinates in the three-dimensional space of the corresponding point can be known therefrom.
즉, 식(22),(23),(24)로 부터 M34=1로 했을때That is, when M 34 = 1 from equations (22), (23) and (24)
식(25)로 부터 슬릿광 발생장치(41)와 카메라(42)로 구성되는 센서부(40)을 사용하여 3차원 측정을 위한 mij를 구하기 위해서는 교정과정에서 최소한 네점에 대한 데이터가 필요함을 알 수 있다. 이 네개의 점들은 각각 공간상에서의 계의 3차원 좌표값을 미리 알고 있어야 하므로 교정을 위한 제5,6도의 교정 블럭(100)의 계단부분을 슬릿광을 비춘 다음 비쳐진 부분을 카메라(42)로 보면 제5도에서와 같은 슬릿광의 영상이 읽혀진다.In order to obtain m ij for the three-dimensional measurement using the
이때 공간좌표계내의 알고 있는 각 특징점의 x,y,z값(xl,yl,z1,x2,y2,z2,x3,y3,z3,x4,y4,z4)와 영상계(센서부계 내부)에서의 좌표값 U,V값(U1,V1,U2,V2,U3,V3,U4,V4)을 (26)식에 대입하여 (27)식과 같이 m값을 구함으로서 센서부 교정을 행한다.At this time, x, y, z value of each known feature point in spatial coordinate system (x l , y l , z 1 , x 2 , y 2 , z 2 , x 3 , y 3 , z 3 , x 4 , y 4 , z 4 ) and the coordinate values U and V (U 1 , V 1 , U 2 , V 2 , U 3 , V 3 , U 4 , V 4 ) in the image system (inside the sensor sub-system) are substituted into the equation (26). Then, the sensor unit is calibrated by obtaining the m value as shown in the equation (27).
이러한 교정을 위해서는 영상계에서의 (CRT에서의)모서리점을 구별해 내어서 각점의 영상계내의 2차원좌표값(U,V값)을 알아낸 다음, 공간상의 3차원 좌표값(x,y,z값)과 카메라 좌표계 값을 대응시켜 나가야 한다.To do this, the edges (in the CRT) of the imaging system are distinguished, and the two-dimensional coordinate values (U, V values) in the imaging system of each point are identified, and then the three-dimensional coordinate values (x, y) in space , z value) and the camera coordinate system value must be matched.
공간상에서의 모서리점들의 3차원 좌표값을 실제 좌표계에서의 실측에 의해 알 수가 있고, 모서리점의 영상좌표계에서의 값을 구하기 위한 모서리 판별은 곡률 극대점 추출방법을 사용한다.The three-dimensional coordinate values of the corner points in space can be known by the actual measurement in the actual coordinate system, and the corner determination for obtaining the value in the image coordinate system of the corner points uses a method of extracting the curvature maximum point.
제4도에 나타난 점 P1에서의 곡률 Cik는The curvature C ik at point P 1 shown in FIG.
Y',Y",Y1도 같은 방법으로 계산된다.Y ', Y ", Y 1 are also calculated in the same way.
이들로 부터 최대 곡률치 Cim을From these the maximum curvature C im
로 부터 계산하고, 최대 곡률치가 Cim인 점 P1는 아래 조건을 만족할 경우 곡률극대점이 된다.The point P 1 whose maximum curvature is C im is calculated from and becomes the maximum curvature if the following conditions are met.
│ i-j │ ≤m/2되는 모든 j에 대하여I-j for all j ≤ m / 2
이상의 곡률극대점 추출방법에 의하여 CRT(60)에 나타난 영상계의 각 U,V로 나타내어지는 특징점(모서리점)을 찾아낸다.By the above-described curvature maximal point extraction method, a feature point (edge point) represented by each U and V of the video system shown in the
센서부(40)의 교정이 이루어져서 변환 파라메타 M((식)18 m행렬)이 구해짐으로서 교정이 완료되며 이를 토대로 피측정물체의 각 점의 공간상 위치는 (식)28,29,30에 의해 계측된다.The calibration of the
그러나 시스템의 계측 정밀도에 영향을 미치는 항목의 하나는 센서부(40)의 구성요소의 하나인 카메라(42)의 분해능(Resolution)인데 예를들어 한 화면이 처리하는 피측정물의 대략적인 길이가 50m/m이고 카메라(42)의 주사선이 약 500선이면 분해능은 0.lm/m로 제한된다. 그런데 이렇게 해서 실제 측정하고자 하는 부위의 길이가 카메라(42)로 한번에 잡을 수 있는 길이로 초과하고 제8도에서와 같이 한 화면이 잡을수 있는 피측정물의 길이를 카메라를 가까이 근접시키거나 렌즈조절에 의해 접사시켜서 계측의 정밀도를 높일 수 있다. 이와 같이 한번에 계측이 이루어지기 어려운 상황이면 센서부(40)를 적당히 이동시켜가면서 각각 계측을 수행한 다음 서로를 연결하는 방법을 제11도에서와 같이 사용하고 있다.However, one of the items affecting the measurement accuracy of the system is the resolution of the
제11도의 계측 플로우챠트를 살펴보면, 제1도의 키보드(50)등에 의해 입력되는 머니플레이터(Manipulator)의 이동위치 경로 사양에 따른 컴퓨터(10) 및 로보트 드라이버(20)에서의 머니플레이터 제어위치 생성 및 머니플레이터의 이동, 즉 로보트 핸드(30)의 이동으로 센서부(40)의 슬릿광 발생장치(41) 및 카메라(40)에 의하여 영상을 획득하게 된다.Referring to the measurement flowchart of FIG. 11, the money plate control position in the
이러한 2차원적 영상에서 중심선을 추출하여 여기에 센서부(40)의 파라미터를 적용함으로써 3차원(도면주에서는 3D라 표시하고 있음)정보를 추출하여 저장한 후 계측 데이터를 접합시켜 그 데이터를 출력하거나 로보트 핸드의 이동을 다시 제어하거나 종료하게 한다.By extracting the center line from such a two-dimensional image and applying the parameters of the
이러한 계측대상물체의 계측에 앞서, 제10도의 플로우챠트와 같은 교정이 실행되는데 이를 설명하면 다음과 같다. 교정실시시 머니플레이터를 교정위치로 이동하고 또한 교정블럭의 위치를 설정한다.Prior to the measurement of such a measurement object, the same calibration as that of the flowchart of FIG. 10 is performed. During calibration, move the money plate to the calibration position and set the position of the calibration block.
상기 머니플레이터의 교정위치에서 교정영상이 획득되면 여기에서 윤곽중심선으로 부터 특징점을 추출하여 센서부의 파라미터를 꺼내 저장한다. 이때, 특징점의 3D좌표가 참조된다. 이러한 파라미터를 평가하여, 적합하면 종료하고 부적합하면 다시 머니플레이터의 위치를 교정위치로 이동한다.When the calibration image is obtained at the calibration position of the money plater, the feature point is extracted from the contour center line, and the parameters of the sensor unit are extracted and stored. At this time, the 3D coordinates of the feature point are referred to. These parameters are evaluated and, if appropriate, terminated and if not, move the position of the money plate back to the calibration position.
한편, 상기와 같은 계측은 측정정밀도를 향상시킬 수 있을 뿐만아니라 계측시 발생될 수 있는 사각의 가능성을 배제한다.On the other hand, the measurement as described above not only improves the measurement accuracy but also excludes the possibility of blind spots that may occur during measurement.
상기 사각 가능성의 배제는 제9도에서 도시하고 있는 바와 같이 로보트 핸드에 의한 카메라(42)이동시 계측대상물체의 계측범위를 오우버랩시켜 놓은 것으로 충분히 설명된다.The exclusion of the blind spots is sufficiently explained by the fact that the measurement range of the measurement target object is overlapped when the
센서부(40)의 이동방식에 의한 계측의 실시는 제6도와 같은 로보트 핸드(30)의 말단에 카메라(42)를 포함하는 센서부(40)를 부착한 것에 의해 실행된다.Measurement by the movement method of the
이 경우 센서부가 X,Y,Z의 직각 좌표 3개축과 α,β의 2개 회전축에 의해서 이동 및 회전하게 되므로 여기에 대한 고려가 있어야 한다. 예를들어 타이어의 임의의 한 점에 측정치가 (x1,yl,z1)이고 이때 각축(X,Y,Z)에 대한 이동량이 (p,q,r)이고 회전량이 α1,βl일때 로보트의 이동량을 고려한 실제의 측정치(x2,y2,z2)는In this case, since the sensor part is moved and rotated by three axes of Cartesian coordinates of X, Y, and Z, and two axes of rotation of α, β, consideration should be given to this. For example, at any point on the tire, the measured value is (x 1 , y l , z 1 ), where the amount of movement with respect to each axis (X, Y, Z) is (p, q, r) and the amount of rotation is α 1 , β The actual measurement (x 2 , y 2 , z 2 ) taking into account the robot movement when
여기서 T=(p,q,r) : x,y,z축의 이동량Where T = (p, q, r): movement of x, y, z axis
R은 회전을 나타내는 행렬로서 제6도에서와 같이 α축의 회전량은 Z축에 평행한 회전량에 대응되고 β축의 회전량은 α축의 회전량에 따라 (90도 또는 180도) X축 또는 Y축에 평행한 회전량에 대응된다. 즉R is a matrix representing rotation, and as in FIG. 6, the amount of rotation on the α axis corresponds to the amount of rotation parallel to the Z axis, and the amount of rotation on the β axis depends on the amount of rotation on the α axis (90 or 180 degrees). Corresponds to the amount of rotation parallel to the axis. In other words
편의상 이때 계측된 좌표값의 기준계는 교정시 얻어진 좌표값에 계를 기준으로 한다. 예를들면 타이어의 트레드(Tread)를 측정한 경우 α=90, β=90°(X축 형행)이므로For convenience, the reference system of the measured coordinate values is based on the system based on the coordinate values obtained at the time of calibration. For example, if the tire tread is measured, α = 90, β = 90 ° (X-axis)
이와 같은 다축형 로보트 핸드(30)의 수식 제어과정을 첨부한 제6도 및 제7도를 참고로 하여 서술적으로 기술하면 다음과 같다.Referring to Figures 6 and 7 attached to the modification control process of the
로보트 드라이버(20)내의 X-Z축 서어보 제어기(21-23)와 α, β축 제어기(24,25)에는 컴퓨터(10)로 부터 각각의 데이터와 어드레스가 각각의 버스를 통하여 인가되므로, 상기 X-Y축 서어보 제어기(21-23)는 상기 컴퓨터(10)로 부터의 데이터에 따라 베이스(31)내부의 각 서어보 모터(311-313)를 제어한다.Since each data and address are applied from the
이에 따라 이동판(32) 및 수직폴(33)이 각각 X,Y축 및 Z축 방향으로 이동하므로, 수평바(35)에 제1,2모우터 홀더(38,39) 및 지지대를(45)를 통하여 결합고정된 센서부(40)는 계측대상물체(90)를 이동하면서 스캔한다.Accordingly, since the
또, 상기 각 서어보 모터(311-313)에 부가되어 있는 각각의 엔코더(314-316)는 각기 서어보 모터의 회전각을 부호화하여 다시 각각의 서어보 제어기에 제공하므로 로보트 드라이버에서는 이 부호화 신호를 계속 받아들여 서어보 모터가 소정의 제한량 만큼 회전하게 하였을때 정지하도록 하는 식으로 시간적으로 제어한다.In addition, the encoders 314-316 added to the servo motors 311-313 encode rotation angles of the servo motors, and provide the encoded servo angles to the servo controllers. Is continuously controlled in such a way that the servo motor stops when the servo motor is rotated by a predetermined limit amount.
한편, 로보트 드라이버(20)의 α, β축 제어기(24,25)는 하모닉 드라이버(361,371)(도면상에서는 H.D로 표현하고 있음)를 통하여 각각의 제1스태핑 모터(36)와 제2스태핑 모터(37)에 제어신호를 공급하는데, 이에 따라 수평바(35)의 일측선단의 홀더(38)에 고정된 상기 제1모터(36)는 제2모터(37)를 포함하여 센서부(40)를 α축을 중심으로 하여 회전하고, 상기 제1모터(36)의 α축상에 수직방향인 β축에 설치되는 제2모터(37)에 의해서는 센서부(40)가 계측대상물체(90)를 β축을 중심으로 하여 회전하면서 그의 외각형상을 스캔한다.On the other hand, the α and
이상에서 설명한 바와 같은 본 발명은 컴퓨터로 제어되는 다축 로보트 핸드에 카메라와 슬릿광 발생장치를 실어, 단일의 카메라만으로 시간적 변화에 따른 계측대상물체의 단면외각형상을 스캔하고 이를 교정블록에 대응처리 계산하여 공간 3좌표상에 계측대상물체를 표한할 수 있게 되므로, 특히 사이드 원이나 트레드등으로 형성된 타이어등의 단면외각형상을 오차없이 신속하게 계측할 수 있는 특유의 효과가 나타나게 된다.As described above, the present invention is equipped with a camera and a slit light generator in a computer-controlled multi-axis robot hand, and scans the cross-sectional shape of the object to be measured over time with a single camera, and calculates the corresponding process in the calibration block. Since the object to be measured can be represented on the space 3 coordinates, a unique effect of measuring the cross-sectional outer shape of a tire, such as a side circle or a tread, can be quickly measured without error.
Claims (3)
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019900006154A KR920006741B1 (en) | 1990-04-30 | 1990-04-30 | Noncontact type tire contour shape measurement system |
JP3128535A JPH07239219A (en) | 1990-04-30 | 1991-04-30 | Method and device for measuring profile shape of tire edge without contact |
US07/693,297 US5506683A (en) | 1990-04-30 | 1991-04-30 | Non-contact measuring apparatus for the section profile of a tire and its method |
US07/866,631 US5243872A (en) | 1990-04-30 | 1992-04-10 | Robotic hand for controlling movement in multiple axes |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019900006154A KR920006741B1 (en) | 1990-04-30 | 1990-04-30 | Noncontact type tire contour shape measurement system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR910018774A KR910018774A (en) | 1991-11-30 |
KR920006741B1 true KR920006741B1 (en) | 1992-08-17 |
Family
ID=19298587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019900006154A KR920006741B1 (en) | 1990-04-30 | 1990-04-30 | Noncontact type tire contour shape measurement system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR920006741B1 (en) |
-
1990
- 1990-04-30 KR KR1019900006154A patent/KR920006741B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR910018774A (en) | 1991-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH07239219A (en) | Method and device for measuring profile shape of tire edge without contact | |
US5621807A (en) | Intelligent range image camera for object measurement | |
US5341183A (en) | Method for controlling projection of optical layup template | |
US5987591A (en) | Multiple-sensor robot system for obtaining two-dimensional image and three-dimensional position information | |
CN110044293B (en) | Three-dimensional reconstruction system and three-dimensional reconstruction method | |
EP3435023A1 (en) | Three-dimensional measurement device mobile geometry verification | |
US5506641A (en) | Apparatus for controlling projection of optical layup template | |
Yang et al. | Modeling and calibration of the galvanometric laser scanning three-dimensional measurement system | |
US6730926B2 (en) | Sensing head and apparatus for determining the position and orientation of a target object | |
CN114413788A (en) | Part surface pattern detection method based on binocular vision and reverse model reconstruction | |
KR920006741B1 (en) | Noncontact type tire contour shape measurement system | |
KR920006740B1 (en) | Noncontact type tire contour shape measurement method | |
KR920006050B1 (en) | A correctional block | |
Loser et al. | The programmable optical 3d measuring system pom-applications and performance | |
US11433551B2 (en) | Measurement system and method for positioning accuracy of a robotic arm | |
JP2001304827A (en) | Sectional shape measuring apparatus and sectional shape measuring method | |
KR930008563B1 (en) | Robot hand of measurering divice | |
JP2005172610A (en) | Three-dimensional measurement apparatus | |
CN116194252A (en) | Robot system | |
JP3254475B2 (en) | Calibration method for range sensor | |
JP2020134221A (en) | Scanning route generation device, scanning route generation program, scanning route generation method, and appearance inspection system | |
KR20040009550A (en) | Efficient digitizing in reverse engineering by sensor fusion | |
Matsubara et al. | A three-dimensional position measurement method using two pan-tilt cameras | |
JPS63131007A (en) | Three-dimensional coordinates measuring system | |
Makris et al. | Vision guided robots. Calibration and motion correction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
G160 | Decision to publish patent application | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20070813 Year of fee payment: 16 |
|
LAPS | Lapse due to unpaid annual fee |