KR920006741B1 - Noncontact type tire contour shape measurement system - Google Patents

Noncontact type tire contour shape measurement system Download PDF

Info

Publication number
KR920006741B1
KR920006741B1 KR1019900006154A KR900006154A KR920006741B1 KR 920006741 B1 KR920006741 B1 KR 920006741B1 KR 1019900006154 A KR1019900006154 A KR 1019900006154A KR 900006154 A KR900006154 A KR 900006154A KR 920006741 B1 KR920006741 B1 KR 920006741B1
Authority
KR
South Korea
Prior art keywords
axis
measurement
computer
sensor unit
dimensional
Prior art date
Application number
KR1019900006154A
Other languages
Korean (ko)
Other versions
KR910018774A (en
Inventor
양윤모
정재문
김선일
김기전
Original Assignee
한국기계연구소
김훈철
주식회사 금호
박삼구
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기계연구소, 김훈철, 주식회사 금호, 박삼구 filed Critical 한국기계연구소
Priority to KR1019900006154A priority Critical patent/KR920006741B1/en
Priority to JP3128535A priority patent/JPH07239219A/en
Priority to US07/693,297 priority patent/US5506683A/en
Publication of KR910018774A publication Critical patent/KR910018774A/en
Priority to US07/866,631 priority patent/US5243872A/en
Application granted granted Critical
Publication of KR920006741B1 publication Critical patent/KR920006741B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Abstract

This non-contact measuring device of configuration of any object comprises a senser section (40) which is composed of a slit light generator (41) and camera (42); a computer which sends to CRT (60) a three dimentional coordinate value of the object and calibrates from the senser; a robot driver who controls the robotic hand by multiple axes in accordance with the control signal from the computer. The robotic driver includes the X-Z axis serbo-controller which is controlled by the data signal and address of the computer, α,β axis controllers, and actual performance is done by X-Z axis direction setting serbo-motor and α,β

Description

비 접촉식 타이어의 단면윤곽 형상계측 장치Profile measuring device for non-contact tires

제1도는 본 발명장치의 블록다이어그램.1 is a block diagram of an apparatus of the present invention.

제2도는 본 발명의 센서부에 의한 비 접촉식 타이어 단면윤곽 형상계측에 대한 설명도.2 is an explanatory view of a non-contact tire profile contour measurement by the sensor unit of the present invention.

제3도는 본 발명의 센서부의 슬릿광 발생장치에 대한 설명도.3 is an explanatory diagram of a slit light generating device of the sensor unit of the present invention.

제4도는 교정블록으로 부터의 특징점 추출을 위한 최대 곡율점 계산에 대한 설명도.4 is an explanatory diagram for calculating a maximum curvature point for extracting feature points from a calibration block.

제5도는 교정블록에서 얻어지는 각종 파라미터에 대한 설명도.5 is an explanatory diagram of various parameters obtained from a calibration block.

제6도는 본 발명의 다축형 로보트 핸드의 구성도 및 센서부와 계측대상물체와 교정블록의 관련 배치도.6 is a configuration diagram of the multi-axis robot hand of the present invention and a related arrangement of the sensor unit, the measurement object and the calibration block.

제7도는 본 발명의 로보트 핸드 구동부의 블록다이어그램.7 is a block diagram of the robot hand drive unit of the present invention.

제8도는 본 발명의 센서부 카메라와 계측대상물체 사이의 거리에 따른 계측정밀도의 변화에 대한 설명도.8 is an explanatory diagram of a change in measurement accuracy according to the distance between the sensor unit camera and the measurement object of the present invention.

제9도는 본 발명에 따른 계측대상물체에서의 위치이동 계측시 사각 제거에 대한 설명도.9 is an explanatory diagram for removing the blind spots when measuring the position movement in the object to be measured according to the present invention.

제10도는 본 발명에 따른 교정플로우차트.10 is a calibration flowchart according to the present invention.

제11도는 본 발명에 따른 계측플로우차트.11 is a measurement flowchart according to the present invention.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

10 : 컴퓨터 11 : 로보트 제어부10 computer 11: robot control unit

12 : I/O포트 13 : 영상처리부12: I / O port 13: image processing unit

14 : CPU 20 : 로보트 드라이버14: CPU 20: robot driver

21-23 : X-Y축 서어보 제어기 24,25 : α,β축 제어기21-23: X-Y axis servo controller 24,25: α, β axis controller

30 : 로보트 핸드 40 : 센서부30: robot hand 40: sensor

41 : 슬릿광 발생장치 42 : 카메라41: slit light generator 42: camera

45 : 지지대 60 : CRT45: support 60: CRT

90 : 계측대상물체 100 : 교정블록90: object to be measured 100: calibration block

본 발명은 어떤 물체의 특정부위의 형상 또는 전체적인 형상을 오차없이 정밀하게 계측하기 위한 장치에 관한 것으로, 특히 비접촉식 슬릿광 형상검출센서를 이용하여 타이어등의 어떠한 계측대상물체에서도 단일의 카메라로 연속계측이 가능하게 하고 또한 계측시 사각발생을 제거시킴으로써 물체의 3차원적 계측정밀도와 신속도를 높일 수 있도록 한 비 접촉식 타이어의 단면윤곽 형상계측장치에 관한 것이다.The present invention relates to an apparatus for accurately measuring the shape or the overall shape of a specific part of an object without error, and in particular, continuous measurement with a single camera on any measurement object such as a tire using a non-contact slit light shape detection sensor The present invention relates to a cross-sectional contour shape measuring apparatus of a non-contact tire which enables to increase the accuracy and speed of three-dimensional measurement of an object by eliminating rectangular generation during measurement.

일반적으로, 물체의 통상적인 계측방법인 접촉식 형상검출센서를 이용하여 특정물체를 계측할 때, 그 계측대상물체가 비교적 단단한 고체인 경우에는 계측오차가 크게 발생되지 않으나 계측대상물체가 반고체 상태이거나 또는 타이어등과 같이 센서의 접촉에 의해 본래의 형상에 변형이 오는 경우에는 상당한 계측오차를 초래하게 된다.In general, when measuring a specific object by using a contact shape detection sensor which is a common measurement method of the object, if the measurement object is a relatively solid solid, the measurement error does not occur significantly, but the measurement object is a semi-solid state Or when the deformation comes to the original shape due to the contact of the sensor such as a tire or the like, a considerable measurement error is caused.

특히 양쪽 사이드 월(Side Wal1)과 트레드(Tread)로 구성되는 타이어의 외각 단면윤곽을 계측하고자 하는 경우에는 상기의 접촉식 센서로는 그 계측자체에 결함을 가지게 되며, 가령 기존의 비 접촉식 계측장비를 이용한다 하더라도 각각의 부분에 대한 공간상의 3차원 좌표값을 알아내기 위해 여러가지 기구를 동원하여 수차례 연속 계측비교해야 하는 번거로움과 계측 오차발생을 무시할 수 없게 된다.In particular, when measuring the outer sectional contour of a tire composed of both side walls and treads, the contact sensor has a defect in the measurement itself, for example, a conventional non-contact measurement. Even if the equipment is used, it is impossible to ignore the hassles and measurement errors that need to be compared several times by using various instruments to find spatial three-dimensional coordinate values for each part.

본 발명은 상기와 같은 기존의 물체형상계측장치에서의 제반문제점들을 일시에 해소하면서 대상물체의 계측효율 및 계측정밀도를 현저히 향상시킬 수 있는 3차원 동시 형상계측장치를 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a three-dimensional simultaneous shape measurement apparatus that can significantly improve the measurement efficiency and measurement accuracy of an object while eliminating all the problems in the existing object shape measurement apparatus as described above.

본 발명의 특징은 슬릿광과 카메라를 이용하여 계측대상물체 및 교정블록의 2차원 좌표값을 일으키는 센서부와, 상기 센서부로 부터 얻어진 2차원 계측 좌표값을 상기 교정블록의 2차원 좌표값에 대응하는 공간 3차원 좌표값에 대입 계산처리하여 CRT 등에 3차원 형상을 출력하는 컴퓨터와, 상기 센서부의 계측위치를 다축변환시켜주는 로보트 핸드와 상기 로보트 핸드를 상기 컴퓨터의 제어신호에 따라 제어하는 로보트 드라이버를 포함하는 것으로 표현할 수 있다.A feature of the present invention is to use a slit light and a camera to generate a two-dimensional coordinate value of an object to be measured and a calibration block, and a two-dimensional measurement coordinate value obtained from the sensor part to correspond to the two-dimensional coordinate value of the calibration block. A computer that outputs a three-dimensional shape to a CRT or the like by substituting and calculating a spatial three-dimensional coordinate value, a robot hand for multi-axis transformation of the measurement position of the sensor unit, and a robot driver for controlling the robot hand according to the control signal of the computer. It can be expressed as including.

이러한 본 발명의 특징에 대한 구체적인 사항은 이하에 기술된 특허청구의 범위 제2항 이하에서 기술하고 있는 바와 같다.Details of these features of the present invention are as described in claim 2 below.

이하 첨부한 도면을 참고로 하여 본 발명의 실시예를 설명하면 다음과 같다.Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

제1도에서 도시하고 있는 바와같이, 로보트 제어부(11), I/O포트(12), 영상처리부(13) 및 CPU(14)를 포함하는 컴퓨터(10)의 상기 로보트 제어부(11)와 CPU (14)가 로보트 드라이버(20)와 데이터를 주고 받게 구성하고, 상기 로보트 드라이버(20)에 의해 구동하는 로보트 핸드(30)가 비접촉식 형상계측센서부(40)의 위치를 제어하게 구성하고, 상기 비 접촉식 센서부(40)의 형상계측신호가 상기 영상처리부(13)를 거쳐 CRT(60), 프린터(70), 플로터(80)등으로 출력되게 구성한다.As shown in FIG. 1, the robot control unit 11 and the CPU of the computer 10 including the robot control unit 11, the I / O port 12, the image processing unit 13, and the CPU 14 are shown. (14) is configured to send and receive data with the robot driver 20, the robot hand 30 driven by the robot driver 20 is configured to control the position of the non-contact shape measurement sensor unit 40, The shape measurement signal of the non-contact sensor unit 40 is configured to be output to the CRT 60, the printer 70, the plotter 80, etc. via the image processor 13.

또한 I/O 포트(12)에는 키보드(50)에 의한 형상계측 실행신호 또는 데이터가 입력되게 구성한다.In addition, the I / O port 12 is configured to input a shape measurement execution signal or data by the keyboard 50.

제2도는 상기 센서부(40)의 구성과 그 센서부(40)에 의한 형상계측 및 영상신호, 전송계통을 나타내고 있다.2 shows the configuration of the sensor unit 40, the shape measurement, the video signal, and the transmission system by the sensor unit 40. As shown in FIG.

여기에서는 지지대(45)상에 슬릿광 발생장치(41)와 카메라(42)를 고정하여, 상기 슬릿광 발생장치(41)에서 조사되는 슬릿광(평면광)에 의해 계측대상물체(90) 또는 교정블록(100)(제5도에서 도시하고 있음)의 형상에 따라 나타나게 되는 음영의 윤곽을 카메라(42)가 스캔하여 CRT(60)등에 출력되게 구성하고 있다.Here, the slit light generator 41 and the camera 42 are fixed on the support 45, and the measurement object 90 or slit light (plane light) is irradiated from the slit light generator 41 or the like. The camera 42 scans the contour of the shadow that appears according to the shape of the calibration block 100 (shown in FIG. 5) and outputs it to the CRT 60 or the like.

상기 슬릿광 발생장치는 제3도에서 도시하고 있는 바와같이, 레이저에서 발생된 레이저 비임이 원통형렌즈를 통과하면서 슬릿광으로 변환되게 하고 있다.As shown in FIG. 3, the slit light generating device causes the laser beam generated by the laser to be converted into slit light while passing through the cylindrical lens.

제6도에는 로보트 핸드(30)를 상세하게 나타내고 있다.6 shows the robot hand 30 in detail.

여기에서 알 수 있는 바와 같이, 로보트 핸드(30)는 베이스(31)상에서 X-Y축 방향으로 이동하는 이동판(32)상에 수직폴(33)을 설치하고, 상기 수직폴(33)의 상단 일측에는 홀더(34)를 이용하여 일측 선단에 제1모터 홀더(38)를 가지는 수평바(35)의 타단을 고정한다.As can be seen here, the robot hand 30 installs a vertical pole 33 on the movable plate 32 moving in the XY axis direction on the base 31, and one side of the upper end of the vertical pole 33. The other end of the horizontal bar 35 having the first motor holder 38 at one end using a holder 34 is fixed.

상기 제1모터 홀더(38)에는 제1모터(36)를 수직방향으로 설치하여, 제2모터 홀더(39)에 결합된 제2모터(37)를 비롯하여 센서부(40)가 동시에 좌우방향으로 이동가능하게 구성하고, 상기 제2모터(37)를 수평방향으로 설치하여 지지대(45)에 결합된 상기 센서부(40)가 상하방향으로 이동가능하게 구성한다.The first motor holder 38 is provided with the first motor 36 in the vertical direction, so that the sensor unit 40 including the second motor 37 coupled to the second motor holder 39 is simultaneously in the left and right directions. It is configured to be movable, and the second motor 37 is installed in the horizontal direction, the sensor unit 40 coupled to the support 45 is configured to be movable in the vertical direction.

또한 제6도에서는 일예로써 타이어를 예시하고 있는 계측 대상물체(90)와 교정대(101)상의 교정블록(100)을 상기 센서부(40)가 그 위치를 이동하여 슬릿광의 조사 및 촬영이 가능하도록 배치됨을 나타내고 있다.In addition, in FIG. 6, the sensor unit 40 moves the position of the measurement target object 90 and the calibration block 100 on the calibration table 101 that illustrate the tire as an example, so that the slit light can be irradiated and photographed. It is arranged to be.

제7도는 상기 로보트 핸드(30)의 베이스(31)내에 설치되는 서어보 모터(311-313) 및 엔코더(314-316)와 각각의 제 1, 2스태핑 모터(36,37)가 로보트 드라이버(20)내의 X-Z축 서어보 제어기(21-23)와 α,β축제어기(24,25)에 의해 제어되게 구성하고, 상기 X-Z축 서어보 제어기(21-23)와 α,β축 제어기(24,25)를 컴퓨터(10)내의 CPU(14)의 어드레스 및 데이터에 의해 제어되게 구성하고 있다.7 shows the servo motors 311-313 and encoders 314-316 installed in the base 31 of the robot hand 30, and the first and second stepping motors 36 and 37, respectively. 20 to be controlled by the XZ axis servo controller 21-23 and the α, β axis controllers 24 and 25, and the XZ axis servo controller 21-23 and the α, β axis controller 24 And 25 are controlled to be controlled by the address and data of the CPU 14 in the computer 10.

이와같이 구성된 본 발명의 실시예에 대한 작용 및 효과를 설명하면 다음과 같다.Referring to the operation and effects of the embodiment of the present invention configured as described above are as follows.

비 접촉식 단면 윤곽형상 계측장치의 센서부(40)는 제2도와 같이 슬릿광 발생장치(41)와 카메라(42)가 일정한 모양으로 고정되어 한세트로 구성되므로, 계측대상물체(90)의 계측부위에 슬릿광을 비추면 계측대상물체(90)와 슬릿광이 만나는 부위에 윤곽형상이 형성되는데 이것을 카메라(42)로 잡아 읽으면 CRT(60)상에 나타난 것과 같은 2차원 영상데이터를 얻을 수 있다.Since the sensor unit 40 of the non-contact cross-sectional contour measuring device is composed of a set in which the slit light generating device 41 and the camera 42 are fixed in a constant shape as shown in FIG. 2, the measurement of the measurement target object 90 is performed. When the slit light is shined on the site, a contour shape is formed at the site where the measurement object 90 and the slit light meet. By reading this with the camera 42, two-dimensional image data as shown on the CRT 60 can be obtained. .

이 2차원 영상데이터를 해석하는 것으로 슬릿광 조사부위 각점에 대한 3차원 위치 데이터를 얻어서 타이어등의 계측대상물체(90)에 대한 형상계측이 이루어진다.By analyzing this two-dimensional image data, three-dimensional position data of each point of the slit light irradiation site is obtained, and shape measurement of the measurement target object 90 such as a tire is performed.

3차원 공간좌표는 교정블록(100)으로 부터 카메라계에서의 2차원 좌표사이의 교정 매개변수 값을 얻어 여기에 대응시켜 얻게 된다.The three-dimensional spatial coordinates are obtained from the calibration block 100 by correspondingly obtaining calibration parameter values between two-dimensional coordinates in the camera system.

상기 카메라계란 1개 또는 복수개의 카메라를 이용하는 장치나 평면광 조사장치와 같은 보조기구를 이용하는 장치를 총칭한다. 카메라계의 교정을 위해서는 적어도 몇개의 점에 대해 3차원 공간좌표값과 각 점에 대응하는 카메라계에서의 좌표값을 알아야 한다.The camera egg is a generic term for a device using one or a plurality of cameras or a device using an auxiliary device such as a plane light irradiation device. In order to calibrate a camera system, it is necessary to know three-dimensional spatial coordinate values for at least some points and coordinate values in the camera system corresponding to each point.

교정블록(100)의 모서리 또는 계단부분에 대한 영상을 카메라(42)로 입력하여 컴퓨터(10)로 분석하면 계단의 끝 부분과 모서리 부분은 직각으로 되어 있기 때문에 다른 점과 쉽게 구별하여 3차원 공간좌표상의 각점에 대한 카메라계의 좌표값을 특징점으로써 알아낼 수 있다. 또, 기준면에서 계단 또는 모서리까지의 칫수를 이미 알고 있으므로 기준면의 3차원 좌표값만 알고 있으면 각 계단과 모서리에 대한 3차원 좌표값을 알 수 있게 되는 것이다.When the image of the edge or the step of the calibration block 100 is inputted to the camera 42 and analyzed by the computer 10, the end and the edge of the staircase are perpendicular to each other. The coordinates of the camera system for each point on the coordinates can be found as feature points. In addition, since the dimensions from the reference plane to the steps or the edges are already known, the three-dimensional coordinate values for each step and the edge can be known if only the three-dimensional coordinate values of the reference plane are known.

영상데이타의 해석을 위한 카메라계의 교정을 살펴보면, 제2도에서와 같이 공간상의 한점P(x,y,z)가 카메라의 영상면(lmageplane)에 맺힐때 그 영상계에서의 좌표가 P'(U.V)로 나타난다면 P'를 동차좌표계(Homogenous Coordinate)로 표현했을 때(u, v, h)로 표현되고Looking at the calibration of the camera system for the interpretation of the image data, as shown in Fig. 2, when a point P (x, y, z) in space forms on the image plane of the camera, the coordinate in the image system is P '. (UV), when P 'is expressed in Homogenous Coordinate (u, v, h),

Figure kpo00001
Figure kpo00001

로 관계 지어진다.Is related to.

P와 P'는P and P '

Figure kpo00002
Figure kpo00002

로 관계식이 형성되고 식(3)과 (4)로 부터The relation is formed and from equation (3) and (4)

Figure kpo00003
Figure kpo00003

식(1),(2)를 (5)(6)에 각각 대입하면Substituting equations (1) and (2) into (5) and (6) respectively

Figure kpo00004
Figure kpo00004

식(7)을 식(8), (9)에 각각 대입하여 정리하면,Substituting equation (7) into equations (8) and (9), respectively,

Figure kpo00005
Figure kpo00005

식(10),(11)는 다음의 세가지 경우로 이용되어질 수 있다.Equations (10) and (11) can be used in the following three cases.

경우 1) 영상면에서의 좌표값 : 변환행렬 T와 x, y, z를 미리 알고 있을 때, 미지수가 2개(U,V)식이 2개 이므로 영상면 좌표값을 알 수 있다.Case 1) Coordinate value on the image plane: When the transformation matrix T and x, y, z are known in advance, two coordinates (U, V) are unknown so the coordinate value of the image plane can be known.

경우 2) 계측 : 변환행렬 T와 U, V를 미리 알고 있을때, 미지수가 3개(x,y,z)고 식이 2개 이므로 해를 구할 수가 없다. 따라서 스테레오 비전(Stereo Vision)이나 평면광 투영법(Slit Ray Projection)에 의해 식을 더 추가시키면 해를 구할 수 있다.Case 2) Measurement: When the transformation matrixes T, U, and V are known in advance, the solution cannot be obtained because there are three unknowns (x, y, z) and two equations. Therefore, the solution can be solved by adding more equations by Stereo Vision or Slit Ray Projection.

경우 3) 교정(Calibration) : 3차원 공간상의 여러 점들의 위치(x1,y1,z1)를 알고 각 점들의 영상좌표(U1,V1)를 알 때, 변환행렬 T를 구할 수 있다.Case 3) Calibration: When we know the position (x 1 , y 1 , z 1 ) of several points in 3D space and know the image coordinates (U 1 , V 1 ) of each point, we can find the transformation matrix T. have.

식(10),(11)에 의해 2개의 방정식이 존재하고 미지수가 l2개이므로 6개점에 대한 공간상의 좌표값 및 영상좌표값(x1,yl,z1,U1,V1)이 필요하다. (i=1,~,6)Since equations (10) and (11) have two equations and there are l2 unknowns, the spatial and image coordinate values (x 1 , y l , z 1 , U 1 , V 1 ) for six points are need. (i = 1, ~, 6)

식(10),(11)은 동차 방정식이므로 C43=1로 가정하면 미지수가 11개가 되므로 5.5개 이상의 데이터로도 미지수를 구할 수 있다.Equations (10) and (11) are homogeneous equations, so if we assume C 43 = 1, there are 11 unknowns, so that unknowns can be obtained with 5.5 or more data.

이것을 행렬로 표현하면If you express this as a matrix

Figure kpo00006
Figure kpo00006

이를 간략히 쓰면In short

Figure kpo00007
Figure kpo00007

식(13)에서 슈도우 인버스(Pseudo-Inverse)에 의해 T를 구하면If T is obtained by Pseudo-Inverse in Equation (13),

Figure kpo00008
Figure kpo00008

여기서 평면관투영에 의한 교정을 살펴보면, 한 평면은 3개의 점에 의해 결정되고 그 방정식은Looking at the calibration by planar tube projection, one plane is determined by three points and the equation is

Figure kpo00009
Figure kpo00009

로 표현되며 행렬도Is represented by

Figure kpo00010
Figure kpo00010

로 표현된다.It is expressed as

계측시 카메라계 자체만으로는 미지수를 알아내기 위해 식이 불충분하므로 평면광 교정을 추가하여 이상의 카메라계 교정과 슬릿광 교정을 동시에 사용하여 3차원 측정을 행하기로 하고, 그에 따른 교정 파라미터를 구한다.Since the equations are insufficient to determine the unknown by the camera system itself during measurement, three-dimensional measurements are made by simultaneously using the above-described camera system correction and slit light correction by adding plane light correction, and obtaining the correction parameters accordingly.

식(3), (4)의 카메라 관련식과 식(16)의 슬릿광식으로 부터From the camera-related equations of equations (3) and (4) and the slit beam equation of equation (16)

Figure kpo00011
Figure kpo00011

식(17)로 부터From equation (17)

Figure kpo00012
Figure kpo00012

식(17), (18)의 관계에서In relation to equations (17) and (18)

Figure kpo00013
Figure kpo00013

식(18)과 (19)로 부터From equations (18) and (19)

Figure kpo00014
Figure kpo00014

U,V,x,y,z를 안다면 미지수가 12개가 되며(만약 M34=1로 하면 11개)식은 3개 이므로 적어도 4점에 대한 공간상의 좌표값과 영상좌표값을 알면 된다.If we know U, V, x, y, z, we have 12 unknowns (if M 34 = 1, 11) and we have 3 equations, so we need to know the spatial and image coordinates for at least four points.

이것을 행렬로 표현하면,If you express this as a matrix,

Figure kpo00015
Figure kpo00015

식 (25) 를

Figure kpo00016
(25)
Figure kpo00016

로 표현하면, 미지수 m은 슈도우 인버스에 의해Expressed in, unknown m is by the shadow inverse

Figure kpo00017
Figure kpo00017

로 계산되어 진다.It is calculated as

일단 m이 결정되면 영상좌표계에 나타나는 점들의 좌표 U,V를 알때 이로 부터 해당되는 점의 3차원 공간상의 좌표를 알 수 있다.Once m is determined, when the coordinates U and V of the points appearing in the image coordinate system are known, the coordinates in the three-dimensional space of the corresponding point can be known therefrom.

즉, 식(22),(23),(24)로 부터 M34=1로 했을때That is, when M 34 = 1 from equations (22), (23) and (24)

Figure kpo00018
Figure kpo00018

식(25)로 부터 슬릿광 발생장치(41)와 카메라(42)로 구성되는 센서부(40)을 사용하여 3차원 측정을 위한 mij를 구하기 위해서는 교정과정에서 최소한 네점에 대한 데이터가 필요함을 알 수 있다. 이 네개의 점들은 각각 공간상에서의 계의 3차원 좌표값을 미리 알고 있어야 하므로 교정을 위한 제5,6도의 교정 블럭(100)의 계단부분을 슬릿광을 비춘 다음 비쳐진 부분을 카메라(42)로 보면 제5도에서와 같은 슬릿광의 영상이 읽혀진다.In order to obtain m ij for the three-dimensional measurement using the sensor unit 40 consisting of the slit light generator 41 and the camera 42 from equation (25), data for at least four points are required during the calibration process. Able to know. Each of these four points must know in advance the three-dimensional coordinates of the system in space, so that the slit beams of the steps of the calibration block 100 of FIGS. In this case, the image of the slit light as shown in FIG. 5 is read.

이때 공간좌표계내의 알고 있는 각 특징점의 x,y,z값(xl,yl,z1,x2,y2,z2,x3,y3,z3,x4,y4,z4)와 영상계(센서부계 내부)에서의 좌표값 U,V값(U1,V1,U2,V2,U3,V3,U4,V4)을 (26)식에 대입하여 (27)식과 같이 m값을 구함으로서 센서부 교정을 행한다.At this time, x, y, z value of each known feature point in spatial coordinate system (x l , y l , z 1 , x 2 , y 2 , z 2 , x 3 , y 3 , z 3 , x 4 , y 4 , z 4 ) and the coordinate values U and V (U 1 , V 1 , U 2 , V 2 , U 3 , V 3 , U 4 , V 4 ) in the image system (inside the sensor sub-system) are substituted into the equation (26). Then, the sensor unit is calibrated by obtaining the m value as shown in the equation (27).

이러한 교정을 위해서는 영상계에서의 (CRT에서의)모서리점을 구별해 내어서 각점의 영상계내의 2차원좌표값(U,V값)을 알아낸 다음, 공간상의 3차원 좌표값(x,y,z값)과 카메라 좌표계 값을 대응시켜 나가야 한다.To do this, the edges (in the CRT) of the imaging system are distinguished, and the two-dimensional coordinate values (U, V values) in the imaging system of each point are identified, and then the three-dimensional coordinate values (x, y) in space , z value) and the camera coordinate system value must be matched.

공간상에서의 모서리점들의 3차원 좌표값을 실제 좌표계에서의 실측에 의해 알 수가 있고, 모서리점의 영상좌표계에서의 값을 구하기 위한 모서리 판별은 곡률 극대점 추출방법을 사용한다.The three-dimensional coordinate values of the corner points in space can be known by the actual measurement in the actual coordinate system, and the corner determination for obtaining the value in the image coordinate system of the corner points uses a method of extracting the curvature maximum point.

제4도에 나타난 점 P1에서의 곡률 CikThe curvature C ik at point P 1 shown in FIG.

Figure kpo00019
Figure kpo00019

Figure kpo00020
Figure kpo00020

Y',Y",Y1도 같은 방법으로 계산된다.Y ', Y ", Y 1 are also calculated in the same way.

이들로 부터 최대 곡률치 CimFrom these the maximum curvature C im

Figure kpo00021
Figure kpo00021

로 부터 계산하고, 최대 곡률치가 Cim인 점 P1는 아래 조건을 만족할 경우 곡률극대점이 된다.The point P 1 whose maximum curvature is C im is calculated from and becomes the maximum curvature if the following conditions are met.

│ i-j │ ≤m/2되는 모든 j에 대하여I-j for all j ≤ m / 2

Figure kpo00022
Figure kpo00022

이상의 곡률극대점 추출방법에 의하여 CRT(60)에 나타난 영상계의 각 U,V로 나타내어지는 특징점(모서리점)을 찾아낸다.By the above-described curvature maximal point extraction method, a feature point (edge point) represented by each U and V of the video system shown in the CRT 60 is found.

센서부(40)의 교정이 이루어져서 변환 파라메타 M((식)18 m행렬)이 구해짐으로서 교정이 완료되며 이를 토대로 피측정물체의 각 점의 공간상 위치는 (식)28,29,30에 의해 계측된다.The calibration of the sensor unit 40 is performed, and the conversion parameter M (Equation 18 m matrix) is obtained. The calibration is completed. Based on this, the spatial position of each point of the object to be measured is expressed in Equations 28, 29 and 30. Is measured by.

그러나 시스템의 계측 정밀도에 영향을 미치는 항목의 하나는 센서부(40)의 구성요소의 하나인 카메라(42)의 분해능(Resolution)인데 예를들어 한 화면이 처리하는 피측정물의 대략적인 길이가 50m/m이고 카메라(42)의 주사선이 약 500선이면 분해능은 0.lm/m로 제한된다. 그런데 이렇게 해서 실제 측정하고자 하는 부위의 길이가 카메라(42)로 한번에 잡을 수 있는 길이로 초과하고 제8도에서와 같이 한 화면이 잡을수 있는 피측정물의 길이를 카메라를 가까이 근접시키거나 렌즈조절에 의해 접사시켜서 계측의 정밀도를 높일 수 있다. 이와 같이 한번에 계측이 이루어지기 어려운 상황이면 센서부(40)를 적당히 이동시켜가면서 각각 계측을 수행한 다음 서로를 연결하는 방법을 제11도에서와 같이 사용하고 있다.However, one of the items affecting the measurement accuracy of the system is the resolution of the camera 42, which is one of the components of the sensor unit 40. For example, an approximate length of a measured object processed by one screen is 50 m. / m and the scanning line of the camera 42 is about 500 lines, the resolution is limited to 0. lm / m. By doing this, the length of the part to be measured actually exceeds the length that can be grasped by the camera 42 at one time. As shown in FIG. You can increase the accuracy of the measurement by close-up. As described above, in the case where it is difficult to measure at once, the method of performing the measurement while connecting the sensor unit 40 appropriately and connecting each other is used as in FIG.

제11도의 계측 플로우챠트를 살펴보면, 제1도의 키보드(50)등에 의해 입력되는 머니플레이터(Manipulator)의 이동위치 경로 사양에 따른 컴퓨터(10) 및 로보트 드라이버(20)에서의 머니플레이터 제어위치 생성 및 머니플레이터의 이동, 즉 로보트 핸드(30)의 이동으로 센서부(40)의 슬릿광 발생장치(41) 및 카메라(40)에 의하여 영상을 획득하게 된다.Referring to the measurement flowchart of FIG. 11, the money plate control position in the computer 10 and the robot driver 20 according to the movement position path specification of the money manipulator (Manipulator) input by the keyboard 50 or the like in FIG. The image is acquired by the slit light generating device 41 and the camera 40 of the sensor unit 40 by the generation and the movement of the money plate, that is, the movement of the robot hand 30.

이러한 2차원적 영상에서 중심선을 추출하여 여기에 센서부(40)의 파라미터를 적용함으로써 3차원(도면주에서는 3D라 표시하고 있음)정보를 추출하여 저장한 후 계측 데이터를 접합시켜 그 데이터를 출력하거나 로보트 핸드의 이동을 다시 제어하거나 종료하게 한다.By extracting the center line from such a two-dimensional image and applying the parameters of the sensor unit 40 to it, three-dimensional (shown as 3D in the drawings) information is extracted and stored, and then the measurement data is joined to output the data Or control the robot hand's movement again or terminate.

이러한 계측대상물체의 계측에 앞서, 제10도의 플로우챠트와 같은 교정이 실행되는데 이를 설명하면 다음과 같다. 교정실시시 머니플레이터를 교정위치로 이동하고 또한 교정블럭의 위치를 설정한다.Prior to the measurement of such a measurement object, the same calibration as that of the flowchart of FIG. 10 is performed. During calibration, move the money plate to the calibration position and set the position of the calibration block.

상기 머니플레이터의 교정위치에서 교정영상이 획득되면 여기에서 윤곽중심선으로 부터 특징점을 추출하여 센서부의 파라미터를 꺼내 저장한다. 이때, 특징점의 3D좌표가 참조된다. 이러한 파라미터를 평가하여, 적합하면 종료하고 부적합하면 다시 머니플레이터의 위치를 교정위치로 이동한다.When the calibration image is obtained at the calibration position of the money plater, the feature point is extracted from the contour center line, and the parameters of the sensor unit are extracted and stored. At this time, the 3D coordinates of the feature point are referred to. These parameters are evaluated and, if appropriate, terminated and if not, move the position of the money plate back to the calibration position.

한편, 상기와 같은 계측은 측정정밀도를 향상시킬 수 있을 뿐만아니라 계측시 발생될 수 있는 사각의 가능성을 배제한다.On the other hand, the measurement as described above not only improves the measurement accuracy but also excludes the possibility of blind spots that may occur during measurement.

상기 사각 가능성의 배제는 제9도에서 도시하고 있는 바와 같이 로보트 핸드에 의한 카메라(42)이동시 계측대상물체의 계측범위를 오우버랩시켜 놓은 것으로 충분히 설명된다.The exclusion of the blind spots is sufficiently explained by the fact that the measurement range of the measurement target object is overlapped when the camera 42 moves by the robot hand as shown in FIG.

센서부(40)의 이동방식에 의한 계측의 실시는 제6도와 같은 로보트 핸드(30)의 말단에 카메라(42)를 포함하는 센서부(40)를 부착한 것에 의해 실행된다.Measurement by the movement method of the sensor part 40 is performed by attaching the sensor part 40 containing the camera 42 to the end of the robot hand 30 like FIG.

이 경우 센서부가 X,Y,Z의 직각 좌표 3개축과 α,β의 2개 회전축에 의해서 이동 및 회전하게 되므로 여기에 대한 고려가 있어야 한다. 예를들어 타이어의 임의의 한 점에 측정치가 (x1,yl,z1)이고 이때 각축(X,Y,Z)에 대한 이동량이 (p,q,r)이고 회전량이 α1l일때 로보트의 이동량을 고려한 실제의 측정치(x2,y2,z2)는In this case, since the sensor part is moved and rotated by three axes of Cartesian coordinates of X, Y, and Z, and two axes of rotation of α, β, consideration should be given to this. For example, at any point on the tire, the measured value is (x 1 , y l , z 1 ), where the amount of movement with respect to each axis (X, Y, Z) is (p, q, r) and the amount of rotation is α 1 , β The actual measurement (x 2 , y 2 , z 2 ) taking into account the robot movement when

Figure kpo00023
Figure kpo00023

여기서 T=(p,q,r) : x,y,z축의 이동량Where T = (p, q, r): movement of x, y, z axis

R은 회전을 나타내는 행렬로서 제6도에서와 같이 α축의 회전량은 Z축에 평행한 회전량에 대응되고 β축의 회전량은 α축의 회전량에 따라 (90도 또는 180도) X축 또는 Y축에 평행한 회전량에 대응된다. 즉R is a matrix representing rotation, and as in FIG. 6, the amount of rotation on the α axis corresponds to the amount of rotation parallel to the Z axis, and the amount of rotation on the β axis depends on the amount of rotation on the α axis (90 or 180 degrees). Corresponds to the amount of rotation parallel to the axis. In other words

Figure kpo00024
Figure kpo00024

편의상 이때 계측된 좌표값의 기준계는 교정시 얻어진 좌표값에 계를 기준으로 한다. 예를들면 타이어의 트레드(Tread)를 측정한 경우 α=90, β=90°(X축 형행)이므로For convenience, the reference system of the measured coordinate values is based on the system based on the coordinate values obtained at the time of calibration. For example, if the tire tread is measured, α = 90, β = 90 ° (X-axis)

Figure kpo00025
Figure kpo00025

이와 같은 다축형 로보트 핸드(30)의 수식 제어과정을 첨부한 제6도 및 제7도를 참고로 하여 서술적으로 기술하면 다음과 같다.Referring to Figures 6 and 7 attached to the modification control process of the multi-axis robot hand 30 as described above are as follows.

로보트 드라이버(20)내의 X-Z축 서어보 제어기(21-23)와 α, β축 제어기(24,25)에는 컴퓨터(10)로 부터 각각의 데이터와 어드레스가 각각의 버스를 통하여 인가되므로, 상기 X-Y축 서어보 제어기(21-23)는 상기 컴퓨터(10)로 부터의 데이터에 따라 베이스(31)내부의 각 서어보 모터(311-313)를 제어한다.Since each data and address are applied from the computer 10 to the XZ axis servo controllers 21-23 and the α and β axis controllers 24 and 25 in the robot driver 20 through the respective buses, the XY The axis servo controllers 21-23 control the respective servo motors 311-313 inside the base 31 in accordance with the data from the computer 10.

이에 따라 이동판(32) 및 수직폴(33)이 각각 X,Y축 및 Z축 방향으로 이동하므로, 수평바(35)에 제1,2모우터 홀더(38,39) 및 지지대를(45)를 통하여 결합고정된 센서부(40)는 계측대상물체(90)를 이동하면서 스캔한다.Accordingly, since the movable plate 32 and the vertical pole 33 move in the X, Y and Z axes, respectively, the first and second motor holders 38 and 39 and the support stand 45 are placed on the horizontal bar 35. The sensor unit 40 coupled and fixed through the scan moves while moving the measurement target object 90.

또, 상기 각 서어보 모터(311-313)에 부가되어 있는 각각의 엔코더(314-316)는 각기 서어보 모터의 회전각을 부호화하여 다시 각각의 서어보 제어기에 제공하므로 로보트 드라이버에서는 이 부호화 신호를 계속 받아들여 서어보 모터가 소정의 제한량 만큼 회전하게 하였을때 정지하도록 하는 식으로 시간적으로 제어한다.In addition, the encoders 314-316 added to the servo motors 311-313 encode rotation angles of the servo motors, and provide the encoded servo angles to the servo controllers. Is continuously controlled in such a way that the servo motor stops when the servo motor is rotated by a predetermined limit amount.

한편, 로보트 드라이버(20)의 α, β축 제어기(24,25)는 하모닉 드라이버(361,371)(도면상에서는 H.D로 표현하고 있음)를 통하여 각각의 제1스태핑 모터(36)와 제2스태핑 모터(37)에 제어신호를 공급하는데, 이에 따라 수평바(35)의 일측선단의 홀더(38)에 고정된 상기 제1모터(36)는 제2모터(37)를 포함하여 센서부(40)를 α축을 중심으로 하여 회전하고, 상기 제1모터(36)의 α축상에 수직방향인 β축에 설치되는 제2모터(37)에 의해서는 센서부(40)가 계측대상물체(90)를 β축을 중심으로 하여 회전하면서 그의 외각형상을 스캔한다.On the other hand, the α and β axis controllers 24 and 25 of the robot driver 20 are connected to the first stepping motor 36 and the second stepping motor through the harmonic drivers 361 and 371 (represented in HD in the drawing). 37, the control signal is supplied. Accordingly, the first motor 36 fixed to the holder 38 at one end of the horizontal bar 35 includes the second motor 37 to provide the sensor unit 40 with the control signal. The sensor unit 40 makes the measurement target object 90 beta by the second motor 37 which rotates around the α axis and is installed on the β axis perpendicular to the α axis of the first motor 36. Rotate around the axis and scan its outer shape.

이상에서 설명한 바와 같은 본 발명은 컴퓨터로 제어되는 다축 로보트 핸드에 카메라와 슬릿광 발생장치를 실어, 단일의 카메라만으로 시간적 변화에 따른 계측대상물체의 단면외각형상을 스캔하고 이를 교정블록에 대응처리 계산하여 공간 3좌표상에 계측대상물체를 표한할 수 있게 되므로, 특히 사이드 원이나 트레드등으로 형성된 타이어등의 단면외각형상을 오차없이 신속하게 계측할 수 있는 특유의 효과가 나타나게 된다.As described above, the present invention is equipped with a camera and a slit light generator in a computer-controlled multi-axis robot hand, and scans the cross-sectional shape of the object to be measured over time with a single camera, and calculates the corresponding process in the calibration block. Since the object to be measured can be represented on the space 3 coordinates, a unique effect of measuring the cross-sectional outer shape of a tire, such as a side circle or a tread, can be quickly measured without error.

Claims (3)

비접촉식으로 물체의 외각형상을 측정하고 인식하는 장치에 있어서, 슬릿광 발생장치(41) 및 카메라(42)를 포함하는 센서부(40)와, 상기 센서부(40)에 의한 교정블록으로 부터의 2차원 교정좌표값에서 3차원공간좌표값을 계산하고 여기에 계측물체로 부터의 2차원 계측좌표값을 대응계산처리하여 계측물체의 3차원광간 좌표값을 CR T(60)에 출력하는 컴퓨터(10)와, 상기 센서부(40)의 계측위치를 다축변환하는 로보트 핸드(30)와, 상기 컴퓨터(10)의 제어신호에 따라 상기 로보트 핸드(30)를 다축 제어하는 로보트 드라이버(20)를 포함하는 것을 특징으로 하는 비접촉식 타이어의 단면윤곽 형상계측장치.A device for measuring and recognizing an outer shape of an object in a non-contact manner, comprising: a sensor unit 40 including a slit light generator 41 and a camera 42, and a calibration block from the calibration block by the sensor unit 40; A computer which calculates three-dimensional spatial coordinates from two-dimensional calibration coordinates and performs corresponding calculation on two-dimensional measured coordinates from the measurement object and outputs the three-dimensional optical coordinates of the measurement object to CR T (60). 10), the robot hand 30 for multi-axis conversion of the measurement position of the sensor unit 40, and the robot driver 20 for multi-axis control of the robot hand 30 in accordance with the control signal of the computer 10 Cross-sectional contour shape measuring device of a non-contact tire, characterized in that it comprises. 제1항에 있어서, 상기 슬릿광 발생장치(41)는 레이저 비임을 원통형 렌즈를 통과시켜 슬릿광을 발생시키는 것을 특징으로 하는 비접촉식 타이어의 단면윤곽 형상계측장치.2. The sectional contour shape measuring device according to claim 1, wherein the slit light generating device (41) generates slit light by passing a laser beam through a cylindrical lens. 제1항에 있어서, 상기 로보트 드라이버(20)는 컴퓨터(10)의 어드레스 및 데이터신호에 따라 제어되는 X-Z축 서어보 제어기(21-23)와 α·β축 제어기(24,25)를 포함하며, 상기 각 X-Z축 서어보 제어기(21-23)의 출력으로는 X-Z축 방향이동 서어보 모터(311-313)를, 상기 각 α·β축 제어기(24,25)의 출력으로는 α·β축 방향 이동 스태핑 모터(36,37)를, 제어하게 구성하는 것을 특징으로 하는 비접촉식 타이어의 단면윤곽 형상계측장치.The robot driver (20) according to claim 1, wherein the robot driver (20) includes an XZ-axis servo controller (21-23) and an α-β axis controller (24, 25) controlled in accordance with the address and data signal of the computer 10. As an output of each of the XZ axis servo controllers 21-23, an XZ axis direction servo motor 311-313 is used, and as an output of each of the α and β axis controllers 24 and 25, A cross-sectional contour shape measuring device for a non-contact tire, characterized in that the axial movement stepping motors (36, 37) are configured to be controlled.
KR1019900006154A 1990-04-30 1990-04-30 Noncontact type tire contour shape measurement system KR920006741B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1019900006154A KR920006741B1 (en) 1990-04-30 1990-04-30 Noncontact type tire contour shape measurement system
JP3128535A JPH07239219A (en) 1990-04-30 1991-04-30 Method and device for measuring profile shape of tire edge without contact
US07/693,297 US5506683A (en) 1990-04-30 1991-04-30 Non-contact measuring apparatus for the section profile of a tire and its method
US07/866,631 US5243872A (en) 1990-04-30 1992-04-10 Robotic hand for controlling movement in multiple axes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019900006154A KR920006741B1 (en) 1990-04-30 1990-04-30 Noncontact type tire contour shape measurement system

Publications (2)

Publication Number Publication Date
KR910018774A KR910018774A (en) 1991-11-30
KR920006741B1 true KR920006741B1 (en) 1992-08-17

Family

ID=19298587

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019900006154A KR920006741B1 (en) 1990-04-30 1990-04-30 Noncontact type tire contour shape measurement system

Country Status (1)

Country Link
KR (1) KR920006741B1 (en)

Also Published As

Publication number Publication date
KR910018774A (en) 1991-11-30

Similar Documents

Publication Publication Date Title
JPH07239219A (en) Method and device for measuring profile shape of tire edge without contact
US5621807A (en) Intelligent range image camera for object measurement
US5341183A (en) Method for controlling projection of optical layup template
US5987591A (en) Multiple-sensor robot system for obtaining two-dimensional image and three-dimensional position information
CN110044293B (en) Three-dimensional reconstruction system and three-dimensional reconstruction method
EP3435023A1 (en) Three-dimensional measurement device mobile geometry verification
US5506641A (en) Apparatus for controlling projection of optical layup template
Yang et al. Modeling and calibration of the galvanometric laser scanning three-dimensional measurement system
US6730926B2 (en) Sensing head and apparatus for determining the position and orientation of a target object
CN114413788A (en) Part surface pattern detection method based on binocular vision and reverse model reconstruction
KR920006741B1 (en) Noncontact type tire contour shape measurement system
KR920006740B1 (en) Noncontact type tire contour shape measurement method
KR920006050B1 (en) A correctional block
Loser et al. The programmable optical 3d measuring system pom-applications and performance
US11433551B2 (en) Measurement system and method for positioning accuracy of a robotic arm
JP2001304827A (en) Sectional shape measuring apparatus and sectional shape measuring method
KR930008563B1 (en) Robot hand of measurering divice
JP2005172610A (en) Three-dimensional measurement apparatus
CN116194252A (en) Robot system
JP3254475B2 (en) Calibration method for range sensor
JP2020134221A (en) Scanning route generation device, scanning route generation program, scanning route generation method, and appearance inspection system
KR20040009550A (en) Efficient digitizing in reverse engineering by sensor fusion
Matsubara et al. A three-dimensional position measurement method using two pan-tilt cameras
JPS63131007A (en) Three-dimensional coordinates measuring system
Makris et al. Vision guided robots. Calibration and motion correction

Legal Events

Date Code Title Description
A201 Request for examination
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20070813

Year of fee payment: 16

LAPS Lapse due to unpaid annual fee