KR20110010422A - Computation of robot location and orientation using repeating feature of ceiling textures and optical flow vectors - Google Patents
Computation of robot location and orientation using repeating feature of ceiling textures and optical flow vectors Download PDFInfo
- Publication number
- KR20110010422A KR20110010422A KR1020090067983A KR20090067983A KR20110010422A KR 20110010422 A KR20110010422 A KR 20110010422A KR 1020090067983 A KR1020090067983 A KR 1020090067983A KR 20090067983 A KR20090067983 A KR 20090067983A KR 20110010422 A KR20110010422 A KR 20110010422A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- image
- vector
- intersection
- ceiling
- Prior art date
Links
- 239000013598 vector Substances 0.000 title claims abstract description 48
- 230000003287 optical effect Effects 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 36
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims 2
- 230000000295 complement effect Effects 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000009825 accumulation Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Abstract
Description
천정의 격자형 반복 무늬를 사용하면, 직선이나 교차점들을 활용해서 위치나 방향정보에 누적되는 에러를 줄일 수 있으며, 직선이나 교차점등이 검출되지 않는 영상 프레임에서는 화소 간의 이동 벡터인 Optical Flow 벡터들을 영상 프레임마다 누적한 합 벡터의 값을 활용함으로써 위치정보를 예측할 수 있다. 본 발명은 천장의 반복 무늬만을 활용해서 로봇의 위치와 방향을 알아내는 효과적인 방법에 관한 것이다.In the case of an image frame in which no straight line or intersection point is detected, Optical Flow Vectors, which are motion vectors between pixels, are displayed on the image The position information can be predicted by utilizing the value of the sum vector accumulated for each frame. The present invention relates to an effective method of finding out the position and direction of a robot by utilizing only a repeating pattern of a ceiling.
이동로봇의 위치계산을 위해서 과거에는 로봇의 초기 위치를 기준으로 계산하는 dead reckoning 방법이 많이 사용되었다. 이 방법은 간단하지만, 바퀴가 미끄러짐으로 인해서 생기는 에러가 누적된다는 문제가 있었다. 이 문제점을 극복하기 이해서, 초음파 센서도 많이 사용되었다. 이 방법은 초음파가 물체까지의 비행시간 (time-of-flight (TOF))을 계산하여 거리를 측정하는 방법인데, 정확성이 크지 않으며 환경의 영향을 많이 받는다. In order to calculate the position of the mobile robot, a dead reckoning method has been used in the past to calculate the position based on the initial position of the robot. Although this method is simple, there has been a problem that errors caused by sliding of the wheels are accumulated. In order to overcome this problem, many ultrasonic sensors have been used. This method is a method of measuring the distance by calculating the time-of-flight (TOF) of the ultrasound to the object, which is not very accurate and is highly influenced by the environment.
최근에는 랜드마크를 사용하는 방법이 많이 연구되고 있다. 이에 대한 방법 중의 하나는 RFID (Radio기술을 이용하는 것인데, RFID tags를 작업환경에 다수 배치한 후, RFID reader를 장착한 로봇이 움직이면서 RFID tag 위치를 알아내는 방법에 의해 로봇의 위치를 계산하는 방법이다. 여기서 각 RFID tag 는 각 각 자신의 위치를 가지고 있기 때문에 로봇의 위치를 알아내는 데 활용할 수 있다. 또, 다른 방법은 시각적인 랜드마크를 사용하는 방법이다. 비젼센서는 랜드마크의 특징을 인식하여 로봇의 위치를 계산하는 것이다. 이를 위해서 특수한 모양으로 제작된 랜드마크를 제작해서 사용한다. 랜드 마크를 이용하는 방법 중 효과적인 방법은 랜드마크를 천정에 부착하는 방법이다. 랜드 마크가 약속된 코드들 표현하게 하고, 작은 크기의 랜드 마크에 많은 코드 정보를 포함시키기 위해서 개발된 칼라기반 천정 부착 랜드 마크 방법이다. 이 방법에서는 각 랜드 마크가 고유한 상대적인 위치를 표현하게 하여 로봇은 랜드마크의 상대적 위치를 누적시키는 방법으로 위치를 계산하는 것이다. 이 방법은 사용되지 않는 천정에 랜드마크를 부착하여 공간의 활용도를 높인다는 장점은 있지만, 천정에 랜드 마크을 부착해야 하는 노력과 미관을 해친다는 문제점이 있다. Recently, many methods of using landmarks have been studied. One of the methods for this is to use RFID technology to locate the robot by locating RFID tags in the work environment and then locating the RFID tags while the robot equipped with the RFID reader moves The RFID tag can be used to locate the robot because each RFID tag has its own position, and another method is to use a visual landmark. A landmark is a method of attaching a landmark to a ceiling, and an effective method of using the landmark is to attach the landmark to the ceiling. Color-based ceiling land developed to include a large amount of code information in small-sized landmarks. In this method, the robot calculates the position by accumulating the relative positions of the landmarks, allowing each landmark to express its own relative position. This method involves attaching a landmark to an unused ceiling There is an advantage to increase the utilization of space, but there is a problem that the efforts to attach the landmark to the ceiling and the aesthetics are damaged.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 본 발명은 천장에 랜드 마크를 부착하지 않고, 천장의 반복 무늬만을 활용해서 로봇의 방향과 위치를 알아내는 새롭고 효과적인 방법이다. 격자형 반복 무늬를 사용하면, 직선이나 교차점들을 활용해서 위치나 방향정보에 누적되는 에러를 줄일 수 있으며, 직선이나 교차점등이 검출되지 않는 영상 프레임에서는 화소 간의 이동 벡터인 Optical Flow 벡터들을 영상 프레임마다 누적한 합 벡터를 활용함으로써 위치정보를 예측할 수 있다. 본 발명은 이와 같은 목표를 달성하기 위한 기술에 관한 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is a new and effective method for determining the direction and position of a robot by utilizing only ceiling repeated patterns without attaching landmarks to the ceiling. In the case of an image frame in which a straight line or an intersection point is not detected, Optical Flow Vectors, which are motion vectors between pixels, are used for each image frame The location information can be predicted by utilizing the accumulated sum vector. The present invention relates to a technique for achieving such a target.
본 발명에서는 상기와 같은 과제를 해결하기 위해서 도 1과 같이 격자 무늬가 있는 천정의 특징을 이용하여, 랜드마크와 같은 부수적인 장치 없이 영상만으로도 로봇의 위치 및 방향을 인식하게 하고자 하는 것이다. 이를 위해서는 이동 로봇의 중심에 천정을 향하여 카메라를 설치하여 천정의 연속적인 디지털 영상을 얻을 수 있게 한다.In order to solve the above-described problems, the present invention aims at recognizing the position and direction of a robot by using only a video image without a side device such as a landmark by using the feature of a ceiling with a grid pattern as shown in Fig. To do this, a camera is installed facing the ceiling at the center of the mobile robot to obtain a continuous digital image of the ceiling.
본 발명의 구성은 도 2와 같이 영상의 직선으로부터 방향을 검출하며, 교차점으로부터 위치를 인식한다. 만약, 영상에 직선이나 교차점이 검출되지 않는 경우에는 영상프레임 간의 이동벡터를 활용해서 로봇의 방향과 위치를 예측한다. 보다 자세하게는 본 발명에서의 로봇의 방향은 영상으로부터 검출된 직선과 로봇 사이의 각도를 이용하여 계산하고, 로봇의 위치는 반복되는 직선의 교차점이 작업장의 원 점으로 부터의 반복회수와 교차점으로부터 로봇 중심까지의 백터를 이용하여 계산한다. 직선이나 교차점등이 검출되지 않는 영상 프레임에서는 화소 간의 이동 벡터인 Optical Flow 벡터들을 영상 프레임마다 누적한 합 벡터의 부의 값을 이전의 영상 방향이나 위치에 더하여 사용한다. 그러다, 영상에서 직선이나 교차점들이 검출되면, 검출된 직선이나 교차점 정보에 의해 로봇의 방향과 위치 정보를 교정함으로써 에러가 누적되는 것을 피한다. The configuration of the present invention detects the direction from the straight line of the image and recognizes the position from the intersection as shown in Fig. If a straight line or an intersection is not detected in the image, the direction and position of the robot are predicted using the motion vector between the image frames. More specifically, the direction of the robot in the present invention is calculated by using the angle between the straight line detected from the image and the robot, and the position of the robot is determined based on the number of repetitions from the origin point of the work site and the intersection point, Calculate using the vector up to the center. In an image frame in which no straight line or intersection point is detected, the negative value of the sum vector of the accumulated optical flow vectors, which are motion vectors between pixels, for each image frame is added to the previous image direction or position. Then, when straight lines or intersections are detected in the image, correcting the direction and position information of the robot by the detected straight line or crossing point information avoids accumulation of errors.
이를 위해서 이동 로봇의 중심에 천정을 향하여 카메라를 설치하여 격자형 천정 무늬 중 반복되는 직선 성분들에 대해 로봇 작업장의 원점을 기준으로 각도 집합을 구하여 준비하고, 격자형 천정 무늬에서의 모든 교차점에 대한 위치 집합을 준비한다. For this purpose, a camera is installed toward the ceiling at the center of the mobile robot, and an angle set is prepared based on the origin of the robot work site for the repeated linear components of the grid-like ceiling pattern, Prepare a location set.
로봇의 방향 인식Direction recognition of robot
이동 중인 로봇의 방향은도 3에서와 같이 영상에서 직선을 검출하여 이 직선과 로봇의 현재 방향 간의 각도를 계산 한 후, 미리 준비한 작업장의 원점 기준 직선들에 대한 개별 각도에 더하여 이들 중, 이 전 영상에서의 로봇 방향과 가장 가까운 방향을 현재의 로봇 각도로 결정한다. As shown in FIG. 3, the direction of the moving robot is such that an angle between the straight line and the current direction of the robot is calculated and then added to the individual angles of the reference straight lines of the workplace prepared in advance, The direction closest to the direction of the robot in the image is determined as the current robot angle.
격자무늬의 천장 영상에는 평행하거나 교차하는 2 방향의 직선이 존재한다. 도 4(a)에서와 같이 실제 공간의 원점을 기준으로 x 축에 평행한 직선의 방향을 - 이고, y 축에 평행한 직선이 방향을 0로 정의한다. 이렇게 하면, -x 축에 평행한 방향은 /2이고, -y축에 평행한 방향은 가 되는 것이다. There are two parallel straight lines intersecting the ceiling image of the grid pattern. As shown in FIG. 4 (a), the direction of a straight line parallel to the x-axis with respect to the origin of the actual space is represented by - , And a straight line parallel to the y-axis defines the direction as zero. In this way, the direction parallel to the -x axis is / 2, and the direction parallel to the -y axis is .
도 4(b)와 같은 공간 좌표 계에서는 각 직선의 방향은 와 같은 4 개의 방향을 갖게 된다. 또, 영상 좌표 계에서는 로봇과 카메라 시스템의 배치상, 영상의 윗 쪽 방향을 로봇의 전면 방향으로서, y'로 정의하고, y 축과의 사이 각을 라 하자. 한 개의 직선을 구해서 그 직선 로봇의 앞면과의 각도인 를 구했다고 하면 실제의 로봇의 방향은 중의 하나가 된다.In the spatial coordinate system shown in Fig. 4 (b), the direction of each straight line is As shown in FIG. In the image coordinate system, the position of the robot and the camera system and the direction of the upper side of the image are defined as y 'as the front direction of the robot, and the angle between the y- Let's say. One straight line is obtained and the angle between the straight line and the front surface of the linear robot , The direction of the actual robot is .
즉, 영상의 상하를 연결하는 수직선과 가장 가까운 직선을 우선 구하고, 이 수직선과 직선이 이루는 각도를 라고 한다. 그런데, 영상에서 구한 직선은 원점을 기준으로 0도 방향, , 혹은 - 중 어느 직선과 인지를 구별해야 한다. In other words, a straight line closest to the vertical line connecting the top and bottom of the image is first obtained, and the angle formed by the vertical line and the straight line is . However, the straight line obtained from the image is oriented at 0 degree with respect to the origin, , or - Which of the straight lines It should be distinguished.
만약 로봇의 회전 속도가 충분히 낮다고 가정하면, 즉, 로봇의 방향 변화가 매우 작다면, 현재의 로봇의 현재 방향의 가장 최근에 포착한 영상의 방향과 유사한 방향이 될 것이다. 이 방향을 로 한다면, 현재의 방향은 중 에 가까운 값이다. Assuming that the rotation speed of the robot is sufficiently low, that is, if the change in the direction of the robot is very small, the direction will be similar to the direction of the most recent captured image in the current direction of the current robot. This direction , The current direction is medium .
이를 위해서, 를 현재의 방향이라고 하면,for this, Is the current direction,
수학식 1
이 되는 것이다. .
그런데, 초기의 방향을 매우 정확하게 계산할 필요는 없고, 대충의 방향만 알면, 그것을 이용해서 중 어느 각도에 가까운지 결정만 하면 되는 것이기 때문이다. 따라서, 이 에러는 누적이 되지 않는다는 큰 장점이 있다. 다음 절에서는 허용되는 에러의 범위를 계산한다. However, it is not necessary to calculate the initial direction very accurately, and if only the rough direction is known, It is only necessary to determine which angle is close to the angle. Therefore, there is a great advantage that this error does not accumulate. The next section calculates the range of allowed errors.
로봇 위치 인식 Robot position recognition
로봇의 위치를 계산하기 위해서는 도 5와 같이 작업장의 교차점들의 위치 집합 중, 로봇의 이전 위치 점을 중심으로 그 주변의 교차점 들의 위치 좌표들을 취한다. 또, 현재의 영상에서 가장 뚜렷한 교차점을 선택하여 영상 중심의 위치를 상기 교차점에 대한 상대 벡터로 표현하고 이를 기준 원점의 좌표로 회전 변환한 후, 이전 영상에서의 로봇 위치와 가장 가까운 위치를 실제 로봇 위치로 결정한다. In order to calculate the position of the robot, as shown in FIG. 5, the position coordinates of the intersections around the previous position point of the robot are taken among the positions of the intersections of the workplace. The position of the center of the image is represented as a relative vector to the intersection by selecting the most distinct intersection point in the current image, and the rotation is converted into the coordinates of the reference origin. Then, Position.
도 4에서 보는 바와 같이 대상으로 하는 천정 무늬에는 두 개의 직선이 교차하여 만드는 많은 교차점들이 있다. 천정무늬의 두 인접 교차점 간 거리를 d 라고 하자. 따라서, 이 교차점의 위치들은 알 수 있고, 좌표 축이 정의된다면, 교차점들의 위치를 계산할 수 있다. As shown in Fig. 4, there are many intersections formed by intersection of two straight lines in the target ceiling pattern. Let d be the distance between two adjacent intersections of the ceiling pattern. Thus, the positions of these intersections can be known and, if a coordinate axis is defined, the positions of the intersections can be calculated.
만약, 이 교차점으로부터 영상의 중앙까지의 거리를 계산하면 로봇의 현재의 위치도 계산할 수 있다. If the distance from this intersection to the center of the image is calculated, the current position of the robot can also be calculated.
이전 프레임의 영상에서 인식된 교차점의 실제 위치를 라고 할 때, 현재 영상 프레임에서의 교차점의 실제 위치는 다음과 같은 점 중의 하나이다.The actual position of the intersection recognized in the image of the previous frame is , The actual position of the intersection point in the current image frame is one of the following points.
수학식 2
. .
여기서 과 는 x 축과 y축 간의 거리이다. here and Is the distance between the x and y axes.
로봇의 위치는 상기와 같은 방법을 사용하여 교차점의 위치를 계산한 후, 도 6을 이용하여 구할 수 있다. 즉, 로봇의 위치는 영상의 중심점의 위치와 같으므로 이를 C라하고, 검출된 교차점의 위치 점을 A, B를 인접위치의 교차점이라고 하면, 벡터 의 방향은 로봇의 방향과 같다. The position of the robot can be obtained by calculating the position of the intersection using the method as described above and referring to FIG. That is, since the position of the robot is the same as the position of the center point of the image, this is C, and if the detected point of intersection is A and B is the intersection point of the adjacent position, The direction of the robot is the same as that of the robot.
현재의 로봇 방향은 로 계산되어 있으므로, 각 = .를 계산할 수 있다. 만약, 영상 평면과 천정평면의 크기비율 관계를 이용하면, 실제위치점 A로부터 C = 점의 위치는 수학식 3과 같이 계산 할 수 있다. The current robot direction Respectively, = Can be calculated. If the magnitude ratio relationship between the image plane and the ceiling plane is used, The position of the point can be calculated as shown in Equation (3).
수학식 3
점 은 9개의 후보 점을 가질 수 있으므로, a점 역시 9 점을 갖는다. 이와 같은 변환의 절차는 도 7의 실제거리 상대위치 벡터로 변환방법에서 을 기술하고 있다. point Can have nine candidate points, The a point also has 9 points. Such a conversion procedure is described in the conversion method to the actual distance relative position vector in FIG.
그런데, 로봇의 속도는 빠르지 않으므로, 점은 점에 가까이 위치하게 된다. 따라서 로봇의 현재 위치 점은However, since the speed of the robot is not fast, The point is It is located close to the point. Therefore, the current position point of the robot is
수학식 4
로 계산되고,Lt; / RTI >
수학식 5
로서 로봇의 위치점을 구할 수 있다. 와 는 {-1, 0, 1} 중에서 수학식 5식이 최소 값을 갖는 값이다. 수학식 2에 의하면, 현재의 화면상에 나타나는 교차점 의 위치도 구할 수 있다. The position point of the robot can be obtained. Wow Is a value having the minimum value of the expression (5) in {-1, 0, 1}. According to Equation (2), the intersection point Can also be found.
결론적으로 알고 있는 교차점 과 이전 프레임에서의 로봇 위치점 를 알면, 로봇의 현재 위치과 현 영상에 나타나는 교차점의 위치는 수학식 5 및 수학식 2를 이용하면 계산할 수 있다. 따라서, 로봇의 초기 위치가 주어지면, 수학식 2에 의해, 로봇의 위치를 점차적으로 계산할 수 있는 것이며, 식 수학식 5를 이용하므로, 점에 대한 에러가 누적되지 않는다는 중요한 특징이 있다. In conclusion, And the robot position point in the previous frame The current position of the robot and the position of the intersection point appearing in the current image can be calculated using Equation (5) and Equation (2). Therefore, given the initial position of the robot, the position of the robot can be gradually calculated using Equation (2), and since Equation (5) is used, There is an important feature that errors for points are not accumulated.
Optical Flow의 벡터를 이용한 로봇 방향 및 위치 보완Complementing robot direction and position using vector of optical flow
만약, 직선이나 교차점들이 하나도 검출되지 않는 영상의 경우에는 도 8혹은 도 9과 같이 화소 간의 이동 벡터 (Optical Flow)를 계산하고, 직선이나 교차점이 없는 영상이 계속되면 이 이동벡터들 간의 합 벡타를 구하여 로봇의 방향과 위치를 예측하여 사용하며, 직선이나 교차점이 검출되는 영상을 얻으면, 예측하여 사용한 로봇의 방향과 위치를 예측한다.In the case of an image in which no straight line or intersection points are detected, an optical flow between pixels is calculated as shown in FIG. 8 or FIG. 9. If a straight line or an image without an intersection continues, a sum vector between the motion vectors is calculated The direction and the position of the robot are predicted and used. When the robot obtains an image in which a straight line or an intersection is detected, the predicted direction and position of the used robot are predicted.
Optical Flow란 인접한 영상 프레임 사이의 화소의 움직임 벡터로서 로봇이 이동하면, 로봇과 반대 방향으로 화소가 이동한다. 이 때, 많은 영상의 화소들의 이동 벡터는 약간 다를 수 있으므로, 영상프레임 간의 대표적인 이동벡터를 사용한다. 을 영상 m과 n프레임 간의 대표 이동벡터라고 하자. m번째 프레임으로부터 k개의 영상프레임의 Optical Flow가 누적되는 경우, 누적된 optical flow, 는 When the robot moves as a motion vector of a pixel between adjacent image frames, the optical flow moves in a direction opposite to the robot. At this time, since the motion vectors of pixels of many images may be slightly different, a typical motion vector between image frames is used. Let be a representative motion vector between m and n frames. When the optical flows of k image frames from the m-th frame are accumulated, accumulated optical flow, The
수학식 6
==+ +++...+ = = + +++ ... +
로 계산할 수 있다. .
따라서, 시점 m에서의 로봇의 방향 각이 원점을 기준으로 이었다면, k프레임 후의 각도는 는 Therefore, when the direction angle of the robot at the time point m is based on the origin , Then the angle after k frames is The
수학식 7
=- = -
와 같이 부의 값을 더하여 구한다.As shown in Fig.
만약 영상 중, 직선을 가진 영상을 얻으면 직선을 기준으로 로봇의 각도를 구하고 상기 로봇 방향 구하는 방법처럼 상기 직선으로부터 구한 각도를 방향 각도 후보 집합 내의 개별 직선 각도에 더하여 방향 각도 후보 집합 내의 각 각도와 상기 이동 벡터의 합에 의해 구한 로봇 방향과 가장 차이가 적은 상기 복수의 로봇 방향 후보의 방향을 현재의 로봇 방향으로 결정한다. If an image having a straight line is obtained from the image, the angle of the robot is obtained on the basis of the straight line, and the angle obtained from the straight line is added to the individual straight line angles in the direction angle candidate set, The direction of the plurality of robot direction candidates having the smallest difference from the robot direction determined by the sum of the motion vectors is determined as the current robot direction.
또, 영상에 교차점이 존재하지 않는 경우 도 9과 같이 상기 수학식 수학식 6처럼 optical flow의 벡터를 누적하여 이동벡터의 합을 구하고, 교차점을 가진 영 상에서 구한 로봇의 위치에 이동벡터의 합의 부의 값을 더하여 로봇 예측 위치를 구한다. If there is no intersection in the image, the sum of the motion vectors is obtained by accumulating the vectors of the optical flow as shown in Equation (6) as shown in FIG. 9, and the sum of the motion vectors is added to the position of the robot obtained by zero- And the robot predicted position is obtained.
만약, 영상에서 교차점(들) 이 검출되면 상기 로봇 위치 인식 방법처럼 로봇 실제 위치에 대한 후보 집합을 구하고 상기 로봇실제 위치에 대한 후보 집합으로부터 상기 로봇 예측위치와의 거리가 가장 가까운 위치 점을 현재의 로봇 위치로 수정한다. If the intersection point (s) is detected in the image, a candidate set for the robot actual position is obtained as in the robot position recognition method, and a position point closest to the robot predicted position from the candidate set for the robot actual position is determined as the current Correct the robot position.
본 발명은 도 1과 같은 격자무늬가 천정의 무늬만으로도 로봇의 위치 및 방향을 인식하는 기술로서 초기의 방향과 위치가 주어지는 경우, 천정에 있는 직선과 격자점 인식을 통해서 로봇의 방향과 위치를 점차적으로 계산할 수 있으며, 이 때 발생하는 작은 에러들은 각 천정무늬의 교차점을 발견할 때 마다 정정되어 누적되지 않고 이동을 계속할 수 있다. 특히, 본 발명은 천정의 무늬를 그대로 이용하기 때문에 기존의 제품들에서 필수적인 랜드마크나 엔코더등의 부가장치가 없이 정확한 위치를 측정할 수 있으므로, 가격 경쟁력이 매우 높은 기술로 판단된다. 대부분의 사무실은 본 발명을 적용시킬 수 있는 격자무늬를 가지고 있으므로, 본 발명은 사무실용 로봇에 유용하게 활용이 가능하다고 할 수 있다. The present invention is a technique for recognizing the position and direction of a robot even if the grid pattern shown in FIG. 1 is a ceiling pattern only. If the initial direction and position are given, the direction and position of the robot are gradually , And small errors occurring at this time are corrected each time the intersection of each ceiling pattern is found, and the movement can be continued without accumulation. Particularly, since the present invention utilizes the pattern of the ceiling as it is, it is possible to measure an accurate position without using an additional device such as a landmark or an encoder, which is essential in existing products. Since most offices have a lattice pattern to which the present invention can be applied, it can be said that the present invention is useful for office robots.
개발한 천정 무늬 인식 기반 로봇위치 및 방향인식 방법의 실시를 위해 실내 이동 로봇에 장착하여 심부름 기능을 수행시켰다. 로봇이 수행해야 할 임무는 In order to implement the recognition method of position and orientation based on the developed ceiling pattern recognition robot, it was installed in an indoor mobile robot to perform an errand function. The task the robot should perform is
a. 여러 사람들이 근무하는 사무실의 일정 위치에서, 한 사람이 커피를 제조한 후 배달할 사람을 임의로 지정하면, a. At a certain location in the office where several people work, if a person randomly designates a person to deliver after making the coffee,
b. 로봇은 장애물을 피해서 지정된 사람에게 커피를 배달하고, b. The robot will deliver coffee to the designated person avoiding obstacles,
c. 배달이 완료되면 원래의 커피 제조 위치로 돌아와서 다른 배달 명령을 기다리는 일 c. Once delivery is complete, return to the original coffee shop and wait for another delivery order
을 수행하는 것이다. .
이를 위해 도 10과 같은 소형 실내 로봇에 천정을 향해 카메라를 설치하고 도 4(a)와 같은 사무실 천정의 격자무늬를 인식하게 하였다. For this purpose, a small indoor robot as shown in Fig. 10 was installed with a camera toward the ceiling and recognized the grid pattern of the office ceiling as shown in Fig. 4 (a).
도 11은 위와 같은 시나리오를 수행하는 사무실의 집기 및 사람들의 배치를 보여 준다. 그림의 상단에 커피 를 제조하는 테이블이 있고, 위에서 1/3지점의 왼 쪽에 커피를 배달할 목적지 desk 1이 있다. 시나리오의 임무를 수행하기 위해서는 로봇이 커피 테이블 위치에서 커피를 싣고 출발하여 번, 번 경로를 따라 목적지인 desk1에 이른 후 벨을 울려서 커피 배달이 왔음을 알리고, desk1에 앉아 있는 사람이 커피를 가져가면, 로봇은 과 번 경로를 거쳐 커피 테이블에 돌아 오는 일이다. Figure 11 shows the layout of the office and the people performing the above scenario. At the top of the picture is a table for making coffee, with a
도 12는 로봇이 위와 같은 임무를 수행하는 과정을 차례대로 보여 준다. 도 12(a)에서와 같이 커피테이블에서 커피를 받아 싣고 출발한 로봇은 도 12(b),(c),(d) 영상에서 커브를 돌아서, 도 12(j),(k),(l) 영상에서 목적지에 커피를 배달하고, 도 12(n),(o),(p)와 같이 다시 커브를 돌아서, 도 12 (r)처럼 배달 임무를 완수한 로봇이 처음 커피 테이블 위치로 돌아와 있음을 보여 준다. Fig. 12 shows the process of the robot performing the above-mentioned tasks in order. As shown in FIG. 12 (a), the robot that receives and receives coffee from the coffee table rotates the curve in the images of FIGS. 12 (b), 12 (c), and 12 (B), (o), and (p), the robot returns to the position of the coffee table for the first time after completing the delivery mission as shown in FIG. 12 (r) .
본 발명을 상기와 같은 사무실용 커피 배달용 로봇에 실시한 결과, 로봇은 항상 정확한 길을 따라 목적지에 정확이 도달했으며, 심부름 임무를 훌륭히 완수하였다. 실시 결과는 위치에러가 2 cm이하였고, 방향에러는 2도 이하로서 위치와 방향 공히 정확한 계산을 할 수 있음을 확인하였다. As a result of implementing the present invention on an office coffee delivery robot as described above, the robot has always reached the destination precisely along the correct path and has accomplished the errand mission excellently. The results showed that the position error was less than 2 cm and the direction error was less than 2 degrees.
도 1은 반복되는 격자 무늬를 갖는 천정들을 예시한 그림이고;FIG. 1 is a view illustrating ceilings having repeated grid patterns; FIG.
도 2는 반복되는 천정무늬를 이용해서 로봇의 방향 및 위치를 결정하는 본 발명의 주 흐름도이고;FIG. 2 is a main flow chart of the present invention for determining the direction and position of a robot using a repeated ceiling pattern; FIG.
도 3은 검출된 직선을 이용하여 로봇의 방향을 결정하는 루틴의 흐름도이고;3 is a flowchart of a routine for determining the direction of the robot using the detected straight line;
도 4(a)는 일반적인 천정 무늬에서 직선 및 교차점에 대한 원점기준 좌표와 로봇좌표를 예시한 그림이고;FIG. 4 (a) is a diagram illustrating an origin-based coordinate and a robot coordinate for a straight line and an intersection point in a typical ceiling pattern;
도 4(b)는 원점 기준좌표계 (x-y)와 로봇기준 좌표계(x'-y')를 겹쳐서 보여주는 것이고;4 (b) shows the origin-based coordinate system (x-y) and the robot reference coordinate system (x'-y ') superimposed;
도 5는 영상에서 직선들의 교차점을 이용해서 로봇의 위치를 계산하는 루틴의 흐름도이고;5 is a flowchart of a routine for calculating the position of a robot using an intersection of straight lines in an image;
도 6은 도 5의 루틴에서 로봇의 실제 위치를 계산하는데 사용된 보조그림이고;Figure 6 is an auxiliary figure used to calculate the actual position of the robot in the routine of Figure 5;
도 7은 청구항 2 항에 있어서의 실제거리 상대위치 벡터로 변환방법을 기술 한 루틴이고;Fig. 7 is a routine describing a method of converting to an actual distance relative position vector according to
도 8직선이 발견되지 않는 영상의 경우, 영상프레임 간의 화소이동 벡터(optical flow)혹은 그 누적 벡터를 사용해서 로봇 방향을 예측하는 방법과, 직선이 발견되는 경우, 이 직선을 이용해서 누적 벡터로부터 예측한 로봇의 방향을 교정하는 방법을 보여주는 루틴이고;In the case of an image in which a straight line is not found, a method of predicting the robot direction by using a pixel motion vector (optical flow) between the image frames or an accumulated vector thereof, and a method of estimating the robot direction from a cumulative vector A routine showing a method of correcting the predicted direction of the robot;
도 9직선의 교차점이 발견되지 않는 영상의 경우, 영상프레임 간의 화소이동 벡터(optical flow) 혹은 그 누적 벡터를 사용해서 로봇 위치을 예측하는 방법과, 교차점이 발견되는 경우, 이 교차점을 이용해서 누벅벡터로부터 예측한 로봇 위치를 교정하는 방법을 보여주는 루틴이다. In the case of an image in which an intersection of straight lines is not found, a method of predicting a robot position by using a pixel motion vector or an accumulated vector between image frames, and a method of estimating a robot position using an intersection, And correcting the predicted robot position.
도 10는 본 발명을 사무실의 커피 배달용 로봇에 적용 실시하기 위한 이동로봇의 모습이고;10 is a view of a mobile robot for applying the present invention to a robot for delivering coffee in an office;
도 11은 사무실용 커피 심부름 기능을 수행시키기 위한 실내 실내의 도면이고;11 is a view of an indoor room for performing an office coffee errand function;
도 12은 로봇이 커피 배달 심부름 임무를 수행하는 장면을 보여준다. 여기서12 shows a scene in which the robot performs a coffee delivery errand mission. here
(a)는 커피테이블에서 커피를 받아 싣고 출발하는 장면이고, (j)(k)(l)는 목적지에 커피를 배달하고 있는 장면이고, (r)은 배달 임무를 완수한 로봇이 처음 커피 테이블 위치로 돌아와 있는 장면이다.(a) is a scene where coffee is taken from a coffee table, (j) (k) (l) is a scene where coffee is delivered to a destination, It is a scene that returns to the position.
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090067983A KR101153221B1 (en) | 2009-07-24 | 2009-07-24 | Computation of Robot Location and Orientation using Repeating Feature of Ceiling Textures and Optical Flow Vectors |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090067983A KR101153221B1 (en) | 2009-07-24 | 2009-07-24 | Computation of Robot Location and Orientation using Repeating Feature of Ceiling Textures and Optical Flow Vectors |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110010422A true KR20110010422A (en) | 2011-02-01 |
KR101153221B1 KR101153221B1 (en) | 2012-06-05 |
Family
ID=43770964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090067983A KR101153221B1 (en) | 2009-07-24 | 2009-07-24 | Computation of Robot Location and Orientation using Repeating Feature of Ceiling Textures and Optical Flow Vectors |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101153221B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101122303B1 (en) * | 2009-07-24 | 2012-03-21 | 삼성중공업 주식회사 | Calibration unit and working system having the same |
WO2013026872A1 (en) | 2011-08-24 | 2013-02-28 | Commissariat à l'énergie atomique et aux énergies alternatives | Method for locating an object using a reference grid |
US20150158176A1 (en) * | 2012-08-02 | 2015-06-11 | Fuji Machine Mfg. Co., Ltd. | Work machine provided with articulated robot and electric component mounting machine |
CN106020190A (en) * | 2016-05-26 | 2016-10-12 | 山东大学 | Track learning controller, control system and method with initial state error correction |
WO2019237434A1 (en) * | 2018-06-14 | 2019-12-19 | 深圳市沃特沃德股份有限公司 | Sweeping robot position calibration method and system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100564236B1 (en) | 2001-09-26 | 2006-03-29 | 현대중공업 주식회사 | Self-localization apparatus and method of mobile robot |
-
2009
- 2009-07-24 KR KR1020090067983A patent/KR101153221B1/en active IP Right Grant
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101122303B1 (en) * | 2009-07-24 | 2012-03-21 | 삼성중공업 주식회사 | Calibration unit and working system having the same |
WO2013026872A1 (en) | 2011-08-24 | 2013-02-28 | Commissariat à l'énergie atomique et aux énergies alternatives | Method for locating an object using a reference grid |
FR2979428A1 (en) * | 2011-08-24 | 2013-03-01 | Commissariat Energie Atomique | METHOD OF LOCATING AN OBJECT USING A REFERENCE GRID |
US9317774B2 (en) | 2011-08-24 | 2016-04-19 | Commissariat à l'énergie atomique et aux énergies alternatives | Method for locating an object using a reference grid |
US20150158176A1 (en) * | 2012-08-02 | 2015-06-11 | Fuji Machine Mfg. Co., Ltd. | Work machine provided with articulated robot and electric component mounting machine |
US10099365B2 (en) * | 2012-08-02 | 2018-10-16 | Fuji Corporation | Work machine provided with articulated robot and electric component mounting machine |
CN106020190A (en) * | 2016-05-26 | 2016-10-12 | 山东大学 | Track learning controller, control system and method with initial state error correction |
WO2019237434A1 (en) * | 2018-06-14 | 2019-12-19 | 深圳市沃特沃德股份有限公司 | Sweeping robot position calibration method and system |
Also Published As
Publication number | Publication date |
---|---|
KR101153221B1 (en) | 2012-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Winterhalter et al. | Accurate indoor localization for RGB-D smartphones and tablets given 2D floor plans | |
US8588471B2 (en) | Method and device of mapping and localization method using the same | |
US9990726B2 (en) | Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image | |
Acharya et al. | BIM-Tracker: A model-based visual tracking approach for indoor localisation using a 3D building model | |
KR101665386B1 (en) | Method and apparatus for estimating position in a mobile robot | |
US9213908B2 (en) | Method for registering at least one part of a first and second image using a collineation warping function | |
Nair et al. | Moving obstacle detection from a navigating robot | |
KR101153221B1 (en) | Computation of Robot Location and Orientation using Repeating Feature of Ceiling Textures and Optical Flow Vectors | |
Lim et al. | Real-time single camera SLAM using fiducial markers | |
US10552981B2 (en) | Depth camera 3D pose estimation using 3D CAD models | |
JP2017106959A (en) | Projection device, projection method, and computer program for projection | |
KR20220054582A (en) | Visual positioning method and related apparatus, device and computer readable storage medium | |
JP2006349607A (en) | Distance measuring device | |
Dani et al. | Image moments for higher-level feature based navigation | |
Oe et al. | Estimating camera position and posture by using feature landmark database | |
CN108180913A (en) | A kind of Quick Response Code alignment system based on 3D cameras | |
Hsu et al. | Application of multisensor fusion to develop a personal location and 3D mapping system | |
JP2018173882A (en) | Information processing device, method, and program | |
Jang et al. | Metric localization using a single artificial landmark for indoor mobile robots | |
CN110728684A (en) | Map construction method and device, storage medium and electronic equipment | |
JP2021103168A (en) | Augmented reality device and positioning method | |
CN109186594A (en) | The method for obtaining exercise data using inertial sensor and depth camera sensor | |
Hasler et al. | Implementation and first evaluation of an indoor mapping application using smartphones and AR frameworks | |
KR20130022918A (en) | Cleaning robot navigationg method using the repeating image patterns of working environment | |
Marhic et al. | Localisation based on invariant-models recognition by SYCLOP |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150511 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160517 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170515 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180418 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190422 Year of fee payment: 8 |