KR20110010422A - Computation of robot location and orientation using repeating feature of ceiling textures and optical flow vectors - Google Patents

Computation of robot location and orientation using repeating feature of ceiling textures and optical flow vectors Download PDF

Info

Publication number
KR20110010422A
KR20110010422A KR1020090067983A KR20090067983A KR20110010422A KR 20110010422 A KR20110010422 A KR 20110010422A KR 1020090067983 A KR1020090067983 A KR 1020090067983A KR 20090067983 A KR20090067983 A KR 20090067983A KR 20110010422 A KR20110010422 A KR 20110010422A
Authority
KR
South Korea
Prior art keywords
robot
image
vector
intersection
ceiling
Prior art date
Application number
KR1020090067983A
Other languages
Korean (ko)
Other versions
KR101153221B1 (en
Inventor
김형석
양창주
진홍신
Original Assignee
전북대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전북대학교산학협력단 filed Critical 전북대학교산학협력단
Priority to KR1020090067983A priority Critical patent/KR101153221B1/en
Publication of KR20110010422A publication Critical patent/KR20110010422A/en
Application granted granted Critical
Publication of KR101153221B1 publication Critical patent/KR101153221B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Abstract

PURPOSE: A method for computing location and orientation of a robot by using repeated patterns of the ceiling and optical flow vectors is provided to reduce error accumulated on the location or direction information using the straight line or intersecting points of lattice-shaped repeated patterns. CONSTITUTION: A method for computing location and orientation of a robot by using repeated patterns of the ceiling and optical flow vectors comprises following steps. If initial direction and location are set, the location and direction of the robot is gradually calculated through the recognition of straight lines and latticed points. Every time the robot finds out each intersecting point of patterns of the ceiling, small errors are corrected and not accumulated, so the robot can continuously move.

Description

천정의 반복 무늬와 화소이동벡터를 이용한 로봇의 위치 및 방향 계산 { Computation of Robot Location and Orientation using Repeating Feature of Ceiling Textures and Optical Flow Vectors }BACKGROUND OF THE INVENTION Field of the Invention [0001] The present invention relates to a method and apparatus for calculating a position and a direction of a robot using a repeating pattern of a ceiling and a pixel motion vector,

천정의 격자형 반복 무늬를 사용하면, 직선이나 교차점들을 활용해서 위치나 방향정보에 누적되는 에러를 줄일 수 있으며, 직선이나 교차점등이 검출되지 않는 영상 프레임에서는 화소 간의 이동 벡터인 Optical Flow 벡터들을 영상 프레임마다 누적한 합 벡터의 값을 활용함으로써 위치정보를 예측할 수 있다. 본 발명은 천장의 반복 무늬만을 활용해서 로봇의 위치와 방향을 알아내는 효과적인 방법에 관한 것이다.In the case of an image frame in which no straight line or intersection point is detected, Optical Flow Vectors, which are motion vectors between pixels, are displayed on the image The position information can be predicted by utilizing the value of the sum vector accumulated for each frame. The present invention relates to an effective method of finding out the position and direction of a robot by utilizing only a repeating pattern of a ceiling.

이동로봇의 위치계산을 위해서 과거에는 로봇의 초기 위치를 기준으로 계산하는 dead reckoning 방법이 많이 사용되었다. 이 방법은 간단하지만, 바퀴가 미끄러짐으로 인해서 생기는 에러가 누적된다는 문제가 있었다. 이 문제점을 극복하기 이해서, 초음파 센서도 많이 사용되었다. 이 방법은 초음파가 물체까지의 비행시간 (time-of-flight (TOF))을 계산하여 거리를 측정하는 방법인데, 정확성이 크지 않으며 환경의 영향을 많이 받는다. In order to calculate the position of the mobile robot, a dead reckoning method has been used in the past to calculate the position based on the initial position of the robot. Although this method is simple, there has been a problem that errors caused by sliding of the wheels are accumulated. In order to overcome this problem, many ultrasonic sensors have been used. This method is a method of measuring the distance by calculating the time-of-flight (TOF) of the ultrasound to the object, which is not very accurate and is highly influenced by the environment.

최근에는 랜드마크를 사용하는 방법이 많이 연구되고 있다. 이에 대한 방법 중의 하나는 RFID (Radio기술을 이용하는 것인데, RFID tags를 작업환경에 다수 배치한 후, RFID reader를 장착한 로봇이 움직이면서 RFID tag 위치를 알아내는 방법에 의해 로봇의 위치를 계산하는 방법이다. 여기서 각 RFID tag 는 각 각 자신의 위치를 가지고 있기 때문에 로봇의 위치를 알아내는 데 활용할 수 있다. 또, 다른 방법은 시각적인 랜드마크를 사용하는 방법이다. 비젼센서는 랜드마크의 특징을 인식하여 로봇의 위치를 계산하는 것이다. 이를 위해서 특수한 모양으로 제작된 랜드마크를 제작해서 사용한다. 랜드 마크를 이용하는 방법 중 효과적인 방법은 랜드마크를 천정에 부착하는 방법이다. 랜드 마크가 약속된 코드들 표현하게 하고, 작은 크기의 랜드 마크에 많은 코드 정보를 포함시키기 위해서 개발된 칼라기반 천정 부착 랜드 마크 방법이다. 이 방법에서는 각 랜드 마크가 고유한 상대적인 위치를 표현하게 하여 로봇은 랜드마크의 상대적 위치를 누적시키는 방법으로 위치를 계산하는 것이다. 이 방법은 사용되지 않는 천정에 랜드마크를 부착하여 공간의 활용도를 높인다는 장점은 있지만, 천정에 랜드 마크을 부착해야 하는 노력과 미관을 해친다는 문제점이 있다. Recently, many methods of using landmarks have been studied. One of the methods for this is to use RFID technology to locate the robot by locating RFID tags in the work environment and then locating the RFID tags while the robot equipped with the RFID reader moves The RFID tag can be used to locate the robot because each RFID tag has its own position, and another method is to use a visual landmark. A landmark is a method of attaching a landmark to a ceiling, and an effective method of using the landmark is to attach the landmark to the ceiling. Color-based ceiling land developed to include a large amount of code information in small-sized landmarks. In this method, the robot calculates the position by accumulating the relative positions of the landmarks, allowing each landmark to express its own relative position. This method involves attaching a landmark to an unused ceiling There is an advantage to increase the utilization of space, but there is a problem that the efforts to attach the landmark to the ceiling and the aesthetics are damaged.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 본 발명은 천장에 랜드 마크를 부착하지 않고, 천장의 반복 무늬만을 활용해서 로봇의 방향과 위치를 알아내는 새롭고 효과적인 방법이다. 격자형 반복 무늬를 사용하면, 직선이나 교차점들을 활용해서 위치나 방향정보에 누적되는 에러를 줄일 수 있으며, 직선이나 교차점등이 검출되지 않는 영상 프레임에서는 화소 간의 이동 벡터인 Optical Flow 벡터들을 영상 프레임마다 누적한 합 벡터를 활용함으로써 위치정보를 예측할 수 있다. 본 발명은 이와 같은 목표를 달성하기 위한 기술에 관한 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is a new and effective method for determining the direction and position of a robot by utilizing only ceiling repeated patterns without attaching landmarks to the ceiling. In the case of an image frame in which a straight line or an intersection point is not detected, Optical Flow Vectors, which are motion vectors between pixels, are used for each image frame The location information can be predicted by utilizing the accumulated sum vector. The present invention relates to a technique for achieving such a target.

본 발명에서는 상기와 같은 과제를 해결하기 위해서 도 1과 같이 격자 무늬가 있는 천정의 특징을 이용하여, 랜드마크와 같은 부수적인 장치 없이 영상만으로도 로봇의 위치 및 방향을 인식하게 하고자 하는 것이다. 이를 위해서는 이동 로봇의 중심에 천정을 향하여 카메라를 설치하여 천정의 연속적인 디지털 영상을 얻을 수 있게 한다.In order to solve the above-described problems, the present invention aims at recognizing the position and direction of a robot by using only a video image without a side device such as a landmark by using the feature of a ceiling with a grid pattern as shown in Fig. To do this, a camera is installed facing the ceiling at the center of the mobile robot to obtain a continuous digital image of the ceiling.

본 발명의 구성은 도 2와 같이 영상의 직선으로부터 방향을 검출하며, 교차점으로부터 위치를 인식한다. 만약, 영상에 직선이나 교차점이 검출되지 않는 경우에는 영상프레임 간의 이동벡터를 활용해서 로봇의 방향과 위치를 예측한다. 보다 자세하게는 본 발명에서의 로봇의 방향은 영상으로부터 검출된 직선과 로봇 사이의 각도를 이용하여 계산하고, 로봇의 위치는 반복되는 직선의 교차점이 작업장의 원 점으로 부터의 반복회수와 교차점으로부터 로봇 중심까지의 백터를 이용하여 계산한다. 직선이나 교차점등이 검출되지 않는 영상 프레임에서는 화소 간의 이동 벡터인 Optical Flow 벡터들을 영상 프레임마다 누적한 합 벡터의 부의 값을 이전의 영상 방향이나 위치에 더하여 사용한다. 그러다, 영상에서 직선이나 교차점들이 검출되면, 검출된 직선이나 교차점 정보에 의해 로봇의 방향과 위치 정보를 교정함으로써 에러가 누적되는 것을 피한다. The configuration of the present invention detects the direction from the straight line of the image and recognizes the position from the intersection as shown in Fig. If a straight line or an intersection is not detected in the image, the direction and position of the robot are predicted using the motion vector between the image frames. More specifically, the direction of the robot in the present invention is calculated by using the angle between the straight line detected from the image and the robot, and the position of the robot is determined based on the number of repetitions from the origin point of the work site and the intersection point, Calculate using the vector up to the center. In an image frame in which no straight line or intersection point is detected, the negative value of the sum vector of the accumulated optical flow vectors, which are motion vectors between pixels, for each image frame is added to the previous image direction or position. Then, when straight lines or intersections are detected in the image, correcting the direction and position information of the robot by the detected straight line or crossing point information avoids accumulation of errors.

이를 위해서 이동 로봇의 중심에 천정을 향하여 카메라를 설치하여 격자형 천정 무늬 중 반복되는 직선 성분들에 대해 로봇 작업장의 원점을 기준으로 각도 집합을 구하여 준비하고, 격자형 천정 무늬에서의 모든 교차점에 대한 위치 집합을 준비한다. For this purpose, a camera is installed toward the ceiling at the center of the mobile robot, and an angle set is prepared based on the origin of the robot work site for the repeated linear components of the grid-like ceiling pattern, Prepare a location set.

로봇의 방향 인식Direction recognition of robot

이동 중인 로봇의 방향은도 3에서와 같이 영상에서 직선을 검출하여 이 직선과 로봇의 현재 방향 간의 각도를 계산 한 후, 미리 준비한 작업장의 원점 기준 직선들에 대한 개별 각도에 더하여 이들 중, 이 전 영상에서의 로봇 방향과 가장 가까운 방향을 현재의 로봇 각도로 결정한다. As shown in FIG. 3, the direction of the moving robot is such that an angle between the straight line and the current direction of the robot is calculated and then added to the individual angles of the reference straight lines of the workplace prepared in advance, The direction closest to the direction of the robot in the image is determined as the current robot angle.

격자무늬의 천장 영상에는 평행하거나 교차하는 2 방향의 직선이 존재한다. 도 4(a)에서와 같이 실제 공간의 원점을 기준으로 x 축에 평행한 직선의 방향을 -

Figure 112009045496472-PAT00001
이고, y 축에 평행한 직선이 방향을 0로 정의한다. 이렇게 하면, -x 축에 평행한 방향은
Figure 112009045496472-PAT00002
/2이고, -y축에 평행한 방향은
Figure 112009045496472-PAT00003
가 되는 것이다. There are two parallel straight lines intersecting the ceiling image of the grid pattern. As shown in FIG. 4 (a), the direction of a straight line parallel to the x-axis with respect to the origin of the actual space is represented by -
Figure 112009045496472-PAT00001
, And a straight line parallel to the y-axis defines the direction as zero. In this way, the direction parallel to the -x axis is
Figure 112009045496472-PAT00002
/ 2, and the direction parallel to the -y axis is
Figure 112009045496472-PAT00003
.

도 4(b)와 같은 공간 좌표 계에서는 각 직선의 방향은

Figure 112009045496472-PAT00004
와 같은 4 개의 방향을 갖게 된다. 또, 영상 좌표 계에서는 로봇과 카메라 시스템의 배치상, 영상의 윗 쪽 방향을 로봇의 전면 방향으로서, y'로 정의하고, y 축과의 사이 각을
Figure 112009045496472-PAT00005
라 하자. 한 개의 직선을 구해서 그 직선 로봇의 앞면과의 각도인
Figure 112009045496472-PAT00006
를 구했다고 하면 실제의 로봇의 방향은
Figure 112009045496472-PAT00007
중의 하나가 된다.In the spatial coordinate system shown in Fig. 4 (b), the direction of each straight line is
Figure 112009045496472-PAT00004
As shown in FIG. In the image coordinate system, the position of the robot and the camera system and the direction of the upper side of the image are defined as y 'as the front direction of the robot, and the angle between the y-
Figure 112009045496472-PAT00005
Let's say. One straight line is obtained and the angle between the straight line and the front surface of the linear robot
Figure 112009045496472-PAT00006
, The direction of the actual robot is
Figure 112009045496472-PAT00007
.

즉, 영상의 상하를 연결하는 수직선과 가장 가까운 직선을 우선 구하고, 이 수직선과 직선이 이루는 각도를

Figure 112009045496472-PAT00008
라고 한다. 그런데, 영상에서 구한 직선은 원점을 기준으로 0도 방향,
Figure 112009045496472-PAT00009
,
Figure 112009045496472-PAT00010
혹은 -
Figure 112009045496472-PAT00011
중 어느 직선과
Figure 112009045496472-PAT00012
인지를 구별해야 한다. In other words, a straight line closest to the vertical line connecting the top and bottom of the image is first obtained, and the angle formed by the vertical line and the straight line is
Figure 112009045496472-PAT00008
. However, the straight line obtained from the image is oriented at 0 degree with respect to the origin,
Figure 112009045496472-PAT00009
,
Figure 112009045496472-PAT00010
or -
Figure 112009045496472-PAT00011
Which of the straight lines
Figure 112009045496472-PAT00012
It should be distinguished.

만약 로봇의 회전 속도가 충분히 낮다고 가정하면, 즉, 로봇의 방향 변화가 매우 작다면, 현재의 로봇의 현재 방향의 가장 최근에 포착한 영상의 방향과 유사한 방향이 될 것이다. 이 방향을

Figure 112009045496472-PAT00013
로 한다면, 현재의 방향은
Figure 112009045496472-PAT00014
Figure 112009045496472-PAT00015
에 가까운 값이다. Assuming that the rotation speed of the robot is sufficiently low, that is, if the change in the direction of the robot is very small, the direction will be similar to the direction of the most recent captured image in the current direction of the current robot. This direction
Figure 112009045496472-PAT00013
, The current direction is
Figure 112009045496472-PAT00014
medium
Figure 112009045496472-PAT00015
.

이를 위해서,

Figure 112009045496472-PAT00016
를 현재의 방향이라고 하면,for this,
Figure 112009045496472-PAT00016
Is the current direction,

수학식 1Equation 1

Figure 112009045496472-PAT00017
Figure 112009045496472-PAT00017

이 되는 것이다. .

그런데, 초기의 방향을 매우 정확하게 계산할 필요는 없고, 대충의 방향만 알면, 그것을 이용해서

Figure 112009045496472-PAT00018
중 어느 각도에 가까운지 결정만 하면 되는 것이기 때문이다. 따라서, 이 에러는 누적이 되지 않는다는 큰 장점이 있다. 다음 절에서는 허용되는 에러의 범위를 계산한다. However, it is not necessary to calculate the initial direction very accurately, and if only the rough direction is known,
Figure 112009045496472-PAT00018
It is only necessary to determine which angle is close to the angle. Therefore, there is a great advantage that this error does not accumulate. The next section calculates the range of allowed errors.

로봇 위치 인식 Robot position recognition

로봇의 위치를 계산하기 위해서는 도 5와 같이 작업장의 교차점들의 위치 집합 중, 로봇의 이전 위치 점을 중심으로 그 주변의 교차점 들의 위치 좌표들을 취한다. 또, 현재의 영상에서 가장 뚜렷한 교차점을 선택하여 영상 중심의 위치를 상기 교차점에 대한 상대 벡터로 표현하고 이를 기준 원점의 좌표로 회전 변환한 후, 이전 영상에서의 로봇 위치와 가장 가까운 위치를 실제 로봇 위치로 결정한다. In order to calculate the position of the robot, as shown in FIG. 5, the position coordinates of the intersections around the previous position point of the robot are taken among the positions of the intersections of the workplace. The position of the center of the image is represented as a relative vector to the intersection by selecting the most distinct intersection point in the current image, and the rotation is converted into the coordinates of the reference origin. Then, Position.

도 4에서 보는 바와 같이 대상으로 하는 천정 무늬에는 두 개의 직선이 교차하여 만드는 많은 교차점들이 있다. 천정무늬의 두 인접 교차점 간 거리를 d 라고 하자. 따라서, 이 교차점의 위치들은 알 수 있고, 좌표 축이 정의된다면, 교차점들의 위치를 계산할 수 있다. As shown in Fig. 4, there are many intersections formed by intersection of two straight lines in the target ceiling pattern. Let d be the distance between two adjacent intersections of the ceiling pattern. Thus, the positions of these intersections can be known and, if a coordinate axis is defined, the positions of the intersections can be calculated.

만약, 이 교차점으로부터 영상의 중앙까지의 거리를 계산하면 로봇의 현재의 위치도 계산할 수 있다. If the distance from this intersection to the center of the image is calculated, the current position of the robot can also be calculated.

이전 프레임의 영상에서 인식된 교차점의 실제 위치를

Figure 112009045496472-PAT00019
라고 할 때, 현재 영상 프레임에서의 교차점의 실제 위치는 다음과 같은 점 중의 하나이다.The actual position of the intersection recognized in the image of the previous frame is
Figure 112009045496472-PAT00019
, The actual position of the intersection point in the current image frame is one of the following points.

수학식 2Equation 2

Figure 112009045496472-PAT00020
.
Figure 112009045496472-PAT00020
.

여기서

Figure 112009045496472-PAT00021
Figure 112009045496472-PAT00022
는 x 축과 y축 간의 거리이다. here
Figure 112009045496472-PAT00021
and
Figure 112009045496472-PAT00022
Is the distance between the x and y axes.

로봇의 위치는 상기와 같은 방법을 사용하여 교차점의 위치를 계산한 후, 도 6을 이용하여 구할 수 있다. 즉, 로봇의 위치는 영상의 중심점의 위치와 같으므로 이를 C라하고, 검출된 교차점의 위치 점을 A, B를 인접위치의 교차점이라고 하면, 벡터

Figure 112009045496472-PAT00023
의 방향은 로봇의 방향과 같다. The position of the robot can be obtained by calculating the position of the intersection using the method as described above and referring to FIG. That is, since the position of the robot is the same as the position of the center point of the image, this is C, and if the detected point of intersection is A and B is the intersection point of the adjacent position,
Figure 112009045496472-PAT00023
The direction of the robot is the same as that of the robot.

현재의 로봇 방향은

Figure 112009045496472-PAT00024
로 계산되어 있으므로, 각
Figure 112009045496472-PAT00025
=
Figure 112009045496472-PAT00026
.를 계산할 수 있다. 만약, 영상 평면과 천정평면의 크기비율 관계를 이용하면, 실제위치점 A로부터 C =
Figure 112009045496472-PAT00027
점의 위치는 수학식 3과 같이 계산 할 수 있다. The current robot direction
Figure 112009045496472-PAT00024
Respectively,
Figure 112009045496472-PAT00025
=
Figure 112009045496472-PAT00026
Can be calculated. If the magnitude ratio relationship between the image plane and the ceiling plane is used,
Figure 112009045496472-PAT00027
The position of the point can be calculated as shown in Equation (3).

수학식 3Equation 3

Figure 112009045496472-PAT00028
Figure 112009045496472-PAT00028

Figure 112009045496472-PAT00029
은 9개의 후보 점을 가질 수 있으므로,
Figure 112009045496472-PAT00030
a점 역시 9 점을 갖는다. 이와 같은 변환의 절차는 도 7의 실제거리 상대위치 벡터로 변환방법에서 을 기술하고 있다. point
Figure 112009045496472-PAT00029
Can have nine candidate points,
Figure 112009045496472-PAT00030
The a point also has 9 points. Such a conversion procedure is described in the conversion method to the actual distance relative position vector in FIG.

그런데, 로봇의 속도는 빠르지 않으므로,

Figure 112009045496472-PAT00031
점은
Figure 112009045496472-PAT00032
점에 가까이 위치하게 된다. 따라서 로봇의 현재 위치 점은However, since the speed of the robot is not fast,
Figure 112009045496472-PAT00031
The point is
Figure 112009045496472-PAT00032
It is located close to the point. Therefore, the current position point of the robot is

수학식 4Equation 4

Figure 112009045496472-PAT00033
Figure 112009045496472-PAT00033

로 계산되고,Lt; / RTI >

수학식 5Equation 5

Figure 112009045496472-PAT00034
Figure 112009045496472-PAT00034

로서 로봇의 위치점을 구할 수 있다.

Figure 112009045496472-PAT00035
Figure 112009045496472-PAT00036
는 {-1, 0, 1} 중에서 수학식 5식이 최소 값을 갖는 값이다. 수학식 2에 의하면, 현재의 화면상에 나타나는 교차점
Figure 112009045496472-PAT00037
의 위치도 구할 수 있다. The position point of the robot can be obtained.
Figure 112009045496472-PAT00035
Wow
Figure 112009045496472-PAT00036
Is a value having the minimum value of the expression (5) in {-1, 0, 1}. According to Equation (2), the intersection point
Figure 112009045496472-PAT00037
Can also be found.

결론적으로 알고 있는 교차점

Figure 112009045496472-PAT00038
과 이전 프레임에서의 로봇 위치점
Figure 112009045496472-PAT00039
를 알면, 로봇의 현재 위치과 현 영상에 나타나는 교차점의 위치는 수학식 5 및 수학식 2를 이용하면 계산할 수 있다. 따라서, 로봇의 초기 위치가 주어지면, 수학식 2에 의해, 로봇의 위치를 점차적으로 계산할 수 있는 것이며, 식 수학식 5를 이용하므로,
Figure 112009045496472-PAT00040
점에 대한 에러가 누적되지 않는다는 중요한 특징이 있다. In conclusion,
Figure 112009045496472-PAT00038
And the robot position point in the previous frame
Figure 112009045496472-PAT00039
The current position of the robot and the position of the intersection point appearing in the current image can be calculated using Equation (5) and Equation (2). Therefore, given the initial position of the robot, the position of the robot can be gradually calculated using Equation (2), and since Equation (5) is used,
Figure 112009045496472-PAT00040
There is an important feature that errors for points are not accumulated.

Optical Flow의 벡터를 이용한 로봇 방향 및 위치 보완Complementing robot direction and position using vector of optical flow

만약, 직선이나 교차점들이 하나도 검출되지 않는 영상의 경우에는 도 8혹은 도 9과 같이 화소 간의 이동 벡터 (Optical Flow)를 계산하고, 직선이나 교차점이 없는 영상이 계속되면 이 이동벡터들 간의 합 벡타를 구하여 로봇의 방향과 위치를 예측하여 사용하며, 직선이나 교차점이 검출되는 영상을 얻으면, 예측하여 사용한 로봇의 방향과 위치를 예측한다.In the case of an image in which no straight line or intersection points are detected, an optical flow between pixels is calculated as shown in FIG. 8 or FIG. 9. If a straight line or an image without an intersection continues, a sum vector between the motion vectors is calculated The direction and the position of the robot are predicted and used. When the robot obtains an image in which a straight line or an intersection is detected, the predicted direction and position of the used robot are predicted.

Optical Flow란 인접한 영상 프레임 사이의 화소의 움직임 벡터로서 로봇이 이동하면, 로봇과 반대 방향으로 화소가 이동한다. 이 때, 많은 영상의 화소들의 이동 벡터는 약간 다를 수 있으므로, 영상프레임 간의 대표적인 이동벡터를 사용한다.

Figure 112009045496472-PAT00041
을 영상 m과 n프레임 간의 대표 이동벡터라고 하자. m번째 프레임으로부터 k개의 영상프레임의 Optical Flow가 누적되는 경우, 누적된 optical flow,
Figure 112009045496472-PAT00042
는 When the robot moves as a motion vector of a pixel between adjacent image frames, the optical flow moves in a direction opposite to the robot. At this time, since the motion vectors of pixels of many images may be slightly different, a typical motion vector between image frames is used.
Figure 112009045496472-PAT00041
Let be a representative motion vector between m and n frames. When the optical flows of k image frames from the m-th frame are accumulated, accumulated optical flow,
Figure 112009045496472-PAT00042
The

수학식 6Equation 6

=

Figure 112009045496472-PAT00043
=
Figure 112009045496472-PAT00044
+
Figure 112009045496472-PAT00045
+++...+
Figure 112009045496472-PAT00046
=
Figure 112009045496472-PAT00043
=
Figure 112009045496472-PAT00044
+
Figure 112009045496472-PAT00045
+++ ... +
Figure 112009045496472-PAT00046

로 계산할 수 있다. .

따라서, 시점 m에서의 로봇의 방향 각이 원점을 기준으로

Figure 112009045496472-PAT00047
이었다면, k프레임 후의 각도는
Figure 112009045496472-PAT00048
는 Therefore, when the direction angle of the robot at the time point m is based on the origin
Figure 112009045496472-PAT00047
, Then the angle after k frames is
Figure 112009045496472-PAT00048
The

수학식 7Equation 7

Figure 112009045496472-PAT00049
=
Figure 112009045496472-PAT00050
-
Figure 112009045496472-PAT00051
Figure 112009045496472-PAT00049
=
Figure 112009045496472-PAT00050
-
Figure 112009045496472-PAT00051

와 같이 부의 값을 더하여 구한다.As shown in Fig.

만약 영상 중, 직선을 가진 영상을 얻으면 직선을 기준으로 로봇의 각도를 구하고 상기 로봇 방향 구하는 방법처럼 상기 직선으로부터 구한 각도를 방향 각도 후보 집합 내의 개별 직선 각도에 더하여 방향 각도 후보 집합 내의 각 각도와 상기 이동 벡터의 합에 의해 구한 로봇 방향과 가장 차이가 적은 상기 복수의 로봇 방향 후보의 방향을 현재의 로봇 방향으로 결정한다. If an image having a straight line is obtained from the image, the angle of the robot is obtained on the basis of the straight line, and the angle obtained from the straight line is added to the individual straight line angles in the direction angle candidate set, The direction of the plurality of robot direction candidates having the smallest difference from the robot direction determined by the sum of the motion vectors is determined as the current robot direction.

또, 영상에 교차점이 존재하지 않는 경우 도 9과 같이 상기 수학식 수학식 6처럼 optical flow의 벡터를 누적하여 이동벡터의 합을 구하고, 교차점을 가진 영 상에서 구한 로봇의 위치에 이동벡터의 합의 부의 값을 더하여 로봇 예측 위치를 구한다. If there is no intersection in the image, the sum of the motion vectors is obtained by accumulating the vectors of the optical flow as shown in Equation (6) as shown in FIG. 9, and the sum of the motion vectors is added to the position of the robot obtained by zero- And the robot predicted position is obtained.

만약, 영상에서 교차점(들) 이 검출되면 상기 로봇 위치 인식 방법처럼 로봇 실제 위치에 대한 후보 집합을 구하고 상기 로봇실제 위치에 대한 후보 집합으로부터 상기 로봇 예측위치와의 거리가 가장 가까운 위치 점을 현재의 로봇 위치로 수정한다. If the intersection point (s) is detected in the image, a candidate set for the robot actual position is obtained as in the robot position recognition method, and a position point closest to the robot predicted position from the candidate set for the robot actual position is determined as the current Correct the robot position.

본 발명은 도 1과 같은 격자무늬가 천정의 무늬만으로도 로봇의 위치 및 방향을 인식하는 기술로서 초기의 방향과 위치가 주어지는 경우, 천정에 있는 직선과 격자점 인식을 통해서 로봇의 방향과 위치를 점차적으로 계산할 수 있으며, 이 때 발생하는 작은 에러들은 각 천정무늬의 교차점을 발견할 때 마다 정정되어 누적되지 않고 이동을 계속할 수 있다. 특히, 본 발명은 천정의 무늬를 그대로 이용하기 때문에 기존의 제품들에서 필수적인 랜드마크나 엔코더등의 부가장치가 없이 정확한 위치를 측정할 수 있으므로, 가격 경쟁력이 매우 높은 기술로 판단된다. 대부분의 사무실은 본 발명을 적용시킬 수 있는 격자무늬를 가지고 있으므로, 본 발명은 사무실용 로봇에 유용하게 활용이 가능하다고 할 수 있다. The present invention is a technique for recognizing the position and direction of a robot even if the grid pattern shown in FIG. 1 is a ceiling pattern only. If the initial direction and position are given, the direction and position of the robot are gradually , And small errors occurring at this time are corrected each time the intersection of each ceiling pattern is found, and the movement can be continued without accumulation. Particularly, since the present invention utilizes the pattern of the ceiling as it is, it is possible to measure an accurate position without using an additional device such as a landmark or an encoder, which is essential in existing products. Since most offices have a lattice pattern to which the present invention can be applied, it can be said that the present invention is useful for office robots.

개발한 천정 무늬 인식 기반 로봇위치 및 방향인식 방법의 실시를 위해 실내 이동 로봇에 장착하여 심부름 기능을 수행시켰다. 로봇이 수행해야 할 임무는 In order to implement the recognition method of position and orientation based on the developed ceiling pattern recognition robot, it was installed in an indoor mobile robot to perform an errand function. The task the robot should perform is

a. 여러 사람들이 근무하는 사무실의 일정 위치에서, 한 사람이 커피를 제조한 후 배달할 사람을 임의로 지정하면, a. At a certain location in the office where several people work, if a person randomly designates a person to deliver after making the coffee,

b. 로봇은 장애물을 피해서 지정된 사람에게 커피를 배달하고, b. The robot will deliver coffee to the designated person avoiding obstacles,

c. 배달이 완료되면 원래의 커피 제조 위치로 돌아와서 다른 배달 명령을 기다리는 일 c. Once delivery is complete, return to the original coffee shop and wait for another delivery order

을 수행하는 것이다. .

이를 위해 도 10과 같은 소형 실내 로봇에 천정을 향해 카메라를 설치하고 도 4(a)와 같은 사무실 천정의 격자무늬를 인식하게 하였다. For this purpose, a small indoor robot as shown in Fig. 10 was installed with a camera toward the ceiling and recognized the grid pattern of the office ceiling as shown in Fig. 4 (a).

도 11은 위와 같은 시나리오를 수행하는 사무실의 집기 및 사람들의 배치를 보여 준다. 그림의 상단에 커피 를 제조하는 테이블이 있고, 위에서 1/3지점의 왼 쪽에 커피를 배달할 목적지 desk 1이 있다. 시나리오의 임무를 수행하기 위해서는 로봇이 커피 테이블 위치에서 커피를 싣고 출발하여 번, 번 경로를 따라 목적지인 desk1에 이른 후 벨을 울려서 커피 배달이 왔음을 알리고, desk1에 앉아 있는 사람이 커피를 가져가면, 로봇은 과 번 경로를 거쳐 커피 테이블에 돌아 오는 일이다. Figure 11 shows the layout of the office and the people performing the above scenario. At the top of the picture is a table for making coffee, with a destination desk 1 for delivering coffee to the left of the first third. In order to carry out the task of the scenario, the robot loads coffee from the coffee table position, arrives at the destination desk1 along the first and second path, and then rings the bell to notify that the coffee delivery has arrived and when the person sitting on the desk 1 takes the coffee , The robot is going back to the coffee table via the overpass.

도 12는 로봇이 위와 같은 임무를 수행하는 과정을 차례대로 보여 준다. 도 12(a)에서와 같이 커피테이블에서 커피를 받아 싣고 출발한 로봇은 도 12(b),(c),(d) 영상에서 커브를 돌아서, 도 12(j),(k),(l) 영상에서 목적지에 커피를 배달하고, 도 12(n),(o),(p)와 같이 다시 커브를 돌아서, 도 12 (r)처럼 배달 임무를 완수한 로봇이 처음 커피 테이블 위치로 돌아와 있음을 보여 준다. Fig. 12 shows the process of the robot performing the above-mentioned tasks in order. As shown in FIG. 12 (a), the robot that receives and receives coffee from the coffee table rotates the curve in the images of FIGS. 12 (b), 12 (c), and 12 (B), (o), and (p), the robot returns to the position of the coffee table for the first time after completing the delivery mission as shown in FIG. 12 (r) .

본 발명을 상기와 같은 사무실용 커피 배달용 로봇에 실시한 결과, 로봇은 항상 정확한 길을 따라 목적지에 정확이 도달했으며, 심부름 임무를 훌륭히 완수하였다. 실시 결과는 위치에러가 2 cm이하였고, 방향에러는 2도 이하로서 위치와 방향 공히 정확한 계산을 할 수 있음을 확인하였다. As a result of implementing the present invention on an office coffee delivery robot as described above, the robot has always reached the destination precisely along the correct path and has accomplished the errand mission excellently. The results showed that the position error was less than 2 cm and the direction error was less than 2 degrees.

도 1은 반복되는 격자 무늬를 갖는 천정들을 예시한 그림이고;FIG. 1 is a view illustrating ceilings having repeated grid patterns; FIG.

도 2는 반복되는 천정무늬를 이용해서 로봇의 방향 및 위치를 결정하는 본 발명의 주 흐름도이고;FIG. 2 is a main flow chart of the present invention for determining the direction and position of a robot using a repeated ceiling pattern; FIG.

도 3은 검출된 직선을 이용하여 로봇의 방향을 결정하는 루틴의 흐름도이고;3 is a flowchart of a routine for determining the direction of the robot using the detected straight line;

도 4(a)는 일반적인 천정 무늬에서 직선 및 교차점에 대한 원점기준 좌표와 로봇좌표를 예시한 그림이고;FIG. 4 (a) is a diagram illustrating an origin-based coordinate and a robot coordinate for a straight line and an intersection point in a typical ceiling pattern;

도 4(b)는 원점 기준좌표계 (x-y)와 로봇기준 좌표계(x'-y')를 겹쳐서 보여주는 것이고;4 (b) shows the origin-based coordinate system (x-y) and the robot reference coordinate system (x'-y ') superimposed;

도 5는 영상에서 직선들의 교차점을 이용해서 로봇의 위치를 계산하는 루틴의 흐름도이고;5 is a flowchart of a routine for calculating the position of a robot using an intersection of straight lines in an image;

도 6은 도 5의 루틴에서 로봇의 실제 위치를 계산하는데 사용된 보조그림이고;Figure 6 is an auxiliary figure used to calculate the actual position of the robot in the routine of Figure 5;

도 7은 청구항 2 항에 있어서의 실제거리 상대위치 벡터로 변환방법을 기술 한 루틴이고;Fig. 7 is a routine describing a method of converting to an actual distance relative position vector according to claim 2; Fig.

도 8직선이 발견되지 않는 영상의 경우, 영상프레임 간의 화소이동 벡터(optical flow)혹은 그 누적 벡터를 사용해서 로봇 방향을 예측하는 방법과, 직선이 발견되는 경우, 이 직선을 이용해서 누적 벡터로부터 예측한 로봇의 방향을 교정하는 방법을 보여주는 루틴이고;In the case of an image in which a straight line is not found, a method of predicting the robot direction by using a pixel motion vector (optical flow) between the image frames or an accumulated vector thereof, and a method of estimating the robot direction from a cumulative vector A routine showing a method of correcting the predicted direction of the robot;

도 9직선의 교차점이 발견되지 않는 영상의 경우, 영상프레임 간의 화소이동 벡터(optical flow) 혹은 그 누적 벡터를 사용해서 로봇 위치을 예측하는 방법과, 교차점이 발견되는 경우, 이 교차점을 이용해서 누벅벡터로부터 예측한 로봇 위치를 교정하는 방법을 보여주는 루틴이다. In the case of an image in which an intersection of straight lines is not found, a method of predicting a robot position by using a pixel motion vector or an accumulated vector between image frames, and a method of estimating a robot position using an intersection, And correcting the predicted robot position.

도 10는 본 발명을 사무실의 커피 배달용 로봇에 적용 실시하기 위한 이동로봇의 모습이고;10 is a view of a mobile robot for applying the present invention to a robot for delivering coffee in an office;

도 11은 사무실용 커피 심부름 기능을 수행시키기 위한 실내 실내의 도면이고;11 is a view of an indoor room for performing an office coffee errand function;

도 12은 로봇이 커피 배달 심부름 임무를 수행하는 장면을 보여준다. 여기서12 shows a scene in which the robot performs a coffee delivery errand mission. here

(a)는 커피테이블에서 커피를 받아 싣고 출발하는 장면이고, (j)(k)(l)는 목적지에 커피를 배달하고 있는 장면이고, (r)은 배달 임무를 완수한 로봇이 처음 커피 테이블 위치로 돌아와 있는 장면이다.(a) is a scene where coffee is taken from a coffee table, (j) (k) (l) is a scene where coffee is delivered to a destination, It is a scene that returns to the position.

Claims (4)

이동 로봇의 중심에 천정을 향하여 카메라를 설치하여 천정의 연속적인 디지털 영상을 얻을 수 있게 하고;A camera is installed at the center of the mobile robot toward the ceiling to obtain continuous digital images of the ceiling; 로봇 작업장의 반복되는 천정 무늬 중 반복되는 직선 성분들에 대해 로봇 작업장의 기준 원점에서의 y 축에 대한 각도를 계산하여 그 각도 집합을 구하여 준비하여 초기화 하고;Calculating an angle with respect to the y-axis at the reference origin of the robot workplace for the repeated linear components of the repeated ceiling pattern of the robot workstation, preparing and preparing the angle set; 천정 무늬에서의 모든 교차점들에 대한 위치 정보들로 구성된 교차점 집합 을 준비하여 초기화 하고;Preparing and initializing an intersection set composed of positional information on all intersections in the ceiling pattern; 로봇 자율 이동 중의 방향을 계산하기 위해서는, 이동 중 촬영한 영상에서 직선을 검출하여 이 직선과 로봇의 현재 방향 간의 각도를 영상으로부터 구한 후, 상기 미리 계산하여 준비한 작업장의 y 축을 기준으로 한 각 직선들에 대한 각도 집합 내의 각 개별 각도에 더하여 이를 로봇의 방향 각도 후보 집합이라고 하고;In order to calculate the direction during the autonomous movement of the robot, a straight line is detected from the image taken during the movement and the angle between the straight line and the current direction of the robot is obtained from the image. Then, In addition to each individual angle in the set of angles for the robot, is referred to as a direction angle candidate set of the robot; 상기 방향각도 후보 집합 내의 각도들 중, 이 전 영상의 로봇 위치에서 구한 로봇 방향 각도에 가장 가까운 각도를 선택하여 현재의 로봇 각도로 결정하고;Selecting an angle closest to the robot direction angle obtained from the robot position of the previous image among the angles in the direction angle candidate set as a current robot angle; 로봇 자율 이동 중의 위치를 계산하기 위해서는, 상기 초기화시 준비한 교차점 집합 상에서 로봇의 이전 영상 위치 주변의 교차점 들의 위치 좌표만을 취하여 로봇 기준 위치 후보 집합이라고 하고;In order to calculate the position during robot autonomous movement, only the positional coordinates of the intersections around the previous image position of the robot on the intersection set prepared at the initialization are taken as a robot reference position candidate set; 현재 위치에서 촬영된 천정 영상 중 가장 뚜렷한 교차점을 선택하여 이 교 차점 의 화소 좌표를 영상 중심으로부터의 상대 좌표로 표시하고 이를 청구항 2 항에서 기술한 변환된 실제거리 상대위치 벡터로 표시하고; Selecting the most significant intersection point among the ceiling images photographed at the current position, displaying the pixel coordinates of the intersection point as relative coordinates from the center of the image, and displaying the coordinates as the converted actual distance relative position vector described in claim 2; 상기 변환된 실제거리 상대위치 벡터를 상기 기준로봇위치 후보 집합에 더하여 이를 로봇의 실제 위치에 대한 후보 집합이라 하고;Adding the transformed actual distance relative position vector to the reference robot position candidate set and calling it a candidate set for the actual position of the robot; 상기 로봇 실제 위치의 후보 집합의 요소들 중, 이전 영상에서 구한 로봇의 위치와 가장 가까운 위치 점을 현재의 로봇 위치 점으로 결정하는 Among the elements of the candidate set of the robot actual position, a position point closest to the position of the robot obtained from the previous image is determined as the current robot position point 천정무늬를 이용한 로봇의 방향 및 위치 계산 방법.Method of calculating direction and position of robot using ceiling pattern. 상기 청구항 1항에 있어서 변환된 상대 위치 벡터는 The transformed relative position vector according to claim 1, 선택된 교차점에 대한 영상 중심으로부터의 상대 벡터를 구하고; Obtaining a relative vector from the image center for the selected intersection; 상기 교차점이 벡타를 상기 청구항 1항에서 구한 로봇의 방향만큼 영상의 중심에 대해서 역 방향으로 회전하여 변환하고;Wherein the intersection rotates and converts the vector in a direction opposite to the center of the image by the direction of the robot obtained in claim 1; 상기 회전 변환한 교차점 벡터에 단위 화소 간격에 대한 실제 거리를 곱하여 교차점의 위치를 로봇의 중심으로부터 실제거리 상대벡터로 변환하고;Transforming the rotation-converted intersection vector by the actual distance to the unit pixel interval to convert the position of the intersection point to the actual distance relative vector from the center of the robot; 상기 교차점의 로봇 중심에 대한 실제거리 상대벡터에 부의 부호를 곱하여, 로봇 중심이 상기 교차점에 대한 실제거리 상대벡터로 표시되게 하여 구하는 변환된 실제거리 상대위치 벡터 계산 방법.Calculating an actual distance relative position vector by multiplying an actual distance relative vector to the center of the robot at the intersection by a negative sign so that the center of the robot is represented by an actual distance relative vector to the intersection. 청구항 1 항의 로봇 방향 구하는 방법에 있어서 영상에 직선 성분이 한 개도 발견되지 않아 로봇의 방향 계산이 어려운 경우, 영상에 직선 성분이 발견 될 때 까지 optical flow의 벡터를 누적하여 이동벡터 합의 부의 값을 이전의 로봇 방향에 더하여 로봇의 방향으로 예측하여 사용하고;In the method of finding the direction of the robot according to claim 1, when it is difficult to calculate the direction of the robot because one linear component is not found in the image, the optical flow vector is accumulated until a linear component is found in the image, In addition to the direction of the robot in the direction of the robot; 직선을 가진 영상을 얻으면 직선으로부터 로봇의 각도를 구하고, 상기 청구항 1 항의 방향 구하는 방법처럼 방향 각도 후보 집합을 구하고, 이 집합 내의 개별 각도와 상기 이동 벡터의 누적 합에 의해 구한 로봇 방향과 가장 차이가 적은 방향을 현재의 로봇 방향으로 결정하는 When an image having a straight line is obtained, the angle of the robot is obtained from a straight line, and a direction angle candidate set is obtained as in the method of finding the direction of claim 1, and the difference between the individual angles in the set and the cumulative sum of the motion vectors Determine the less direction as the current robot direction Optical Flow를 사용한 로봇의 방향 결정 보완 방법Directional Correction Method of Robot Using Optical Flow 청구항 1 항 혹은 청구항 2 항에 있어서 영상에 교차점이 존재하지 않는 경우 교차점이 발견되는 다음 영상이 나올 때까지 optical flow의 벡터를 누적하여 이동벡터의 합을 구하고, 교차점을 가진 영상에서 구한 로봇의 이전 위치에 이동벡터의 합의 부의 값을 더하여 로봇 예측 위치를 구하고;The method according to claim 1 or claim 2, wherein when there is no intersection point in the image, the sum of the motion vectors is accumulated by accumulating the vector of the optical flow until the next image where the intersection point is found, Adding a negative value of a sum of motion vectors to a position to obtain a robot predicted position; 영상에서 교차점이 검출되면 상기 청구한 1 항 혹은 청구항 2 항에서의 로봇 위치 계산 방법과 동일하되 기준로봇 위치 후보 집합의 범위를 2내지 3 배 확대하여 이를 이용하여 확대된 로봇 실제 위치에 대한 후보 집합을 구하고;If the intersection point is detected in the image, the method is the same as the robot position calculation method according to claim 1 or claim 2, wherein the range of the reference robot position candidate set is enlarged by 2 to 3 times, ≪ / RTI > 상기 로봇실제 위치에 대한 후보 집합으로부터 상기 로봇 예측위치와의 거리가 가장 가까운 위치 점을 현재의 로봇 위치로 수정하는 A position point closest to the robot predicted position is corrected from the candidate set for the robot actual position to the current robot position optical flow를 이용한 로봇 위치 점 계산 보완 방법.Robot position point calculation and complementary method using optical flow.
KR1020090067983A 2009-07-24 2009-07-24 Computation of Robot Location and Orientation using Repeating Feature of Ceiling Textures and Optical Flow Vectors KR101153221B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090067983A KR101153221B1 (en) 2009-07-24 2009-07-24 Computation of Robot Location and Orientation using Repeating Feature of Ceiling Textures and Optical Flow Vectors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090067983A KR101153221B1 (en) 2009-07-24 2009-07-24 Computation of Robot Location and Orientation using Repeating Feature of Ceiling Textures and Optical Flow Vectors

Publications (2)

Publication Number Publication Date
KR20110010422A true KR20110010422A (en) 2011-02-01
KR101153221B1 KR101153221B1 (en) 2012-06-05

Family

ID=43770964

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090067983A KR101153221B1 (en) 2009-07-24 2009-07-24 Computation of Robot Location and Orientation using Repeating Feature of Ceiling Textures and Optical Flow Vectors

Country Status (1)

Country Link
KR (1) KR101153221B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101122303B1 (en) * 2009-07-24 2012-03-21 삼성중공업 주식회사 Calibration unit and working system having the same
WO2013026872A1 (en) 2011-08-24 2013-02-28 Commissariat à l'énergie atomique et aux énergies alternatives Method for locating an object using a reference grid
US20150158176A1 (en) * 2012-08-02 2015-06-11 Fuji Machine Mfg. Co., Ltd. Work machine provided with articulated robot and electric component mounting machine
CN106020190A (en) * 2016-05-26 2016-10-12 山东大学 Track learning controller, control system and method with initial state error correction
WO2019237434A1 (en) * 2018-06-14 2019-12-19 深圳市沃特沃德股份有限公司 Sweeping robot position calibration method and system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100564236B1 (en) 2001-09-26 2006-03-29 현대중공업 주식회사 Self-localization apparatus and method of mobile robot

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101122303B1 (en) * 2009-07-24 2012-03-21 삼성중공업 주식회사 Calibration unit and working system having the same
WO2013026872A1 (en) 2011-08-24 2013-02-28 Commissariat à l'énergie atomique et aux énergies alternatives Method for locating an object using a reference grid
FR2979428A1 (en) * 2011-08-24 2013-03-01 Commissariat Energie Atomique METHOD OF LOCATING AN OBJECT USING A REFERENCE GRID
US9317774B2 (en) 2011-08-24 2016-04-19 Commissariat à l'énergie atomique et aux énergies alternatives Method for locating an object using a reference grid
US20150158176A1 (en) * 2012-08-02 2015-06-11 Fuji Machine Mfg. Co., Ltd. Work machine provided with articulated robot and electric component mounting machine
US10099365B2 (en) * 2012-08-02 2018-10-16 Fuji Corporation Work machine provided with articulated robot and electric component mounting machine
CN106020190A (en) * 2016-05-26 2016-10-12 山东大学 Track learning controller, control system and method with initial state error correction
WO2019237434A1 (en) * 2018-06-14 2019-12-19 深圳市沃特沃德股份有限公司 Sweeping robot position calibration method and system

Also Published As

Publication number Publication date
KR101153221B1 (en) 2012-06-05

Similar Documents

Publication Publication Date Title
Winterhalter et al. Accurate indoor localization for RGB-D smartphones and tablets given 2D floor plans
US8588471B2 (en) Method and device of mapping and localization method using the same
US9990726B2 (en) Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image
Acharya et al. BIM-Tracker: A model-based visual tracking approach for indoor localisation using a 3D building model
KR101665386B1 (en) Method and apparatus for estimating position in a mobile robot
US9213908B2 (en) Method for registering at least one part of a first and second image using a collineation warping function
Nair et al. Moving obstacle detection from a navigating robot
KR101153221B1 (en) Computation of Robot Location and Orientation using Repeating Feature of Ceiling Textures and Optical Flow Vectors
Lim et al. Real-time single camera SLAM using fiducial markers
US10552981B2 (en) Depth camera 3D pose estimation using 3D CAD models
JP2017106959A (en) Projection device, projection method, and computer program for projection
KR20220054582A (en) Visual positioning method and related apparatus, device and computer readable storage medium
JP2006349607A (en) Distance measuring device
Dani et al. Image moments for higher-level feature based navigation
Oe et al. Estimating camera position and posture by using feature landmark database
CN108180913A (en) A kind of Quick Response Code alignment system based on 3D cameras
Hsu et al. Application of multisensor fusion to develop a personal location and 3D mapping system
JP2018173882A (en) Information processing device, method, and program
Jang et al. Metric localization using a single artificial landmark for indoor mobile robots
CN110728684A (en) Map construction method and device, storage medium and electronic equipment
JP2021103168A (en) Augmented reality device and positioning method
CN109186594A (en) The method for obtaining exercise data using inertial sensor and depth camera sensor
Hasler et al. Implementation and first evaluation of an indoor mapping application using smartphones and AR frameworks
KR20130022918A (en) Cleaning robot navigationg method using the repeating image patterns of working environment
Marhic et al. Localisation based on invariant-models recognition by SYCLOP

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150511

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160517

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170515

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180418

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190422

Year of fee payment: 8