KR100824744B1 - Localization System and Method for Mobile Robot Using Corner's Type - Google Patents

Localization System and Method for Mobile Robot Using Corner's Type Download PDF

Info

Publication number
KR100824744B1
KR100824744B1 KR1020060065605A KR20060065605A KR100824744B1 KR 100824744 B1 KR100824744 B1 KR 100824744B1 KR 1020060065605 A KR1020060065605 A KR 1020060065605A KR 20060065605 A KR20060065605 A KR 20060065605A KR 100824744 B1 KR100824744 B1 KR 100824744B1
Authority
KR
South Korea
Prior art keywords
edge
corner
shape
branch
boundary
Prior art date
Application number
KR1020060065605A
Other languages
Korean (ko)
Other versions
KR20060094929A (en
Inventor
안현식
Original Assignee
동명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동명대학교산학협력단 filed Critical 동명대학교산학협력단
Priority to KR1020060065605A priority Critical patent/KR100824744B1/en
Publication of KR20060094929A publication Critical patent/KR20060094929A/en
Application granted granted Critical
Publication of KR100824744B1 publication Critical patent/KR100824744B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Abstract

본 발명은 실내 환경의 지도가 주어졌을 때 한 대의 카메라로부터 얻어진 영상으로부터 모서리 형태를 추출하고, 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지도 간의 정합을 실시하고, 정합된 모서리들 간의 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구함으로써 이동 로봇의 위치를 검출방법을 그 요지로 한다. According to the present invention, when a map of an indoor environment is given, a corner shape is extracted from an image obtained from a single camera, a corner shape and a two-dimensional map are matched according to possible corner shape and geometric constraints, and between the matched edges. The method of detecting the position of a mobile robot is derived by deriving a nonlinear system of equations from the rigid and perspective transformations and solving the solution by numerical methods.

이동로봇, 로봇시각, 자기위치검출, 3차원인식, 영상처리 Mobile Robot, Robot Vision, Magnetic Position Detection, 3D Recognition, Image Processing

Description

모서리 형태를 이용한 이동로봇의 자기위치 검출 시스템 및 방법{Localization System and Method for Mobile Robot Using Corner's Type}Magnetic Position Detection System and Method for Mobile Robot Using Corner Shape {Localization System and Method for Mobile Robot Using Corner's Type}

도 1은 본 발명에 있어서, 자기위치검출기의 시스템 구성도1 is a system configuration diagram of a magnetic position detector in the present invention

도 2는 본 발명에 있어서, 2차원 지도의 예2 is an example of a two-dimensional map in the present invention.

도 3은 본 발명에 있어서, 모서리 형태의 종류에 관한 표3 is a table relating to the type of corner shape in the present invention

도 4는 본 발명에 있어서, 입력된 영상과 모서리형태를 정의한 결과의 예4 is an example of a result of defining the input image and the edge shape in the present invention

도 5는 본 발명에 있어서, 위치계산을 위한 강체 변환과 원근 변환도5 is a rigid body and perspective transformation for position calculation in the present invention

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

1 : 카메라부 2 : 컴퓨터부 3 : 로봇구동부 4 : 모서리부 5 : 정합부 6 : 위치계산부 7 : 로봇구동모터 8 : 볼록모서리 9 : 오목모서리 10 : 수직경계 11 : 가지경계 12 : 모서리형태 DESCRIPTION OF SYMBOLS 1 Camera part 2 Computer part 3 Robot drive part 4 Corner part 5 Matching part 6 Position calculation part 7 Robot drive motor 8 Convex edge 9 Concave edge 10 Vertical boundary 11 Branch boundary 12 Corner shape

본 발명은 실내에서 이동 로봇이 자기 위치를 검출하기 위하여, 실내 환경의 지도가 주어졌을 때 한 대의 카메라로부터 얻어진 영상으로부터 모서리 형태를 추출하고, 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지도 간의 정합을 실시하고, 정합된 모서리들 간의 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구하여 자기위치를 검출하는 모서리 형태를 이용한 이동로봇의 자기위치 검출 시스템과 그 방법에 관한 것이다. In order to detect the magnetic position of the mobile robot indoors, the present invention extracts the corner shape from the image obtained from a single camera when a map of the indoor environment is given, and the corner shape and the two-dimensional shape according to the possible corner shape and geometric constraints. Magnetic position detection system of mobile robot using edge shape which detects magnetic position by conducting matching between maps, deriving nonlinear system of equations from rigid and perspective transformation between matched edges, and solving the solution by numerical method It's about how.

본 발명이 속한 분야는 이동로봇의 자기위치를 검출하는 분야로서, 기존의 자기위치검출 방법은 엔코더나 가속도 센서 등을 이용하여 위치를 추적하는 상대 위치검출 방법과 레이저 거리 검출기나 컴퓨터 시각을 이용하여 환경의 지도내의 실제 위치를 추정하는 절대 위치 검출 방법이 있다. 카메라를 이용한 자기 위치 추정 방법은 스테레오 영상화 방법, 전 방향 카메라를 이용한 방법, 및 한 대의 카메라를 이용한 방법 등이 있는데, 스테레오 영상화 방법은 두 영상으로부터 시차 정보를 이용하여 대상 물체의 한 점에 대한 거리 정보를 검출하는데, 두 영상의 화소를 서로 정합해야 하므로 상대적으로 많은 시간이 걸리고 두 대의 카메라를 사용 하므로 시스템이 복잡하다. 원뿔형 거울을 이용한 전 방향 시각 방법은 전면, 측면, 후면의 시각을 한 번에 얻을 수 있어나 영상 정보가 기하학적으로 왜곡이 있으며, 처리 시간이 많이 걸리고 정확한 자기위치 추정이 어렵다. 한 대의 카메라를 이용한 방법 중 인공의 고정 표식을 이용한 방법은 위치와 방향 등의 정보를 포함한 일정한 패턴이나 도형을 이용하는 방법인데 비교적 간단하고 효과적인 방식이지 만 표식을 직접 설치해야 하는 단점이 있다. 실내 환경의 경우 하나의 카메라로서 수직 경계선를 이용하여 자기 위치를 검출하는 방법이 있으나 단순히 수직선분의 위치만으로는 2차원 지도와 수직선분 간의 정합이 거의 불가능하다는 문제점이 있다.The present invention belongs to the field of detecting the magnetic position of the mobile robot, the conventional magnetic position detection method using a relative position detection method for tracking the position using an encoder or an acceleration sensor, using a laser distance detector or computer vision There is an absolute location detection method that estimates the actual location within a map of the environment. The magnetic position estimation method using a camera includes a stereo imaging method, an omnidirectional camera method, and a single camera method, and the stereo imaging method uses a parallax information from two images for a distance to a point of an object. In detecting the information, the pixels of the two images need to be matched with each other, which is relatively time consuming and the system is complicated because two cameras are used. In the omnidirectional visual method using a conical mirror, it is possible to obtain the front, side, and rear view at once, but the image information is geometrically distorted, takes a lot of processing time, and it is difficult to accurately estimate the magnetic position. Among the methods using a single camera, the method of using an artificial fixed marker is a method of using a certain pattern or figure including information such as position and direction, which is a relatively simple and effective method, but has a disadvantage of having to install the marker directly. In the indoor environment, there is a method of detecting a magnetic position using a vertical boundary as a camera, but there is a problem in that registration between the two-dimensional map and the vertical line is almost impossible using only the position of the vertical line.

본 발명은 실내의 조건하에서 카메라 한대를 이용하여 자기위치를 검출하는 방법에 관한 것으로서 영상 내에서 수직 라인의 하단부에 해당하는 모서리의 형태를 검출하고, 이를 지도와 정합한 후, 정합된 정보로부터 비선형 연립방정식을 유도하고 그 해를 수치해석 방법으로 구함으로써, 하나의 카메라만으로 이동로봇의 자기 위치를 검출하는 자기위치 검출시스템을 제공하는데 목적이 있다.The present invention relates to a method of detecting a magnetic position using a single camera under indoor conditions. The present invention relates to detecting a shape of an edge corresponding to a lower end portion of a vertical line in an image, matching it with a map, and then matching the nonlinearity from the matched information. It is an object of the present invention to provide a magnetic position detection system that detects the magnetic position of a mobile robot with only one camera by deriving a system of equations and solving the solution by a numerical method.

상기한 목적을 달성하기 위한 본 발명의 구성을 설명하면 다음과 같다.Referring to the configuration of the present invention for achieving the above object is as follows.

본 발명의 구성은 이동로봇과 카메라 및 컴퓨터로 이루어진 하드웨어와, 카메라로부터 얻어진 영상으로부터 모서리 형태를 추출하는 단계와, 기하학적으로 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지 도간의 정합을 실시는 단계와, 정합된 모서리들 간의 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구함으로써 이동 로봇의 위치 를 검출하는 단계로 이루어진 소프트웨어로 나누어진다. The configuration of the present invention comprises the steps of extracting the edge shape from the hardware consisting of the mobile robot, the camera and the computer, the image obtained from the camera, and matching the edge shape and the two-dimensional map by geometrically possible edge shape and geometric constraints. The implementation is divided into software, which consists of detecting the position of the mobile robot by deriving a nonlinear system of equations from the rigid and perspective transformations between the matched edges and solving the solution numerically.

본 발명의 시스템의 하드웨어 구성을 첨부한 도면과 함께 상세히 설명하면 다음과 같다.Referring to the hardware configuration of the system of the present invention in detail with the accompanying drawings as follows.

본 발명의 검출시스템의 하드웨어는 임의로 이동할 수 있는 로봇구동부(3)와 이를 제어하고 로봇의 전방의 영상을 입력하고 자기위치를 검출하는 컴퓨터부(2)와 영상을 입력하는 카메라부(1)로 구성된다. The hardware of the detection system of the present invention includes a robot driving unit 3 which can move arbitrarily, a computer unit 2 which controls the input, inputs an image of the front of the robot, detects a magnetic position, and a camera unit 1 inputs an image. It is composed.

상기 로봇구동부(3)는 로봇의 이동을 조정하는 부분으로서 일반적으로 두 개 또는 그 이상의 로봇구동모터(7)로 구성되는 바퀴로 이루어지는데, 상단에 카메라부를 부착하게 되며, 실내 환경 하에서 임의의 위치에 해당하는 좌표 (a, b, θ)로 이동할 수 있다. 여기서 a는 X축 좌표, b는 Y축 좌표, θ는 회전을 나타낸다. 상기 카메라부(1)는 실내를 이동하는 동안 전방의 영상을 입력하는 카메라이며 컴퓨터부(2)에 영상을 입력할 수 있는 영상입력기가 포함된다. 상기 컴퓨터부(2)는 카메라부(1)로부터 입력된 영상으로부터 모서리 형태를 추출하고, 모서리 형태와 2차원 지도간의 정합을 실시하며, 정합된 정보를 이용한 변환으로부터 이동로봇의 위치 (a, b, θ)를 검출하는 기능을 담당한다. 컴퓨터부(2)는 구체적으로 모서리추출부(4)와, 정합부(5)와, 위치계산부(6)로 구성되는데, 모서리추출부(4)는 카메라부(1)로부터 얻어진 영상으로부터 모서리 형태를 추출하며, 정합부(5)는 기하학적으로 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지도간의 정합을 실시하며, 위치계산부(6)는 정합된 모서리들 간의 강체 변환과 원근 변환으로 부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구함으로서 이동 로봇의 위치를 검출하게 된다.The robot driving unit 3 is a part for adjusting the movement of the robot, and is generally composed of wheels composed of two or more robot driving motors 7, and attaches a camera unit to an upper end, and any position in an indoor environment. It can be moved to the coordinate (a, b, θ) corresponding to. Where a is the X-axis coordinate, b is the Y-axis coordinate, and θ represents the rotation. The camera unit 1 is a camera that inputs an image of the front while moving indoors, and includes an image input unit capable of inputting an image to the computer unit 2. The computer unit 2 extracts a corner shape from an image input from the camera unit 1, performs matching between the corner shape and the two-dimensional map, and positions the mobile robot from the transform using the matched information. , θ). The computer unit 2 specifically comprises an edge extracting unit 4, a matching unit 5, and a position calculating unit 6, wherein the corner extracting unit 4 is an edge from an image obtained from the camera unit 1. The shape is extracted, and the matching part 5 performs the matching between the corner shape and the two-dimensional map by geometrically possible edge shape and geometric constraints, and the position calculating part 6 is a rigid body transformation and perspective between the matched edges. The position of the mobile robot is detected by deriving a nonlinear system of equations from the transformation and solving the solution by numerical method.

상기한 모서리추출부(4)는 먼저 영상을 입력하고 입력된 영상으로부터 수직경계(10)를 구한 후 다시 수평 방향의 경계를 구한다. 수직경계 사이에 수평 방향의 경계 성분이 존재하는데 이것을 가지경계(11)라고 정의한다. 한 수직경계(10) 사이에는 좌우 양편에 가지경계(11)를 가지게 되고 이 수직경계(10)와 가지경계(11)의 각도에 의해 모서리형태(12)가 정해진다. 얻어진 모서리형태(12)는 도 2의 4가지 중의 하나의 형태를 가지게 되며, 그 과정은 다음과 같다.The corner extractor 4 first inputs an image, obtains a vertical boundary 10 from the input image, and then obtains a horizontal boundary again. Horizontal boundary components exist between the vertical boundaries, which are defined as branch boundaries 11. Between one vertical boundary 10 has a branch boundary 11 on both left and right sides, and the edge shape 12 is determined by the angle of the vertical boundary 10 and the branch boundary 11. The obtained corner shape 12 has one of four types of FIG. 2, and the process is as follows.

한 수직경계(10)를 중심으로하여,With respect to one vertical boundary 10,

만약 좌우의 가지경계(11)가 서로 연결되어 있다면,If the left and right branch boundaries 11 are connected to each other,

만약 좌편가지경계가 90도 보다 크고 우편가지경계가 90도보다 적다면, 모서리형태는 Arrow이다.If the left branch boundary is greater than 90 degrees and the postal branch boundary is less than 90 degrees, the edge is arrow.

만약 좌편가지경계가 90도 보다 작고 우편가지경계가 90도보다 크다면, 모서리형태는 Fork이다.If the left edge is less than 90 degrees and the postal border is greater than 90 degrees, the edge is Fork.

만약 좌편가지경계가 90도 보다 작고 우편가지경계가 90도보다 크다면, 모서리형태는 Fork이다.If the left edge is less than 90 degrees and the postal border is greater than 90 degrees, the edge is Fork.

만약 좌우의 가지경계(11)가 연결되어 있지 않다면,If the left and right branch boundaries 11 are not connected,

만약 아래쪽 가지경계가 오른쪽 이라면, 모서리형태는 Right-L이다.If the lower branch boundary is right, the edge is Right-L.

만약 아래쪽 가지경계가 왼쪽 이라면, 모서리형태는 Left-L이다.If the lower branch boundary is left, the edge is Left-L.

만약 폐색된 가지경계가 오른쪽 이라면, 모서리형태는 Left-L이다.If the occluded branch boundary is to the right, the edge is Left-L.

만약 폐색된 가지경계가 왼쪽 이라면, 모서리형태는 Right-L이다. If the occluded branch boundary is left, the edge is Right-L.

상기한 모서리형태 검출결과를 예를 든다면, 도 4에서 b01, b12, b23, b34, b45는 모두 가지경계가 되며 검출된 모서리형태는 u1, u2 , u3, u4가 된다. Taking the corner shape detection result as described above, in Fig. 4, b01, b12, b23, b34, and b45 all have branch boundaries, and the detected edge shapes are u1, u2, u3, and u4.

상기한 정합부(5)는 기하학적으로 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지도 간의 정합을 실시한다. 도 3은 2차원 지도의 예로서 지도상에 포함된 모든 모서리는 볼록모서리(8)와 오목모서리(9)로 이루어진다. 2차원 지도는 도 2와 같이 표현되며 모서리는 볼록모서리(8)와 오목모서리(9)로 구성된다. 먼저 2차원 지도의 모든 모서리를 순서대로 나열하는데, 그 형태는 볼록과 오목 중의 하나로 이루어진다. 다음은 영상 내에서의 모서리형태에 따른 2차원적 형태를 도 3에 따라 정의하고, 역시 순서대로 볼록과 오목으로 나열한다. 2차원지도 상의 모서리 형태의 순서에 영상 내의 모서리들의 2차원 지도상의 모서리 형태의 순서를 비교하여 가장 잘 정합되는 쌍을 찾는다. 정합된 쌍인 영상 내의 수평선상의 U축 좌표 ui와 지도상의 좌표 (xi,yi)의 좌표를 얻는다. The matching part 5 performs matching between the corner shape and the two-dimensional map by the geometrically possible corner shape and geometric constraints. 3 shows, as an example of a two-dimensional map, all the edges included on the map consisting of convex edges 8 and concave edges 9. The two-dimensional map is represented as shown in FIG. 2, and the edge is composed of a convex edge 8 and a concave corner 9. First, all the edges of a two-dimensional map are listed in order. The shape is one of convex and concave. Next, the two-dimensional shape according to the edge shape in the image is defined according to FIG. 3, and the convex and concave are arranged in order. By comparing the order of the corner shapes on the two-dimensional map with the order of the corner shapes on the two-dimensional map of the edges in the image to find the best matching pair. Obtain the coordinates of the u-axis coordinate u i on the horizontal line in the matched pair image and the coordinates (x i , y i ) on the map.

상기한 위치계산부(6)는 정합된 지도와 영상내의 모서리들을 이용하여 정합하게 되는데 정합된 모서리점 쌍에 대해 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도한다. 이를 설명하기 위해 도 5를 참고한다. 도 5에서 (x, y, z)는 지도 좌표계, (xi,yi)는 지도 좌표계의 모서리점 좌표, (Xc, Yc, Zc)는 카메라 좌표 계, (Cxi, Cyi)는 카메라 좌표계의 모서리점 좌표, ui는 카메라 좌표계의 모서리점의 U축 좌표, (a, b, θ)는 지도좌표계에서의 로봇의 위치, 및 n는 정합된 모서리의 개수를 각각 의미한다. 먼저 지도 좌표계의 모서리점에 대한 카메라 좌표계로의 좌표 변환은 강체변환 T를 적용하면 [수학식 1]과 같다. 여기서 로봇은 X, Y축으로 이동한 것과 Z축을 중심으로 한 회전으로 제한하며 특징점은 수평축에 위치하므로 0으로 둔다.The position calculating unit 6 performs matching using the edges in the matched map and the image. The position calculating unit 6 derives a nonlinear system of equations from the rigid body transformation and the perspective transformation for the matched edge point pairs. See FIG. 5 to describe this. In FIG. 5, (x, y, z) is a map coordinate system, (x i , y i ) is a corner coordinate of the map coordinate system, (X c , Y c , Z c ) is a camera coordinate system, (Cx i , Cy i ) Is the corner coordinate of the camera coordinate system, u i is the U-axis coordinate of the corner point of the camera coordinate system, (a, b, θ) is the position of the robot in the map coordinate system, and n is the number of matched corners, respectively. . First, the coordinate transformation of the corner point of the map coordinate system to the camera coordinate system is expressed by Equation 1 when the rigid body transformation T is applied. Here, the robot is limited to the movement in the X and Y axes and the rotation about the Z axis. The feature point is located on the horizontal axis, so it is set to 0.

Figure 112006049931163-pat00001
Figure 112006049931163-pat00001

여기서 강체 변환 행렬 T는 이동과 회전행렬로서 [수학식 2]와 같다.Here, the rigid transformation matrix T is a movement and rotation matrix as shown in [Equation 2].

Figure 112006049931163-pat00002
Figure 112006049931163-pat00002

여기서 전체 좌표계의 모서리점 (xi,yi)는 지도에서 주어지며 추정되어야 할 파라미터는 (a, b, θ)이다. 카메라 좌표계로부터 영상 좌표계로의 원근 변환식은 [수학식 3]과 같다.Here, the corner points (x i , y i ) of the global coordinate system are given in the map and the parameters to be estimated are (a, b, θ). The perspective conversion equation from the camera coordinate system to the image coordinate system is shown in [Equation 3].

Figure 112006049931163-pat00003
Figure 112006049931163-pat00003

위의 [수학식 2]와 [수학식 3]으로부터 (a, b, θ)를 변수로 하는 비선형 연립 방정식이 유도된다. 여기서 특징의 수가 3개 이상이면 수치해석 방법 중 하나인 Newton 방법을 이용해 비선형 연립방정식의 해를 구할 수 있다. 비선형 연립 방정식을 벡터함수 F로 표현하면 n개의 상이한 성분 함수 fn을 가지며 [수학식 4]와 같이 표현할 수 있다. From above [Equation 2] and [Equation 3], nonlinear simultaneous equations with (a, b, θ) as variables are derived. If the number of features is three or more, the nonlinear system of equations can be solved using the Newton method, one of the numerical methods. If the nonlinear simultaneous equation is expressed as a vector function F, it has n different component functions f n and can be expressed as shown in [Equation 4].

Figure 112006049931163-pat00004
Figure 112006049931163-pat00004

변수 (a, b, θ)를 벡터 P로 표현하면 비선형 연립 방정식은 F(a, b, θ)=0 으로 표현할 수 있으며 Jacobian 행렬 J(a, b, θ)는 [수학식 5]와 같다.If the variable (a, b, θ) is expressed as a vector P, the nonlinear simultaneous equation can be expressed as F (a, b, θ) = 0, and the Jacobian matrix J (a, b, θ) is expressed as [Equation 5]. .

Figure 112006049931163-pat00005
Figure 112006049931163-pat00005

벡터 방정식 F(a, b, θ)=0으로 표현한 비선형 연립 방정식의 해 P를 찾기 위한 Newton 방법은, 초기 근사값 P(0)이 주어지면 [수학식 6]과 같이 된다.The Newton's method for finding the solution P of the nonlinear simultaneous equation represented by the vector equation F (a, b, θ) = 0 is given by Equation 6 given the initial approximation P (0) .

Figure 112006049931163-pat00006
Figure 112006049931163-pat00006

해를 구하기 위해 위 과정을 반복하여 구하고 일정한 범위 내에서 값이 변하지 않으면 종료한다. 여기서 구해진 해 P는 기준 좌표에 대한 이동 로봇의 위치와 방향이 되는 것이다. Repeat the above procedure to find a solution and exit if the value does not change within a certain range. The solution P obtained here is the position and direction of the mobile robot with respect to the reference coordinate.

본 발명에서는 실내 환경의 2차원 지도가 주어졌을 때 한 대의 카메라로부터 얻어진 영상으로부터 모서리 형태를 추출하고, 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지도 간의 정합을 실시하고, 정합된 모서리들 간의 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구하는 이동 로봇의 위치를 검출방법을 제공함으로써, 기존의 방법과는 달리 하나의 카메라를 이용하면서도 모서리 점들 간의 정확한 정합이 가능하므로, 실내에서 움직이는 이동로봇의 자기위치검출이 보다 용이하고 속도가 빠르면서 저가인 자기위치검출기를 제공할 수 있다.According to the present invention, when a two-dimensional map of an indoor environment is given, the corner shape is extracted from an image obtained from a single camera, and the corner shape and the two-dimensional map are matched according to possible corner shape and geometric constraints, and the matched edge By providing a method of detecting the position of a mobile robot that derives a nonlinear system of equations from the rigid and perspective transformation between them and obtains the solution numerically, unlike the conventional method, it is possible to use a single camera, Since the matching is possible, the magnetic position detection of the mobile robot moving indoors is easier, faster, and lower cost magnetic position detector can be provided.

Claims (5)

실내 환경의 지도가 주어졌을 때 한 대의 카메라부(1)로부터 얻어진 영상으로부터 모서리형태를 추출하는 모서리추출부(4)와, 가능한 모서리형태와 기하학적 제한조건에 의해 모서리형태와 2차원 지도 간의 정합을 실시하는 정합부(5)와, 정합된 모서리들 간의 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구함으로써 이동 로봇의 위치를 검출하는 위치계산부(6)을 이용하는 것을 특징으로 하는 로봇의 자기위치검출 제공 시스템.Given a map of the indoor environment, the edge extraction unit 4 extracts the edge shape from the image obtained from one camera unit 1, and the edge shape and the two-dimensional map are matched by possible edge shape and geometric constraints. A matching part 5 for detecting the position of the mobile robot by deriving a nonlinear system of equations from the rigid and perspective transformations between the matched edges and calculating the solution in a numerical method. Magnetic position detection providing system for a robot, characterized in that used. 제1항의 로봇의 자기위치검출 제공시스템에서 모서리추출부가 모서리형태를 정하는 방법에 있어서,In the method of claim 1, wherein the edge extracting portion in the magnetic position detection providing system of the robot to determine the corner shape, 모서리추출부(4)가 입력된 영상으로부터 수직경계(10)와 가지경계(11)를 정의한 후 수직경계(10)와 가지경계(11)의 각도에 의해 모서리형태(12)를 정하는 방법.Method for determining the edge shape (12) by the angle of the vertical boundary (10) and the branch boundary (11) after defining the vertical boundary (10) and the branch boundary (11) from the image inputted by the corner extractor (4). 제 2항에 있어서,The method of claim 2, 모서리형태(12)를 구하기 위해 한 수직경계(10)를 중심으로 하여, 만약 좌우의 가지경계(11)가 서로 연결되어 있다면 우편가지경계와 좌편가지경계의 각도를 가지고 모서리형태를 결정하고, 만약 좌우의 가지경계(11)가 연결되어 있지 않다면 아래쪽 가지나 폐색된 가지의 좌우 위치에 따라 모서리형태(12)를 정하는 방법.Based on one vertical boundary 10 to obtain the corner shape 12, if the left and right branch boundaries 11 are connected to each other, the corner shape is determined with the angles of the post branch boundary and the left branch boundary, If the left and right branch boundary (11) is not connected to determine the corner shape (12) according to the left and right positions of the lower branch or occluded branch. 제1항의 로봇의 자기위치검출 제공시스템에서 정합부가 정합하는 방법에 있어서,In the method of matching part in the magnetic position detection providing system of the robot of claim 1, 정합부(5)가 2차원 지도의 모든 모서리를 볼록모서리와 오목모서리 중의 하나로 순서대로 나열하고, 영상 내에서의 모서리형태를 2차원적 형태에 따라 볼록모서리와 오목모서리로 결정하고 순서대로 나열하고, 2차원 지도 상의 모서리 형태의 순서에 영상 내의 모서리들의 2차원 지도상의 모서리 형태의 순서를 비교하여 가장 잘 정합되는 쌍을 찾아서 정합하는 방법. The matching unit 5 lists all the edges of the two-dimensional map in order of one of the convex and concave corners, and determines the corner shapes in the image as the convex and concave corners according to the two-dimensional shape and arranges them in order. And comparing the order of the edge shapes on the 2D map of the edges in the image with the order of the edge shapes on the 2D map to find and match the best matching pair. 제1항의 로봇의 자기위치검출 제공시스템에서 위치계산부가 이동로봇의 위치를 검출하는 방법에 있어서,In the method for detecting the position of a mobile robot in the magnetic position detection providing system of claim 1, 위치계산부(6)가 정합된 모서리들 간의 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구함으로써 이동 로봇의 위치를 검출하는 방법.  The position calculating section (6) detects the position of a mobile robot by deriving a nonlinear system of equations from the rigid and perspective transformations between the matched edges and finding the solution by numerical method.
KR1020060065605A 2006-07-12 2006-07-12 Localization System and Method for Mobile Robot Using Corner's Type KR100824744B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060065605A KR100824744B1 (en) 2006-07-12 2006-07-12 Localization System and Method for Mobile Robot Using Corner's Type

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060065605A KR100824744B1 (en) 2006-07-12 2006-07-12 Localization System and Method for Mobile Robot Using Corner's Type

Publications (2)

Publication Number Publication Date
KR20060094929A KR20060094929A (en) 2006-08-30
KR100824744B1 true KR100824744B1 (en) 2008-04-24

Family

ID=37602557

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060065605A KR100824744B1 (en) 2006-07-12 2006-07-12 Localization System and Method for Mobile Robot Using Corner's Type

Country Status (1)

Country Link
KR (1) KR100824744B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101167099B1 (en) 2010-02-27 2012-07-20 한양대학교 산학협력단 Autonomous mobile robot's recognition of structural landmark using vision-based vanishing points
KR20130047278A (en) * 2011-10-31 2013-05-08 주식회사 아이리버 Method and apparatus of path planning of robot
KR20210023644A (en) * 2019-08-23 2021-03-04 유비테크 로보틱스 코프 Robot recharging localization method and robot using the same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883520B1 (en) * 2007-07-23 2009-02-13 한국전자통신연구원 Method and apparatus for providing indoor eco-map
CN109099915B (en) * 2018-06-27 2020-12-25 未来机器人(深圳)有限公司 Mobile robot positioning method, mobile robot positioning device, computer equipment and storage medium
CN109059922B (en) * 2018-06-29 2020-10-16 北京旷视机器人技术有限公司 Mobile robot positioning method, device and system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040107962A (en) * 2003-06-16 2004-12-23 주식회사 팬택 System for detecting moving objects and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040107962A (en) * 2003-06-16 2004-12-23 주식회사 팬택 System for detecting moving objects and method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101167099B1 (en) 2010-02-27 2012-07-20 한양대학교 산학협력단 Autonomous mobile robot's recognition of structural landmark using vision-based vanishing points
KR20130047278A (en) * 2011-10-31 2013-05-08 주식회사 아이리버 Method and apparatus of path planning of robot
KR20210023644A (en) * 2019-08-23 2021-03-04 유비테크 로보틱스 코프 Robot recharging localization method and robot using the same
KR102247879B1 (en) 2019-08-23 2021-05-03 유비테크 로보틱스 코프 Robot recharging localization method and robot using the same

Also Published As

Publication number Publication date
KR20060094929A (en) 2006-08-30

Similar Documents

Publication Publication Date Title
CN104848858B (en) Quick Response Code and be used for robotic vision-inertia combined navigation system and method
Lins et al. Vision-based measurement for localization of objects in 3-D for robotic applications
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
EP2615580B1 (en) Automatic scene calibration
KR101758058B1 (en) Apparatus and method for estimating camera motion using depth information, augmented reality system
Klimentjew et al. Multi sensor fusion of camera and 3D laser range finder for object recognition
CN108932475A (en) A kind of Three-dimensional target recognition system and method based on laser radar and monocular vision
Nair et al. Moving obstacle detection from a navigating robot
KR100824744B1 (en) Localization System and Method for Mobile Robot Using Corner&#39;s Type
US11625842B2 (en) Image processing apparatus and image processing method
CN107895344B (en) Video splicing device and method
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
KR100574227B1 (en) Apparatus and method for separating object motion from camera motion
CN104166995B (en) Harris-SIFT binocular vision positioning method based on horse pace measurement
JP2008309595A (en) Object recognizing device and program used for it
Bok et al. Accurate motion estimation and high-precision 3d reconstruction by sensor fusion
Shu et al. Vision based lane detection in autonomous vehicle
Yang Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
Lin et al. A visual positioning system for vehicle or mobile robot navigation
Suhr et al. Free Parking Space Detection Using Optical Flow-based Euclidean 3D Reconstruction.
Hamzah et al. A practical method for camera calibration in stereo vision mobile robot navigation
Kurka et al. Automatic estimation of camera parameters from a solid calibration box
Hoang et al. Automatic calibration of camera and LRF based on morphological pattern and optimal angular back-projection error
Abdelhamid et al. Extracting depth information using a correlation matching algorithm

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130417

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140415

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150417

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160407

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee