KR100824744B1 - Localization System and Method for Mobile Robot Using Corner's Type - Google Patents
Localization System and Method for Mobile Robot Using Corner's Type Download PDFInfo
- Publication number
- KR100824744B1 KR100824744B1 KR1020060065605A KR20060065605A KR100824744B1 KR 100824744 B1 KR100824744 B1 KR 100824744B1 KR 1020060065605 A KR1020060065605 A KR 1020060065605A KR 20060065605 A KR20060065605 A KR 20060065605A KR 100824744 B1 KR100824744 B1 KR 100824744B1
- Authority
- KR
- South Korea
- Prior art keywords
- edge
- corner
- shape
- branch
- boundary
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000004807 localization Effects 0.000 title 1
- 230000009466 transformation Effects 0.000 claims abstract description 14
- 238000001514 detection method Methods 0.000 claims abstract description 13
- 238000000844 transformation Methods 0.000 claims abstract description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims 1
- 239000011159 matrix material Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Abstract
본 발명은 실내 환경의 지도가 주어졌을 때 한 대의 카메라로부터 얻어진 영상으로부터 모서리 형태를 추출하고, 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지도 간의 정합을 실시하고, 정합된 모서리들 간의 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구함으로써 이동 로봇의 위치를 검출방법을 그 요지로 한다. According to the present invention, when a map of an indoor environment is given, a corner shape is extracted from an image obtained from a single camera, a corner shape and a two-dimensional map are matched according to possible corner shape and geometric constraints, and between the matched edges. The method of detecting the position of a mobile robot is derived by deriving a nonlinear system of equations from the rigid and perspective transformations and solving the solution by numerical methods.
이동로봇, 로봇시각, 자기위치검출, 3차원인식, 영상처리 Mobile Robot, Robot Vision, Magnetic Position Detection, 3D Recognition, Image Processing
Description
도 1은 본 발명에 있어서, 자기위치검출기의 시스템 구성도1 is a system configuration diagram of a magnetic position detector in the present invention
도 2는 본 발명에 있어서, 2차원 지도의 예2 is an example of a two-dimensional map in the present invention.
도 3은 본 발명에 있어서, 모서리 형태의 종류에 관한 표3 is a table relating to the type of corner shape in the present invention
도 4는 본 발명에 있어서, 입력된 영상과 모서리형태를 정의한 결과의 예4 is an example of a result of defining the input image and the edge shape in the present invention
도 5는 본 발명에 있어서, 위치계산을 위한 강체 변환과 원근 변환도5 is a rigid body and perspective transformation for position calculation in the present invention
<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>
1 : 카메라부 2 : 컴퓨터부 3 : 로봇구동부 4 : 모서리부 5 : 정합부 6 : 위치계산부 7 : 로봇구동모터 8 : 볼록모서리 9 : 오목모서리 10 : 수직경계 11 : 가지경계 12 : 모서리형태 DESCRIPTION OF
본 발명은 실내에서 이동 로봇이 자기 위치를 검출하기 위하여, 실내 환경의 지도가 주어졌을 때 한 대의 카메라로부터 얻어진 영상으로부터 모서리 형태를 추출하고, 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지도 간의 정합을 실시하고, 정합된 모서리들 간의 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구하여 자기위치를 검출하는 모서리 형태를 이용한 이동로봇의 자기위치 검출 시스템과 그 방법에 관한 것이다. In order to detect the magnetic position of the mobile robot indoors, the present invention extracts the corner shape from the image obtained from a single camera when a map of the indoor environment is given, and the corner shape and the two-dimensional shape according to the possible corner shape and geometric constraints. Magnetic position detection system of mobile robot using edge shape which detects magnetic position by conducting matching between maps, deriving nonlinear system of equations from rigid and perspective transformation between matched edges, and solving the solution by numerical method It's about how.
본 발명이 속한 분야는 이동로봇의 자기위치를 검출하는 분야로서, 기존의 자기위치검출 방법은 엔코더나 가속도 센서 등을 이용하여 위치를 추적하는 상대 위치검출 방법과 레이저 거리 검출기나 컴퓨터 시각을 이용하여 환경의 지도내의 실제 위치를 추정하는 절대 위치 검출 방법이 있다. 카메라를 이용한 자기 위치 추정 방법은 스테레오 영상화 방법, 전 방향 카메라를 이용한 방법, 및 한 대의 카메라를 이용한 방법 등이 있는데, 스테레오 영상화 방법은 두 영상으로부터 시차 정보를 이용하여 대상 물체의 한 점에 대한 거리 정보를 검출하는데, 두 영상의 화소를 서로 정합해야 하므로 상대적으로 많은 시간이 걸리고 두 대의 카메라를 사용 하므로 시스템이 복잡하다. 원뿔형 거울을 이용한 전 방향 시각 방법은 전면, 측면, 후면의 시각을 한 번에 얻을 수 있어나 영상 정보가 기하학적으로 왜곡이 있으며, 처리 시간이 많이 걸리고 정확한 자기위치 추정이 어렵다. 한 대의 카메라를 이용한 방법 중 인공의 고정 표식을 이용한 방법은 위치와 방향 등의 정보를 포함한 일정한 패턴이나 도형을 이용하는 방법인데 비교적 간단하고 효과적인 방식이지 만 표식을 직접 설치해야 하는 단점이 있다. 실내 환경의 경우 하나의 카메라로서 수직 경계선를 이용하여 자기 위치를 검출하는 방법이 있으나 단순히 수직선분의 위치만으로는 2차원 지도와 수직선분 간의 정합이 거의 불가능하다는 문제점이 있다.The present invention belongs to the field of detecting the magnetic position of the mobile robot, the conventional magnetic position detection method using a relative position detection method for tracking the position using an encoder or an acceleration sensor, using a laser distance detector or computer vision There is an absolute location detection method that estimates the actual location within a map of the environment. The magnetic position estimation method using a camera includes a stereo imaging method, an omnidirectional camera method, and a single camera method, and the stereo imaging method uses a parallax information from two images for a distance to a point of an object. In detecting the information, the pixels of the two images need to be matched with each other, which is relatively time consuming and the system is complicated because two cameras are used. In the omnidirectional visual method using a conical mirror, it is possible to obtain the front, side, and rear view at once, but the image information is geometrically distorted, takes a lot of processing time, and it is difficult to accurately estimate the magnetic position. Among the methods using a single camera, the method of using an artificial fixed marker is a method of using a certain pattern or figure including information such as position and direction, which is a relatively simple and effective method, but has a disadvantage of having to install the marker directly. In the indoor environment, there is a method of detecting a magnetic position using a vertical boundary as a camera, but there is a problem in that registration between the two-dimensional map and the vertical line is almost impossible using only the position of the vertical line.
본 발명은 실내의 조건하에서 카메라 한대를 이용하여 자기위치를 검출하는 방법에 관한 것으로서 영상 내에서 수직 라인의 하단부에 해당하는 모서리의 형태를 검출하고, 이를 지도와 정합한 후, 정합된 정보로부터 비선형 연립방정식을 유도하고 그 해를 수치해석 방법으로 구함으로써, 하나의 카메라만으로 이동로봇의 자기 위치를 검출하는 자기위치 검출시스템을 제공하는데 목적이 있다.The present invention relates to a method of detecting a magnetic position using a single camera under indoor conditions. The present invention relates to detecting a shape of an edge corresponding to a lower end portion of a vertical line in an image, matching it with a map, and then matching the nonlinearity from the matched information. It is an object of the present invention to provide a magnetic position detection system that detects the magnetic position of a mobile robot with only one camera by deriving a system of equations and solving the solution by a numerical method.
상기한 목적을 달성하기 위한 본 발명의 구성을 설명하면 다음과 같다.Referring to the configuration of the present invention for achieving the above object is as follows.
본 발명의 구성은 이동로봇과 카메라 및 컴퓨터로 이루어진 하드웨어와, 카메라로부터 얻어진 영상으로부터 모서리 형태를 추출하는 단계와, 기하학적으로 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지 도간의 정합을 실시는 단계와, 정합된 모서리들 간의 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구함으로써 이동 로봇의 위치 를 검출하는 단계로 이루어진 소프트웨어로 나누어진다. The configuration of the present invention comprises the steps of extracting the edge shape from the hardware consisting of the mobile robot, the camera and the computer, the image obtained from the camera, and matching the edge shape and the two-dimensional map by geometrically possible edge shape and geometric constraints. The implementation is divided into software, which consists of detecting the position of the mobile robot by deriving a nonlinear system of equations from the rigid and perspective transformations between the matched edges and solving the solution numerically.
본 발명의 시스템의 하드웨어 구성을 첨부한 도면과 함께 상세히 설명하면 다음과 같다.Referring to the hardware configuration of the system of the present invention in detail with the accompanying drawings as follows.
본 발명의 검출시스템의 하드웨어는 임의로 이동할 수 있는 로봇구동부(3)와 이를 제어하고 로봇의 전방의 영상을 입력하고 자기위치를 검출하는 컴퓨터부(2)와 영상을 입력하는 카메라부(1)로 구성된다. The hardware of the detection system of the present invention includes a
상기 로봇구동부(3)는 로봇의 이동을 조정하는 부분으로서 일반적으로 두 개 또는 그 이상의 로봇구동모터(7)로 구성되는 바퀴로 이루어지는데, 상단에 카메라부를 부착하게 되며, 실내 환경 하에서 임의의 위치에 해당하는 좌표 (a, b, θ)로 이동할 수 있다. 여기서 a는 X축 좌표, b는 Y축 좌표, θ는 회전을 나타낸다. 상기 카메라부(1)는 실내를 이동하는 동안 전방의 영상을 입력하는 카메라이며 컴퓨터부(2)에 영상을 입력할 수 있는 영상입력기가 포함된다. 상기 컴퓨터부(2)는 카메라부(1)로부터 입력된 영상으로부터 모서리 형태를 추출하고, 모서리 형태와 2차원 지도간의 정합을 실시하며, 정합된 정보를 이용한 변환으로부터 이동로봇의 위치 (a, b, θ)를 검출하는 기능을 담당한다. 컴퓨터부(2)는 구체적으로 모서리추출부(4)와, 정합부(5)와, 위치계산부(6)로 구성되는데, 모서리추출부(4)는 카메라부(1)로부터 얻어진 영상으로부터 모서리 형태를 추출하며, 정합부(5)는 기하학적으로 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지도간의 정합을 실시하며, 위치계산부(6)는 정합된 모서리들 간의 강체 변환과 원근 변환으로 부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구함으로서 이동 로봇의 위치를 검출하게 된다.The
상기한 모서리추출부(4)는 먼저 영상을 입력하고 입력된 영상으로부터 수직경계(10)를 구한 후 다시 수평 방향의 경계를 구한다. 수직경계 사이에 수평 방향의 경계 성분이 존재하는데 이것을 가지경계(11)라고 정의한다. 한 수직경계(10) 사이에는 좌우 양편에 가지경계(11)를 가지게 되고 이 수직경계(10)와 가지경계(11)의 각도에 의해 모서리형태(12)가 정해진다. 얻어진 모서리형태(12)는 도 2의 4가지 중의 하나의 형태를 가지게 되며, 그 과정은 다음과 같다.The corner extractor 4 first inputs an image, obtains a
한 수직경계(10)를 중심으로하여,With respect to one
만약 좌우의 가지경계(11)가 서로 연결되어 있다면,If the left and
만약 좌편가지경계가 90도 보다 크고 우편가지경계가 90도보다 적다면, 모서리형태는 Arrow이다.If the left branch boundary is greater than 90 degrees and the postal branch boundary is less than 90 degrees, the edge is arrow.
만약 좌편가지경계가 90도 보다 작고 우편가지경계가 90도보다 크다면, 모서리형태는 Fork이다.If the left edge is less than 90 degrees and the postal border is greater than 90 degrees, the edge is Fork.
만약 좌편가지경계가 90도 보다 작고 우편가지경계가 90도보다 크다면, 모서리형태는 Fork이다.If the left edge is less than 90 degrees and the postal border is greater than 90 degrees, the edge is Fork.
만약 좌우의 가지경계(11)가 연결되어 있지 않다면,If the left and
만약 아래쪽 가지경계가 오른쪽 이라면, 모서리형태는 Right-L이다.If the lower branch boundary is right, the edge is Right-L.
만약 아래쪽 가지경계가 왼쪽 이라면, 모서리형태는 Left-L이다.If the lower branch boundary is left, the edge is Left-L.
만약 폐색된 가지경계가 오른쪽 이라면, 모서리형태는 Left-L이다.If the occluded branch boundary is to the right, the edge is Left-L.
만약 폐색된 가지경계가 왼쪽 이라면, 모서리형태는 Right-L이다. If the occluded branch boundary is left, the edge is Right-L.
상기한 모서리형태 검출결과를 예를 든다면, 도 4에서 b01, b12, b23, b34, b45는 모두 가지경계가 되며 검출된 모서리형태는 u1, u2 , u3, u4가 된다. Taking the corner shape detection result as described above, in Fig. 4, b01, b12, b23, b34, and b45 all have branch boundaries, and the detected edge shapes are u1, u2, u3, and u4.
상기한 정합부(5)는 기하학적으로 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지도 간의 정합을 실시한다. 도 3은 2차원 지도의 예로서 지도상에 포함된 모든 모서리는 볼록모서리(8)와 오목모서리(9)로 이루어진다. 2차원 지도는 도 2와 같이 표현되며 모서리는 볼록모서리(8)와 오목모서리(9)로 구성된다. 먼저 2차원 지도의 모든 모서리를 순서대로 나열하는데, 그 형태는 볼록과 오목 중의 하나로 이루어진다. 다음은 영상 내에서의 모서리형태에 따른 2차원적 형태를 도 3에 따라 정의하고, 역시 순서대로 볼록과 오목으로 나열한다. 2차원지도 상의 모서리 형태의 순서에 영상 내의 모서리들의 2차원 지도상의 모서리 형태의 순서를 비교하여 가장 잘 정합되는 쌍을 찾는다. 정합된 쌍인 영상 내의 수평선상의 U축 좌표 ui와 지도상의 좌표 (xi,yi)의 좌표를 얻는다. The matching
상기한 위치계산부(6)는 정합된 지도와 영상내의 모서리들을 이용하여 정합하게 되는데 정합된 모서리점 쌍에 대해 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도한다. 이를 설명하기 위해 도 5를 참고한다. 도 5에서 (x, y, z)는 지도 좌표계, (xi,yi)는 지도 좌표계의 모서리점 좌표, (Xc, Yc, Zc)는 카메라 좌표 계, (Cxi, Cyi)는 카메라 좌표계의 모서리점 좌표, ui는 카메라 좌표계의 모서리점의 U축 좌표, (a, b, θ)는 지도좌표계에서의 로봇의 위치, 및 n는 정합된 모서리의 개수를 각각 의미한다. 먼저 지도 좌표계의 모서리점에 대한 카메라 좌표계로의 좌표 변환은 강체변환 T를 적용하면 [수학식 1]과 같다. 여기서 로봇은 X, Y축으로 이동한 것과 Z축을 중심으로 한 회전으로 제한하며 특징점은 수평축에 위치하므로 0으로 둔다.The position calculating unit 6 performs matching using the edges in the matched map and the image. The position calculating unit 6 derives a nonlinear system of equations from the rigid body transformation and the perspective transformation for the matched edge point pairs. See FIG. 5 to describe this. In FIG. 5, (x, y, z) is a map coordinate system, (x i , y i ) is a corner coordinate of the map coordinate system, (X c , Y c , Z c ) is a camera coordinate system, (Cx i , Cy i ) Is the corner coordinate of the camera coordinate system, u i is the U-axis coordinate of the corner point of the camera coordinate system, (a, b, θ) is the position of the robot in the map coordinate system, and n is the number of matched corners, respectively. . First, the coordinate transformation of the corner point of the map coordinate system to the camera coordinate system is expressed by
여기서 강체 변환 행렬 T는 이동과 회전행렬로서 [수학식 2]와 같다.Here, the rigid transformation matrix T is a movement and rotation matrix as shown in [Equation 2].
여기서 전체 좌표계의 모서리점 (xi,yi)는 지도에서 주어지며 추정되어야 할 파라미터는 (a, b, θ)이다. 카메라 좌표계로부터 영상 좌표계로의 원근 변환식은 [수학식 3]과 같다.Here, the corner points (x i , y i ) of the global coordinate system are given in the map and the parameters to be estimated are (a, b, θ). The perspective conversion equation from the camera coordinate system to the image coordinate system is shown in [Equation 3].
위의 [수학식 2]와 [수학식 3]으로부터 (a, b, θ)를 변수로 하는 비선형 연립 방정식이 유도된다. 여기서 특징의 수가 3개 이상이면 수치해석 방법 중 하나인 Newton 방법을 이용해 비선형 연립방정식의 해를 구할 수 있다. 비선형 연립 방정식을 벡터함수 F로 표현하면 n개의 상이한 성분 함수 fn을 가지며 [수학식 4]와 같이 표현할 수 있다. From above [Equation 2] and [Equation 3], nonlinear simultaneous equations with (a, b, θ) as variables are derived. If the number of features is three or more, the nonlinear system of equations can be solved using the Newton method, one of the numerical methods. If the nonlinear simultaneous equation is expressed as a vector function F, it has n different component functions f n and can be expressed as shown in [Equation 4].
변수 (a, b, θ)를 벡터 P로 표현하면 비선형 연립 방정식은 F(a, b, θ)=0 으로 표현할 수 있으며 Jacobian 행렬 J(a, b, θ)는 [수학식 5]와 같다.If the variable (a, b, θ) is expressed as a vector P, the nonlinear simultaneous equation can be expressed as F (a, b, θ) = 0, and the Jacobian matrix J (a, b, θ) is expressed as [Equation 5]. .
벡터 방정식 F(a, b, θ)=0으로 표현한 비선형 연립 방정식의 해 P를 찾기 위한 Newton 방법은, 초기 근사값 P(0)이 주어지면 [수학식 6]과 같이 된다.The Newton's method for finding the solution P of the nonlinear simultaneous equation represented by the vector equation F (a, b, θ) = 0 is given by Equation 6 given the initial approximation P (0) .
해를 구하기 위해 위 과정을 반복하여 구하고 일정한 범위 내에서 값이 변하지 않으면 종료한다. 여기서 구해진 해 P는 기준 좌표에 대한 이동 로봇의 위치와 방향이 되는 것이다. Repeat the above procedure to find a solution and exit if the value does not change within a certain range. The solution P obtained here is the position and direction of the mobile robot with respect to the reference coordinate.
본 발명에서는 실내 환경의 2차원 지도가 주어졌을 때 한 대의 카메라로부터 얻어진 영상으로부터 모서리 형태를 추출하고, 가능한 모서리 형태와 기하학적 제한조건에 의해 모서리 형태와 2차원 지도 간의 정합을 실시하고, 정합된 모서리들 간의 강체 변환과 원근 변환으로부터 비선형 연립방정식을 유도하고 그 해를 수치해석적 방법으로 구하는 이동 로봇의 위치를 검출방법을 제공함으로써, 기존의 방법과는 달리 하나의 카메라를 이용하면서도 모서리 점들 간의 정확한 정합이 가능하므로, 실내에서 움직이는 이동로봇의 자기위치검출이 보다 용이하고 속도가 빠르면서 저가인 자기위치검출기를 제공할 수 있다.According to the present invention, when a two-dimensional map of an indoor environment is given, the corner shape is extracted from an image obtained from a single camera, and the corner shape and the two-dimensional map are matched according to possible corner shape and geometric constraints, and the matched edge By providing a method of detecting the position of a mobile robot that derives a nonlinear system of equations from the rigid and perspective transformation between them and obtains the solution numerically, unlike the conventional method, it is possible to use a single camera, Since the matching is possible, the magnetic position detection of the mobile robot moving indoors is easier, faster, and lower cost magnetic position detector can be provided.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060065605A KR100824744B1 (en) | 2006-07-12 | 2006-07-12 | Localization System and Method for Mobile Robot Using Corner's Type |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060065605A KR100824744B1 (en) | 2006-07-12 | 2006-07-12 | Localization System and Method for Mobile Robot Using Corner's Type |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060094929A KR20060094929A (en) | 2006-08-30 |
KR100824744B1 true KR100824744B1 (en) | 2008-04-24 |
Family
ID=37602557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060065605A KR100824744B1 (en) | 2006-07-12 | 2006-07-12 | Localization System and Method for Mobile Robot Using Corner's Type |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100824744B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101167099B1 (en) | 2010-02-27 | 2012-07-20 | 한양대학교 산학협력단 | Autonomous mobile robot's recognition of structural landmark using vision-based vanishing points |
KR20130047278A (en) * | 2011-10-31 | 2013-05-08 | 주식회사 아이리버 | Method and apparatus of path planning of robot |
KR20210023644A (en) * | 2019-08-23 | 2021-03-04 | 유비테크 로보틱스 코프 | Robot recharging localization method and robot using the same |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100883520B1 (en) * | 2007-07-23 | 2009-02-13 | 한국전자통신연구원 | Method and apparatus for providing indoor eco-map |
CN109099915B (en) * | 2018-06-27 | 2020-12-25 | 未来机器人(深圳)有限公司 | Mobile robot positioning method, mobile robot positioning device, computer equipment and storage medium |
CN109059922B (en) * | 2018-06-29 | 2020-10-16 | 北京旷视机器人技术有限公司 | Mobile robot positioning method, device and system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040107962A (en) * | 2003-06-16 | 2004-12-23 | 주식회사 팬택 | System for detecting moving objects and method thereof |
-
2006
- 2006-07-12 KR KR1020060065605A patent/KR100824744B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040107962A (en) * | 2003-06-16 | 2004-12-23 | 주식회사 팬택 | System for detecting moving objects and method thereof |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101167099B1 (en) | 2010-02-27 | 2012-07-20 | 한양대학교 산학협력단 | Autonomous mobile robot's recognition of structural landmark using vision-based vanishing points |
KR20130047278A (en) * | 2011-10-31 | 2013-05-08 | 주식회사 아이리버 | Method and apparatus of path planning of robot |
KR20210023644A (en) * | 2019-08-23 | 2021-03-04 | 유비테크 로보틱스 코프 | Robot recharging localization method and robot using the same |
KR102247879B1 (en) | 2019-08-23 | 2021-05-03 | 유비테크 로보틱스 코프 | Robot recharging localization method and robot using the same |
Also Published As
Publication number | Publication date |
---|---|
KR20060094929A (en) | 2006-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104848858B (en) | Quick Response Code and be used for robotic vision-inertia combined navigation system and method | |
Lins et al. | Vision-based measurement for localization of objects in 3-D for robotic applications | |
US8265425B2 (en) | Rectangular table detection using hybrid RGB and depth camera sensors | |
EP2615580B1 (en) | Automatic scene calibration | |
KR101758058B1 (en) | Apparatus and method for estimating camera motion using depth information, augmented reality system | |
Klimentjew et al. | Multi sensor fusion of camera and 3D laser range finder for object recognition | |
CN108932475A (en) | A kind of Three-dimensional target recognition system and method based on laser radar and monocular vision | |
Nair et al. | Moving obstacle detection from a navigating robot | |
KR100824744B1 (en) | Localization System and Method for Mobile Robot Using Corner's Type | |
US11625842B2 (en) | Image processing apparatus and image processing method | |
CN107895344B (en) | Video splicing device and method | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
KR100574227B1 (en) | Apparatus and method for separating object motion from camera motion | |
CN104166995B (en) | Harris-SIFT binocular vision positioning method based on horse pace measurement | |
JP2008309595A (en) | Object recognizing device and program used for it | |
Bok et al. | Accurate motion estimation and high-precision 3d reconstruction by sensor fusion | |
Shu et al. | Vision based lane detection in autonomous vehicle | |
Yang | Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment | |
Lin et al. | A visual positioning system for vehicle or mobile robot navigation | |
Suhr et al. | Free Parking Space Detection Using Optical Flow-based Euclidean 3D Reconstruction. | |
Hamzah et al. | A practical method for camera calibration in stereo vision mobile robot navigation | |
Kurka et al. | Automatic estimation of camera parameters from a solid calibration box | |
Hoang et al. | Automatic calibration of camera and LRF based on morphological pattern and optimal angular back-projection error | |
Abdelhamid et al. | Extracting depth information using a correlation matching algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
N231 | Notification of change of applicant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130417 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140415 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20150417 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20160407 Year of fee payment: 9 |
|
LAPS | Lapse due to unpaid annual fee |