KR101068091B1 - Space filtering method for obstacle avoidance robots - Google Patents

Space filtering method for obstacle avoidance robots Download PDF

Info

Publication number
KR101068091B1
KR101068091B1 KR1020090117383A KR20090117383A KR101068091B1 KR 101068091 B1 KR101068091 B1 KR 101068091B1 KR 1020090117383 A KR1020090117383 A KR 1020090117383A KR 20090117383 A KR20090117383 A KR 20090117383A KR 101068091 B1 KR101068091 B1 KR 101068091B1
Authority
KR
South Korea
Prior art keywords
obstacle
point
mobile robot
points
avoidance
Prior art date
Application number
KR1020090117383A
Other languages
Korean (ko)
Other versions
KR20110060710A (en
Inventor
김진욱
김윤구
안진웅
이동하
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020090117383A priority Critical patent/KR101068091B1/en
Publication of KR20110060710A publication Critical patent/KR20110060710A/en
Application granted granted Critical
Publication of KR101068091B1 publication Critical patent/KR101068091B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 다수 개의 거리 센서들을 구비한 모바일 로봇의 장애물 회피를 위한 공간 필터링 방법에 관한 것이다. 상기 공간 필터링 방법은, (a) 다수 개의 거리 센서들을 이용하여 장애물 지점을 확인하고, 각 장애물 지점에 대한 상기 모바일 로봇과의 거리 정보들을 측정하는 단계; (b) 상기 측정된 거리 정보들 중 가장 짧은 장애물 지점을 탐색점으로 설정하는 단계; (c) 상기 탐색점을 중심으로 하여 로봇의 폭(W)을 반지름으로 하는 원의 영역을 탐색하는 단계; (d) 탐색된 원의 영역 내에 있는 장애물 지점들을 모두 탐색하는 단계; (e) 상기 탐색된 장애물 지점들 중 상기 탐색점과 가장 큰 각도로 이격된 위치에 배치된 장애물 지점을 선택하는 단계; (f) 상기 선택된 장애물 지점과 탐색점을 잇는 직선과 상기 (d) 단계에서 탐색된 장애물 지점들을 연결하여 형성된 영역을 주행 회피 영역으로 설정하는 단계; (g) 상기 (a) 단계에서 검색된 장애물 지점들 중 상기 (d) 단계에서 탐색된 장애물 지점들을 제외한 나머지 장애물 지점들에 대하여 상기 (b) 단계 내지 (f) 단계를 수행하는 단계;를 구비한다. The present invention relates to a spatial filtering method for obstacle avoidance of a mobile robot having a plurality of distance sensors. The spatial filtering method may include: (a) identifying obstacle points using a plurality of distance sensors and measuring distance information with the mobile robot for each obstacle point; (b) setting the shortest obstacle point among the measured distance information as a search point; (c) searching for an area of a circle having a radius W of a robot around the search point; (d) searching for all obstacle points in the area of the searched circle; (e) selecting an obstacle point disposed at a position spaced at the greatest angle from the search point among the found obstacle points; (f) setting a region formed by connecting a straight line connecting the selected obstacle point and the search point and the obstacle points searched in step (d) as a driving avoidance area; (g) performing steps (b) to (f) for the remaining obstacle points except for the obstacle points found in the step (d) among the obstacle points found in the step (a). .

본 발명에 의해 모바일 로봇보다 좁은 폭의 장애물이 없는 공간을 주행 가능 영역에서 제외시킴으로써, 모바일 로봇의 자율 주행 및 장애물 회피의 효율성을 향상시킬 수 있게 된다. According to the present invention, by excluding a space without an obstacle having a narrower width than the mobile robot from the movable area, the efficiency of autonomous driving and obstacle avoidance of the mobile robot can be improved.

모바일 로봇, 장애물 회피, 공간 필터링 Mobile robot, obstacle avoidance, space filtering

Description

모바일 로봇의 장애물 회피를 위한 공간 필터링 방법{Space filtering method for obstacle avoidance robots}Space filtering method for obstacle avoidance robots}

본 발명은 로봇을 포함한 이동체에서의 자율주행 및 장애물 회피 방법에 관한 것으로, 보다 구체적으로는 모바일 로봇에 장착된 다수 개의 거리 센서들에 의해 측정된 장애물 정보들을 이용하여 자율 주행 및 장애물 회피를 위한 전처리 및 공간 필터링 방법에 관한 것이다. The present invention relates to a method for autonomous driving and obstacle avoidance in a moving body including a robot, and more specifically, preprocessing for autonomous driving and obstacle avoidance using obstacle information measured by a plurality of distance sensors mounted on a mobile robot. And a spatial filtering method.

종래의 로봇을 포함한 이동체의 센서 데이터를 이용한 자율주행 및 장애물회피 기술에서 센서 데이터에 대한 필터링(filtering)은 주로 센서의 오류에 기반한 잡음(noise)를 제거하는 기법 위주로 연구/개발에 되어 왔으며, 잡음(noise) 필터링 후에 자율주행에 적용하기 전 단계에서 로봇의 주행 성능향상을 위해 제거되어야 할 공간에 대한 전처리 방법은 많지 않다. In the autonomous driving and obstacle avoidance technology using the sensor data of the mobile body including the conventional robot, the filtering of the sensor data has been mainly researched and developed mainly on the technique of removing the noise based on the error of the sensor. (noise) There are not many pre-processing methods for space to be removed to improve the driving performance of the robot in the stage before filtering and autonomous driving.

도 1은 일반적으로 로봇에 적용되는 장애물 회피 퍼지 제어기의 구조를 개략적으로 도시한 블록도이다. 도 1을 참조하면, 센서 데이터가 입력되면, 퍼지화기를 통해 퍼지화시킨 후, 퍼지규칙 베이스를 적용하여 퍼지 추론 유니트를 거친후 비퍼지화기를 비퍼지화시켜 퍼지 제어 신호를 출력하게 된다. 1 is a block diagram schematically illustrating a structure of an obstacle avoidance purge controller generally applied to a robot. Referring to FIG. 1, when sensor data is input, a fuzzy through a purifier, a fuzzy rule base is applied, a fuzzy inferencing unit is passed through a fuzzy purifier, and a fuzzy control signal is output.

모바일 로봇이 자율 주행함에 있어, 장애물이 없더라도 모바일 로봇이 통과할 수 없는 폭의 통로인 경우 주행 가능 영역이 될 수 없으나, 기존의 장애물 회피 퍼지 제어기에서는 이런 상황을 정확하게 판단하지 못하는 문제가 있었다. In the autonomous driving of the mobile robot, even if there is no obstacle, the mobile robot cannot be a driving area when the path of the mobile robot cannot pass, but there is a problem that the conventional obstacle avoidance fuzzy controller cannot accurately determine such a situation.

전술한 문제점을 해결하기 위한 본 발명의 목적은 거리 센서들에 의해 측정된 센서 데이터들을 이용하여 자율주행 및 장애물 회피 성능을 향상시키기 위하여 장애물 회피 퍼지 제어기에 적용되는 장애물 회피를 위한 공간 필터링 방법을 제공하는 것이다. SUMMARY OF THE INVENTION An object of the present invention is to provide a spatial filtering method for obstacle avoidance applied to an obstacle avoidance fuzzy controller to improve autonomous driving and obstacle avoidance performance using sensor data measured by distance sensors. It is.

전술한 기술적 과제를 달성하기 위한 본 발명의 특징은, 다수 개의 거리 센서들을 구비한 모바일 로봇의 장애물 회피를 위한 공간 필터링 방법에 관한 것으로서, 상기 공간 필터링 방법은, (a) 다수 개의 거리 센서들을 이용하여 장애물 지점을 확인하고, 각 장애물 지점에 대한 상기 모바일 로봇과의 거리 정보들을 측정하는 단계; (b) 상기 측정된 거리 정보들 중 가장 짧은 장애물 지점을 탐색점으로 설정하는 단계; (c) 상기 탐색점을 중심으로 하여 사전에 설정된 탐색반경(W)을 반지름으로 하는 원의 영역을 탐색하는 단계; (d) 탐색된 원의 영역 내에 있는 장애물 지점들을 모두 탐색하는 단계; (e) 상기 탐색된 장애물 지점들 중 상기 탐색점과 가장 큰 각도로 이격된 위치에 배치된 장애물 지점을 선택하는 단계; (f) 상기 선택된 장애물 지점과 탐색점을 잇는 직선과 상기 (d) 단계에서 탐색된 장애물 지점들을 연결하여 형성된 영역을 주행 회피 영역으로 설정하는 단계; (g) 상기 (a) 단계에서 검색된 장애물 지점들 중 상기 (d) 단계에서 탐색된 장애물 지점들을 제외한 나머지 장애물 지점들에 대하여 상기 (b) 단계 내지 (f) 단계를 수행하는 단계; 를 구비한다. A feature of the present invention for achieving the above technical problem, relates to a spatial filtering method for obstacle avoidance of a mobile robot having a plurality of distance sensors, the spatial filtering method, (a) using a plurality of distance sensors Identifying obstacle points and measuring distance information with the mobile robot for each obstacle point; (b) setting the shortest obstacle point among the measured distance information as a search point; (c) searching for an area of a circle having a radius of a preset search radius W based on the search point; (d) searching for all obstacle points in the area of the searched circle; (e) selecting an obstacle point disposed at a position spaced at the greatest angle from the search point among the found obstacle points; (f) setting a region formed by connecting a straight line connecting the selected obstacle point and the search point and the obstacle points searched in step (d) as a driving avoidance area; (g) performing steps (b) to (f) for the remaining obstacle points except for the obstacle points found in the step (d) among the obstacle points found in the step (a); It is provided.

전술한 특징을 갖는 공간 필터링 방법에 있어서, 상기 탐색 반경(W)는 상기 모바일 로봇의 폭으로 설정되는 것이 바람직하다. In the spatial filtering method having the above-mentioned feature, the search radius W is preferably set to the width of the mobile robot.

전술한 특징을 갖는 공간 필터링 방법은 모바일 로봇의 장애물 회피 퍼지 제어기에 적용되는 것이 바람직하다. The spatial filtering method having the above-described features is preferably applied to the obstacle avoidance fuzzy controller of the mobile robot.

본 발명에 따른 공간 필터링 방법을 장애물 회피 퍼지 제어기의 전처리 과정에 적용함으로써, 모바일 로봇의 크기보다 좁은 폭의 장애물이 없는 공간을 주행 가능 영역에서 제외시킴으로써, 모바일 로봇의 자율 주행 및 장애물 회피의 효율성을 향상시킬 수 있게 된다. By applying the space filtering method according to the present invention to the pre-processing of the obstacle avoidance fuzzy controller, by removing the space without the obstacle of the width narrower than the size of the mobile robot in the runable region, the efficiency of autonomous driving and obstacle avoidance of the mobile robot It can be improved.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 장애물 회피를 위한 공간 필터링 방법을 구체적으로 설명한다. 본 발명의 바람직한 실시예에 따른 장애물 회피를 위한 공간 필터링 방법은 장애물 회피 퍼지 제어기에서 로봇의 크기보다 좁은 폭의 장애물이 없는 공간을 주행이 불가능한 공간 영역으로 연산되도록 하여, 모바일 로봇의 자율 주행 및 장애물 회피 성능을 향상시키는 것을 특징으로 한다. Hereinafter, a spatial filtering method for obstacle avoidance according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. The space filtering method for obstacle avoidance according to the preferred embodiment of the present invention allows the obstacle avoidance fuzzy controller to calculate a space without an obstacle that is narrower than the size of the robot as a non-driving space area, thereby autonomous driving and obstacle of the mobile robot. It is characterized by improving the avoidance performance.

본 발명의 바람직한 실시예에 따른 공간 필터링 방법은 장애물 회피 퍼지 제 어기를 이용하여 다수 개의 거리 센서들을 구비한 모바일 로봇에서 거리 센서들로부터 측정된 데이터들을 연산함으로써 장애물 회피를 위한 공간 필터링을 하게 된다. 도 2는 본 발명의 바람직한 실시예에 따라 장애물 회피 퍼지 제어기에서 사용하는 거리 센서의 수와 각 센서에 대한 방향 정보를 나타낸다. 도 2의 (a)는 로봇의 전면 방향을 기준으로 한 초음파 센서의 방향 좌표를 나타내며, 도 2의 (b)에 도시된 바와 같이 각 거리 센서가 20°각도 간격으로 배치되어 있다. 본 발명의 일 실시 형태에 따른 모바일 로봇은 10개의 센서가 사용되며 0번부터 9번까지의 센서에 대한 각도가 모두 고정되어 있다. 상기 장애물 회피 퍼지 제어기는 로봇이 통과할 수 없는 폭의 공간은 장애물로 인식하도록 함으로써, 장애물 회피 성능을 향상시켜 준다. The spatial filtering method according to the preferred embodiment of the present invention performs spatial filtering for obstacle avoidance by calculating data measured from distance sensors in a mobile robot having a plurality of distance sensors using an obstacle avoidance fuzzy controller. 2 shows the number of distance sensors used in the obstacle avoidance purge controller and direction information for each sensor according to a preferred embodiment of the present invention. FIG. 2 (a) shows the direction coordinates of the ultrasonic sensor with respect to the front direction of the robot, and as shown in FIG. 2 (b), the distance sensors are disposed at 20 ° angle intervals. In the mobile robot according to the exemplary embodiment of the present invention, ten sensors are used, and all angles of the sensors 0 to 9 are fixed. The obstacle avoidance fuzzy controller improves obstacle avoidance performance by allowing the robot to recognize a space having a width that cannot pass through as an obstacle.

이하, 도 3을 참조하여 본 발명의 바람직한 실시예에 따른 장애물 회피 퍼지 제어기에서 다수 개의 거리 센서들에 의해 측정된 장애물 정보들을 이용하여 장애물 회피를 위한 공간 필터링 방법을 구체적으로 설명한다. 도 3은 본 발명의 바람직한 실시예에 따른 공간 필터링 방법을 순차적으로 도시한 흐름도이다. Hereinafter, a spatial filtering method for obstacle avoidance will be described in detail using obstacle information measured by a plurality of distance sensors in an obstacle avoidance fuzzy controller according to an exemplary embodiment of the present invention. 3 is a flowchart sequentially illustrating a spatial filtering method according to a preferred embodiment of the present invention.

먼저 다수 개의 거리 센서들을 이용하여 장애물 지점들을 확인하고, 각 장애물 지점들과 상기 모바일 로봇과의 거리 정보들을 측정한다(단계 300). 이때, 일정 각도를 간격으로 하여 배치된 각 거리 센서들로부터 장애물에 대한 위치 정보와 거리 정보들을 측정한다. 다음, 상기 측정된 거리 정보들 중 가장 짧은 거리에 있는 장애물 지점을 탐색점으로 설정한다(단계 310).  First, obstacle points are identified using a plurality of distance sensors, and distance information between each obstacle point and the mobile robot is measured (step 300). At this time, the position information and the distance information of the obstacle is measured from each distance sensor arranged at a predetermined angle interval. Next, an obstacle point at the shortest distance among the measured distance information is set as a search point (step 310).

도 4는 본 발명의 바람직한 실시예에 따라 센서 데이터의 전처리 과정을 설 명하기 위하여 도시한 그래프들이다. 다음, 도 4의 (a)에 도시된 바와 같이, 상기 탐색점(x1,y1)을 중심으로 하여 사전에 설정된 탐색반경(W)을 반지름으로 하는 원의 영역을 설정한다(단계 320). 탐색점(x1,y1)으로부터 탐색 반경(W)을 반지름으로 하는 원의 영역은 수학식 1로 표현될 수 있다. 4 is a graph illustrating a preprocessing process of sensor data according to a preferred embodiment of the present invention. Next, as shown in FIG. 4A, an area of a circle having a radius of a previously set search radius W is set based on the search points x1 and y1 (step 320). An area of a circle having a radius of the search radius W from the search points x1 and y1 may be expressed by Equation 1 below.

Figure 112009073976690-pat00001
Figure 112009073976690-pat00001

탐색된 원의 영역 내에 있는 장애물 지점들을 모두 탐색한다(단계 330). 상기 탐색 반경(W)는 모바일 로봇의 폭으로 설정하는 것이 바람직하나, 모바일 로봇의 물리적인 폭의 크기일 수 있으며, 안전된 주행을 위하여 설계자가 그 이상의 값으로 임의로 설정할 수도 있을 것이다. Search for all obstacle points in the area of the searched circle (step 330). The search radius (W) is preferably set to the width of the mobile robot, but may be the size of the physical width of the mobile robot, the designer may arbitrarily set to a higher value for safe driving.

다음, 상기 탐색된 장애물 지점들 중 상기 탐색점과 가장 큰 각도로 이격된 위치에 배치된 장애물 지점을 선택한다(단계 340). 도 4의 (b)를 참조하여 단계 230을 보다 구체적으로 설명한다. 탐색점(x1,y1)에 해당하는 각도는 도 4의 (b)와 같이 정면을 기준으로 θ1이 되며, θ1에 대한 측정 거리는 l1이 된다. 센서에서 측정된 장애물 지점 중 수학식 1로 표현되는 영역내에 존재하는 점을 찾고 그 중 각도값의 차이가 큰 점을 선택한다. 여기서는 영역내에 존재하는 두 점 (x2, y2), (x4, y4) 이 있는데, θ1 - θ2 보다 θ1 - θ4 가 더 크므로 (x4, y4) 이 선택된다. 다음, 도 4의 (c)에 도시된 바와 같이 탐색점 (x1, y1) 와 선택점 (x4, y4)을 잇는 직선을 긋는다(단계 350). 이때, 직선은 수학식 2로 표현된다.Next, an obstacle point disposed at a position spaced apart from the search point by the largest angle among the searched obstacle points is selected (step 340). Referring to FIG. 4B, step 230 will be described in more detail. Search points, and the θ 1 relative to the front as the angle (b) of Figure 4 corresponding to (x1, y1), is the measured distance l 1 to θ 1. Among the obstacle points measured by the sensor, a point existing in the area represented by Equation 1 is found, and a point having a large difference in angle value is selected. Here, two points existing in the area (x 2, y 2), (x 4, y 4) is there, θ 1 - (x 4, y 4) is selected as the more large θ 4 - θ 1 than θ 2 . Next, as illustrated in FIG. 4C, a straight line connecting the search points (x 1 , y 1 ) and the selection points (x 4 , y 4 ) is drawn (step 350). At this time, the straight line is represented by Equation 2.

Figure 112009073976690-pat00002
Figure 112009073976690-pat00002

탐색점 (x1, y1) 와 선택점 (x4, y4)을 잇는 직선과 각도를 가지는 직선의 교점은 수학식 3의 두 연립 방정식의 해와 같다.The intersection of a straight line having an angle and a straight line connecting the search point (x 1 , y 1 ) and the selection point (x 4 , y 4 ) is the same as the solution of the two simultaneous equations of Equation 3.

Figure 112009073976690-pat00003
Figure 112009073976690-pat00003

예를 들어 수학식 3의 연립 방정식으로 도 4의 Sensor 2에 해당하는 직선과의 교점 (x2', y2')을 구할 수 있다. Sensor 2의 거리 측정치를 l2이라고 하고 (x2', y2')와 로봇의 위치인 원점 (0, 0) 사이의 거리를 l2'했을 때, l2'보다 l2가 더 클 경우에는 아래의 경우에 해당하는 경우에는 수학식 4에 의해 Sensor 2의 거리 데이터를 l2 '로 변경한다.For example, an intersection point (x 2 ', y 2 ') with a straight line corresponding to Sensor 2 of FIG. That the distance measurement Sensor 2 l 2, and if (x 2 ', y 2') and a 'when, l 2, the distance l 2 between the position of the origin (0, 0) of the robot than l 2 is greater in the case corresponding to the case below, l the distance data from the Sensor 2 by equation 42 Change to '.

Figure 112009073976690-pat00004
Figure 112009073976690-pat00004

다음, 상기 선택점과 탐색점을 잇는 직선과 상기 원 내부에서 탐색된 장애물 지점들을 연결하여 형성된 영역을 주행 회피 영역으로 설정한다(단계 360). 도 5의 (b)에 빗금으로 표시된 영역('a')이 본 발명에 의해 계산되어 설정된 주행 회피 영역이다.Next, an area formed by connecting the straight line connecting the selection point and the search point and the obstacle points searched in the circle is set as the driving avoidance area (step 360). An area 'a' indicated by hatching in Fig. 5B is a driving avoidance area calculated and set by the present invention.

도 5의 (a)는 종래의 개념적인 주행 가능 영역을 도시한 것이며, 도 5의 (b)는 본 발명에 의하여 센서 데이터 전처리 방법에 의해 새로이 설정된 주행 가능 영역을 도시한 것이다. 도 5의 청색 영역은 주행 가능 영역이며, 도 5의 영역('a')은 센서 데이터 전처리 전에는 주행 가능 영역으로 퍼지 제어기에서 인식 되었으나 로봇이 주행할 수 있는 폭이 되지 않으므로 본 발명에 의하여 주행 가능한 영역에서 제외되었다. 따라서, 본 발명에 의하여 퍼지 제어기의 장애물 회피 정확도가 커지게 된다.FIG. 5A illustrates a conventional conceptual driveable area, and FIG. 5B illustrates a driveable area newly set by the sensor data preprocessing method according to the present invention. The blue area of FIG. 5 is a runnable area, and the area 'a' of FIG. 5 is recognized as a runnable area before the sensor data preprocessing, but the robot can travel by the present invention because it is not a width that the robot can travel. Excluded from area Therefore, the obstacle avoidance accuracy of the fuzzy controller is increased by the present invention.

위와 같은 방식으로 하나의 탐색점에 대한 공간 탐색 및 필터링이 완료되며, 필터링에 관여하거나 값이 변경된 측정점은 다음 필터링을 위한 탐색점의 후보군에 서 제외된다. 만약 공간 필터링의 조건이 만족되지 않아 필터링이 이루어지지 않은 경우에는 현재 탐색점 만을 후보군에서 제외한다. 이 후 나머지 측정점에 대한 공간 필터링을 위해 탐색점을 재선정하는데, 선정하는 방법은 처음과 마찬가지로 측정점 중 가장 측정거리가 짧은 점이 선정이된다. 선정된 측정점에 대해 공간 필터링이 수행되고, 필터링에 관여하는 측정점을 탐색점 후보군에서 제외시키는 방식을 반복적으로 수행한다. 만약 모든 측정점이 후보군에서 탈락되면 공간 필터링은 종료된다.In this way, the spatial search and filtering of one search point is completed, and the measurement point involved in the filtering or the changed value is excluded from the candidate group of the search point for the next filtering. If the filtering is not performed because the condition of the spatial filtering is not satisfied, only the current search point is excluded from the candidate group. After that, the search point is reselected for spatial filtering of the remaining measuring points. As in the first method, the shortest measuring distance among the measuring points is selected. Spatial filtering is performed on the selected measurement point, and the method of excluding the measurement point involved in the filtering from the search point candidate group is repeatedly performed. If all measurement points are dropped from the candidate group, spatial filtering is terminated.

이상에서 본 발명에 대하여 그 바람직한 실시예를 중심으로 설명하였으나, 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 그리고, 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. Although the present invention has been described above with reference to preferred embodiments thereof, this is merely an example and is not intended to limit the present invention, and those skilled in the art do not depart from the essential characteristics of the present invention. It will be appreciated that various modifications and applications which are not illustrated above in the scope are possible. And differences relating to such modifications and applications should be construed as being included in the scope of the invention as defined in the appended claims.

본 발명에 따른 공간 필터링 방법은 모바일 로봇과 같은 이동체에서의 장애물 회피 알고리즘으로 사용될 수 있다. The spatial filtering method according to the present invention can be used as an obstacle avoidance algorithm in a moving object such as a mobile robot.

도 1은 일반적으로 로봇에 적용되는 장애물 회피 퍼지 제어기의 구조를 개략적으로 도시한 블록도이다. 1 is a block diagram schematically illustrating a structure of an obstacle avoidance purge controller generally applied to a robot.

도 2는 본 발명의 바람직한 실시예에 따라 장애물 회피 퍼지 제어기에서 사용하는 거리 센서의 수와 각 센서에 대한 방향 정보를 나타낸다. 2 shows the number of distance sensors used in the obstacle avoidance purge controller and direction information for each sensor according to a preferred embodiment of the present invention.

도 3은 본 발명의 바람직한 실시예에 따른 공간 필터링 방법을 순차적으로 도시한 흐름도이다. 3 is a flowchart sequentially illustrating a spatial filtering method according to a preferred embodiment of the present invention.

도 4는 본 발명의 바람직한 실시예에 따라 센서 데이터의 전처리 과정을 설명하기 위하여 도시한 그래프들이다. 4 is a graph illustrating a preprocessing process of sensor data according to a preferred embodiment of the present invention.

도 5의 (a)는 종래의 개념적인 주행 가능 영역을 도시한 것이며, 도 5의 (b)는 본 발명에 의하여 센서 데이터 전처리 방법에 의해 새로이 설정된 주행 가능 영역을 도시한 것이다. FIG. 5A illustrates a conventional conceptual driveable area, and FIG. 5B illustrates a driveable area newly set by the sensor data preprocessing method according to the present invention.

Claims (4)

다수 개의 거리 센서들을 구비한 모바일 로봇의 장애물 회피를 위한 공간 필터링 방법에 있어서,In the spatial filtering method for obstacle avoidance of a mobile robot having a plurality of distance sensors, (a) 다수 개의 거리 센서들을 이용하여 장애물 지점을 확인하고, 각 장애물 지점에 대한 상기 모바일 로봇과의 거리 정보들을 측정하는 단계;(a) identifying obstacle points using a plurality of distance sensors and measuring distance information with the mobile robot for each obstacle point; (b) 상기 측정된 거리 정보들 중 가장 짧은 장애물 지점을 탐색점으로 설정하는 단계;(b) setting the shortest obstacle point among the measured distance information as a search point; (c) 상기 탐색점을 중심으로 하여 사전에 설정된 탐색반경(W)을 반지름으로 하는 원의 영역을 탐색하는 단계;(c) searching for an area of a circle having a radius of a preset search radius W based on the search point; (d) 탐색된 원의 영역 내에 있는 장애물 지점들을 모두 탐색하는 단계;(d) searching for all obstacle points in the area of the searched circle; (e) 상기 탐색된 장애물 지점들 중 상기 탐색점과 가장 큰 각도로 이격된 위치에 배치된 장애물 지점을 선택하는 단계;(e) selecting an obstacle point disposed at a position spaced at the greatest angle from the search point among the found obstacle points; (f) 상기 선택된 장애물 지점과 탐색점을 잇는 직선과 상기 (d) 단계에서 탐색된 장애물 지점들을 연결하여 형성된 영역을 주행 회피 영역으로 설정하는 단계;(f) setting a region formed by connecting a straight line connecting the selected obstacle point and the search point and the obstacle points searched in step (d) as a driving avoidance area; 를 구비하여, 모바일 로봇의 장애물 회피를 위한 공간 필터링 방법. Including a space filtering method for obstacle avoidance of the mobile robot. 제1항에 있어서, 상기 탐색 반경(W)는 상기 모바일 로봇의 폭으로 설정되는 것을 특징으로 하는 모바일 로봇의 장애물 회피를 위한 공간 필터링 방법. The method of claim 1, wherein the search radius (W) is set to the width of the mobile robot space filtering method for obstacle avoidance of the mobile robot. 제1항에 있어서, 상기 공간 필터링 방법은 (g) 상기 (a) 단계에서 검색된 장애물 지점들 중 상기 (d) 단계에서 탐색된 장애물 지점들을 제외한 나머지 장애물 지점들에 대하여 상기 (b) 단계 내지 (f) 단계를 수행하는 단계를 더 구비하고, 상기 (g) 단계는 모든 검색된 장애물 지점들에 대해 반복 수행되는 것을 특징으로 하는 모바일 로봇의 장애물 회피를 위한 공간 필터링 방법. The method of claim 1, wherein the spatial filtering method comprises steps (b) to (g) for the remaining obstacle points except for the obstacle points found in the step (d) of the obstacle points found in the step (a). and further performing step f), wherein step (g) is repeated for all retrieved obstacle points. 제1항에 있어서, 상기 공간 필터링 방법은 모바일 로봇의 장애물 회피 퍼지 제어기에 적용되는 것을 특징으로 하는 모바일 로봇의 장애물 회피를 위한 공간 필터링 방법. The spatial filtering method for obstacle avoidance of claim 1, wherein the spatial filtering method is applied to an obstacle avoidance fuzzy controller of the mobile robot.
KR1020090117383A 2009-11-30 2009-11-30 Space filtering method for obstacle avoidance robots KR101068091B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090117383A KR101068091B1 (en) 2009-11-30 2009-11-30 Space filtering method for obstacle avoidance robots

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090117383A KR101068091B1 (en) 2009-11-30 2009-11-30 Space filtering method for obstacle avoidance robots

Publications (2)

Publication Number Publication Date
KR20110060710A KR20110060710A (en) 2011-06-08
KR101068091B1 true KR101068091B1 (en) 2011-09-27

Family

ID=44395434

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090117383A KR101068091B1 (en) 2009-11-30 2009-11-30 Space filtering method for obstacle avoidance robots

Country Status (1)

Country Link
KR (1) KR101068091B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114089756B (en) * 2021-11-16 2024-04-30 合肥瓦力觉启机器人科技有限公司 Robot obstacle avoidance method and system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0161043B1 (en) * 1994-07-12 1999-01-15 김광호 Moving control method for robot
KR20040087579A (en) * 2003-04-08 2004-10-14 엘지전자 주식회사 Obstacle detection apparatus for mobile robot
KR100524707B1 (en) 2003-04-04 2005-11-01 엘지전자 주식회사 Mapping method by path trace for mobile robot
KR101000332B1 (en) 2009-12-31 2010-12-13 고려대학교 산학협력단 Drivable road detecting method and outdoor driving robot using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0161043B1 (en) * 1994-07-12 1999-01-15 김광호 Moving control method for robot
KR100524707B1 (en) 2003-04-04 2005-11-01 엘지전자 주식회사 Mapping method by path trace for mobile robot
KR20040087579A (en) * 2003-04-08 2004-10-14 엘지전자 주식회사 Obstacle detection apparatus for mobile robot
KR101000332B1 (en) 2009-12-31 2010-12-13 고려대학교 산학협력단 Drivable road detecting method and outdoor driving robot using the same

Also Published As

Publication number Publication date
KR20110060710A (en) 2011-06-08

Similar Documents

Publication Publication Date Title
CN111684474B (en) Arithmetic device, arithmetic method, and recording medium
WO2017041730A1 (en) Method and system for navigating mobile robot to bypass obstacle
CN113110522B (en) Robot autonomous exploration method based on composite boundary detection
CN109773776B (en) Gripping method, gripping system, and storage medium
CN107703945A (en) A kind of intelligent farm machinery paths planning method of multiple targets fusion
JP2008126401A (en) Method, apparatus, and medium for estimating posture of mobile robot based on particle filter base
US20100004861A1 (en) Obstacle detecting apparatus and method
KR101789217B1 (en) Apparatus and Method for Building Indoor Map using Geometric Features and Probability Method
KR20110015765A (en) Path planning apparatus of robot and method thereof
KR20180092960A (en) High-speed search randomization Feedback-based motion planning
JP4985163B2 (en) Route search system, route search method, and autonomous mobile body
JP2016110576A (en) Self position estimation device and mobile body with self position estimation device
Li et al. Simulation analysis of a deep reinforcement learning approach for task selection by autonomous material handling vehicles
CN114879660B (en) Robot environment sensing method based on target drive
JP5732921B2 (en) MOBILE MAP DEVICE, PROCESSING METHOD THEREOF, AND PROGRAM
Huang et al. TIP: Task-informed motion prediction for intelligent vehicles
KR101068091B1 (en) Space filtering method for obstacle avoidance robots
CN112828883B (en) Robot environment exploration method and system in unknown environment
Regier et al. Classifying obstacles and exploiting class information for humanoid navigation through cluttered environments
KR101436858B1 (en) Path generating method for autonomous mobile robot using uncertainty
KR101552773B1 (en) Method for localization of mobile robot using artificial landmark
JP6438354B2 (en) Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus
JP3884103B2 (en) Topological map arithmetic apparatus and method considering continuity of input pattern change
CN109579753B (en) Effective online detection system
Ilias et al. Indoor mobile robot localization using KNN

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140829

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150902

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160628

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee