KR101049155B1 - Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus - Google Patents
Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus Download PDFInfo
- Publication number
- KR101049155B1 KR101049155B1 KR1020110010339A KR20110010339A KR101049155B1 KR 101049155 B1 KR101049155 B1 KR 101049155B1 KR 1020110010339 A KR1020110010339 A KR 1020110010339A KR 20110010339 A KR20110010339 A KR 20110010339A KR 101049155 B1 KR101049155 B1 KR 101049155B1
- Authority
- KR
- South Korea
- Prior art keywords
- obstacle
- autonomous mobile
- mobile device
- moving
- detected
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000001514 detection method Methods 0.000 claims description 61
- 230000033001 locomotion Effects 0.000 claims description 28
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000003786 synthesis reaction Methods 0.000 claims description 2
- 230000036544 posture Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 6
- 241000282412 Homo Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치에 관한 것이다.The present invention relates to an obstacle determination method of the autonomous mobile device and an autonomous mobile device using the same.
일반적으로 자율이동로봇과 같은 자율이동장치는 여러 산업 분야에 걸쳐 사용되고 있다.In general, autonomous mobile devices such as autonomous mobile robots are used in various industries.
상기 자율이동로봇은 장애자를 도와주거나, 공장에서 물류이송 작업을 실시하거나, 감시 및 경계, 우주탐사, 핵폐기물 처리장 또는 심해와 같이 위험한 환경에서 인간을 대신하여 수행하고 있다.The autonomous mobile robot assists the disabled, performs logistical transfer operations at the factory, or performs human operations in dangerous environments such as monitoring and alerting, space exploration, nuclear waste treatment plants, or the deep sea.
뿐만 아니라, 자율이동로봇은 무인 청소기, 무인 잔디깎기 등으로도 사용이 가능하며, 군사적인 목적으로도 사용되고 있다.In addition, autonomous mobile robots can be used as unmanned cleaners, unmanned lawn mowers, and are also used for military purposes.
그러나, 현재까지 자율이동로봇과 같은 자율이동장치의 인지능력과 추론능력은 인간과 비교할 때 열등하기 때문에, 기능이 매우 제한적인 단점을 가질 수밖에 없었다.However, to date, the cognitive ability and reasoning ability of autonomous mobile devices such as autonomous mobile robots are inferior to those of humans, so they have a very limited disadvantage.
따라서, 이동 및 사물 판단을 비롯하여 많은 분야에서 로봇의 지능을 높이기 위한 연구가 이루어지고 있다.Therefore, researches to increase the intelligence of robots in many fields, including movement and object judgment, have been made.
무엇보다 자율이동로봇과 같은 자율이동장치의 가장 기본적인 기능은 원하는 목표지점까지 자유로이 이동할 수 있어야 한다.Above all, the most basic function of autonomous mobile devices such as autonomous mobile robots should be able to move freely to the desired target point.
상기 자율이동로봇이 자유롭게 이동하기 위해서는 스스로 어디에 있는지를 판단할 수 있는 능력과 이동 경로 주변의 장애물을 식별하는 능력이 필요하다.In order for the autonomous mobile robot to move freely, it needs the ability to determine where it is and the ability to identify obstacles around the movement path.
이러한 기능들은 자율이동로봇의 위치측정(localization)기술, 장애물 검출 및 지도 작성(map building)기술에 의해 수행될 수 있다.These functions can be performed by the localization technology, obstacle detection and map building technology of the autonomous mobile robot.
그 중에서 자율이동로봇과 같은 자율이동장치가 이동할 전방 영역에 대한 장애물을 감지하고, 상기 장애물이 사람인지 아니면 단순 장애물인지 유무를 파악하기 위한 관심이 증대되었다.Among them, interest has been increased to detect obstacles to the front area to which an autonomous mobile device such as an autonomous mobile robot moves, and to determine whether the obstacle is a human or a simple obstacle.
만약, 사람일 경우에는 자율이동로봇의 이동 경로를 수정하여 상기 사람을 회피하거나, 새로운 이동 경로를 찾기 위한 기술 개발이 요구되며, 이에 대한 다양한 연구 개발이 진행되고 있다.If a person is a person, it is necessary to develop a technology for avoiding the person or finding a new moving path by modifying the moving path of the autonomous mobile robot, and various research and developments have been in progress.
본 발명은 상기한 점을 감안하여 안출된 것으로서, 자율적으로 이동 가능한 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치를 제공한다.The present invention has been made in view of the above, and provides an obstacle determination method of an autonomous mobile device that can move autonomously and an autonomous mobile device using the same.
또한 본 발명은 장애물이 사람일 경우에 보다 정확하게 판단 가능한 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치를 제공한다.In addition, the present invention provides an obstacle determination method of the autonomous mobile device that can be more accurately determined when the obstacle is a person and an autonomous mobile device using the same.
또한 본 발명은 이동 장애물과 고정 장애물을 분류하되 특히 사람과 같은 이동 장애물을 분류하고 정확히 판단하기 위한 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치를 제공한다.In addition, the present invention provides a method for determining an obstacle of an autonomous mobile device and an autonomous mobile device using the same.
본 발명의 일 특징에 따른 장애물 판단방법은, 전방 영역에 대한 장애물을 검출하는 장애물 검출 단계와, 장애물이 이동 장애물인지, 고정 장애물인지 분류하는 장애물 분류단계 및 장애물이 어떤 물체에 해당하는지 판단하는 장애물 판단단계를 포함한다.Obstacle determination method according to an aspect of the present invention, the obstacle detection step for detecting the obstacle to the front area, the obstacle classification step for classifying whether the obstacle is a moving obstacle or a fixed obstacle and the obstacle to determine which object the obstacle Determination step is included.
상기 장애물 판단방법의 장애물 검출 단계는, 상기 장애물의 윤곽선을 검출하는 윤곽선 검출 단계와, 윤곽선 검출 단계에서 검출된 윤곽선을 규정된 형태로 변환시키는 데이터 변환 단계와, 변환된 데이터를 사전 정의 물체 형상과 비교하는 데이터 비교 단계 및 특정 종류의 장애물에 해당되는지 대비하는 데이터 매칭 단계를 포함할 수 있다.The obstacle detecting step of the obstacle determining method may include an outline detecting step of detecting the outline of the obstacle, a data converting step of converting the outline detected in the outline detecting step into a prescribed shape, and converting the converted data into a predefined object shape. The method may include a data comparing step for comparing and a data matching step for preparing whether a specific kind of obstacle corresponds.
상기 장애물 판단방법은, 장애물의 크기를 측정 또는 추정하여 일정 크기 이상이면 장애물로 선정하는 후보 장애물 선정 단계를 더 포함하고 후보 장애물로 선정된 장애물에 대해서 데이터 변환을 수행할 수 있다.The obstacle determining method may further include a candidate obstacle selecting step of measuring or estimating the size of the obstacle and selecting the obstacle as an obstacle if the size is larger than a predetermined size, and performing data conversion on the obstacle selected as the candidate obstacle.
상기 장애물 판단방법의 후보 장애물 선정 단계는, 장애물까지의 거리와 검출된 윤곽선을 이용하여 상기 장애물의 크기를 판단하는 크기 판단 단계 및 크기가 규정된 크기 이상인지 비교하는 크기 비교 단계를 포함할 수 있다.The candidate obstacle selection step of the obstacle determination method may include a size determination step of determining the size of the obstacle using a distance to the obstacle and the detected contour, and a size comparison step of comparing whether the size is greater than or equal to a prescribed size. .
상기 장애물 판단방법의 윤곽선 검출 단계는, 장애물이 포함된 영역을 2차원으로 스캔하는 스캔 단계와, 스캔 단계의 2차원 정보를 누적하여 3차원 형상 정보를 만드는 데이터 합성 단계 및 합성된 데이터를 스캔 방향과 수직인 평면에 대하여 투영하여 2차원 형상 정보를 추출하는 단계를 포함할 수 있다.The contour detection step of the obstacle determination method may include a scan step of scanning an area including an obstacle in two dimensions, a data synthesis step of accumulating two-dimensional information of the scan step to create three-dimensional shape information, and a scan direction of the synthesized data The method may include extracting two-dimensional shape information by projecting the plane perpendicular to the plane.
상기 장애물 판단방법의 장애물 매칭 단계는, 장애물의 색 또는 자세 중의 적어도 어느 하나에 의해 특정 종류의 장애물에 해당하는지 판단할 수 있다.In the obstacle matching step of the obstacle determination method, it may be determined whether at least one of the color or the posture of the obstacle corresponds to a specific type of obstacle.
상기 장애물 매칭 단계에서, 색은 장애물이 인간인 경우 인종에 따른 피부색(Skin Color)을 이용할 수 있다.In the obstacle matching step, the color may use skin color according to race when the obstacle is a human.
상기 장애물 매칭 단계에서, 자세는 장애물이 인간인 경우 서 있는 자세, 앉아있는 자세, 지면에 웅크린 자세, 누워있는 자세 중의 어느 하나에 해당되는지 판단할 수 있다.In the obstacle matching step, the posture may determine whether the obstacle corresponds to one of a standing posture, a sitting posture, a squat posture, and a lying posture.
상기 장애물 판단방법의 데이터 비교단계에서, 사전정의 물체형상은 사람의 가로 세로 얼굴비율 또는 신장 및 어깨 폭에 따라 분류될 수 있다.In the data comparison step of the obstacle determination method, the predefined object shape may be classified according to the aspect ratio of the person or the height and shoulder width.
상기 장애물 판단방법의 장애물 검출 단계는, 장애물까지의 거리와, 장애물의 윤곽선 및 일반 호프 변환 등의 알고리즘에 의해 검출 가능한 사전정의 한 물체형상 중의 어느 하나 또는 모두가 동시에 적용 가능할 수 있다.In the obstacle detecting step of the obstacle determination method, any one or all of a predetermined object shape detectable by an algorithm such as the distance to the obstacle and the contour of the obstacle and the general hop transform may be applied simultaneously.
상기 장애물 판단방법의 장애물 분류단계는, 시간에 따른 장애물의 이동 유무에 따라 분류될 수 있다.The obstacle classification step of the obstacle determination method may be classified according to whether obstacles move over time.
상기 장애물 판단방법의 장애물 판단단계는, 복수 개의 이동 장애물에 대한 중심점이 추적될 수 있다.In the obstacle determining step of the obstacle determining method, center points for a plurality of moving obstacles may be tracked.
상기 장애물 판단방법의 장애물 판단단계는 복수 개의 이동 장애물에 대한 중심점의 이동 속도에 따라 이동 장애물 또는 고정 장애물로 분류할 수 있다.The obstacle determining step of the obstacle determining method may be classified as a moving obstacle or a fixed obstacle according to the moving speed of the center point with respect to the plurality of moving obstacles.
본 발명의 일 특징에 따른 자율 이동 장치는, 전방 영역에 대한 장애물을 스캔하는 촬영부와, 스캔으로부터 얻어진 장애물의 윤곽선과 미리 정의된 장애물의 형상 사이의 매칭관계를 이용하여 어떤 종류의 장애물에 해당하는지 판단하는 제1검출부와, 장애물의 중심점의 이동 속도를 감지함으로써 상기 장애물이 이동 장애물인지 아닌지 감지하는 제1감지부와, 장애물의 움직임을 감지하여 상기 장애물이 생물체인지 아닌지 감지하는 제2감지부와, 장애물의 파장을 감지하여 사람인지 아닌지 감지하는 제3감지부 및 검출된 장애물이 어떤 물체인지 판단하는 판단부를 포함하여 이루어진다.An autonomous moving device according to an aspect of the present invention corresponds to an obstacle of a certain type by using a matching portion between a photographing unit scanning an obstacle with respect to the front region and the contour of the obstacle obtained from the scan and a shape of a predefined obstacle. A first detection unit determining whether the obstacle is moving, a first detection unit detecting whether the obstacle is a moving obstacle by sensing a moving speed of the center point of the obstacle, and a second detection unit detecting whether the obstacle is an organism by detecting the movement of the obstacle And a third detecting unit detecting a wavelength of the obstacle to detect whether or not a person and a determining unit determining which object is the detected obstacle.
상기 자율 이동 장치의 촬영부는, 스테레오 카메라(Stereo Camera) 또는 레이저 거리측정 센서(LADAR, Flash Lidar 등) 중의 어느 하나가 사용될 수 있다.The imaging unit of the autonomous mobile device may be any one of a stereo camera or a laser ranging sensor (LADAR, Flash Lidar, etc.).
상기 자율 이동 장치는, 이동 장애물이 포함된 범위(Range) 내에서 추가 스캔을 실시하여 이동 장애물에 대한 2차원 형상을 추출하는 제2검출부를 더 포함할 수 있다.The autonomous movement apparatus may further include a second detection unit which extracts a two-dimensional shape of the movement obstacle by performing an additional scan within a range including the movement obstacle.
본 발명에 의한 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치에 따르면 장애물을 정확하게 검출하고 분류하여 어떤 종류의 장애물인지 판단할 수 있다.According to the obstacle determining method of the autonomous mobile device according to the present invention and the autonomous mobile device using the same, it is possible to accurately determine and classify the obstacles to determine what kind of obstacles.
본 발명에 의한 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치는 장애물이 사람일 경우에 보다 안정적으로 판단이 가능하다.Obstacle determination method of the autonomous mobile device and the autonomous mobile device using the same can be more stably determined when the obstacle is a human.
도 1은 본 발명의 일 실시예에 따른 자율이동장치에 의해 검출된 장애물을 도시한 개략도.
도 2는 본 발명의 일 실시예에 따른 자율이동장치의 장애물 판단방법을 나타내는 순서도.
도 3은 본 발명의 일 실시예에 따른 자율이동장치의 구성을 도시한 블록도.
도 4는 도 2의 장애물 판단방법에서 장애물 검출단계를 상세하게 나타내는 순서도.
도 5 내지 도 6은 도 4의 장애물 검출단계에서 장애물을 사람으로 판단하는 기준을 설명하기 위한 도면.
도 7은 도 4의 장애물 검출단계에서 검출된 장애물을 정밀검출하는 방법을 나타내는 개념도.
도 8은 도 7의 장애물을 정밀검출하는 방법을 나타내는 순서도.
도 9는 도 2의 장애물 판단방법에서 장애물 분류단계를 상세하게 나타내는 순서도.
도 10은 도 2의 장애물 판단방법에서 장애물 판단단계를 상세하게 나타내는 순서도.1 is a schematic diagram showing an obstacle detected by the autonomous platform according to an embodiment of the present invention.
2 is a flowchart illustrating a method of determining an obstacle of an autonomous mobile device according to an embodiment of the present invention.
Figure 3 is a block diagram showing the configuration of an autonomous mobile device according to an embodiment of the present invention.
4 is a flow chart showing in detail the obstacle detection step in the obstacle determination method of FIG.
5 to 6 are views for explaining a criterion for determining an obstacle as a person in the obstacle detection step of FIG.
7 is a conceptual diagram illustrating a method for precisely detecting an obstacle detected in the obstacle detecting step of FIG. 4.
8 is a flowchart illustrating a method of precisely detecting an obstacle of FIG. 7.
9 is a flow chart showing in detail the obstacle classification step in the obstacle determination method of FIG.
10 is a flowchart illustrating an obstacle determination step in detail in the obstacle determination method of FIG. 2.
상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다.The above-described features and effects of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, and thus, those skilled in the art to which the present invention pertains may easily implement the technical idea of the present invention. Could be. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific disclosure, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention.
이하 첨부 도면을 참조하여 본 발명의 일 실시예에 따른 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치를 설명한다.Hereinafter, a method of determining an obstacle of an autonomous mobile device and an autonomous mobile device using the same will be described with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 자율이동장치에 의해 검출된 장애물을 도시한 개략도이다.1 is a schematic diagram showing an obstacle detected by the autonomous platform according to an embodiment of the present invention.
도면을 참조하면 자율이동장치(1)는 자율적으로 이동 가능한 장치로서, 예를 들면 차량 또는 로봇(Robot) 중의 어느 하나일 수 있으며, 특별히 한정하지는 않는다.Referring to the drawings, the autonomous
상기 자율이동장치는 전방의 장애물(2,3)을 스캔하면서 이동하고 장애물이 검출되면 어떠한 장애물에 해당하는지 판단한다.The autonomous platform moves while scanning the
도 2는 본 발명의 일 실시예에 따른 자율이동장치의 장애물 판단방법을 나타내는 순서도이다.2 is a flowchart illustrating an obstacle determining method of an autonomous mobile device according to an embodiment of the present invention.
먼저 상기 자율이동장치(1)는 전방의 장애물을 판단하기 위해, 전방 영역에 대한 장애물을 스캔하는 장애물 검출단계(ST100)를 수행한다.First, the
상기 장애물 검출단계(ST100)는 스테레오 카메라(Stereo Camera) 또는 레이저 거리측정 센서(LADAR, Flash Lidar 등) 중의 어느 하나를 이용하여 장애물을 스캔할 수 있다.The obstacle detection step ST100 may scan an obstacle using any one of a stereo camera or a laser ranging sensor (LADAR, Flash Lidar, etc.).
장애물 스캔 단계(ST100)는 장애물까지의 거리 및 장애물의 윤곽선을 검출하고, 검출된 장애물의 윤곽선을 일반 호프 변환(Generalized Hough Transform) 등의 알고리즘에 의해 변환시켜 사전정의한 물체형상과 비교하며 이에 따라 검출된 물체가 어떤 장애물에 해당하는지 개략적으로 판단할 수 있다.The obstacle scanning step ST100 detects the distance to the obstacle and the outline of the obstacle, converts the detected outline of the obstacle by an algorithm such as a generalized Hough transform, and compares it with a predefined object shape and detects it accordingly. It is possible to roughly determine which obstacle the object falls under.
장애물의 윤곽선을 검출하는 것은, 장애물을 3차원으로 정밀하게 스캔하고 이를 2차원으로 프로젝션시킨 후 장애물의 윤곽선을 검출할 수 있다.Detecting the outline of the obstacle can detect the outline of the obstacle after precisely scanning the obstacle in three dimensions and projecting it in two dimensions.
장애물 검출단계에 대한 보다 상세한 설명은 후술한다.A more detailed description of the obstacle detection step will be described later.
다음으로 상기 자율이동장치(1)는 상기 장애물이 이동 장애물인지, 고정 장애물인지 분류하는 장애물 분류단계(ST200)를 수행한다.Next, the autonomous
상기 장애물 분류단계(ST200)는 시간에 따른 장애물의 이동 유무에 따라 분류될 수 있다.The obstacle classification step ST200 may be classified according to whether obstacles move over time.
상기 자율이동장치(1)에 있어서 전방에 위치한 장애물(2,3)은 크게 이동 장애물과 고정 장애물로 분류할 수 있는데, 상기 이동 장애물은 사람 또는 동물 또는 곤충과 같이 이동이 가능한 장애물을 말한다.In the autonomous
여기서 이동이 가능하다는 의미는 단순히 소정의 구간을 반복적으로 왕복 이동하는 것이 아니라, 능동적으로 위치 이동이 가능한 장애물을 말한다.Here, the meaning of the movement means not merely a reciprocating movement of a predetermined section repeatedly, but means an obstacle capable of actively moving the position.
고정 장애물은 바위, 나무, 웅덩이, 기둥 및 덤불과 같이 능동적으로 이동될 수 없으며, 바람 또는 외부에서 가해지는 물리적인 외력에 의해 수동적으로 이동되는 장애물을 말한다.Fixed obstacles are obstacles that cannot be actively moved, such as rocks, trees, puddles, pillars and bushes, but are passively moved by wind or physical external force applied from the outside.
상기 장애물 분류단계(ST200)는 복수 개의 이동 장애물에 대한 중심점이 추적될 수 있다.In the obstacle classification step ST200, center points for a plurality of moving obstacles may be tracked.
상기 중심점은 단일한 이동 장애물 또는 각각의 이동 장애물의 중심점에 해당될 수 있다.The center point may correspond to a single moving obstacle or to a center point of each moving obstacle.
예를 들면, 장애물이 사각 형상일 경우에는 사각 형상의 내부 중앙이 중심점이 될 수 있고, 사람의 경우에는 배꼽 근처가 중심점이 될 수 있다.For example, when the obstacle is a rectangular shape, the inner center of the rectangular shape may be the center point, and in the case of a person, the center point may be near the navel.
여기서 장애물의 중심점을 추적하는 이유는, 시간에 따른 이동 방향과 속도를 고려하여 이동장애물인지 고정장애물인지 판단하고 더 나아가 사람인지 다른 물체인지인지 판단하기 위해서이다.The reason for tracking the center point of the obstacle is to determine whether it is a moving obstacle or a fixed obstacle in consideration of the direction and speed of movement over time, and further to determine whether it is a person or another object.
장애물 분류단계에 대한 보다 상세한 설명은 후술한다.A more detailed description of the obstacle classification step will be described later.
다음으로 상기 자율이동장치(1)는 상기 장애물이 사람인지 사람 외의 생물체인지 무생물체인지 등을 판단하는 장애물 판단단계(ST300)를 수행한다.Next, the
생물체를 검출하는 경우는 모션 감지 센서를 이용하여 자세 등의 움직임이 검출되면 생물체로 분류한다.In the case of detecting an organism, if a motion such as a posture is detected using a motion detection sensor, it is classified as an organism.
사람을 검출하는 경우는 인체 감지 센서를 이용하여 사람으로부터 방출되는 범위의 파장이 검출되면 사람으로 분류한다.In the case of detecting a person, when a wavelength of a range emitted from the person is detected using a human body sensor, the person is classified as a person.
장애물 판단단계에 대한 보다 상세한 설명은 후술한다.
A more detailed description of the obstacle determination step will be described later.
다음으로 본 발명의 일 실시예에 따른 자율이동장치에 대해 도면을 참조하여 상세하게 설명한다.Next, an autonomous mobile device according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 3은 본 발명의 일 실시예에 따른 자율이동장치를 나타내는 도면이다.3 is a view showing an autonomous mobile device according to an embodiment of the present invention.
상기 자율이동장치는 촬영부(100), 제1검출부(200), 제2검출부(300), 제1감지부(400), 제2감지부(500), 제3감지부(600) 및 판단부(700)를 포함하여 이루어진다.The autonomous mobile device includes a photographing
상기 촬영부(100)는 자율이동장치(1)는 전방영역에 대한 장애물(2,3)을 스캔한다.The photographing
상기 촬영부(100)는 스테레오 카메라(Stereo Camera) 또는 레이저 거리측정 센서(LADAR, Flash Lidar 등) 중의 어느 하나가 사용될 수 있다. 상기 스테레오 카메라(Stereo Camera) 또는 레이저 거리측정 센서(LADAR, Flash Lidar 등)에 대한 상세한 설명은 생략한다.The photographing
상기 제1검출부(200)는, 장애물이 감지되면 장애물의 윤곽선을 검출하고 상기 장애물과의 거리 및 장애물의 크기를 검출할 수 있다.When the obstacle is detected, the
이에 따라 장애물의 윤곽선과 미리 정의된 장애물의 형상과의 매칭 관계를 이용하여 어떤 종류의 장애물에 해당하는지 판단할 수 있고 장애물의 크기가 일정 크기 이상이 되는지 판단하여 장애물 가능성이 있는 물체인지 판단할 수 있다.Accordingly, by using the matching relationship between the contour of the obstacle and the shape of the predefined obstacle, it is possible to determine what kind of obstacle it corresponds to, and determine whether the obstacle is over a certain size to determine whether the object has an obstacle possibility. have.
상기 제2검출부(300)는 장애물이 포함된 범위(Range) 내에서 추가 스캔을 실시하고 상기 장애물(2,3)에 대한 3차원 형상 복원 및 2차원 프로젝션을 수행하여 장애물을 검출한다. 상기 제2검출부(300)는 레인지 센서(Range Sensor)가 사용될 수 있다.The
이에 따라 장애물의 윤곽선을 더욱 정확하게 검출할 수 있고 미리 정의된 장애물의 형상과의 매칭 관계를 이용하여 어떤 종류의 장애물에 해당하는지 더욱 정확하게 판단할 수 있다. Accordingly, the contour of the obstacle can be detected more accurately, and it is possible to more accurately determine what kind of obstacle corresponds to using a matching relationship with the shape of the predefined obstacle.
상기 제1감지부(400)는 상기 장애물의 중심점의 이동 속도를 감지함으로써 상기 장애물이 이동 장애물인지 아닌지 감지한다.The
상기 제2감지부(500)는 상기 장애물(2)이 이동 장애물일 경우에 시간에 따른 움직임을 감지한다. 상기 제2감지부(500)는 모션 감지 센서(Motion Detection Sensor)를 사용할 수 있다.The second detecting
이 때 모션 감지 센서에 장애물의 자세 등의 움직임이 검출되면 생물체로 분류한다.At this time, if the motion detection sensor detects movements such as posture of obstacles, it is classified as a living organism.
상기 제3감지부(600)는 상기 장애물이 사람인지 다른 물체인지인지를 감지한다. 상기 제3감지부(600)는 인간 감지 센서를 사용할 수 있다.The
상기 판단부(700)는 상기 제1검출부(200), 제2검출부(300), 제1감지부(400), 제2감지부(500) 및 제3감지부(600)를 통해 입력된 정보를 판단하여 검출된 장애물이 사람인지 또는 그 외의 물체인지 판단한다.The
상기 판단부(700)는 전술한 촬영부(100)와, 제1검출부(200), 제2검출부(300), 제1감지부(400) 제2감지부(500) 및 제3감지부(600)를 통해 입력된 각종 신호 및 정보를 판단할 수 있으며, 각종 항법 장치와도 연결될 수 있다.
The
다음으로 본 발명의 일 실시예에 따른 장애물 검출방법에 있어서 장애물 검출단계에 대하여 도면을 참조하여 상세하게 설명한다.Next, the obstacle detection step in the obstacle detection method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 4는 도 2의 장애물 판단방법에서 장애물 검출단계를 상세하게 나타내는 순서도이다.4 is a flowchart illustrating an obstacle detection step in detail in the obstacle determination method of FIG. 2.
상기 장애물 검출단계는 제1검출부(200)를 통하여 이루어진다.The obstacle detecting step is performed through the
먼저 자율이동장치(1)는 도로 또는 평지를 주행하면서 전방 영역에 대한 스캔(ST100)을 실시하여 영상 정보를 획득한다.First, the
이 때 촬영부(100)에 구비된 스테레오 카메라는 전방 영역을 스캔하고, 제1검출부(200)에 스캔된 영상 정보를 전송한다.At this time, the stereo camera provided in the photographing
상기 스캔된 영상 정보는 많은 정보를 포함하고 있으므로 촬상 화면에서 엣지 디텍션(edge detection)을 통하여 엣지(edge)를 검출하여 폐루프를 이루는 물체에 대하여 장애물 대상 가능성이 있는 물체로 분류함으로써 장애물을 검출한다.Since the scanned image information contains a lot of information, the edge is detected through edge detection on the imaging screen, and the obstacle is detected by classifying the object forming the closed loop as an object having a potential obstacle. .
다음으로 스캔된 영상정보에서 깊이(depth) 정보를 계산(ST110)하고, 장애물(2,3)까지의 거리(D)를 계산(ST120)한다. 이에 따라 물체의 크기의 추정이 가능하다.Next, depth information is calculated from the scanned image information (ST110), and the distance D to the
상기 거리 D=f(초점거리, 가로 세로 픽셀수, 영상검출소자크기, 깊이)로 나타낼 수 있다. 여기서, 물체의 실제 가로 크기는 1픽셀의 가로 실제 크기ㅧ픽셀수로 나타낼 수 있고, 물체의 실제 세로 크기는 1픽셀의 세로 실제 크기ㅧ픽셀수로 나타낼 수 있다.It can be represented by the distance D = f (focal length, horizontal and vertical pixels, image detection device size, depth). Here, the actual horizontal size of the object may be represented by the horizontal actual size ㅧ pixels of 1 pixel, the actual vertical size of the object may be represented by the vertical actual size ㅧ pixels of 1 pixel.
다음으로 자율이동장치(1) 전방에 위치한 다수 개의 물체에 대하여 장애물 가능성이 있는 물체(이하 후보 장애물이라 한다)에 해당하는지를 설정(ST130)한다.Next, a plurality of objects located in front of the
즉 아주 작은 물체인 경우 장애물로 인식할 필요가 없으나 장애물로 잘못 판단될 우려가 있으므로 추정된 물체의 크기로부터 가로 및 세로크기가 일정 크기 이상이 되는 것을 후보 장애물로 분류한다(ST130).That is, in the case of a very small object, it is not necessary to recognize it as an obstacle, but there is a possibility that it may be wrongly determined as an obstacle. Therefore, the object is classified as a candidate obstacle having a horizontal size and a vertical size larger than a predetermined size from the estimated size of the object (ST130).
다음으로 후보 장애물 중에서 상기 물체가 사전에 정의된 물체형상에 해당하는지 검출하기 위해 사전 정의 물체형상과 비교(ST140)한다.Next, to detect whether the object corresponds to a predefined object shape among candidate obstacles, the object is compared with a predefined object shape (ST140).
이를 위해서는 후보 장애물에 대하여 일반 호프 변환(Generalized Hough Transform)을 적용하고 물체 정의 DB에 저장되어 있는 사전 정의 물체 형상과 유사한 형태인지를 판별한다. 일반 호프 변환은 후보 장애물을 도형의 형태로 변환시킨다.To do this, a generalized Hough transform is applied to candidate obstacles and it is determined whether the shape is similar to a predefined object shape stored in the object definition DB. General hop transform transforms candidate obstacles into the shape of a figure.
예를 들어 후보 장애물에 대하여 일반 호프 변환을 적용한 형상이 사각형이고 물체 정의 DB에 저장되어 있는 사전 정의 물체 형상 중에 사각형이 포함되어 있는 경우 후보 장애물은 사전 정의 물체 형상에 정의된 형태를 가지고 있는 것으로 판별된다.For example, if the shape to which the normal hop transform is applied to the candidate obstacle is a rectangle and the predefined object shape stored in the object definition DB includes a rectangle, the candidate obstacle is determined to have the shape defined in the predefined object shape. do.
다음으로 일반 호프 변환을 적용한 형상이 사전 정의 물체 형상에 정의된 형태를 가지고 있는 경우 상기 일반 호프 변환을 적용한 형상이 특정 장애물에 해당하는지 판단한다.Next, when the shape to which the general hop transform is applied has a shape defined in the predefined object shape, it is determined whether the shape to which the general hop transform is applied corresponds to a specific obstacle.
예를 들어 상기 특정 장애물이 사람이라면 일반 호프 변환을 적용한 형상이 사람의 특징적인 형상을 가지고 있는지 판단한다.For example, if the specific obstacle is a person, it is determined whether the shape to which the general hop transform is applied has a characteristic shape of the person.
아래의 예는 사전정의 물체형상에 사각형이 포함되어 있고, 후보 장애물에 대하여 일반 호프 변환을 적용한 형상이 사각형에 해당되는 경우 후보 장애물이 사람에 해당하는지 판단하는 예를 설명한다.The following example illustrates an example of determining whether a candidate obstacle corresponds to a person when a rectangle is included in a predefined object shape and a shape in which a general hop transform is applied to the candidate obstacle corresponds to a rectangle.
도 5 내지 도 6은 도 4의 장애물 검출단계에서 후보 장애물을 사람으로 판단하는 기준을 설명하기 위한 도면이다.5 to 6 are diagrams for describing a criterion for determining a candidate obstacle as a person in the obstacle detecting step of FIG. 4.
후보 장애물이 검출되면, 상기 장애물이 사람의 피부색에 해당하는 색을 가지고 있는지 체크한다. 상기 피부색은 인종(백인종, 흑인종, 황인종)에 따라 크게 3가지로 나눌 수 있다.If a candidate obstacle is detected, it is checked whether the obstacle has a color corresponding to the human skin color. The skin color can be divided into three types according to race (white race, black race, yellow race).
또한 일반 호프 변환을 통해 검출된 도형이 사람의 가로 세로 얼굴 비율에 해당되는지 유무와 장애물의 자세를 체크하여 서 있는 자세, 앉아있는 자세, 지면에 누워있는 자세 또는 웅크리고 누워있는 자세 중의 어느 하나에 해당되는지 체크할 수 있다.Also, check whether the figure detected through the normal hop transform corresponds to the aspect ratio of the person and whether the standing posture, sitting posture, lying posture, or squatting posture by checking the posture of the obstacle. You can check if this is the case.
상기 자세는 위에서 언급한 이외의 자세도 있을 수 있으나 설명의 편의를 위해 몇 가지로 한정한다.The posture may be other than the above-mentioned posture, but is limited to some for convenience of description.
그러나 위에서 언급한 다른 자세로의 변경도 가능하며 다양한 자세를 사전에 맵핑(Mapping)하여 자율이동장치(1)에 저장할 수 있음을 밝혀 둔다.However, it is possible to change to the above-described other postures, and it is clear that various postures can be mapped in advance and stored in the autonomous
이와 같은 일련의 절차를 통해 상기 물체가 피부색으로 분류가 가능한지 여부와 사람의 가로 세로 얼굴 비율에 해당하는지 여부와, 어떤 자세를 취하고 있는지 여부를 검출하고 검출(ST150)을 완료한다.This series of procedures detects whether the object can be classified as skin color, corresponds to the aspect ratio of a person, and what posture is taken and completes the detection (ST150).
이 때 일반 호프 변환에 의해 검출된 도형을 사람으로 분류하는 것은 아래의 예와 같이 수행될 수 있다.In this case, classifying the figure detected by the general hop transform into a person may be performed as in the following example.
도 5 내지 도 6을 참조하면, 검출된 다수개의 후보 장애물 중에서 사람이 서있는 경우, 체형 분류 표준에 따른 신장(A)의 10% ~ 90% 범위와, 어깨 폭(B)의 10% ~ 90% 범위를 선정하여 비율 범위에 포함되는 물체는 사람으로 분류할 수 있다.5 to 6, when a person stands among the plurality of candidate obstacles detected, a range of 10% to 90% of the height A according to the body classification standard and 10% to 90% of the shoulder width B are shown. By selecting a range, objects within the ratio range can be classified as humans.
예를 들면, 물체의 세로(A)/가로(B) 비율이 A10/B90 ~ A90/B10에 속하는 경우 사람으로 생각해 볼 수 있다.For example, if the height (A) / width (B) ratio of an object belongs to A 10 / B 90 to A 90 / B 10 , it can be considered as a person.
만약, 장애물이 앉아 있는 경우는, 체형 분류 표준에서 신장의 10% ~ 90% 범위의 1/2에 해당하는 신장과, 어깨 폭의 10% ~ 90% 범위를 선정하여 비율 범위에 포함되는 장애물은 사람으로 분류할 수 있다.If an obstacle is sitting, the obstacles included in the ratio range by selecting the height corresponding to 1/2 of the 10% to 90% of the height and the 10% to 90% of the shoulder width in the body classification standard. You can classify as a person.
예를 들면, 장애물의 세로(신장,A)/가로(어깨폭,B) 비율이 (A10/2)/B90 ~ (A90/2)/B10에 속하는 경우 사람으로 분류할 수 있다.For example, when the vertical (height, A) / width (shoulder width, B) a ratio of an
만약, 장애물이 누워있는 경우는, 서있는 경우를 누워있는 경우로 변환하여 판단하고, 장애물의 세로(B)/가로(A) 비율이 B10/A90 ~ B90/A10에 속하는 경우 사람으로 분류할 수 있다.If an obstacle is lying, the standing case is converted into a lying case and judged.If the vertical (B) / horizontal (A) ratio of the obstacle belongs to B 10 / A 90 to B 90 / A 10 , Can be classified.
만약, 장애물이 지면에 웅크리고 누워있는 경우는, 앉아있는 경우를 누워있는 경우로 변환하여 판단하고, 상기 장애물의 세로(B)/가로(A) 비율이(B10/2)/A90 ~ (B90/2)/A10에 속하는 경우 사람으로 분류할 수 있다.If the obstacle is curled up on the ground, it is judged by converting the sitting case into a lying down, and the vertical (B) / horizontal (A) ratio of the obstacle is (B 10/2 ) / A 90 ~ If they belong to (B 90/2 ) / A 10 , they can be classified as human.
상술한 바와 같은 과정에 의해 검출된 후보 장애물이 어떤 물체에 해당하는지를 검출하는 것이 가능하고 이에 따라 장애물로 판정하는 것이 가능하다.
It is possible to detect which object the candidate obstacle detected by the above-described process corresponds to, and thus it is possible to determine it as an obstacle.
상기와 같은 장애물 검출 단계는 아래와 같은 방법으로 정밀하게 수행할 수 있다. 이는 제2검출부(300)에 의해 수행된다. 조작자는 제1검출부(200)에 의한 장애물 검출 단계와 제2검출부(300)에 의한 장애물 검출 단계를 동시에 또는 하나만 선택적으로 수행하는 것이 가능하다.The obstacle detection step as described above may be precisely performed in the following manner. This is performed by the
도 7은 도 4의 장애물 검출단계에서 검출된 장애물을 정밀검출하는 방법을 나타내는 개념도이다.7 is a conceptual diagram illustrating a method of precisely detecting an obstacle detected in the obstacle detecting step of FIG. 4.
후보 장애물이 검출되면 상기 제2검출부(300)은 상기 후보 장애물이 위치한 주변영역에 대해 추가적인 스캐닝을 실시한다.When the candidate obstacle is detected, the
상기 제2검출부(300)는 레이저 스캐너(Laser Scanner)를 포함하는 레인지 센서(range sensor)로 지면에 수직인 면에 대하여 레인지 데이터(range data) 획득을 위한 스캔을 수행한다.The
상기 레인지 센서는 별도의 구동부에 장착될 수 있고 상기 레인지 센서로 물체가 포함되는 자율이동장치(1)의 정면 영역을 스캔하여 영상 테이터를 획득한다.The range sensor may be mounted on a separate driving unit, and the image sensor is obtained by scanning a front region of the
이 때 획득한 영상 데이터는 3차원 이미지이다. 즉 도면을 참조하면, 도시된 바와 같이 일정한 거리에 구 형상의 물체가 존재하는 경우 스캔한 영상 데이터는 구의 일측의 표면을 나타내는 데이터에 해당하므로 이는 3차원 이미지이다.The image data obtained at this time is a three-dimensional image. That is, referring to the drawing, when a spherical object exists at a predetermined distance as shown, the scanned image data corresponds to data representing a surface of one side of the sphere, which is a three-dimensional image.
이때, 여백(Space)으로 존재하는 부분은 상기 장애물(2)의 레인지 센서 신호가 리턴되지 않아 레인지 값이 없는 경우이고, 구에 반사되어 리턴값이 있는 경우 레인지에 따라 색(color)을 부여하여 영상 이미지를 생성할 수 있다.At this time, the portion existing as a space is a case in which there is no range value because the range sensor signal of the
스캔된 장애물(2)에 대한 3차원 이미지는 프로젝션 평면에 프로젝션을 실시하여 2차원 이미지로 만들 수 있다.The three-dimensional image of the scanned
프로젝션을 실시하여 생성된 2차원 이미지에 대해 윤곽선을 검출(edge detection)하고 변환과정을 수행하여 사전정의 물체형상을 통해 사전 정의된 물체 형태와 일치하는지 비교하고, 일치하면 추출된 장애물 형상이 특정한 장애물에 해당하는지 매칭을 실시한다.Edge detection and transformation are performed on the two-dimensional image generated by the projection, and the matching process is performed to compare with the predefined object shape through the predefined object shape. Matching is performed.
도 8은 도 7의 장애물을 정밀검출하는 방법을 나타내는 순서도로서, 제1 검출부와 제 2검출부를 이용하여 장애물을 정밀검출하는 방법을 나타낸다.FIG. 8 is a flowchart illustrating a method of precisely detecting an obstacle of FIG. 7 and illustrates a method of precisely detecting an obstacle using a first detector and a second detector.
먼저 촬영부(100)가 장애물에 대한 영상 정보를 스캔(ST100)하고, 제1검출부(200)가 다수개의 장애물 후보를 검출(ST150)한다. First, the photographing
다음으로 다수 개의 장애물 후보 중에 관심 장애물에 대한 중심점과 크기를 계산(ST200)하며, 제2검출부(300)에 구비된 레인지 센서가 장애물의 위치한 각도 및 존재 범위를 감지한다.Next, the center point and the size of the obstacle of interest among the plurality of obstacle candidates are calculated (ST200), and the range sensor provided in the
다음으로 입력된 장애물의 각도 및 존재 범위에 대한 계산을 실시(ST281)하고, 영역 데이터를 획득하고 이를 누적화(ST282)한다. 이는 상기 장애물에 대한 보다 정확한 형상을 얻기 위함이다.Next, a calculation is performed on the input obstacle angle and the existence range (ST281), and the area data is obtained and accumulated (ST282). This is to obtain a more accurate shape for the obstacle.
그리고, 관심 장애물에 대한 컬러 맵핑(ST283)을 실시한 후에, 평면에 프로젝션(ST284)을 실시하고, 영역을 기반으로 한 2차원의 가상 영상을 획득(ST285)한다.After the color mapping of the obstacle of interest (ST283) is performed, projection (ST284) is performed on the plane, and a two-dimensional virtual image based on the area is obtained (ST285).
그리고, 상기 관심 장애물에 대한 형상을 추출(ST286)하고, 일반 호프 변환을 통하여 물체 정의 DB의 사전 정의 물체 형상과 추출된 형상을 비교(ST287)한다. 또한, 추출된 장애물 형상이 특정한 장애물에 해당하는지 매칭을 실시(ST288)한다.
Then, the shape of the obstacle of interest is extracted (ST286), and the predefined object shape of the object definition DB and the extracted shape is compared (ST287) through a general hop transform. In addition, matching is performed whether the extracted obstacle shape corresponds to a specific obstacle (ST288).
다음으로 본 발명의 일 실시예에 따른 장애물 검출방법에 있어서 장애물 분류단계에 대하여 도면을 참조하여 상세하게 설명한다.Next, the obstacle classification step in the obstacle detection method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 9는 도 2의 장애물 판단방법에서 장애물 분류단계를 상세하게 나타내는 순서도이다.FIG. 9 is a flowchart illustrating an obstacle classification step in detail in the obstacle determining method of FIG. 2.
먼저 장애물 검출단계를 통해 전방 영역에 대한 영상 정보가 획득(ST100)되고, 장애물이 검출(ST150)된다.First, image information of the front region is obtained through an obstacle detection step (ST100), and an obstacle is detected (ST150).
장애물이 검출되면 검출된 각각의 장애물의 중심점을 저장(ST210)한다. 상기 장애물에 대한 중심점을 저장하는 이유는 다수개의 장애물 후보가 이동 장애물에 해당되는지, 아니면 고정 장애물에 해당되는지를 분류하기 위해서이다.If an obstacle is detected, the center point of each detected obstacle is stored (ST210). The reason for storing the center point for the obstacle is to classify whether the plurality of obstacle candidates correspond to moving obstacles or fixed obstacles.
다음으로 계속해서 장애물에 대한 영상을 촬영하여 해당 장애물의 중심점을 누적 저장(ST220)하고, 누적된 영상으로부터 장애물의 중심점의 이동속도를 계산(ST230)한다.Next, the image of the obstacle is continuously taken to store and store the center point of the obstacle (ST220), and the moving speed of the center point of the obstacle is calculated from the accumulated image (ST230).
상기 장애물의 이동 속도가 이동 장애물로 분류 가능한 일정역치(일정값) 이상인지 판단(ST240)하고, 상기 이동 속도가 일정값 이상일 경우에는 이동 장애물(ST250)로 분류한다.It is determined whether the movement speed of the obstacle is equal to or greater than a predetermined threshold (constant value) that can be classified as a movement obstacle (ST240). If the movement speed is greater than or equal to the predetermined value, the obstacle is classified as a movement obstacle (ST250).
만약, 장애물의 이동속도가 일정값 이하일 경우에는 고정 장애물(ST260)로 분류한다.If the moving speed of the obstacle is below a certain value, it is classified as a fixed obstacle (ST260).
여기서, 일정역치의 의미는 현재 위치에서 t시간 동안 다른 위치로 이동되는 시간이 설정되어 있는 기준시간을 말하며, 상기 기준시간을 기준으로 장애물을 이동 또는 고정 장애물로 분류할 수 있다.
Here, the meaning of the constant threshold refers to a reference time at which a time for moving to another location for t hours from the current location is set, and the obstacle may be classified as a moving or fixed obstacle based on the reference time.
다음으로 본 발명의 일 실시예에 따른 장애물 검출방법에 있어서 장애물 판단단계에 대하여 도면을 참조하여 상세하게 설명한다.Next, the obstacle determination step in the obstacle detection method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 10은 도 2의 장애물 판단방법에서 장애물 판단단계를 상세하게 나타내는 순서도이다.FIG. 10 is a flowchart illustrating an obstacle determining step in detail in the obstacle determining method of FIG. 2.
먼저 장애물이 검출(ST150)되면 시간에 따른 중심점의 이동 속도를 판단한다(ST310). 이에 따라 이동 장애물인지 고정 장애물인지 판단이 가능하다.First, when an obstacle is detected (ST150), the moving speed of the center point is determined according to time (ST310). Accordingly, it is possible to determine whether it is a moving obstacle or a fixed obstacle.
상기 장애물이 시간에 따른 중심점의 이동 속도가 일정값 이상일 경우에는 모션 감지 센서를 작동(ST320)시킨다. 상기 모션 감지 센서가 자세 등의 움직임을 감지할 경우에는 이동 장애물로 판단하고, 상기 이동 장애물이 사람인지 여부를 가리기 위해 인간 감지 센서를 작동시킨다(ST322).If the obstacle is a movement speed of the center point over time is a predetermined value or more to operate the motion detection sensor (ST320). When the motion detection sensor detects a movement such as a posture, it is determined as a moving obstacle, and a human detection sensor is operated to indicate whether the moving obstacle is a person (ST322).
상기 인간 감지 센서에 의해 신호(사람의 파장)가 감지될 경우에는, 상기 이동 장애물은 사람으로 판단한다. 만약, 상기 인간 감지 센서에 별도의 신호가 감지되지 않을 경우에는 사람이 아닌 생물체로 판단한다.When a signal (wavelength of a person) is detected by the human detection sensor, the moving obstacle is determined to be a person. If a separate signal is not detected by the human detection sensor, it is determined as an organism rather than a human.
상기 장애물이 시간에 따른 중심점의 이동 속도가 일정값 이하일 경우에도 모션 감지 센서를 작동(ST330)시킨다.Even when the obstacle has a movement speed of the center point over time, the motion detection sensor is operated (ST330).
상기 모션 감지 센서에 별도의 신호가 감지되지 않을 경우에는 고정 장애물로 판단하고, 신호가 감지될 경우에는 인간 감지 센서(ST332)를 작동시킨다.If a separate signal is not detected by the motion detection sensor, it is determined as a fixed obstacle, and when a signal is detected, the human detection sensor ST332 is operated.
만약, 신호가 감지될 경우에는, 상기 이동 장애물이 사람에는 해당되나 고정된 상태를 유지하고 있는 것으로 판단하고, 감지되지 않을 경우에는 기타 생물체로서 고정된 상태를 유지하고 있는 것으로 판단한다.If a signal is detected, it is determined that the moving obstacle corresponds to a person but remains in a fixed state, and if it is not detected, it is determined that the moving obstacle is in a fixed state as other living things.
이에 따라 이동 장애물과 고정 장애물 모두의 경우에 대해서 장애물이 사람인지, 생물체인지, 비생물체인지에 대하여 판단이 가능하다.Accordingly, it is possible to determine whether the obstacle is a human, a living creature, or a non-living object for both the moving obstacle and the fixed obstacle.
이상, 본 발명의 일 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.As mentioned above, although an embodiment of the present invention has been described, those of ordinary skill in the art may add, change, delete or add components within the scope not departing from the spirit of the present invention described in the claims. The present invention may be modified and changed in various ways, etc., which will also be included within the scope of the present invention.
Claims (16)
상기 장애물이 이동 장애물인지, 고정 장애물인지 분류하는 장애물 분류단계; 및
상기 장애물이 어떤 물체에 해당하는지 판단하는 장애물 판단단계를 포함하고,
상기 장애물 검출 단계는,
상기 장애물의 윤곽선을 검출하는 윤곽선 검출 단계;
상기 윤곽선 검출 단계에서 검출된 윤곽선을 규정된 도형의 형태로 변환시키는 데이터 변환 단계;
상기 변환된 데이터를 도형의 형태로 정의된 사전 정의 물체 형상과 비교하는 데이터 비교 단계 및
상기 변환된 데이터가 상기 사전 정의 물체 형상에 있는 경우 특정 종류의 장애물에 해당되는지 판단하는 장애물 매칭 단계
를 포함하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.An obstacle detecting step of detecting an obstacle with respect to the front region;
An obstacle classification step of classifying whether the obstacle is a moving obstacle or a fixed obstacle; And
An obstacle determination step of determining which object the obstacle corresponds to,
The obstacle detection step,
Contour detection step of detecting the contour of the obstacle;
A data conversion step of converting the contour lines detected in the contour detection step into a prescribed shape;
A data comparison step of comparing the converted data with a predefined object shape defined in the form of a figure; and
An obstacle matching step of determining whether the converted data correspond to a specific kind of obstacle when the converted data is in the predefined object shape
Obstacle determination method of the autonomous mobile device comprising a.
상기 장애물 검출 단계는, 상기 장애물의 크기를 측정 또는 추정하여 일정 크기 이상이면 장애물로 선정하는 후보 장애물 선정 단계를 더 포함하고 후보 장애물로 선정된 장애물에 대해서 데이터 변환을 수행하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 1,
The obstacle detecting step may further include a candidate obstacle selecting step of measuring or estimating the size of the obstacle and selecting the obstacle as an obstacle if the size is larger than a predetermined size, and performing data conversion on the obstacle selected as the candidate obstacle. How to determine obstacles on your device.
상기 후보 장애물 선정 단계는,
상기 장애물까지의 거리와 상기 검출된 윤곽선을 이용하여 상기 장애물의 크기를 판단하는 크기 판단 단계 및
상기 크기가 규정된 크기 이상인지 비교하는 크기 비교 단계
를 포함하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 3,
The candidate obstacle selection step,
A size determining step of determining the size of the obstacle using the distance to the obstacle and the detected contour;
A size comparison step of comparing whether the size is greater than or equal to a prescribed size
Obstacle determination method of the autonomous mobile device comprising a.
상기 윤곽선 검출 단계는,
장애물이 포함된 영역을 2차원으로 스캔하는 스캔 단계;
상기 스캔 단계의 2차원 정보를 누적하여 3차원 형상 정보를 만드는 데이터 합성 단계 및
상기 합성된 데이터를 스캔 방향과 수직인 평면에 대하여 투영하여 2차원 형상 정보를 추출하는 단계
를 포함하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 1,
The contour detection step,
A scan step of scanning an area including an obstacle in two dimensions;
A data synthesis step of accumulating the two-dimensional information of the scanning step to create three-dimensional shape information; and
Extracting two-dimensional shape information by projecting the synthesized data onto a plane perpendicular to a scan direction
Obstacle determination method of the autonomous mobile device comprising a.
상기 장애물 매칭 단계는,
상기 장애물의 색 또는 자세 중의 적어도 어느 하나에 의해 특정 종류의 장애물에 해당하는지 판단하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 1,
The obstacle matching step,
Obstacle determination method of the autonomous mobile device, characterized in that it determines whether it corresponds to a specific type of obstacle by at least one of the color or posture of the obstacle.
상기 색은 장애물이 인간인 경우 인종에 따른 피부색(Skin Color)을 이용하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 6,
The color obstacle method of the autonomous mobile device, characterized in that using the skin color (Skin Color) according to the race when the obstacle is a human.
상기 자세는 장애물이 인간인 경우 서 있는 자세, 앉아있는 자세, 지면에 웅크린 자세, 누워있는 자세 중의 어느 하나에 해당되는지 판단하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 6,
The posture is an obstacle determination method of the autonomous mobile device, characterized in that it is determined whether any one of the standing posture, sitting posture, squat on the ground, lying position when the obstacle is a human.
상기 데이터 비교단계에서,
상기 사전정의 물체형상은 사람의 가로 세로 얼굴비율 또는 신장 및 어깨폭에 따라 분류되는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 1,
In the data comparison step,
The predefined object shape is an obstacle determination method of an autonomous mobile device, characterized in that classified according to the aspect ratio of the person or height and shoulder width.
상기 장애물 검출 단계는,
장애물까지의 거리와, 장애물의 윤곽선 및 일반 호프 변환 등의 알고리즘에 의해 검출 가능한 사전정의 한 물체형상 중의 어느 하나 또는 모두가 동시에 적용 가능한 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 1,
The obstacle detection step,
A method for determining an obstacle of an autonomous mobile device, characterized in that any one or all of a predefined object shape detectable by an algorithm such as a distance to an obstacle, an outline of an obstacle, and a general hop transform can be simultaneously applied.
상기 장애물 분류단계는,
시간에 따른 장애물의 이동 유무에 따라 분류되는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 1,
The obstacle classification step,
Obstacle determination method of the autonomous mobile device, characterized in that classified according to the movement of the obstacle over time.
상기 장애물 판단단계는,
복수개의 이동 장애물에 대한 중심점이 추적되는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 1,
The obstacle determination step,
Obstacle determination method of the autonomous mobile device, characterized in that the center point for the plurality of moving obstacles are tracked.
상기 장애물 판단단계는
복수개의 이동 장애물에 대한 중심점의 이동 속도에 따라 이동 장애물 또는 고정 장애물로 분류하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.The method of claim 12,
The obstacle determining step
Obstacle determination method of the autonomous mobile device, characterized in that classified as a moving obstacle or a fixed obstacle according to the moving speed of the center point for the plurality of moving obstacles.
상기 스캔으로부터 얻어진 장애물의 윤곽선과 미리 정의된 장애물의 형상 사이의 매칭관계를 이용하여 어떤 종류의 장애물에 해당하는지 판단하는 제1검출부;
상기 장애물의 중심점의 이동 속도를 감지함으로써 상기 장애물이 이동 장애물인지 아닌지 감지하는 제1감지부;
상기 장애물의 움직임을 감지하여 상기 장애물이 생물체인지 아닌지 감지하는 제2감지부;
상기 장애물의 파장을 감지하여 사람인지 아닌지 감지하는 제3감지부; 및
검출된 장애물이 어떤 물체인지 판단하는 판단부를 포함하여 이루어지고,
상기 제1검출부는,
상기 장애물의 윤곽선을 검출하는 윤곽선 검출 모듈;
상기 윤곽선 검출 모듈에서 검출된 윤곽선을 규정된 도형의 형태로 변환시키는 데이터 변환 모듈;
상기 변환된 데이터를 도형의 형태로 정의된 사전 정의 물체 형상과 비교하는 데이터 비교 모듈 및
상기 변환된 데이터가 상기 사전 정의 물체 형상에 있는 경우 특정 종류의 장애물에 해당되는지 판단하는 장애물 매칭 모듈
을 포함하는 것을 특징으로 하는 자율 이동 장치.A photographing unit scanning an obstacle for the front region;
A first detection unit that determines what kind of obstacle corresponds to a matching relationship between an outline of an obstacle obtained from the scan and a shape of a predefined obstacle;
A first detecting unit detecting whether the obstacle is a moving obstacle by sensing a moving speed of a center point of the obstacle;
A second sensing unit which senses whether the obstacle is an organism by sensing the movement of the obstacle;
A third sensing unit which senses whether or not a person is detected by sensing the wavelength of the obstacle; And
It includes a determination unit for determining what object the obstacle is detected,
The first detection unit,
An outline detection module detecting an outline of the obstacle;
A data conversion module for converting the contour detected by the contour detection module into the form of a prescribed figure;
A data comparison module for comparing the converted data with a predefined object shape defined in the form of a figure;
Obstacle matching module for determining whether the converted data corresponds to a specific kind of obstacle when the transformed data is in the predefined object shape
Autonomous mobile device comprising a.
상기 촬영부는,
스테레오 카메라(Stereo Camera) 또는 레이저 거리측정 센서 중의 어느 하나가 사용되는 것을 특징으로 하는 자율 이동 장치.The method of claim 14,
Wherein,
Autonomous mobile device, characterized in that any one of a stereo camera or a laser ranging sensor is used.
이동 장애물이 포함된 범위(Range) 내에서 추가 스캔을 실시하여 상기 이동 장애물에 대한 2차원 형상을 추출하는 제2검출부를 더 포함하는 것을 특징으로 하는 자율 이동 장치.16. The method of claim 15,
And a second detection unit configured to extract a two-dimensional shape of the moving obstacle by performing an additional scan within a range including the moving obstacle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110010339A KR101049155B1 (en) | 2011-02-01 | 2011-02-01 | Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110010339A KR101049155B1 (en) | 2011-02-01 | 2011-02-01 | Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101049155B1 true KR101049155B1 (en) | 2011-07-14 |
Family
ID=44923581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110010339A KR101049155B1 (en) | 2011-02-01 | 2011-02-01 | Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101049155B1 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9563204B2 (en) | 2012-08-14 | 2017-02-07 | Husqvarna Ab | Mower with object detection system |
KR20180014535A (en) * | 2016-08-01 | 2018-02-09 | 한국기계연구원 | Obstacle avoiding system for a personal mobility and a method for avoiding an obstacle using the same |
KR20180075176A (en) * | 2016-12-26 | 2018-07-04 | 엘지전자 주식회사 | Moving Robot and controlling method |
WO2018160035A1 (en) * | 2017-03-03 | 2018-09-07 | 엘지전자 주식회사 | Mobile robot and control method therefor |
WO2018226048A1 (en) * | 2017-06-08 | 2018-12-13 | Samsung Electronics Co., Ltd. | Cleaning robot and controlling method thereof |
WO2019083291A1 (en) * | 2017-10-25 | 2019-05-02 | 엘지전자 주식회사 | Artificial intelligence moving robot which learns obstacles, and control method therefor |
KR20190103512A (en) * | 2018-02-12 | 2019-09-05 | 엘지전자 주식회사 | Moving Robot and controlling method |
WO2019212174A1 (en) * | 2018-04-30 | 2019-11-07 | 엘지전자 주식회사 | Artificial intelligence vacuum cleaner and control method therefor |
KR102088747B1 (en) * | 2019-03-25 | 2020-03-13 | 주식회사 싸이맥스 | Equipment Front End Module For Detecting A Human Body |
KR20230119468A (en) * | 2022-02-07 | 2023-08-16 | 백수빈 | Unmanned ground reconnaissance apparatus for automatic driving |
KR20240057020A (en) | 2022-10-24 | 2024-05-02 | 한국철도기술연구원 | A system and method for determining the presence of obstacles in a collision risk zone based on a track map of an autonomous train. |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100773184B1 (en) * | 2003-03-14 | 2007-11-02 | 마츠시다 덴코 가부시키가이샤 | Autonomously moving robot |
KR20100027683A (en) * | 2008-09-03 | 2010-03-11 | 한국과학기술원 | Path planning device and method for the autonomous mobile robot |
-
2011
- 2011-02-01 KR KR1020110010339A patent/KR101049155B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100773184B1 (en) * | 2003-03-14 | 2007-11-02 | 마츠시다 덴코 가부시키가이샤 | Autonomously moving robot |
KR20100027683A (en) * | 2008-09-03 | 2010-03-11 | 한국과학기술원 | Path planning device and method for the autonomous mobile robot |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9563204B2 (en) | 2012-08-14 | 2017-02-07 | Husqvarna Ab | Mower with object detection system |
KR101997531B1 (en) * | 2016-08-01 | 2019-07-08 | 한국기계연구원 | Obstacle avoiding system for a personal mobility and a method for avoiding an obstacle using the same |
KR20180014535A (en) * | 2016-08-01 | 2018-02-09 | 한국기계연구원 | Obstacle avoiding system for a personal mobility and a method for avoiding an obstacle using the same |
KR20180075176A (en) * | 2016-12-26 | 2018-07-04 | 엘지전자 주식회사 | Moving Robot and controlling method |
WO2018124682A3 (en) * | 2016-12-26 | 2018-08-23 | 엘지전자 주식회사 | Mobile robot and control method therefor |
US11226633B2 (en) | 2016-12-26 | 2022-01-18 | Lg Electronics Inc. | Mobile robot and method of controlling the same |
KR102017148B1 (en) * | 2017-03-03 | 2019-09-02 | 엘지전자 주식회사 | Artificial intelligence Moving Robot and controlling method |
KR20180101081A (en) * | 2017-03-03 | 2018-09-12 | 엘지전자 주식회사 | Moving Robot and controlling method |
WO2018160035A1 (en) * | 2017-03-03 | 2018-09-07 | 엘지전자 주식회사 | Mobile robot and control method therefor |
US11846950B2 (en) | 2017-03-03 | 2023-12-19 | Lg Electronics Inc. | Mobile robot and control method thereof |
US11269343B2 (en) | 2017-03-03 | 2022-03-08 | Lg Electronics Inc. | Mobile robot and control method thereof |
WO2018226048A1 (en) * | 2017-06-08 | 2018-12-13 | Samsung Electronics Co., Ltd. | Cleaning robot and controlling method thereof |
WO2019083291A1 (en) * | 2017-10-25 | 2019-05-02 | 엘지전자 주식회사 | Artificial intelligence moving robot which learns obstacles, and control method therefor |
US11586211B2 (en) | 2017-10-25 | 2023-02-21 | Lg Electronics Inc. | AI mobile robot for learning obstacle and method of controlling the same |
KR20190103512A (en) * | 2018-02-12 | 2019-09-05 | 엘지전자 주식회사 | Moving Robot and controlling method |
KR102330607B1 (en) * | 2018-02-12 | 2021-11-23 | 엘지전자 주식회사 | Artificial intelligence Moving Robot and controlling method |
KR102100474B1 (en) * | 2018-04-30 | 2020-04-13 | 엘지전자 주식회사 | Artificial intelligence cleaner and controlling method thereof |
KR20190134872A (en) * | 2018-04-30 | 2019-12-05 | 엘지전자 주식회사 | Cleaner and controlling method thereof |
WO2019212174A1 (en) * | 2018-04-30 | 2019-11-07 | 엘지전자 주식회사 | Artificial intelligence vacuum cleaner and control method therefor |
KR102088747B1 (en) * | 2019-03-25 | 2020-03-13 | 주식회사 싸이맥스 | Equipment Front End Module For Detecting A Human Body |
KR20230119468A (en) * | 2022-02-07 | 2023-08-16 | 백수빈 | Unmanned ground reconnaissance apparatus for automatic driving |
KR102654371B1 (en) | 2022-02-07 | 2024-04-02 | 백수빈 | Unmanned ground reconnaissance apparatus for automatic driving |
KR20240057020A (en) | 2022-10-24 | 2024-05-02 | 한국철도기술연구원 | A system and method for determining the presence of obstacles in a collision risk zone based on a track map of an autonomous train. |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101049155B1 (en) | Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus | |
US8265425B2 (en) | Rectangular table detection using hybrid RGB and depth camera sensors | |
KR100773184B1 (en) | Autonomously moving robot | |
EP3104194B1 (en) | Robot positioning system | |
CN108459597B (en) | Mobile electronic device and method for processing tasks in task area | |
JP5071945B2 (en) | Mobile device and method | |
Holz et al. | Towards semantic scene analysis with time-of-flight cameras | |
CN207488823U (en) | A kind of mobile electronic device | |
Maier et al. | Self-supervised obstacle detection for humanoid navigation using monocular vision and sparse laser data | |
CN108459596A (en) | A kind of method in mobile electronic device and the mobile electronic device | |
Maier et al. | Vision-based humanoid navigation using self-supervised obstacle detection | |
Hochdorfer et al. | 6 DoF SLAM using a ToF camera: The challenge of a continuously growing number of landmarks | |
Reina et al. | Traversability analysis for off-road vehicles using stereo and radar data | |
Droeschel et al. | Omnidirectional perception for lightweight UAVs using a continuously rotating 3D laser scanner | |
Shalal et al. | A preliminary evaluation of vision and laser sensing for tree trunk detection and orchard mapping | |
Dodge et al. | Convex vision-based negative obstacle detection framework for autonomous vehicles | |
Hu et al. | Bayesian fusion of ceiling mounted camera and laser range finder on a mobile robot for people detection and localization | |
Bozorgi et al. | 2D laser and 3D camera data integration and filtering for human trajectory tracking | |
Portugal-Zambrano et al. | Robust range finder through a laser pointer and a webcam | |
KR102249485B1 (en) | System and method for autonomously traveling mobile robot | |
EP3979032A1 (en) | Systems and methods for enabling navigation in environments with dynamic objects | |
US20230343228A1 (en) | Information processing apparatus, information processing system, and information processing method, and program | |
Meng et al. | A slope detection method based on 3D LiDAR suitable for quadruped robots | |
US20220291686A1 (en) | Self-location estimation device, autonomous mobile body, self-location estimation method, and program | |
KR100587572B1 (en) | System and method for extracting corner point in space using pixel information on camera, robot including the system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140701 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160701 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190702 Year of fee payment: 9 |