KR101049155B1 - Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus - Google Patents

Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus Download PDF

Info

Publication number
KR101049155B1
KR101049155B1 KR1020110010339A KR20110010339A KR101049155B1 KR 101049155 B1 KR101049155 B1 KR 101049155B1 KR 1020110010339 A KR1020110010339 A KR 1020110010339A KR 20110010339 A KR20110010339 A KR 20110010339A KR 101049155 B1 KR101049155 B1 KR 101049155B1
Authority
KR
South Korea
Prior art keywords
obstacle
autonomous mobile
mobile device
moving
detected
Prior art date
Application number
KR1020110010339A
Other languages
Korean (ko)
Inventor
김종희
주상현
이호주
고정호
김홍봉
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020110010339A priority Critical patent/KR101049155B1/en
Application granted granted Critical
Publication of KR101049155B1 publication Critical patent/KR101049155B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE: An automatic moving device and an obstacle determining method of the device are provided to make more accurate decision if an obstacle is a human. CONSTITUTION: An obstacle determining method of an automatic moving device is as follows. An obstacle is detected from a front area. It is determined whether an obstacle is a moving obstacle or a fixed obstacle. It is determined what object the obstacle is. The contour of the obstacle is detected. The detected contour is changed into a defined shape of a figure. The changed data is compared with a shape of an object predefined as a figure. It is determined whether the changed data corresponds to a specific kind of an obstacle if being matched with the predefined shape of object.

Description

자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치{METHOD FOR JUDGING OBSTACLE OF AUTONOMOUS MOVING APPARATUS AND AUTONOMOUS MOVING APPARATUS}Obstacle Determination Method of Autonomous Mobile Device and Autonomous Mobile Device Using It {METHOD FOR JUDGING OBSTACLE OF AUTONOMOUS MOVING APPARATUS AND AUTONOMOUS MOVING APPARATUS}

본 발명은 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치에 관한 것이다.The present invention relates to an obstacle determination method of the autonomous mobile device and an autonomous mobile device using the same.

일반적으로 자율이동로봇과 같은 자율이동장치는 여러 산업 분야에 걸쳐 사용되고 있다.In general, autonomous mobile devices such as autonomous mobile robots are used in various industries.

상기 자율이동로봇은 장애자를 도와주거나, 공장에서 물류이송 작업을 실시하거나, 감시 및 경계, 우주탐사, 핵폐기물 처리장 또는 심해와 같이 위험한 환경에서 인간을 대신하여 수행하고 있다.The autonomous mobile robot assists the disabled, performs logistical transfer operations at the factory, or performs human operations in dangerous environments such as monitoring and alerting, space exploration, nuclear waste treatment plants, or the deep sea.

뿐만 아니라, 자율이동로봇은 무인 청소기, 무인 잔디깎기 등으로도 사용이 가능하며, 군사적인 목적으로도 사용되고 있다.In addition, autonomous mobile robots can be used as unmanned cleaners, unmanned lawn mowers, and are also used for military purposes.

그러나, 현재까지 자율이동로봇과 같은 자율이동장치의 인지능력과 추론능력은 인간과 비교할 때 열등하기 때문에, 기능이 매우 제한적인 단점을 가질 수밖에 없었다.However, to date, the cognitive ability and reasoning ability of autonomous mobile devices such as autonomous mobile robots are inferior to those of humans, so they have a very limited disadvantage.

따라서, 이동 및 사물 판단을 비롯하여 많은 분야에서 로봇의 지능을 높이기 위한 연구가 이루어지고 있다.Therefore, researches to increase the intelligence of robots in many fields, including movement and object judgment, have been made.

무엇보다 자율이동로봇과 같은 자율이동장치의 가장 기본적인 기능은 원하는 목표지점까지 자유로이 이동할 수 있어야 한다.Above all, the most basic function of autonomous mobile devices such as autonomous mobile robots should be able to move freely to the desired target point.

상기 자율이동로봇이 자유롭게 이동하기 위해서는 스스로 어디에 있는지를 판단할 수 있는 능력과 이동 경로 주변의 장애물을 식별하는 능력이 필요하다.In order for the autonomous mobile robot to move freely, it needs the ability to determine where it is and the ability to identify obstacles around the movement path.

이러한 기능들은 자율이동로봇의 위치측정(localization)기술, 장애물 검출 및 지도 작성(map building)기술에 의해 수행될 수 있다.These functions can be performed by the localization technology, obstacle detection and map building technology of the autonomous mobile robot.

그 중에서 자율이동로봇과 같은 자율이동장치가 이동할 전방 영역에 대한 장애물을 감지하고, 상기 장애물이 사람인지 아니면 단순 장애물인지 유무를 파악하기 위한 관심이 증대되었다.Among them, interest has been increased to detect obstacles to the front area to which an autonomous mobile device such as an autonomous mobile robot moves, and to determine whether the obstacle is a human or a simple obstacle.

만약, 사람일 경우에는 자율이동로봇의 이동 경로를 수정하여 상기 사람을 회피하거나, 새로운 이동 경로를 찾기 위한 기술 개발이 요구되며, 이에 대한 다양한 연구 개발이 진행되고 있다.If a person is a person, it is necessary to develop a technology for avoiding the person or finding a new moving path by modifying the moving path of the autonomous mobile robot, and various research and developments have been in progress.

본 발명은 상기한 점을 감안하여 안출된 것으로서, 자율적으로 이동 가능한 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치를 제공한다.The present invention has been made in view of the above, and provides an obstacle determination method of an autonomous mobile device that can move autonomously and an autonomous mobile device using the same.

또한 본 발명은 장애물이 사람일 경우에 보다 정확하게 판단 가능한 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치를 제공한다.In addition, the present invention provides an obstacle determination method of the autonomous mobile device that can be more accurately determined when the obstacle is a person and an autonomous mobile device using the same.

또한 본 발명은 이동 장애물과 고정 장애물을 분류하되 특히 사람과 같은 이동 장애물을 분류하고 정확히 판단하기 위한 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치를 제공한다.In addition, the present invention provides a method for determining an obstacle of an autonomous mobile device and an autonomous mobile device using the same.

본 발명의 일 특징에 따른 장애물 판단방법은, 전방 영역에 대한 장애물을 검출하는 장애물 검출 단계와, 장애물이 이동 장애물인지, 고정 장애물인지 분류하는 장애물 분류단계 및 장애물이 어떤 물체에 해당하는지 판단하는 장애물 판단단계를 포함한다.Obstacle determination method according to an aspect of the present invention, the obstacle detection step for detecting the obstacle to the front area, the obstacle classification step for classifying whether the obstacle is a moving obstacle or a fixed obstacle and the obstacle to determine which object the obstacle Determination step is included.

상기 장애물 판단방법의 장애물 검출 단계는, 상기 장애물의 윤곽선을 검출하는 윤곽선 검출 단계와, 윤곽선 검출 단계에서 검출된 윤곽선을 규정된 형태로 변환시키는 데이터 변환 단계와, 변환된 데이터를 사전 정의 물체 형상과 비교하는 데이터 비교 단계 및 특정 종류의 장애물에 해당되는지 대비하는 데이터 매칭 단계를 포함할 수 있다.The obstacle detecting step of the obstacle determining method may include an outline detecting step of detecting the outline of the obstacle, a data converting step of converting the outline detected in the outline detecting step into a prescribed shape, and converting the converted data into a predefined object shape. The method may include a data comparing step for comparing and a data matching step for preparing whether a specific kind of obstacle corresponds.

상기 장애물 판단방법은, 장애물의 크기를 측정 또는 추정하여 일정 크기 이상이면 장애물로 선정하는 후보 장애물 선정 단계를 더 포함하고 후보 장애물로 선정된 장애물에 대해서 데이터 변환을 수행할 수 있다.The obstacle determining method may further include a candidate obstacle selecting step of measuring or estimating the size of the obstacle and selecting the obstacle as an obstacle if the size is larger than a predetermined size, and performing data conversion on the obstacle selected as the candidate obstacle.

상기 장애물 판단방법의 후보 장애물 선정 단계는, 장애물까지의 거리와 검출된 윤곽선을 이용하여 상기 장애물의 크기를 판단하는 크기 판단 단계 및 크기가 규정된 크기 이상인지 비교하는 크기 비교 단계를 포함할 수 있다.The candidate obstacle selection step of the obstacle determination method may include a size determination step of determining the size of the obstacle using a distance to the obstacle and the detected contour, and a size comparison step of comparing whether the size is greater than or equal to a prescribed size. .

상기 장애물 판단방법의 윤곽선 검출 단계는, 장애물이 포함된 영역을 2차원으로 스캔하는 스캔 단계와, 스캔 단계의 2차원 정보를 누적하여 3차원 형상 정보를 만드는 데이터 합성 단계 및 합성된 데이터를 스캔 방향과 수직인 평면에 대하여 투영하여 2차원 형상 정보를 추출하는 단계를 포함할 수 있다.The contour detection step of the obstacle determination method may include a scan step of scanning an area including an obstacle in two dimensions, a data synthesis step of accumulating two-dimensional information of the scan step to create three-dimensional shape information, and a scan direction of the synthesized data The method may include extracting two-dimensional shape information by projecting the plane perpendicular to the plane.

상기 장애물 판단방법의 장애물 매칭 단계는, 장애물의 색 또는 자세 중의 적어도 어느 하나에 의해 특정 종류의 장애물에 해당하는지 판단할 수 있다.In the obstacle matching step of the obstacle determination method, it may be determined whether at least one of the color or the posture of the obstacle corresponds to a specific type of obstacle.

상기 장애물 매칭 단계에서, 색은 장애물이 인간인 경우 인종에 따른 피부색(Skin Color)을 이용할 수 있다.In the obstacle matching step, the color may use skin color according to race when the obstacle is a human.

상기 장애물 매칭 단계에서, 자세는 장애물이 인간인 경우 서 있는 자세, 앉아있는 자세, 지면에 웅크린 자세, 누워있는 자세 중의 어느 하나에 해당되는지 판단할 수 있다.In the obstacle matching step, the posture may determine whether the obstacle corresponds to one of a standing posture, a sitting posture, a squat posture, and a lying posture.

상기 장애물 판단방법의 데이터 비교단계에서, 사전정의 물체형상은 사람의 가로 세로 얼굴비율 또는 신장 및 어깨 폭에 따라 분류될 수 있다.In the data comparison step of the obstacle determination method, the predefined object shape may be classified according to the aspect ratio of the person or the height and shoulder width.

상기 장애물 판단방법의 장애물 검출 단계는, 장애물까지의 거리와, 장애물의 윤곽선 및 일반 호프 변환 등의 알고리즘에 의해 검출 가능한 사전정의 한 물체형상 중의 어느 하나 또는 모두가 동시에 적용 가능할 수 있다.In the obstacle detecting step of the obstacle determination method, any one or all of a predetermined object shape detectable by an algorithm such as the distance to the obstacle and the contour of the obstacle and the general hop transform may be applied simultaneously.

상기 장애물 판단방법의 장애물 분류단계는, 시간에 따른 장애물의 이동 유무에 따라 분류될 수 있다.The obstacle classification step of the obstacle determination method may be classified according to whether obstacles move over time.

상기 장애물 판단방법의 장애물 판단단계는, 복수 개의 이동 장애물에 대한 중심점이 추적될 수 있다.In the obstacle determining step of the obstacle determining method, center points for a plurality of moving obstacles may be tracked.

상기 장애물 판단방법의 장애물 판단단계는 복수 개의 이동 장애물에 대한 중심점의 이동 속도에 따라 이동 장애물 또는 고정 장애물로 분류할 수 있다.The obstacle determining step of the obstacle determining method may be classified as a moving obstacle or a fixed obstacle according to the moving speed of the center point with respect to the plurality of moving obstacles.

본 발명의 일 특징에 따른 자율 이동 장치는, 전방 영역에 대한 장애물을 스캔하는 촬영부와, 스캔으로부터 얻어진 장애물의 윤곽선과 미리 정의된 장애물의 형상 사이의 매칭관계를 이용하여 어떤 종류의 장애물에 해당하는지 판단하는 제1검출부와, 장애물의 중심점의 이동 속도를 감지함으로써 상기 장애물이 이동 장애물인지 아닌지 감지하는 제1감지부와, 장애물의 움직임을 감지하여 상기 장애물이 생물체인지 아닌지 감지하는 제2감지부와, 장애물의 파장을 감지하여 사람인지 아닌지 감지하는 제3감지부 및 검출된 장애물이 어떤 물체인지 판단하는 판단부를 포함하여 이루어진다.An autonomous moving device according to an aspect of the present invention corresponds to an obstacle of a certain type by using a matching portion between a photographing unit scanning an obstacle with respect to the front region and the contour of the obstacle obtained from the scan and a shape of a predefined obstacle. A first detection unit determining whether the obstacle is moving, a first detection unit detecting whether the obstacle is a moving obstacle by sensing a moving speed of the center point of the obstacle, and a second detection unit detecting whether the obstacle is an organism by detecting the movement of the obstacle And a third detecting unit detecting a wavelength of the obstacle to detect whether or not a person and a determining unit determining which object is the detected obstacle.

상기 자율 이동 장치의 촬영부는, 스테레오 카메라(Stereo Camera) 또는 레이저 거리측정 센서(LADAR, Flash Lidar 등) 중의 어느 하나가 사용될 수 있다.The imaging unit of the autonomous mobile device may be any one of a stereo camera or a laser ranging sensor (LADAR, Flash Lidar, etc.).

상기 자율 이동 장치는, 이동 장애물이 포함된 범위(Range) 내에서 추가 스캔을 실시하여 이동 장애물에 대한 2차원 형상을 추출하는 제2검출부를 더 포함할 수 있다.The autonomous movement apparatus may further include a second detection unit which extracts a two-dimensional shape of the movement obstacle by performing an additional scan within a range including the movement obstacle.

본 발명에 의한 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치에 따르면 장애물을 정확하게 검출하고 분류하여 어떤 종류의 장애물인지 판단할 수 있다.According to the obstacle determining method of the autonomous mobile device according to the present invention and the autonomous mobile device using the same, it is possible to accurately determine and classify the obstacles to determine what kind of obstacles.

본 발명에 의한 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치는 장애물이 사람일 경우에 보다 안정적으로 판단이 가능하다.Obstacle determination method of the autonomous mobile device and the autonomous mobile device using the same can be more stably determined when the obstacle is a human.

도 1은 본 발명의 일 실시예에 따른 자율이동장치에 의해 검출된 장애물을 도시한 개략도.
도 2는 본 발명의 일 실시예에 따른 자율이동장치의 장애물 판단방법을 나타내는 순서도.
도 3은 본 발명의 일 실시예에 따른 자율이동장치의 구성을 도시한 블록도.
도 4는 도 2의 장애물 판단방법에서 장애물 검출단계를 상세하게 나타내는 순서도.
도 5 내지 도 6은 도 4의 장애물 검출단계에서 장애물을 사람으로 판단하는 기준을 설명하기 위한 도면.
도 7은 도 4의 장애물 검출단계에서 검출된 장애물을 정밀검출하는 방법을 나타내는 개념도.
도 8은 도 7의 장애물을 정밀검출하는 방법을 나타내는 순서도.
도 9는 도 2의 장애물 판단방법에서 장애물 분류단계를 상세하게 나타내는 순서도.
도 10은 도 2의 장애물 판단방법에서 장애물 판단단계를 상세하게 나타내는 순서도.
1 is a schematic diagram showing an obstacle detected by the autonomous platform according to an embodiment of the present invention.
2 is a flowchart illustrating a method of determining an obstacle of an autonomous mobile device according to an embodiment of the present invention.
Figure 3 is a block diagram showing the configuration of an autonomous mobile device according to an embodiment of the present invention.
4 is a flow chart showing in detail the obstacle detection step in the obstacle determination method of FIG.
5 to 6 are views for explaining a criterion for determining an obstacle as a person in the obstacle detection step of FIG.
7 is a conceptual diagram illustrating a method for precisely detecting an obstacle detected in the obstacle detecting step of FIG. 4.
8 is a flowchart illustrating a method of precisely detecting an obstacle of FIG. 7.
9 is a flow chart showing in detail the obstacle classification step in the obstacle determination method of FIG.
10 is a flowchart illustrating an obstacle determination step in detail in the obstacle determination method of FIG. 2.

상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다.The above-described features and effects of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, and thus, those skilled in the art to which the present invention pertains may easily implement the technical idea of the present invention. Could be. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific disclosure, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention.

이하 첨부 도면을 참조하여 본 발명의 일 실시예에 따른 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치를 설명한다.Hereinafter, a method of determining an obstacle of an autonomous mobile device and an autonomous mobile device using the same will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 자율이동장치에 의해 검출된 장애물을 도시한 개략도이다.1 is a schematic diagram showing an obstacle detected by the autonomous platform according to an embodiment of the present invention.

도면을 참조하면 자율이동장치(1)는 자율적으로 이동 가능한 장치로서, 예를 들면 차량 또는 로봇(Robot) 중의 어느 하나일 수 있으며, 특별히 한정하지는 않는다.Referring to the drawings, the autonomous mobile device 1 is an autonomous mobile device, and may be, for example, any one of a vehicle and a robot, but is not particularly limited.

상기 자율이동장치는 전방의 장애물(2,3)을 스캔하면서 이동하고 장애물이 검출되면 어떠한 장애물에 해당하는지 판단한다.The autonomous platform moves while scanning the obstacles 2 and 3 in front, and determines which obstacle corresponds to the obstacle when the obstacle is detected.

도 2는 본 발명의 일 실시예에 따른 자율이동장치의 장애물 판단방법을 나타내는 순서도이다.2 is a flowchart illustrating an obstacle determining method of an autonomous mobile device according to an embodiment of the present invention.

먼저 상기 자율이동장치(1)는 전방의 장애물을 판단하기 위해, 전방 영역에 대한 장애물을 스캔하는 장애물 검출단계(ST100)를 수행한다.First, the autonomous platform 1 performs an obstacle detecting step ST100 for scanning an obstacle on a front area to determine an obstacle in front.

상기 장애물 검출단계(ST100)는 스테레오 카메라(Stereo Camera) 또는 레이저 거리측정 센서(LADAR, Flash Lidar 등) 중의 어느 하나를 이용하여 장애물을 스캔할 수 있다.The obstacle detection step ST100 may scan an obstacle using any one of a stereo camera or a laser ranging sensor (LADAR, Flash Lidar, etc.).

장애물 스캔 단계(ST100)는 장애물까지의 거리 및 장애물의 윤곽선을 검출하고, 검출된 장애물의 윤곽선을 일반 호프 변환(Generalized Hough Transform) 등의 알고리즘에 의해 변환시켜 사전정의한 물체형상과 비교하며 이에 따라 검출된 물체가 어떤 장애물에 해당하는지 개략적으로 판단할 수 있다.The obstacle scanning step ST100 detects the distance to the obstacle and the outline of the obstacle, converts the detected outline of the obstacle by an algorithm such as a generalized Hough transform, and compares it with a predefined object shape and detects it accordingly. It is possible to roughly determine which obstacle the object falls under.

장애물의 윤곽선을 검출하는 것은, 장애물을 3차원으로 정밀하게 스캔하고 이를 2차원으로 프로젝션시킨 후 장애물의 윤곽선을 검출할 수 있다.Detecting the outline of the obstacle can detect the outline of the obstacle after precisely scanning the obstacle in three dimensions and projecting it in two dimensions.

장애물 검출단계에 대한 보다 상세한 설명은 후술한다.A more detailed description of the obstacle detection step will be described later.

다음으로 상기 자율이동장치(1)는 상기 장애물이 이동 장애물인지, 고정 장애물인지 분류하는 장애물 분류단계(ST200)를 수행한다.Next, the autonomous mobile device 1 performs an obstacle classification step ST200 for classifying whether the obstacle is a moving obstacle or a fixed obstacle.

상기 장애물 분류단계(ST200)는 시간에 따른 장애물의 이동 유무에 따라 분류될 수 있다.The obstacle classification step ST200 may be classified according to whether obstacles move over time.

상기 자율이동장치(1)에 있어서 전방에 위치한 장애물(2,3)은 크게 이동 장애물과 고정 장애물로 분류할 수 있는데, 상기 이동 장애물은 사람 또는 동물 또는 곤충과 같이 이동이 가능한 장애물을 말한다.In the autonomous mobile device 1, the obstacles 2 and 3 located in the front can be largely classified into moving obstacles and fixed obstacles. The moving obstacles refer to obstacles that can move, such as a person, an animal, or an insect.

여기서 이동이 가능하다는 의미는 단순히 소정의 구간을 반복적으로 왕복 이동하는 것이 아니라, 능동적으로 위치 이동이 가능한 장애물을 말한다.Here, the meaning of the movement means not merely a reciprocating movement of a predetermined section repeatedly, but means an obstacle capable of actively moving the position.

고정 장애물은 바위, 나무, 웅덩이, 기둥 및 덤불과 같이 능동적으로 이동될 수 없으며, 바람 또는 외부에서 가해지는 물리적인 외력에 의해 수동적으로 이동되는 장애물을 말한다.Fixed obstacles are obstacles that cannot be actively moved, such as rocks, trees, puddles, pillars and bushes, but are passively moved by wind or physical external force applied from the outside.

상기 장애물 분류단계(ST200)는 복수 개의 이동 장애물에 대한 중심점이 추적될 수 있다.In the obstacle classification step ST200, center points for a plurality of moving obstacles may be tracked.

상기 중심점은 단일한 이동 장애물 또는 각각의 이동 장애물의 중심점에 해당될 수 있다.The center point may correspond to a single moving obstacle or to a center point of each moving obstacle.

예를 들면, 장애물이 사각 형상일 경우에는 사각 형상의 내부 중앙이 중심점이 될 수 있고, 사람의 경우에는 배꼽 근처가 중심점이 될 수 있다.For example, when the obstacle is a rectangular shape, the inner center of the rectangular shape may be the center point, and in the case of a person, the center point may be near the navel.

여기서 장애물의 중심점을 추적하는 이유는, 시간에 따른 이동 방향과 속도를 고려하여 이동장애물인지 고정장애물인지 판단하고 더 나아가 사람인지 다른 물체인지인지 판단하기 위해서이다.The reason for tracking the center point of the obstacle is to determine whether it is a moving obstacle or a fixed obstacle in consideration of the direction and speed of movement over time, and further to determine whether it is a person or another object.

장애물 분류단계에 대한 보다 상세한 설명은 후술한다.A more detailed description of the obstacle classification step will be described later.

다음으로 상기 자율이동장치(1)는 상기 장애물이 사람인지 사람 외의 생물체인지 무생물체인지 등을 판단하는 장애물 판단단계(ST300)를 수행한다.Next, the autonomous platform 1 performs an obstacle determination step (ST300) for determining whether the obstacle is a human being, a non-human creature, or an inanimate object.

생물체를 검출하는 경우는 모션 감지 센서를 이용하여 자세 등의 움직임이 검출되면 생물체로 분류한다.In the case of detecting an organism, if a motion such as a posture is detected using a motion detection sensor, it is classified as an organism.

사람을 검출하는 경우는 인체 감지 센서를 이용하여 사람으로부터 방출되는 범위의 파장이 검출되면 사람으로 분류한다.In the case of detecting a person, when a wavelength of a range emitted from the person is detected using a human body sensor, the person is classified as a person.

장애물 판단단계에 대한 보다 상세한 설명은 후술한다.
A more detailed description of the obstacle determination step will be described later.

다음으로 본 발명의 일 실시예에 따른 자율이동장치에 대해 도면을 참조하여 상세하게 설명한다.Next, an autonomous mobile device according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 3은 본 발명의 일 실시예에 따른 자율이동장치를 나타내는 도면이다.3 is a view showing an autonomous mobile device according to an embodiment of the present invention.

상기 자율이동장치는 촬영부(100), 제1검출부(200), 제2검출부(300), 제1감지부(400), 제2감지부(500), 제3감지부(600) 및 판단부(700)를 포함하여 이루어진다.The autonomous mobile device includes a photographing unit 100, a first detecting unit 200, a second detecting unit 300, a first detecting unit 400, a second detecting unit 500, a third detecting unit 600, and a determination unit. It comprises a part 700.

상기 촬영부(100)는 자율이동장치(1)는 전방영역에 대한 장애물(2,3)을 스캔한다.The photographing unit 100, the autonomous mobile device 1 scans the obstacles (2, 3) to the front area.

상기 촬영부(100)는 스테레오 카메라(Stereo Camera) 또는 레이저 거리측정 센서(LADAR, Flash Lidar 등) 중의 어느 하나가 사용될 수 있다. 상기 스테레오 카메라(Stereo Camera) 또는 레이저 거리측정 센서(LADAR, Flash Lidar 등)에 대한 상세한 설명은 생략한다.The photographing unit 100 may be any one of a stereo camera or a laser ranging sensor (LADAR, Flash Lidar, etc.). Detailed description of the stereo camera or laser distance measuring sensor (LADAR, Flash Lidar, etc.) will be omitted.

상기 제1검출부(200)는, 장애물이 감지되면 장애물의 윤곽선을 검출하고 상기 장애물과의 거리 및 장애물의 크기를 검출할 수 있다.When the obstacle is detected, the first detector 200 may detect an outline of the obstacle, and detect a distance from the obstacle and a size of the obstacle.

이에 따라 장애물의 윤곽선과 미리 정의된 장애물의 형상과의 매칭 관계를 이용하여 어떤 종류의 장애물에 해당하는지 판단할 수 있고 장애물의 크기가 일정 크기 이상이 되는지 판단하여 장애물 가능성이 있는 물체인지 판단할 수 있다.Accordingly, by using the matching relationship between the contour of the obstacle and the shape of the predefined obstacle, it is possible to determine what kind of obstacle it corresponds to, and determine whether the obstacle is over a certain size to determine whether the object has an obstacle possibility. have.

상기 제2검출부(300)는 장애물이 포함된 범위(Range) 내에서 추가 스캔을 실시하고 상기 장애물(2,3)에 대한 3차원 형상 복원 및 2차원 프로젝션을 수행하여 장애물을 검출한다. 상기 제2검출부(300)는 레인지 센서(Range Sensor)가 사용될 수 있다.The second detector 300 performs an additional scan within a range including the obstacle and detects the obstacle by performing 3D shape restoration and 2D projection on the obstacles 2 and 3. Range sensor may be used as the second detector 300.

이에 따라 장애물의 윤곽선을 더욱 정확하게 검출할 수 있고 미리 정의된 장애물의 형상과의 매칭 관계를 이용하여 어떤 종류의 장애물에 해당하는지 더욱 정확하게 판단할 수 있다. Accordingly, the contour of the obstacle can be detected more accurately, and it is possible to more accurately determine what kind of obstacle corresponds to using a matching relationship with the shape of the predefined obstacle.

상기 제1감지부(400)는 상기 장애물의 중심점의 이동 속도를 감지함으로써 상기 장애물이 이동 장애물인지 아닌지 감지한다.The first detection unit 400 detects whether the obstacle is a moving obstacle by detecting a moving speed of the center point of the obstacle.

상기 제2감지부(500)는 상기 장애물(2)이 이동 장애물일 경우에 시간에 따른 움직임을 감지한다. 상기 제2감지부(500)는 모션 감지 센서(Motion Detection Sensor)를 사용할 수 있다.The second detecting unit 500 detects a movement over time when the obstacle 2 is a moving obstacle. The second detection unit 500 may use a motion detection sensor.

이 때 모션 감지 센서에 장애물의 자세 등의 움직임이 검출되면 생물체로 분류한다.At this time, if the motion detection sensor detects movements such as posture of obstacles, it is classified as a living organism.

상기 제3감지부(600)는 상기 장애물이 사람인지 다른 물체인지인지를 감지한다. 상기 제3감지부(600)는 인간 감지 센서를 사용할 수 있다.The third sensing unit 600 detects whether the obstacle is a person or another object. The third detection unit 600 may use a human detection sensor.

상기 판단부(700)는 상기 제1검출부(200), 제2검출부(300), 제1감지부(400), 제2감지부(500) 및 제3감지부(600)를 통해 입력된 정보를 판단하여 검출된 장애물이 사람인지 또는 그 외의 물체인지 판단한다.The determination unit 700 is input through the first detection unit 200, the second detection unit 300, the first detection unit 400, the second detection unit 500 and the third detection unit 600. Determine whether the detected obstacle is a person or other object.

상기 판단부(700)는 전술한 촬영부(100)와, 제1검출부(200), 제2검출부(300), 제1감지부(400) 제2감지부(500) 및 제3감지부(600)를 통해 입력된 각종 신호 및 정보를 판단할 수 있으며, 각종 항법 장치와도 연결될 수 있다.
The determination unit 700 includes the photographing unit 100, the first detection unit 200, the second detection unit 300, the first detection unit 400, the second detection unit 500, and the third detection unit ( Various signals and information input through 600 may be determined and may be connected to various navigation devices.

다음으로 본 발명의 일 실시예에 따른 장애물 검출방법에 있어서 장애물 검출단계에 대하여 도면을 참조하여 상세하게 설명한다.Next, the obstacle detection step in the obstacle detection method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 4는 도 2의 장애물 판단방법에서 장애물 검출단계를 상세하게 나타내는 순서도이다.4 is a flowchart illustrating an obstacle detection step in detail in the obstacle determination method of FIG. 2.

상기 장애물 검출단계는 제1검출부(200)를 통하여 이루어진다.The obstacle detecting step is performed through the first detector 200.

먼저 자율이동장치(1)는 도로 또는 평지를 주행하면서 전방 영역에 대한 스캔(ST100)을 실시하여 영상 정보를 획득한다.First, the autonomous platform 1 obtains image information by performing a scan (ST100) of the front area while driving on a road or a plain.

이 때 촬영부(100)에 구비된 스테레오 카메라는 전방 영역을 스캔하고, 제1검출부(200)에 스캔된 영상 정보를 전송한다.At this time, the stereo camera provided in the photographing unit 100 scans the front area and transmits the scanned image information to the first detection unit 200.

상기 스캔된 영상 정보는 많은 정보를 포함하고 있으므로 촬상 화면에서 엣지 디텍션(edge detection)을 통하여 엣지(edge)를 검출하여 폐루프를 이루는 물체에 대하여 장애물 대상 가능성이 있는 물체로 분류함으로써 장애물을 검출한다.Since the scanned image information contains a lot of information, the edge is detected through edge detection on the imaging screen, and the obstacle is detected by classifying the object forming the closed loop as an object having a potential obstacle. .

다음으로 스캔된 영상정보에서 깊이(depth) 정보를 계산(ST110)하고, 장애물(2,3)까지의 거리(D)를 계산(ST120)한다. 이에 따라 물체의 크기의 추정이 가능하다.Next, depth information is calculated from the scanned image information (ST110), and the distance D to the obstacles 2 and 3 is calculated (ST120). Accordingly, the size of the object can be estimated.

상기 거리 D=f(초점거리, 가로 세로 픽셀수, 영상검출소자크기, 깊이)로 나타낼 수 있다. 여기서, 물체의 실제 가로 크기는 1픽셀의 가로 실제 크기ㅧ픽셀수로 나타낼 수 있고, 물체의 실제 세로 크기는 1픽셀의 세로 실제 크기ㅧ픽셀수로 나타낼 수 있다.It can be represented by the distance D = f (focal length, horizontal and vertical pixels, image detection device size, depth). Here, the actual horizontal size of the object may be represented by the horizontal actual size ㅧ pixels of 1 pixel, the actual vertical size of the object may be represented by the vertical actual size ㅧ pixels of 1 pixel.

다음으로 자율이동장치(1) 전방에 위치한 다수 개의 물체에 대하여 장애물 가능성이 있는 물체(이하 후보 장애물이라 한다)에 해당하는지를 설정(ST130)한다.Next, a plurality of objects located in front of the autonomous platform 1 are set whether or not they correspond to an object having a possibility of obstacle (hereinafter referred to as a candidate obstacle) (ST130).

즉 아주 작은 물체인 경우 장애물로 인식할 필요가 없으나 장애물로 잘못 판단될 우려가 있으므로 추정된 물체의 크기로부터 가로 및 세로크기가 일정 크기 이상이 되는 것을 후보 장애물로 분류한다(ST130).That is, in the case of a very small object, it is not necessary to recognize it as an obstacle, but there is a possibility that it may be wrongly determined as an obstacle. Therefore, the object is classified as a candidate obstacle having a horizontal size and a vertical size larger than a predetermined size from the estimated size of the object (ST130).

다음으로 후보 장애물 중에서 상기 물체가 사전에 정의된 물체형상에 해당하는지 검출하기 위해 사전 정의 물체형상과 비교(ST140)한다.Next, to detect whether the object corresponds to a predefined object shape among candidate obstacles, the object is compared with a predefined object shape (ST140).

이를 위해서는 후보 장애물에 대하여 일반 호프 변환(Generalized Hough Transform)을 적용하고 물체 정의 DB에 저장되어 있는 사전 정의 물체 형상과 유사한 형태인지를 판별한다. 일반 호프 변환은 후보 장애물을 도형의 형태로 변환시킨다.To do this, a generalized Hough transform is applied to candidate obstacles and it is determined whether the shape is similar to a predefined object shape stored in the object definition DB. General hop transform transforms candidate obstacles into the shape of a figure.

예를 들어 후보 장애물에 대하여 일반 호프 변환을 적용한 형상이 사각형이고 물체 정의 DB에 저장되어 있는 사전 정의 물체 형상 중에 사각형이 포함되어 있는 경우 후보 장애물은 사전 정의 물체 형상에 정의된 형태를 가지고 있는 것으로 판별된다.For example, if the shape to which the normal hop transform is applied to the candidate obstacle is a rectangle and the predefined object shape stored in the object definition DB includes a rectangle, the candidate obstacle is determined to have the shape defined in the predefined object shape. do.

다음으로 일반 호프 변환을 적용한 형상이 사전 정의 물체 형상에 정의된 형태를 가지고 있는 경우 상기 일반 호프 변환을 적용한 형상이 특정 장애물에 해당하는지 판단한다.Next, when the shape to which the general hop transform is applied has a shape defined in the predefined object shape, it is determined whether the shape to which the general hop transform is applied corresponds to a specific obstacle.

예를 들어 상기 특정 장애물이 사람이라면 일반 호프 변환을 적용한 형상이 사람의 특징적인 형상을 가지고 있는지 판단한다.For example, if the specific obstacle is a person, it is determined whether the shape to which the general hop transform is applied has a characteristic shape of the person.

아래의 예는 사전정의 물체형상에 사각형이 포함되어 있고, 후보 장애물에 대하여 일반 호프 변환을 적용한 형상이 사각형에 해당되는 경우 후보 장애물이 사람에 해당하는지 판단하는 예를 설명한다.The following example illustrates an example of determining whether a candidate obstacle corresponds to a person when a rectangle is included in a predefined object shape and a shape in which a general hop transform is applied to the candidate obstacle corresponds to a rectangle.

도 5 내지 도 6은 도 4의 장애물 검출단계에서 후보 장애물을 사람으로 판단하는 기준을 설명하기 위한 도면이다.5 to 6 are diagrams for describing a criterion for determining a candidate obstacle as a person in the obstacle detecting step of FIG. 4.

후보 장애물이 검출되면, 상기 장애물이 사람의 피부색에 해당하는 색을 가지고 있는지 체크한다. 상기 피부색은 인종(백인종, 흑인종, 황인종)에 따라 크게 3가지로 나눌 수 있다.If a candidate obstacle is detected, it is checked whether the obstacle has a color corresponding to the human skin color. The skin color can be divided into three types according to race (white race, black race, yellow race).

또한 일반 호프 변환을 통해 검출된 도형이 사람의 가로 세로 얼굴 비율에 해당되는지 유무와 장애물의 자세를 체크하여 서 있는 자세, 앉아있는 자세, 지면에 누워있는 자세 또는 웅크리고 누워있는 자세 중의 어느 하나에 해당되는지 체크할 수 있다.Also, check whether the figure detected through the normal hop transform corresponds to the aspect ratio of the person and whether the standing posture, sitting posture, lying posture, or squatting posture by checking the posture of the obstacle. You can check if this is the case.

상기 자세는 위에서 언급한 이외의 자세도 있을 수 있으나 설명의 편의를 위해 몇 가지로 한정한다.The posture may be other than the above-mentioned posture, but is limited to some for convenience of description.

그러나 위에서 언급한 다른 자세로의 변경도 가능하며 다양한 자세를 사전에 맵핑(Mapping)하여 자율이동장치(1)에 저장할 수 있음을 밝혀 둔다.However, it is possible to change to the above-described other postures, and it is clear that various postures can be mapped in advance and stored in the autonomous mobile device 1.

이와 같은 일련의 절차를 통해 상기 물체가 피부색으로 분류가 가능한지 여부와 사람의 가로 세로 얼굴 비율에 해당하는지 여부와, 어떤 자세를 취하고 있는지 여부를 검출하고 검출(ST150)을 완료한다.This series of procedures detects whether the object can be classified as skin color, corresponds to the aspect ratio of a person, and what posture is taken and completes the detection (ST150).

이 때 일반 호프 변환에 의해 검출된 도형을 사람으로 분류하는 것은 아래의 예와 같이 수행될 수 있다.In this case, classifying the figure detected by the general hop transform into a person may be performed as in the following example.

도 5 내지 도 6을 참조하면, 검출된 다수개의 후보 장애물 중에서 사람이 서있는 경우, 체형 분류 표준에 따른 신장(A)의 10% ~ 90% 범위와, 어깨 폭(B)의 10% ~ 90% 범위를 선정하여 비율 범위에 포함되는 물체는 사람으로 분류할 수 있다.5 to 6, when a person stands among the plurality of candidate obstacles detected, a range of 10% to 90% of the height A according to the body classification standard and 10% to 90% of the shoulder width B are shown. By selecting a range, objects within the ratio range can be classified as humans.

예를 들면, 물체의 세로(A)/가로(B) 비율이 A10/B90 ~ A90/B10에 속하는 경우 사람으로 생각해 볼 수 있다.For example, if the height (A) / width (B) ratio of an object belongs to A 10 / B 90 to A 90 / B 10 , it can be considered as a person.

만약, 장애물이 앉아 있는 경우는, 체형 분류 표준에서 신장의 10% ~ 90% 범위의 1/2에 해당하는 신장과, 어깨 폭의 10% ~ 90% 범위를 선정하여 비율 범위에 포함되는 장애물은 사람으로 분류할 수 있다.If an obstacle is sitting, the obstacles included in the ratio range by selecting the height corresponding to 1/2 of the 10% to 90% of the height and the 10% to 90% of the shoulder width in the body classification standard. You can classify as a person.

예를 들면, 장애물의 세로(신장,A)/가로(어깨폭,B) 비율이 (A10/2)/B90 ~ (A90/2)/B10에 속하는 경우 사람으로 분류할 수 있다.For example, when the vertical (height, A) / width (shoulder width, B) a ratio of an obstacle (A 10/2) / B 90 ~ (A 90/2) belonging to a / B 10 may be classified as a person .

만약, 장애물이 누워있는 경우는, 서있는 경우를 누워있는 경우로 변환하여 판단하고, 장애물의 세로(B)/가로(A) 비율이 B10/A90 ~ B90/A10에 속하는 경우 사람으로 분류할 수 있다.If an obstacle is lying, the standing case is converted into a lying case and judged.If the vertical (B) / horizontal (A) ratio of the obstacle belongs to B 10 / A 90 to B 90 / A 10 , Can be classified.

만약, 장애물이 지면에 웅크리고 누워있는 경우는, 앉아있는 경우를 누워있는 경우로 변환하여 판단하고, 상기 장애물의 세로(B)/가로(A) 비율이(B10/2)/A90 ~ (B90/2)/A10에 속하는 경우 사람으로 분류할 수 있다.If the obstacle is curled up on the ground, it is judged by converting the sitting case into a lying down, and the vertical (B) / horizontal (A) ratio of the obstacle is (B 10/2 ) / A 90 ~ If they belong to (B 90/2 ) / A 10 , they can be classified as human.

상술한 바와 같은 과정에 의해 검출된 후보 장애물이 어떤 물체에 해당하는지를 검출하는 것이 가능하고 이에 따라 장애물로 판정하는 것이 가능하다.
It is possible to detect which object the candidate obstacle detected by the above-described process corresponds to, and thus it is possible to determine it as an obstacle.

상기와 같은 장애물 검출 단계는 아래와 같은 방법으로 정밀하게 수행할 수 있다. 이는 제2검출부(300)에 의해 수행된다. 조작자는 제1검출부(200)에 의한 장애물 검출 단계와 제2검출부(300)에 의한 장애물 검출 단계를 동시에 또는 하나만 선택적으로 수행하는 것이 가능하다.The obstacle detection step as described above may be precisely performed in the following manner. This is performed by the second detector 300. The operator may perform the obstacle detection step by the first detection unit 200 and the obstacle detection step by the second detection unit 300 simultaneously or selectively.

도 7은 도 4의 장애물 검출단계에서 검출된 장애물을 정밀검출하는 방법을 나타내는 개념도이다.7 is a conceptual diagram illustrating a method of precisely detecting an obstacle detected in the obstacle detecting step of FIG. 4.

후보 장애물이 검출되면 상기 제2검출부(300)은 상기 후보 장애물이 위치한 주변영역에 대해 추가적인 스캐닝을 실시한다.When the candidate obstacle is detected, the second detector 300 performs additional scanning on the peripheral area where the candidate obstacle is located.

상기 제2검출부(300)는 레이저 스캐너(Laser Scanner)를 포함하는 레인지 센서(range sensor)로 지면에 수직인 면에 대하여 레인지 데이터(range data) 획득을 위한 스캔을 수행한다.The second detector 300 is a range sensor including a laser scanner and performs a scan for obtaining range data on a plane perpendicular to the ground.

상기 레인지 센서는 별도의 구동부에 장착될 수 있고 상기 레인지 센서로 물체가 포함되는 자율이동장치(1)의 정면 영역을 스캔하여 영상 테이터를 획득한다.The range sensor may be mounted on a separate driving unit, and the image sensor is obtained by scanning a front region of the autonomous platform 1 including the object with the range sensor.

이 때 획득한 영상 데이터는 3차원 이미지이다. 즉 도면을 참조하면, 도시된 바와 같이 일정한 거리에 구 형상의 물체가 존재하는 경우 스캔한 영상 데이터는 구의 일측의 표면을 나타내는 데이터에 해당하므로 이는 3차원 이미지이다.The image data obtained at this time is a three-dimensional image. That is, referring to the drawing, when a spherical object exists at a predetermined distance as shown, the scanned image data corresponds to data representing a surface of one side of the sphere, which is a three-dimensional image.

이때, 여백(Space)으로 존재하는 부분은 상기 장애물(2)의 레인지 센서 신호가 리턴되지 않아 레인지 값이 없는 경우이고, 구에 반사되어 리턴값이 있는 경우 레인지에 따라 색(color)을 부여하여 영상 이미지를 생성할 수 있다.At this time, the portion existing as a space is a case in which there is no range value because the range sensor signal of the obstacle 2 is not returned, and when there is a return value reflected by a sphere, color is given according to the range. A video image can be generated.

스캔된 장애물(2)에 대한 3차원 이미지는 프로젝션 평면에 프로젝션을 실시하여 2차원 이미지로 만들 수 있다.The three-dimensional image of the scanned obstacle 2 can be made into a two-dimensional image by projecting onto the projection plane.

프로젝션을 실시하여 생성된 2차원 이미지에 대해 윤곽선을 검출(edge detection)하고 변환과정을 수행하여 사전정의 물체형상을 통해 사전 정의된 물체 형태와 일치하는지 비교하고, 일치하면 추출된 장애물 형상이 특정한 장애물에 해당하는지 매칭을 실시한다.Edge detection and transformation are performed on the two-dimensional image generated by the projection, and the matching process is performed to compare with the predefined object shape through the predefined object shape. Matching is performed.

도 8은 도 7의 장애물을 정밀검출하는 방법을 나타내는 순서도로서, 제1 검출부와 제 2검출부를 이용하여 장애물을 정밀검출하는 방법을 나타낸다.FIG. 8 is a flowchart illustrating a method of precisely detecting an obstacle of FIG. 7 and illustrates a method of precisely detecting an obstacle using a first detector and a second detector.

먼저 촬영부(100)가 장애물에 대한 영상 정보를 스캔(ST100)하고, 제1검출부(200)가 다수개의 장애물 후보를 검출(ST150)한다. First, the photographing unit 100 scans image information on an obstacle (ST100), and the first detection unit 200 detects a plurality of obstacle candidates (ST150).

다음으로 다수 개의 장애물 후보 중에 관심 장애물에 대한 중심점과 크기를 계산(ST200)하며, 제2검출부(300)에 구비된 레인지 센서가 장애물의 위치한 각도 및 존재 범위를 감지한다.Next, the center point and the size of the obstacle of interest among the plurality of obstacle candidates are calculated (ST200), and the range sensor provided in the second detector 300 detects an angle and an existence range of the obstacle.

다음으로 입력된 장애물의 각도 및 존재 범위에 대한 계산을 실시(ST281)하고, 영역 데이터를 획득하고 이를 누적화(ST282)한다. 이는 상기 장애물에 대한 보다 정확한 형상을 얻기 위함이다.Next, a calculation is performed on the input obstacle angle and the existence range (ST281), and the area data is obtained and accumulated (ST282). This is to obtain a more accurate shape for the obstacle.

그리고, 관심 장애물에 대한 컬러 맵핑(ST283)을 실시한 후에, 평면에 프로젝션(ST284)을 실시하고, 영역을 기반으로 한 2차원의 가상 영상을 획득(ST285)한다.After the color mapping of the obstacle of interest (ST283) is performed, projection (ST284) is performed on the plane, and a two-dimensional virtual image based on the area is obtained (ST285).

그리고, 상기 관심 장애물에 대한 형상을 추출(ST286)하고, 일반 호프 변환을 통하여 물체 정의 DB의 사전 정의 물체 형상과 추출된 형상을 비교(ST287)한다. 또한, 추출된 장애물 형상이 특정한 장애물에 해당하는지 매칭을 실시(ST288)한다.
Then, the shape of the obstacle of interest is extracted (ST286), and the predefined object shape of the object definition DB and the extracted shape is compared (ST287) through a general hop transform. In addition, matching is performed whether the extracted obstacle shape corresponds to a specific obstacle (ST288).

다음으로 본 발명의 일 실시예에 따른 장애물 검출방법에 있어서 장애물 분류단계에 대하여 도면을 참조하여 상세하게 설명한다.Next, the obstacle classification step in the obstacle detection method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 9는 도 2의 장애물 판단방법에서 장애물 분류단계를 상세하게 나타내는 순서도이다.FIG. 9 is a flowchart illustrating an obstacle classification step in detail in the obstacle determining method of FIG. 2.

먼저 장애물 검출단계를 통해 전방 영역에 대한 영상 정보가 획득(ST100)되고, 장애물이 검출(ST150)된다.First, image information of the front region is obtained through an obstacle detection step (ST100), and an obstacle is detected (ST150).

장애물이 검출되면 검출된 각각의 장애물의 중심점을 저장(ST210)한다. 상기 장애물에 대한 중심점을 저장하는 이유는 다수개의 장애물 후보가 이동 장애물에 해당되는지, 아니면 고정 장애물에 해당되는지를 분류하기 위해서이다.If an obstacle is detected, the center point of each detected obstacle is stored (ST210). The reason for storing the center point for the obstacle is to classify whether the plurality of obstacle candidates correspond to moving obstacles or fixed obstacles.

다음으로 계속해서 장애물에 대한 영상을 촬영하여 해당 장애물의 중심점을 누적 저장(ST220)하고, 누적된 영상으로부터 장애물의 중심점의 이동속도를 계산(ST230)한다.Next, the image of the obstacle is continuously taken to store and store the center point of the obstacle (ST220), and the moving speed of the center point of the obstacle is calculated from the accumulated image (ST230).

상기 장애물의 이동 속도가 이동 장애물로 분류 가능한 일정역치(일정값) 이상인지 판단(ST240)하고, 상기 이동 속도가 일정값 이상일 경우에는 이동 장애물(ST250)로 분류한다.It is determined whether the movement speed of the obstacle is equal to or greater than a predetermined threshold (constant value) that can be classified as a movement obstacle (ST240). If the movement speed is greater than or equal to the predetermined value, the obstacle is classified as a movement obstacle (ST250).

만약, 장애물의 이동속도가 일정값 이하일 경우에는 고정 장애물(ST260)로 분류한다.If the moving speed of the obstacle is below a certain value, it is classified as a fixed obstacle (ST260).

여기서, 일정역치의 의미는 현재 위치에서 t시간 동안 다른 위치로 이동되는 시간이 설정되어 있는 기준시간을 말하며, 상기 기준시간을 기준으로 장애물을 이동 또는 고정 장애물로 분류할 수 있다.
Here, the meaning of the constant threshold refers to a reference time at which a time for moving to another location for t hours from the current location is set, and the obstacle may be classified as a moving or fixed obstacle based on the reference time.

다음으로 본 발명의 일 실시예에 따른 장애물 검출방법에 있어서 장애물 판단단계에 대하여 도면을 참조하여 상세하게 설명한다.Next, the obstacle determination step in the obstacle detection method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 10은 도 2의 장애물 판단방법에서 장애물 판단단계를 상세하게 나타내는 순서도이다.FIG. 10 is a flowchart illustrating an obstacle determining step in detail in the obstacle determining method of FIG. 2.

먼저 장애물이 검출(ST150)되면 시간에 따른 중심점의 이동 속도를 판단한다(ST310). 이에 따라 이동 장애물인지 고정 장애물인지 판단이 가능하다.First, when an obstacle is detected (ST150), the moving speed of the center point is determined according to time (ST310). Accordingly, it is possible to determine whether it is a moving obstacle or a fixed obstacle.

상기 장애물이 시간에 따른 중심점의 이동 속도가 일정값 이상일 경우에는 모션 감지 센서를 작동(ST320)시킨다. 상기 모션 감지 센서가 자세 등의 움직임을 감지할 경우에는 이동 장애물로 판단하고, 상기 이동 장애물이 사람인지 여부를 가리기 위해 인간 감지 센서를 작동시킨다(ST322).If the obstacle is a movement speed of the center point over time is a predetermined value or more to operate the motion detection sensor (ST320). When the motion detection sensor detects a movement such as a posture, it is determined as a moving obstacle, and a human detection sensor is operated to indicate whether the moving obstacle is a person (ST322).

상기 인간 감지 센서에 의해 신호(사람의 파장)가 감지될 경우에는, 상기 이동 장애물은 사람으로 판단한다. 만약, 상기 인간 감지 센서에 별도의 신호가 감지되지 않을 경우에는 사람이 아닌 생물체로 판단한다.When a signal (wavelength of a person) is detected by the human detection sensor, the moving obstacle is determined to be a person. If a separate signal is not detected by the human detection sensor, it is determined as an organism rather than a human.

상기 장애물이 시간에 따른 중심점의 이동 속도가 일정값 이하일 경우에도 모션 감지 센서를 작동(ST330)시킨다.Even when the obstacle has a movement speed of the center point over time, the motion detection sensor is operated (ST330).

상기 모션 감지 센서에 별도의 신호가 감지되지 않을 경우에는 고정 장애물로 판단하고, 신호가 감지될 경우에는 인간 감지 센서(ST332)를 작동시킨다.If a separate signal is not detected by the motion detection sensor, it is determined as a fixed obstacle, and when a signal is detected, the human detection sensor ST332 is operated.

만약, 신호가 감지될 경우에는, 상기 이동 장애물이 사람에는 해당되나 고정된 상태를 유지하고 있는 것으로 판단하고, 감지되지 않을 경우에는 기타 생물체로서 고정된 상태를 유지하고 있는 것으로 판단한다.If a signal is detected, it is determined that the moving obstacle corresponds to a person but remains in a fixed state, and if it is not detected, it is determined that the moving obstacle is in a fixed state as other living things.

이에 따라 이동 장애물과 고정 장애물 모두의 경우에 대해서 장애물이 사람인지, 생물체인지, 비생물체인지에 대하여 판단이 가능하다.Accordingly, it is possible to determine whether the obstacle is a human, a living creature, or a non-living object for both the moving obstacle and the fixed obstacle.

이상, 본 발명의 일 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.As mentioned above, although an embodiment of the present invention has been described, those of ordinary skill in the art may add, change, delete or add components within the scope not departing from the spirit of the present invention described in the claims. The present invention may be modified and changed in various ways, etc., which will also be included within the scope of the present invention.

Claims (16)

전방 영역에 대한 장애물을 검출하는 장애물 검출 단계;
상기 장애물이 이동 장애물인지, 고정 장애물인지 분류하는 장애물 분류단계; 및
상기 장애물이 어떤 물체에 해당하는지 판단하는 장애물 판단단계를 포함하고,
상기 장애물 검출 단계는,
상기 장애물의 윤곽선을 검출하는 윤곽선 검출 단계;
상기 윤곽선 검출 단계에서 검출된 윤곽선을 규정된 도형의 형태로 변환시키는 데이터 변환 단계;
상기 변환된 데이터를 도형의 형태로 정의된 사전 정의 물체 형상과 비교하는 데이터 비교 단계 및
상기 변환된 데이터가 상기 사전 정의 물체 형상에 있는 경우 특정 종류의 장애물에 해당되는지 판단하는 장애물 매칭 단계
를 포함하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
An obstacle detecting step of detecting an obstacle with respect to the front region;
An obstacle classification step of classifying whether the obstacle is a moving obstacle or a fixed obstacle; And
An obstacle determination step of determining which object the obstacle corresponds to,
The obstacle detection step,
Contour detection step of detecting the contour of the obstacle;
A data conversion step of converting the contour lines detected in the contour detection step into a prescribed shape;
A data comparison step of comparing the converted data with a predefined object shape defined in the form of a figure; and
An obstacle matching step of determining whether the converted data correspond to a specific kind of obstacle when the converted data is in the predefined object shape
Obstacle determination method of the autonomous mobile device comprising a.
삭제delete 제1항에 있어서,
상기 장애물 검출 단계는, 상기 장애물의 크기를 측정 또는 추정하여 일정 크기 이상이면 장애물로 선정하는 후보 장애물 선정 단계를 더 포함하고 후보 장애물로 선정된 장애물에 대해서 데이터 변환을 수행하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 1,
The obstacle detecting step may further include a candidate obstacle selecting step of measuring or estimating the size of the obstacle and selecting the obstacle as an obstacle if the size is larger than a predetermined size, and performing data conversion on the obstacle selected as the candidate obstacle. How to determine obstacles on your device.
제3항에 있어서,
상기 후보 장애물 선정 단계는,
상기 장애물까지의 거리와 상기 검출된 윤곽선을 이용하여 상기 장애물의 크기를 판단하는 크기 판단 단계 및
상기 크기가 규정된 크기 이상인지 비교하는 크기 비교 단계
를 포함하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 3,
The candidate obstacle selection step,
A size determining step of determining the size of the obstacle using the distance to the obstacle and the detected contour;
A size comparison step of comparing whether the size is greater than or equal to a prescribed size
Obstacle determination method of the autonomous mobile device comprising a.
제1항에 있어서,
상기 윤곽선 검출 단계는,
장애물이 포함된 영역을 2차원으로 스캔하는 스캔 단계;
상기 스캔 단계의 2차원 정보를 누적하여 3차원 형상 정보를 만드는 데이터 합성 단계 및
상기 합성된 데이터를 스캔 방향과 수직인 평면에 대하여 투영하여 2차원 형상 정보를 추출하는 단계
를 포함하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 1,
The contour detection step,
A scan step of scanning an area including an obstacle in two dimensions;
A data synthesis step of accumulating the two-dimensional information of the scanning step to create three-dimensional shape information; and
Extracting two-dimensional shape information by projecting the synthesized data onto a plane perpendicular to a scan direction
Obstacle determination method of the autonomous mobile device comprising a.
제1항에 있어서,
상기 장애물 매칭 단계는,
상기 장애물의 색 또는 자세 중의 적어도 어느 하나에 의해 특정 종류의 장애물에 해당하는지 판단하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 1,
The obstacle matching step,
Obstacle determination method of the autonomous mobile device, characterized in that it determines whether it corresponds to a specific type of obstacle by at least one of the color or posture of the obstacle.
제6항에 있어서,
상기 색은 장애물이 인간인 경우 인종에 따른 피부색(Skin Color)을 이용하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 6,
The color obstacle method of the autonomous mobile device, characterized in that using the skin color (Skin Color) according to the race when the obstacle is a human.
제6항에 있어서,
상기 자세는 장애물이 인간인 경우 서 있는 자세, 앉아있는 자세, 지면에 웅크린 자세, 누워있는 자세 중의 어느 하나에 해당되는지 판단하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 6,
The posture is an obstacle determination method of the autonomous mobile device, characterized in that it is determined whether any one of the standing posture, sitting posture, squat on the ground, lying position when the obstacle is a human.
제1항에 있어서,
상기 데이터 비교단계에서,
상기 사전정의 물체형상은 사람의 가로 세로 얼굴비율 또는 신장 및 어깨폭에 따라 분류되는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 1,
In the data comparison step,
The predefined object shape is an obstacle determination method of an autonomous mobile device, characterized in that classified according to the aspect ratio of the person or height and shoulder width.
제1항에 있어서,
상기 장애물 검출 단계는,
장애물까지의 거리와, 장애물의 윤곽선 및 일반 호프 변환 등의 알고리즘에 의해 검출 가능한 사전정의 한 물체형상 중의 어느 하나 또는 모두가 동시에 적용 가능한 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 1,
The obstacle detection step,
A method for determining an obstacle of an autonomous mobile device, characterized in that any one or all of a predefined object shape detectable by an algorithm such as a distance to an obstacle, an outline of an obstacle, and a general hop transform can be simultaneously applied.
제1항에 있어서,
상기 장애물 분류단계는,
시간에 따른 장애물의 이동 유무에 따라 분류되는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 1,
The obstacle classification step,
Obstacle determination method of the autonomous mobile device, characterized in that classified according to the movement of the obstacle over time.
제1항에 있어서,
상기 장애물 판단단계는,
복수개의 이동 장애물에 대한 중심점이 추적되는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 1,
The obstacle determination step,
Obstacle determination method of the autonomous mobile device, characterized in that the center point for the plurality of moving obstacles are tracked.
제12항에 있어서,
상기 장애물 판단단계는
복수개의 이동 장애물에 대한 중심점의 이동 속도에 따라 이동 장애물 또는 고정 장애물로 분류하는 것을 특징으로 하는 자율 이동 장치의 장애물 판단방법.
The method of claim 12,
The obstacle determining step
Obstacle determination method of the autonomous mobile device, characterized in that classified as a moving obstacle or a fixed obstacle according to the moving speed of the center point for the plurality of moving obstacles.
전방 영역에 대한 장애물을 스캔하는 촬영부;
상기 스캔으로부터 얻어진 장애물의 윤곽선과 미리 정의된 장애물의 형상 사이의 매칭관계를 이용하여 어떤 종류의 장애물에 해당하는지 판단하는 제1검출부;
상기 장애물의 중심점의 이동 속도를 감지함으로써 상기 장애물이 이동 장애물인지 아닌지 감지하는 제1감지부;
상기 장애물의 움직임을 감지하여 상기 장애물이 생물체인지 아닌지 감지하는 제2감지부;
상기 장애물의 파장을 감지하여 사람인지 아닌지 감지하는 제3감지부; 및
검출된 장애물이 어떤 물체인지 판단하는 판단부를 포함하여 이루어지고,
상기 제1검출부는,
상기 장애물의 윤곽선을 검출하는 윤곽선 검출 모듈;
상기 윤곽선 검출 모듈에서 검출된 윤곽선을 규정된 도형의 형태로 변환시키는 데이터 변환 모듈;
상기 변환된 데이터를 도형의 형태로 정의된 사전 정의 물체 형상과 비교하는 데이터 비교 모듈 및
상기 변환된 데이터가 상기 사전 정의 물체 형상에 있는 경우 특정 종류의 장애물에 해당되는지 판단하는 장애물 매칭 모듈
을 포함하는 것을 특징으로 하는 자율 이동 장치.
A photographing unit scanning an obstacle for the front region;
A first detection unit that determines what kind of obstacle corresponds to a matching relationship between an outline of an obstacle obtained from the scan and a shape of a predefined obstacle;
A first detecting unit detecting whether the obstacle is a moving obstacle by sensing a moving speed of a center point of the obstacle;
A second sensing unit which senses whether the obstacle is an organism by sensing the movement of the obstacle;
A third sensing unit which senses whether or not a person is detected by sensing the wavelength of the obstacle; And
It includes a determination unit for determining what object the obstacle is detected,
The first detection unit,
An outline detection module detecting an outline of the obstacle;
A data conversion module for converting the contour detected by the contour detection module into the form of a prescribed figure;
A data comparison module for comparing the converted data with a predefined object shape defined in the form of a figure;
Obstacle matching module for determining whether the converted data corresponds to a specific kind of obstacle when the transformed data is in the predefined object shape
Autonomous mobile device comprising a.
제14항에 있어서,
상기 촬영부는,
스테레오 카메라(Stereo Camera) 또는 레이저 거리측정 센서 중의 어느 하나가 사용되는 것을 특징으로 하는 자율 이동 장치.
The method of claim 14,
Wherein,
Autonomous mobile device, characterized in that any one of a stereo camera or a laser ranging sensor is used.
제15항에 있어서,
이동 장애물이 포함된 범위(Range) 내에서 추가 스캔을 실시하여 상기 이동 장애물에 대한 2차원 형상을 추출하는 제2검출부를 더 포함하는 것을 특징으로 하는 자율 이동 장치.
16. The method of claim 15,
And a second detection unit configured to extract a two-dimensional shape of the moving obstacle by performing an additional scan within a range including the moving obstacle.
KR1020110010339A 2011-02-01 2011-02-01 Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus KR101049155B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110010339A KR101049155B1 (en) 2011-02-01 2011-02-01 Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110010339A KR101049155B1 (en) 2011-02-01 2011-02-01 Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus

Publications (1)

Publication Number Publication Date
KR101049155B1 true KR101049155B1 (en) 2011-07-14

Family

ID=44923581

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110010339A KR101049155B1 (en) 2011-02-01 2011-02-01 Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus

Country Status (1)

Country Link
KR (1) KR101049155B1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9563204B2 (en) 2012-08-14 2017-02-07 Husqvarna Ab Mower with object detection system
KR20180014535A (en) * 2016-08-01 2018-02-09 한국기계연구원 Obstacle avoiding system for a personal mobility and a method for avoiding an obstacle using the same
KR20180075176A (en) * 2016-12-26 2018-07-04 엘지전자 주식회사 Moving Robot and controlling method
WO2018160035A1 (en) * 2017-03-03 2018-09-07 엘지전자 주식회사 Mobile robot and control method therefor
WO2018226048A1 (en) * 2017-06-08 2018-12-13 Samsung Electronics Co., Ltd. Cleaning robot and controlling method thereof
WO2019083291A1 (en) * 2017-10-25 2019-05-02 엘지전자 주식회사 Artificial intelligence moving robot which learns obstacles, and control method therefor
KR20190103512A (en) * 2018-02-12 2019-09-05 엘지전자 주식회사 Moving Robot and controlling method
WO2019212174A1 (en) * 2018-04-30 2019-11-07 엘지전자 주식회사 Artificial intelligence vacuum cleaner and control method therefor
KR102088747B1 (en) * 2019-03-25 2020-03-13 주식회사 싸이맥스 Equipment Front End Module For Detecting A Human Body
KR20230119468A (en) * 2022-02-07 2023-08-16 백수빈 Unmanned ground reconnaissance apparatus for automatic driving
KR20240057020A (en) 2022-10-24 2024-05-02 한국철도기술연구원 A system and method for determining the presence of obstacles in a collision risk zone based on a track map of an autonomous train.

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100773184B1 (en) * 2003-03-14 2007-11-02 마츠시다 덴코 가부시키가이샤 Autonomously moving robot
KR20100027683A (en) * 2008-09-03 2010-03-11 한국과학기술원 Path planning device and method for the autonomous mobile robot

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100773184B1 (en) * 2003-03-14 2007-11-02 마츠시다 덴코 가부시키가이샤 Autonomously moving robot
KR20100027683A (en) * 2008-09-03 2010-03-11 한국과학기술원 Path planning device and method for the autonomous mobile robot

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9563204B2 (en) 2012-08-14 2017-02-07 Husqvarna Ab Mower with object detection system
KR101997531B1 (en) * 2016-08-01 2019-07-08 한국기계연구원 Obstacle avoiding system for a personal mobility and a method for avoiding an obstacle using the same
KR20180014535A (en) * 2016-08-01 2018-02-09 한국기계연구원 Obstacle avoiding system for a personal mobility and a method for avoiding an obstacle using the same
KR20180075176A (en) * 2016-12-26 2018-07-04 엘지전자 주식회사 Moving Robot and controlling method
WO2018124682A3 (en) * 2016-12-26 2018-08-23 엘지전자 주식회사 Mobile robot and control method therefor
US11226633B2 (en) 2016-12-26 2022-01-18 Lg Electronics Inc. Mobile robot and method of controlling the same
KR102017148B1 (en) * 2017-03-03 2019-09-02 엘지전자 주식회사 Artificial intelligence Moving Robot and controlling method
KR20180101081A (en) * 2017-03-03 2018-09-12 엘지전자 주식회사 Moving Robot and controlling method
WO2018160035A1 (en) * 2017-03-03 2018-09-07 엘지전자 주식회사 Mobile robot and control method therefor
US11846950B2 (en) 2017-03-03 2023-12-19 Lg Electronics Inc. Mobile robot and control method thereof
US11269343B2 (en) 2017-03-03 2022-03-08 Lg Electronics Inc. Mobile robot and control method thereof
WO2018226048A1 (en) * 2017-06-08 2018-12-13 Samsung Electronics Co., Ltd. Cleaning robot and controlling method thereof
WO2019083291A1 (en) * 2017-10-25 2019-05-02 엘지전자 주식회사 Artificial intelligence moving robot which learns obstacles, and control method therefor
US11586211B2 (en) 2017-10-25 2023-02-21 Lg Electronics Inc. AI mobile robot for learning obstacle and method of controlling the same
KR20190103512A (en) * 2018-02-12 2019-09-05 엘지전자 주식회사 Moving Robot and controlling method
KR102330607B1 (en) * 2018-02-12 2021-11-23 엘지전자 주식회사 Artificial intelligence Moving Robot and controlling method
KR102100474B1 (en) * 2018-04-30 2020-04-13 엘지전자 주식회사 Artificial intelligence cleaner and controlling method thereof
KR20190134872A (en) * 2018-04-30 2019-12-05 엘지전자 주식회사 Cleaner and controlling method thereof
WO2019212174A1 (en) * 2018-04-30 2019-11-07 엘지전자 주식회사 Artificial intelligence vacuum cleaner and control method therefor
KR102088747B1 (en) * 2019-03-25 2020-03-13 주식회사 싸이맥스 Equipment Front End Module For Detecting A Human Body
KR20230119468A (en) * 2022-02-07 2023-08-16 백수빈 Unmanned ground reconnaissance apparatus for automatic driving
KR102654371B1 (en) 2022-02-07 2024-04-02 백수빈 Unmanned ground reconnaissance apparatus for automatic driving
KR20240057020A (en) 2022-10-24 2024-05-02 한국철도기술연구원 A system and method for determining the presence of obstacles in a collision risk zone based on a track map of an autonomous train.

Similar Documents

Publication Publication Date Title
KR101049155B1 (en) Method for judging obstacle of autonomous moving apparatus and autonomous moving apparatus
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
KR100773184B1 (en) Autonomously moving robot
EP3104194B1 (en) Robot positioning system
CN108459597B (en) Mobile electronic device and method for processing tasks in task area
JP5071945B2 (en) Mobile device and method
Holz et al. Towards semantic scene analysis with time-of-flight cameras
CN207488823U (en) A kind of mobile electronic device
Maier et al. Self-supervised obstacle detection for humanoid navigation using monocular vision and sparse laser data
CN108459596A (en) A kind of method in mobile electronic device and the mobile electronic device
Maier et al. Vision-based humanoid navigation using self-supervised obstacle detection
Hochdorfer et al. 6 DoF SLAM using a ToF camera: The challenge of a continuously growing number of landmarks
Reina et al. Traversability analysis for off-road vehicles using stereo and radar data
Droeschel et al. Omnidirectional perception for lightweight UAVs using a continuously rotating 3D laser scanner
Shalal et al. A preliminary evaluation of vision and laser sensing for tree trunk detection and orchard mapping
Dodge et al. Convex vision-based negative obstacle detection framework for autonomous vehicles
Hu et al. Bayesian fusion of ceiling mounted camera and laser range finder on a mobile robot for people detection and localization
Bozorgi et al. 2D laser and 3D camera data integration and filtering for human trajectory tracking
Portugal-Zambrano et al. Robust range finder through a laser pointer and a webcam
KR102249485B1 (en) System and method for autonomously traveling mobile robot
EP3979032A1 (en) Systems and methods for enabling navigation in environments with dynamic objects
US20230343228A1 (en) Information processing apparatus, information processing system, and information processing method, and program
Meng et al. A slope detection method based on 3D LiDAR suitable for quadruped robots
US20220291686A1 (en) Self-location estimation device, autonomous mobile body, self-location estimation method, and program
KR100587572B1 (en) System and method for extracting corner point in space using pixel information on camera, robot including the system

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140701

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160701

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190702

Year of fee payment: 9