KR20200023707A - Moving robot - Google Patents
Moving robot Download PDFInfo
- Publication number
- KR20200023707A KR20200023707A KR1020180098294A KR20180098294A KR20200023707A KR 20200023707 A KR20200023707 A KR 20200023707A KR 1020180098294 A KR1020180098294 A KR 1020180098294A KR 20180098294 A KR20180098294 A KR 20180098294A KR 20200023707 A KR20200023707 A KR 20200023707A
- Authority
- KR
- South Korea
- Prior art keywords
- obstacle
- image
- camera
- learning
- mobile robot
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 이동 로봇 및 그 제어 방법에 관한 것으로서, 더욱 상세하게는 비전(vision) 기반의 동작 장애물 검출을 수행할 수 있는 이동 로봇 및 그 제어 방법에 관한 것이다. The present invention relates to a mobile robot and a control method thereof, and more particularly, to a mobile robot and a control method capable of performing vision-based motion obstacle detection.
로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. Robots have been developed for industrial use and have been a part of factory automation. Recently, the application of robots has been further expanded, medical robots, aerospace robots, and the like have been developed, and home robots that can be used in general homes have also been made.
이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다. 이동 로봇은, 스스로 이동이 가능하여 이동이 자유롭고, 주행중 장애물 등을 피하기 위한 다수의 센서가 구비되어 장애물을 피해 주행할 수 있다.Among these robots, a moving robot capable of traveling by magnetic force is called a mobile robot. The mobile robot is capable of moving by itself and is free to move, and is provided with a plurality of sensors for avoiding obstacles and the like while driving, so that the robot can travel to avoid obstacles.
일반적으로 이동 로봇의 장애물 감지를 위해 적외선 센서 또는 초음파 센서가 이용된다. 적외선 센서는 장애물에 반사되어 돌아오는 반사광의 광량 또는 수신되는 시간을 통해 장애물의 존재와 거리를 판단하고, 초음파 센서는 소정 주기를 가지는 초음파를 발산하여 장애물에 의해 반사되는 초음파가 있을 경우 초음파 발산 시간과 장애물에 반사되어 되돌아오는 순간의 시간차를 이용하여 장애물과의 거리를 판단한다.In general, an infrared sensor or an ultrasonic sensor is used to detect obstacles of a mobile robot. The infrared sensor determines the existence and distance of the obstacles based on the amount of reflected light or the time of receiving the reflected light back to the obstacle, and the ultrasonic sensor emits ultrasonic waves having a predetermined period, and the ultrasonic emission time when there is ultrasonic waves reflected by the obstacles. The distance from the obstacle is determined by using the time difference between the moment of returning and the reflection of the obstacle.
한편, 장애물 인식 및 회피는 이동 로봇의 주행 성능뿐만 아니라 안전사고 발생에 큰 영향을 미치므로, 장애물 인식 능력의 신뢰성 확보가 요구된다. On the other hand, since obstacle recognition and avoidance have a great influence on not only the driving performance of the mobile robot but also the occurrence of safety accidents, it is required to secure the reliability of the obstacle recognition ability.
선행 문헌 1(등록특허공보 10-0669892호)은 적외선 센서와 초음파 센서를 조합하여 신뢰성 높은 장애물 인식 기술을 구현하는 기술을 개시한다. 하지만, 선행 문헌 1에 따른 방식은 장애물의 속성을 판별하지 못한다는 문제점이 있었다.Prior document 1 (Patent No. 10-0669892) discloses a technique for implementing a reliable obstacle recognition technology by combining an infrared sensor and an ultrasonic sensor. However, the method according to the prior document 1 has a problem that can not determine the nature of the obstacle.
특히. 많은 사람이 체류하거나 이동하는 공항, 기차역, 백화점, 항만 등 공공장소에서 운용되는 이동 로봇은, 스스로 이동할 수 있는 동적 장애물을 인식하여, 안전을 확보하면서 자동으로 주행하는 방안이 요구된다. Especially. Mobile robots operating in public places, such as airports, train stations, department stores, and ports, where many people stay or move, are required to recognize the dynamic obstacles that can move by themselves and to automatically drive while ensuring safety.
본 발명의 목적은, 비전(vision) 기반의 동작 장애물 검출을 수행할 수 있는 이동 로봇 및 그 제어 방법을 제공함에 있다.An object of the present invention is to provide a mobile robot and a control method thereof capable of performing a vision-based operation obstacle detection.
본 발명의 목적은, 장애물 인식의 범위 및 정확성을 향상할 수 있는 이동 로봇 및 그 제어 방법을 제공함에 있다.An object of the present invention is to provide a mobile robot and a control method thereof capable of improving the range and accuracy of obstacle recognition.
본 발명의 목적은, 장애물의 인식 결과에 따라 주행함으로써 이동 로봇 자체의 안정성을 높이고 안전사고 발생을 방지할 수 있는 이동 로봇 및 그 제어 방법을 제공함에 있다.An object of the present invention is to provide a mobile robot and a control method thereof that can increase the stability of the mobile robot itself and prevent the occurrence of a safety accident by traveling according to the result of the recognition of the obstacle.
본 발명의 목적은, 딥러닝에 기반하여 장애물의 속성을 정확하게 인식할 수 있는 이동 로봇 및 그 제어 방법을 제공함에 있다.An object of the present invention is to provide a mobile robot and a control method thereof capable of accurately recognizing the properties of an obstacle based on deep learning.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇은, 깊이(depth) 카메라 및 깊이 카메라와 화각이 다른 영상 카메라를 포함하는 영상 획득부, 깊이 카메라와 영상 카메라에서 획득되는 이미지들을 정합하는 영상 처리부, 및, 영상 처리부로부터 입력되는 정합된 이미지에 포함된 장애물을 인식하고, 복수의 정합된 이미지들에 기초하여 동적 장애물을 인식하는 학습기반 장애물 인식부를 포함함 수 있다.In order to achieve the above or another object, a mobile robot according to an aspect of the present invention includes an image obtaining unit including a depth camera and an image camera having a different angle of view from a depth camera, a depth camera and images obtained from the image camera. The matching image processor may include a learning-based obstacle recognition unit that recognizes an obstacle included in the matched image input from the image processor and recognizes a dynamic obstacle based on the plurality of matched images.
본 발명의 실시예들 중 적어도 하나에 의하면, 이동 로봇이, 비전(vision) 기반의 동작 장애물 검출을 수행할 수 있다.According to at least one of the embodiments of the present invention, the mobile robot may perform vision based motion obstacle detection.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 장애물 인식의 범위 및 정확성을 향상할 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to improve the range and accuracy of obstacle recognition.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 장애물의 인식 결과에 따라 주행함으로써 이동 로봇 자체의 안정성을 높이고 안전사고 발생을 방지할 수 있다.In addition, according to at least one of the embodiments of the present invention, by driving in accordance with the result of the recognition of the obstacle it is possible to increase the stability of the mobile robot itself and prevent the occurrence of safety accidents.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 머신 러닝에 기반하여 장애물의 속성을 정확하게 인식할 수 있는 이동 로봇 및 그 제어방법을 제공할 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to provide a mobile robot and a control method thereof capable of accurately recognizing the property of an obstacle based on machine learning.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 딥러닝에 기반하여 장애물의 속성을 정확하게 인식할 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to accurately recognize the property of the obstacle based on deep learning.
도 1은 본 발명의 실시예에 따른 이동 로봇들을 예시한 도이다.
도 2는 본 발명의 일 실시예에 따른 이동 로봇의 주행에 관한 설명에 참조되는 도면이다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 내부 블록도이다.
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 5는 본 발명의 일 실시예에 따른 이동 로봇의 제어 방법을 도시한 순서도이다.
도 6은 본 발명의 실시예에 따른 이동 로봇의 제어 방법에 관한 설명에 참조되는 도면이다.
도 7은 본 발명의 일 실시예에 따른 이동 로봇의 제어 방법을 도시한 순서도이다.
도 8과 도 9는 본 발명의 실시예에 따른 이동 로봇의 제어 방법에 관한 설명에 참조되는 도면이다. 1 is a diagram illustrating a mobile robot according to an embodiment of the present invention.
2 is a view referred to in the description of the driving of the mobile robot according to an embodiment of the present invention.
3 is an internal block diagram of a mobile robot according to an embodiment of the present invention.
4 is a block diagram showing a control relationship between major components of a mobile robot according to an embodiment of the present invention.
5 is a flowchart illustrating a control method of a mobile robot according to an embodiment of the present invention.
6 is a view referred to for describing the control method of the mobile robot according to an embodiment of the present invention.
7 is a flowchart illustrating a control method of a mobile robot according to an embodiment of the present invention.
8 and 9 are views referred to for describing the control method of the mobile robot according to an embodiment of the present invention.
이하에서는 첨부한 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나 본 발명이 이러한 실시예에 한정되는 것은 아니며 다양한 형태로 변형될 수 있음은 물론이다. Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention; However, the present invention is not limited to these embodiments and may be modified in various forms.
도면에서는 본 발명을 명확하고 간략하게 설명하기 위하여 설명과 관계없는 부분의 도시를 생략하였으며, 명세서 전체를 통하여 동일 또는 극히 유사한 부분에 대해서는 동일한 도면 참조부호를 사용한다. In the drawings, parts not related to the description are omitted in order to clearly and briefly describe the present invention, and the same reference numerals are used for the same or extremely similar parts throughout the specification.
한편, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.On the other hand, the suffixes "module" and "unit" for the components used in the following description are merely given in consideration of ease of preparation of the present specification, and do not give particular meaning or role in themselves. Therefore, the "module" and "unit" may be used interchangeably.
또한, 본 명세서에서, 다양한 요소들을 설명하기 위해 제1, 제2 등의 용어가 이용될 수 있으나, 이러한 요소들은 이러한 용어들에 의해 제한되지 아니한다. 이러한 용어들은 한 요소를 다른 요소로부터 구별하기 위해서만 이용된다.Further, in this specification, terms such as first and second may be used to describe various elements, but such elements are not limited by these terms. These terms are only used to distinguish one element from another.
도 1은 본 발명의 실시예에 따른 이동 로봇들을 예시한 도이고, 도 2는 본 발명의 일 실시예에 따른 이동 로봇의 주행에 관한 설명에 참조되는 도면이다.1 is a diagram illustrating a mobile robot according to an embodiment of the present invention, Figure 2 is a view referred to the description of the travel of the mobile robot according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 이동 로봇(100)은 바퀴 등을 이용하여 스스로 이동이 가능한 로봇을 의미한다. 따라서, 이동 로봇(100)은 스스로 이동 가능한 안내 로봇, 청소 로봇, 가정 도우미 로봇, 엔터테인먼트(Entertainment) 로봇, 경비 로봇 등일 수 있고, 본 발명은 이동 로봇의 종류에 한정되지 않는다.
도 1의 (a)는 안내 로봇(100a)을 예시하고, 도 1의 (b)는 청소 로봇(100b)을 예시한다.FIG. 1A illustrates the
안내 로봇(100a)은, 터치, 음성 입력 등으로 사용자 입력을 수신하여, 사용자 입력에 대응하는 물체, 장소에 대한 정보를 디스플레이 화면에 표시할 수 있다.The
또한, 안내 로봇(100a)은, 사용자 요청 시, 특정 목적지까지 이동하면서 사용자를 직접 안내하는 에스코트 서비스(escort service)를 제공할 수 있다.In addition, the
청소 로봇(100b)은 브러시 등 청소 기구를 구비하여 스스로 이동하면서 특정 공간을 청소할 수 있다.The
이러한 이동 로봇(100a, 100b)은 특정 공간을 주행하면서 부여된 임무를 수행할 수 있다. 안전사고 발생을 방지하기 위해서, 이동 로봇(100a, 100b)은 이동 중 장애물을 감지하여 회피하면서 주행해야 한다. The
고정된 장소에 놓여진 물체, 구조물을 회피하는 것보다, 사람, 반려 동물 등 스스로 이동할 수 있는 동적 장애물을 검출하여 회피하는 것이 더 어렵고 중요하다.It is more difficult and important to detect and avoid dynamic obstacles that can move on their own, such as humans and companion animals, than to avoid objects and structures placed in a fixed place.
도 2를 참조하면, 이동 로봇(100)은 많은 사람(21, 22, 23, 24)이 체류하거나 이동하는 공항, 기차역, 백화점, 항만 등 공공장소에서 운용될 수 있다. 이 경우에, 이동 로봇(100)은 사람(21, 22, 23, 24) 등 동적 장애물의 존재, 위치, 이동 여부, 이동 속도 등을 인식하여 회피하는 것이 매우 중요하다.Referring to FIG. 2, the
로봇용 비전(vision) 기반 동적 장애물 검출 시스템에서 장애물을 검출하는 기존의 방식은, 깊이(depth) 기반에 영역 분할(foreground/background)을 통해 검출하거나, 영상만을 활용하여 검출하고자 하는 물체(사람 등)를 학습하여 검출하는 방법을 주로 사용하였다. In the vision-based dynamic obstacle detection system for robots, the conventional method of detecting obstacles is an object (person, etc.) to be detected by using foreground / background on a depth basis or by using only an image. ) Was mainly used for learning by detecting.
하지만, 학습에 사용된 사람, 물체의 이미지와 다르게, 유모차(25)를 끄는 사람(24), 카트를 끄는 사람 등 유모차(25), 카트 등 물체에 가려진 사람의 경우에는 인식하는데 어려움이 있었다. 특히, 동적 장애물은 인식하고 추적(tracking)하는 경우에, 물체에 가려졌던 사람이 물체와 떨어지거나 어떤 사람이 특정 물체, 사람에 의해 가려지면 동일 대상으로 인식하지 못해 지속적인 추적(tracking)을 수행하지 못할 수 있었다.However, the person used for learning, unlike the image of the object, there is a difficulty in the case of the person covered by the object such as the
따라서, 동적 장애물을 정확하게 인식하고 인식된 특정 동적 장애물을 잃지 않고 추적할 수 있는 방안이 요구된다.Therefore, there is a need for a method that can accurately recognize dynamic obstacles and track them without losing the recognized specific dynamic obstacles.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 내부 블록도이다.3 is an internal block diagram of a mobile robot according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(100)은, 마이크를 통하여 사용자의 음성 입력을 수신하는 음성 입력부(325), 각종 데이터를 저장하는 저장부(330), 서버(미도시) 등 다른 기기와 데이터를 송수신하는 통신부(390), 이동 로봇(100)의 전반적인 동작을 제어하는 제어부(340)를 포함할 수 있다. 3, the
음성 입력부(325)는, 아날로그 소리를 디지털 데이터로 변환하는 처리부를 포함하거나 처리부에 연결되어, 사용자 입력 음성 신호를 제어부(340) 또는 서버(미도시)에서 인식할 수 있도록 데이터화할 수 있다. The
제어부(340)는, 이동 로봇(100)을 구성하는 음성 입력부(325), 저장부(330), 통신부(390) 등을 제어하여, 이동 로봇(100)의 동작 전반을 제어할 수 있다. The
저장부(330)는 이동 로봇(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.The
또한, 제어부(340)는 통신부(390)를 통해 이동 로봇(100)의 동작상태 또는 사용자 입력 등을 서버 등으로 전송할 수 있다. In addition, the
통신부(390)는 적어도 하나의 통신모듈을 포함하여 이동 로봇(100)이 인터넷, 또는 소정의 네트워크에 연결되도록 한다. The
한편, 저장부(330)에는 음성 인식을 위한 데이터가 저장될 수 있고, 상기 제어부(340)는 음성 입력부(325)를 통하여 수신되는 사용자의 음성 입력 신호를 처리하고 음성 인식 과정을 수행할 수 있다. 또는, 음성 인식 과정은 이동 로봇(100) 자체에서 실시되지 않고 서버에서 수행될 수 있다.Meanwhile, the
한편, 이동 로봇(100)은 소정 정보를 영상으로 표시하는 디스플레이부(310)와 소정 정보를 음향으로 출력하는 음향 출력부(380)를 포함할 수 있다. Meanwhile, the
디스플레이부(310)는 사용자의 요청 입력에 대응하는 정보, 사용자의 요청 입력에 대응하는 처리 결과, 동작모드, 동작상태, 에러상태 등을 영상으로 표시할 수 있다.The
음향 출력부(380)는 제어부(340)의 제어에 따라 경고음, 동작모드, 동작상태, 에러상태 등의 알림 메시지, 사용자의 요청 입력에 대응하는 정보, 사용자의 요청 입력에 대응하는 처리 결과 등을 음향으로 출력할 수 있다. 음향 출력부(380)는, 제어부(340)로부터의 전기 신호를 오디오 신호로 변환하여 출력할 수 있다. 이를 위해, 스피커 등을 구비할 수 있다.The
한편, 이동 로봇(100)은 소정 범위를 촬영할 수 있는 영상 획득부(320)를 포함할 수 있다.Meanwhile, the
영상 획득부(320)는 이동 로봇(100) 주변, 외부 환경 등을 촬영하는 것으로, 카메라 모듈을 포함할 수 있다. 이러한 카메라는 촬영 효율을 위해 각 부위별로 여러 개가 설치될 수도 있다. The
영상 획득부(320)는, 사용자 인식용 영상을 촬영할 수 있다. 제어부(340)는 상기 영상 획득부(320)가 촬영하여 획득된 영상에 기초하여 외부 상황을 판단하거나, 사용자(안내 대상)를 인식할 수 있다.The
또한, 상기 제어부(340)는, 상기 영상 획득부(320)가 촬영하여 획득하는 영상에 기초하여 이동 로봇(100)이 주행하도록 제어할 수 있다.In addition, the
한편, 상기 영상 획득부(320)가 촬영하여 획득된 영상은 저장부(330)에 저장될 수 있다.The image acquired by the
한편, 이동 로봇(100)은 이동을 위한 구동부(360)를 포함할 수 있고, 상기 구동부(360)는 제어부(340)의 제어에 따라, 본체를 이동시킬 수 있다.Meanwhile, the moving
구동부(360)는 이동 로봇(100)은 본체를 이동시키는 적어도 하나의 구동 바퀴(미도시)를 포함할 수 있다. 구동부(360)는 구동 바퀴에 연결되어 구동 바퀴를 회전시키는 구동 모터(미도시)를 포함할 수 있다. 구동 바퀴는 본체의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜과 우륜이라고 한다.The driving
좌륜과 우륜은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜을 구동시키는 좌륜 구동 모터와 우륜을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜과 우륜의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체의 주행방향을 전환할 수 있다.The left wheel and the right wheel may be driven by one driving motor, but a left wheel driving motor for driving the left wheel and a right wheel driving motor for driving the right wheel may be provided as necessary. The driving direction of the main body can be switched to the left or the right by varying the rotational speeds of the left and right wheels.
한편, 이동 로봇(100)은 이동 로봇(100)의 동작, 상태와 관련된 각종 데이터를 센싱하는 센서들을 포함하는 센서부(370)를 포함할 수 있다.On the other hand, the
상기 센서부(370)는 이동 로봇(100)의 동작을 감지하고 동작 정보를 출력하는 동작 감지 센서를 더 포함할 수 있다. 예를 들어, 동작 감지 센서로는, 자이로 센서(Gyro Sensor), 휠 센서(Wheel Sensor), 가속도 센서(Acceleration Sensor) 등을 사용할 수 있다.The
상기 센서부(370)는 장애물을 감지하는 장애물 감지 센서를 포함할 수 있고, 상기 장애물 감지 센서는, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서, PSD(Position Sensitive Device) 센서, 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 절벽 감지 센서, 라이다(light detection and ranging: Lidar) 등 포함할 수 있다.The
한편, 상기 장애물 감지 센서는 이동 로봇의 주행(이동) 방향에 존재하는 물체, 특히 장애물을 감지하여 장애물 정보를 제어부(340)에 전달한다. 이때, 제어부(340)는, 감지된 장애물의 위치에 따라 이동 로봇(100)의 움직임을 제어할 수 있다.On the other hand, the obstacle detection sensor detects an object in the driving (moving) direction of the mobile robot, in particular, an obstacle and transmits obstacle information to the
한편, 본 발명의 일 실시예에 따르면, 영상 획득부(320)는 화각이 다른 복수의 카메라를 포함할 수 있고, 제어부(340)는 화각이 다른 카메라로부터 획득된 이미지들을 정합하여, 정합된 이미지에 포함된 장애물을 인식할 수 있다. 특히, 제어부(340)는 화각이 넓은 카메라에서 획득되는 이미지 영역에 기초하여 화각의 끝에서부터 빨리 동적 장애물을 검출하고, 검출된 동적 장애물을 추적(tracking)할 수 있다. 또한, 제어부(340)는 인식되는 동적 장애물을 고려한 회피 주행을 수행하도록 제어할 수 있다.Meanwhile, according to an embodiment of the present disclosure, the
도 4를 참조하여, 본 발명의 일 실시예에 따른 이동 로봇의 주요 구성들을 상세히 설명한다. 4, the main components of the mobile robot according to an embodiment of the present invention will be described in detail.
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 주요 구성들 간의 제어관계를 도시한 블록도이다.4 is a block diagram showing a control relationship between major components of a mobile robot according to an embodiment of the present invention.
도 4를 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(100)은, 깊이(depth) 카메라(322) 및 깊이 카메라(322)와 화각이 다른 영상 카메라(321)를 포함하는 영상 획득부(320), 상기 깊이 카메라(322)와 상기 영상 카메라(321)에서 획득되는 이미지들을 정합하는 영상 처리부(341), 및, 정합된 이미지로 장애물의 속성을 인식하도록 학습되어, 상기 영상 처리부로부터 입력되는 이미지들에 포함된 장애물을 인식하고, 복수의 정합된 이미지들에 기초하여 동적 장애물을 인식하는 학습기반 장애물 인식부(342)를 포함할 수 있다.Referring to FIG. 4, the
도 4를 참조하면, 영상 처리부(341)와 학습기반 장애물 인식부(342)는 제어부(340)의 내부 블록으로 구비될 수 있다.Referring to FIG. 4, the
실시예에 따라서, 영상 처리부(341)는 영상 획득부(320) 내에 구비될 수도 있다.In some embodiments, the
또한, 실시예에 따라서, 학습기반 장애물 인식부(342)는 제어부(340)와 별도로 구비되어, 장애물 인식 결과를 제어부(340) 등으로 출력하도록 구성될 수도 있다.In addition, according to the exemplary embodiment, the learning-based
영상 카메라(321)는 컬러(RGB) 카메라이거나, 그레이(grey) 카메라일 수 있다. The
깊이 카메라(322)는 상기 영상 카메라(321)와는 다른 화각을 가질 수 있다. 더욱 바람직하게는, 상기 깊이 카메라(322)는 상기 영상 카메라(321)보다 화각이 더 클 수 있다.The
상기 깊이 카메라(322)의 화각이 영상 카메라(321)의 화각보다 크고, 상기 깊이 카메라(322)가 더 넓은 시야(Field of view)를 가짐으로써, 영상 카메라(321)의 시야(Field of view)를 벗어난 영역에서도 장애물을 검출할 수 있다.The angle of view of the
이동 로봇(100)이 장애물을 인식하고 회피 주행하기 위해서는 카메라(321, 322)의 시야(Field of view) 중심부보다 외곽의 경계 영역에서 장애물을 빨리 검출하는 것이 중요하다. In order for the
시야(Field of view) 중심부에 있던 장애물은 장애물 및/또는 이동 로봇(1)이 움직이더라도 적어도 일정시간 동안에는 시야(Field of view) 내부에 존재할 뿐으로, 장애물 인식 및 추적에 문제가 없다. Obstacles in the center of the field of view exist only within the field of view for at least a certain time even if the obstacle and / or the mobile robot 1 move, and there is no problem in obstacle recognition and tracking.
하지만, 장애물은, 시야(Field of view) 외곽의 경계 영역에서 갑자기 최초로 검출될 수 있고, 경계 영역에서 검출된 장애물은 장애물 및/또는 이동 로봇(1)의 움직임에 따라 시야(Field of view) 중심부로 이동하거나 시야(Field of view)를 벗어날 수 있다. 따라서, 시야(Field of view) 외곽의 경계 영역에서 빨리 장애물을 검출하는 것이 비전 기반 (동적) 장애물 검출 시스템에서 매우 중요하다.However, the obstacle can be detected suddenly at the boundary area outside the field of view for the first time, and the obstacle detected at the boundary area is the center of the field of view according to the movement of the obstacle and / or the mobile robot 1. You can go to or out of the field of view. Therefore, detecting obstacles quickly in the boundary region outside the field of view is very important in a vision based (dynamic) obstacle detection system.
본 발명은 화각이 더 넓은 카메라를 이용해서 장애물이 시야(Field of view) 중심부에 장애물이 오기 전에 장애물을 더 빨리 검출할 수 있다.According to the present invention, a camera having a wider angle of view can detect an obstacle faster before the obstacle comes to the center of the field of view.
또한, 본 발명에 따르면, 고가의 일체형 카메라보다 복수의 카메라 중 어느 하나의 카메라만 가격이 저렴한 카메라로 구성할 수 있어, 더 저렴한 비용으로 구현할 수 있다. 특히, 화각이 더 넓은 카메라를 상대적으로 저렴한 종류의 카메라로 구성함으로써, 적은 비용으로 장애물 인식 성능을 향상할 수 있다. In addition, according to the present invention, since any one of a plurality of cameras can be configured as a camera having a low cost than an expensive integrated camera, it can be implemented at a lower cost. In particular, by configuring a camera having a wider angle of view as a relatively cheap camera, it is possible to improve obstacle recognition performance at a lower cost.
또한, 본 발명에 따르면, 복수의 카메라를 이용함으로써, 카메라 조합을 다양하게 구성할 수 있다는 장점이 있다.In addition, according to the present invention, by using a plurality of cameras, there is an advantage that the camera combination can be configured in various ways.
한편, 영상 처리부(341)는, 상기 깊이 카메라(322)와 상기 영상 카메라(321)에서 획득되는 이미지들을 정합할 수 있다.The
상기 영상 카메라(321)가 칼라 카메라의 3채널 이미지 데이터 또는 그레이 카메라의 1채널의 이미지 데이터, 및, 깊이 카메라(322)의 1채널 이미지 데이터를 정렬하여 이미지들을 정합할 수 있다.The
화각이 상이한 영상 상기 깊이 카메라(322)와 상기 영상 카메라(321)를 활용하는 경우에, 다른 화각으로 촬영된 이미지들을 얼라인(align)하여 정합할 필요가있다.Images of Different Angles of View When the
영상 처리부(341)는, 상기 깊이 카메라(322)와 상기 영상 카메라(321)에서 획득한 이미지의 데이터를 정렬하여 두 이미지를 정합할 수 있다.The
영상 처리부(341)는, 영상 카메라(321)의 내부 파라미터로 이루어질 수 있는 내부 행렬(intrinsic)과 영상 카메라(321)의 위치 정보, 자세 정보 등으로 이루어질 수 있는 외부 행렬(extrinsic)을 활용하여 영상 변환을 위한 투영 행렬을 생성할 수 있다. The
또한, 영상 처리부(341)는, 깊이 카메라(322)의 깊이(depth) 값을 활용하여, 깊이 카메라(322)에서 획득된 깊이 영상에 대응하는 영상 카메라(321)의 칼라 영상 픽셀(pixel)의 R,G,B의 값을 획득하여, 이미지들을 정합할 수 있다.In addition, the
즉, 깊이 카메라(322)에서 획득된 깊이 영상 위에 영상 카메라(321)에서 획득된 칼라 영상이 투영되고, 깊이 카메라(322)의 픽셀에 대응하는 픽셀의 R,G,B 값이 획득되어 반영됨으로써, 깊이 카메라(322)에서 획득된 깊이 영상 위에 영상 카메라(321)에서 획득된 칼라 영상이 정합될 수 있다.That is, the color image acquired by the
한편, 학습기반 장애물 인식부(342)는, 화각이 상이한 영상(color,grey) 카메라와 깊이(depth) 카메라를 활용하여 장애물을 인식하도록 학습된 학습기반 검출기일 수 있다.Meanwhile, the learning-based
학습기반 장애물 인식부(342)는, 상기 깊이 카메라(322)와 상기 영상 카메라(321)에서 획득되는 이미지들이 정합된 이미지로 장애물의 속성을 인식하도록 학습되어, 상기 영상 처리부(310)로부터 정합된 이미지에 포함된 장애물을 인식할 수 있다.The learning-based
또한, 학습기반 장애물 인식부(342)는, 복수의 정합된 이미지들에 기초하여 동적 장애물을 인식할 수 있다.In addition, the learning-based
학습기반 장애물 인식부(342)는, 머신 러닝으로 장애물의 속성이 학습될 수 있다. 머신 러닝은 컴퓨터에게 사람이 직접 로직(Logic)을 지시하지 않아도 데이터를 통해 컴퓨터가 학습을 하고 이를 통해 컴퓨터가 알아서 문제를 해결하게 하는 것을 의미한다.The learning-based
딥러닝(Deep Learning)은. 인공지능을 구성하기 위한 인공신경망(Artificial Neural Networks: ANN)에 기반으로 해 컴퓨터에게 사람의 사고방식을 가르치는 방법으로 사람이 가르치지 않아도 컴퓨터가 스스로 사람처럼 학습할 수 있는 인공지능 기술이다.Deep Learning Based on Artificial Neural Networks (ANN) to construct artificial intelligence, it is an artificial intelligence technology that teaches a computer's way of thinking to a person without having to teach it.
상기 인공신경망(ANN)은 소프트웨어 형태로 구현되거나 칩(chip) 등 하드웨어 형태로 구현될 수 있다.The artificial neural network (ANN) may be implemented in software or in the form of hardware such as a chip.
학습기반 장애물 인식부(342)는, 장애물의 속성이 학습된 소프트웨어 또는 하드웨어 형태의 인공신경망(ANN)을 포함할 수 있다. 예를 들어, 학습기반 장애물 인식부(342)는, 딥러닝(Deep Learning)으로 학습된 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등 심층신경망(Deep Neural Network: DNN)을 포함할 수 있다.The learning-based
학습기반 장애물 인식부(342)는, 영상 획득부(120)가 획득한 이미지들이 정합된 이미지로 학습될 수 있다. The learning-based
이에 따라, 학습기반 장애물 인식부(342)는, 영상 획득부(120)가 획득한 이미지들이 정합된 이미지에서 딥러닝으로 기학습된 데이터에 기초하여 장애물을 인식할 수 있다.Accordingly, the learning-based
또한, 학습기반 장애물 인식부(342)는, 정합된 이미지들 중 연속적인 2이상의 이미지들을 인식하여, 장애물의 이동 여부를 판별하고, 동적 장애물을 인식할 수 있다. 또한, 동적 장애물의 이동 방향 및 이동 속도도 판별할 수 있다.In addition, the learning-based
한편, 종래의 로봇용 비전(vision) 기반 동적 장애물 검출 시스템은 고가의 단일 RGB-D 카메라를 많이 사용하였다. 이 경우에, 카메라를 다양하게 조합하기 어렵고, 카메라 전체를 교체, 수리해야 하므로, 특정 부품만 교체하거나, 특정 성능만 개선하는 데 한계가 있었다.On the other hand, the conventional vision-based dynamic obstacle detection system for robots used a lot of expensive single RGB-D camera. In this case, since it is difficult to combine the cameras in various ways, and the whole camera needs to be replaced and repaired, there are limitations in replacing only specific parts or improving only specific performance.
하지만, 본 발명은, 화각이 다른 상기 깊이 카메라(322)와 상기 영상 카메라(321)를 활용한, 이종의 센서 정보가 융합된 학습기반 동적 장애물 검출 시스템을 제안한다.However, the present invention proposes a learning-based dynamic obstacle detection system in which heterogeneous sensor information is fused using the
본 발명에 따르면, 다양한 정보의 융합으로 학습기반 장애물 인식부(342)의 성능 향상이 가능하고, 구비된 카메라(321, 322) 중 넓은 화각에서 장애물을 검출할 수 있다.According to the present invention, the performance of the learning-based
또한, 깊이 영상과 칼라(color) 영상의 공간적인 정렬을 통해 데이터 처리의 편의성을 높일 수 있다.In addition, it is possible to increase the convenience of data processing through spatial alignment of the depth image and the color image.
한편, 학습기반 장애물 인식부(342)는, 장애물 인식 결과, 상기 장애물 인식 결과의 신뢰값(confidence), 및, 인식되는 장애물을 둘러싸는 사각 박스(bounding box)의 표시를 위한 좌표 정보를 출력할 수 있다. 예를 들어, 학습기반 장애물 인식부(342)는 box(x,y,w,h), class id, 신뢰값과 같은 결과 정보를 출력할 수 있다.Meanwhile, the learning-based
즉, 학습기반 장애물 인식부(342)는, 인식된 장애물 인식 결과, 인식된 결과에 대한 신뢰값을 출력할 뿐만 아니라, 시각적인 검출된 결과(사각박스: bounding box regression)도 제공할 수 있다. That is, the learning-based
상기 장애물 인식 결과는, 장애물들을 분류하여 기설정된 클래스(class)들 중 인식된 장애물에 대응하는 클래스 정보를 포함할 수 있다. The obstacle recognition result may include class information corresponding to recognized obstacles among preset classes by classifying obstacles.
예를 들어, 학습기반 장애물 인식부(342)는, 사람, 카트 등 기설정된 클래스 중 어느 하나로 장애물을 인식하도록 학습될 수 있다. For example, the learning-based
이에 따라, 학습기반 장애물 인식부(342)는, 사람, 카트 등 정합된 이미지에 포함되는 장애물의 클래스를 장애물 인식 결과로 출력할 수 있다. 또한, 장애물의 클래스 정보는 각 클래스에 대응하는 식별자(id) 형태로 출력될 수 있다.Accordingly, the learning-based
또한, 학습기반 장애물 인식부(342)는, 장애물 인식 결과와 함께 해당 인식 클래스에 대한 신뢰값을 함께 출력할 수 있다.In addition, the learning-based
또한, 학습기반 장애물 인식부(342)는, 장애물 인식 결과와 함께 인식되는 장애물을 둘러싸는 사각 박스(bounding box)의 표시를 위한 좌표 정보를 출력할 수 있다. 예를 들어, 사각 박스(bounding box)의 시작점 좌표(x, y)와 폭(w), 높이(h) 정보를 포함하는 좌표 정보를 출력할 수 있다.In addition, the learning-based
한편, 학습기반 장애물 인식부(342)는, 소정 사각 박스(bounding box)에 복수의 장애물이 포함되는 경우에, 상기 복수의 장애물 모두에 대한 클래스 정보들을 포함하는 장애물 인식 결과를 출력할 수 있다, 예를 들어, 카트를 밀면서 이동 중인 사람이 카메라(321, 322)에서 촬영되는 경우에. 사람과 카트의 2개 클래스가 장애물 인식 결과로 출력될 수 있다. 즉, 장애물 인식 결과는 2이상의 클래스를 포함하는 멀티 클래스(multi class)로 출력되는 것이 가능하다.On the other hand, the learning-based
이 경우에, 사람과 카트를 모두 포함하도록 사각 박스(bounding box)가 형성될 수 있다. In this case, a bounding box may be formed to include both a person and a cart.
또한, 학습기반 장애물 인식부(342)는, 카트, 사람, 카트에 가려진 사람 영상으로 각각 학습될 수 있고, 멀티 클래스인 사람과 카트 둘 모두를 인식하면서, 카트에 의해 가려진 사람의 일부분이 있음을 인식할 수 있다.In addition, the learning-based
비전 기반의 장애물 인식 시스템은 통상적으로 검출되는 장애물의 크기가 너무 커지거나 작아지는 등 외형 변화가 너무 커지면 인식률이 감소한다. 예를 들어서, 물체가 보이는 영역 사람 상체만을 검출하여 사람으로 판별하고 추적 중일 때, 카트가 없어져 사람의 하반신까지 이미지에 포함되면, 비전 기반의 장애물 인식 시스템 추적중인 사람이 아닌 다른 별개의 사람으로 판별할 수 있다. 이에 따라 추적 대상을 잃어버려 정확한 추적 및 제어가 어려워질 수 있다.In vision-based obstacle recognition systems, the recognition rate decreases when the appearance change becomes too large, such as the size of the detected obstacle becomes too large or too small. For example, when a human body is detected and only the upper body of the object is detected and tracked, if the cart disappears and the lower body of the person is included in the image, the vision-based obstacle recognition system is identified as a different person than the person being tracked can do. This can lead to the loss of tracking, making it difficult to accurately track and control.
하지만, 본 발명에 따르면, 물체의 가려짐을 고려하여 가려진 사람의 실제 크기를 추정하여 검출하면서 장애물 인식 결과를 사람과 카트의 멀티 클래스로 출력할 수 있다.However, according to the present invention, the obstacle recognition result can be output to the multi-class of the person and the cart while estimating and detecting the actual size of the occluded person in consideration of the obstruction of the object.
이에 따라, 사람과 카트가 분리되는 경우에도, 추적 중인 대상과 동일한 대상임을 식별할 수 있다.Accordingly, even when the person and the cart are separated, it is possible to identify that the object is the same as the object being tracked.
또한, 상기 학습기반 장애물 인식부(342)는, 동일 사각 박스(bounding box)에 포함되는 복수의 장애물이 소정 거리 이상 분리된 경우에, 분리된 복수의 장애물 각각에 대한 장애물 인식 결과, 신뢰값(confidence), 및, 사각 박스(bounding box)의 표시를 위한 좌표 정보를 출력할 수 있다.In addition, when the plurality of obstacles included in the same bounding box are separated by a predetermined distance or more, the learning-based
즉, 상기 학습기반 장애물 인식부(342)는, 동일 사각 박스(bounding box)에 멀티 클래스로 인식되었던 장애물들이 분리된 경우에, 분리된 장애물들 각각에 대한 사각 박스를 제공할 수 있다. 또한, 장애물 인식 결과에는 추적중이었던 클래스 식별자가 동일하게 포함되므로, 분리된 장애물들이 추적 중이었던 대상과 동일한 대상임을 식별할 수 있다.That is, the learning-based
도 4를 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(100)은, 상기 학습기반 장애물 인식부(342)에서 인식되는 이동 가능한 동적 장애물의 위치 및 속도를 고려하여, 상기 이동 로봇(100)의 주행을 제어하는 주행 제어부(343)를 더 포함할 수 있다.4, the
예를 들어, 주행 제어부(343)는 이동 로봇(100)의 이동 경로가 상기 학습기반 장애물 인식부(342)에서 인식되는 동적 장애물의 이동 경로와 겹치지 않도록 이동 경로를 변경할 수 있다. For example, the driving
또한, 주행 제어부(343)는 상기 학습기반 장애물 인식부(342)에서 인식되는 동적 장애물의 위치, 이동 방향, 이동 속도를 고려하여, 동적 장애물과 충돌하지 않는 이동 경로 및 이동 속도를 판별하고, 판별된 이동 경로 및 이동 속도로 이동 로봇(100)이 주행하도록 구동부(360)를 제어할 수 있다.In addition, the driving
실시예에 따라서, 주행 제어부(343)는 제어부(340)의 일부로 구성될 수 있다.According to an exemplary embodiment, the driving
제어부(340)는 학습기반 장애물 인식부(342)가 상기 깊이 카메라(322)와 상기 영상 카메라(321) 중 화각이 더 큰 카메라(322)에서만 획득된 영역에서 동적 장애물이 인식될 때부터, 상기 인식된 동적 장애물을 추적(tracking)할 수 있다.The
이러한 동적 장애물의 추적은 학습기반 장애물 인식부(342) 또는 주행 제어부(343)에서 수행될 수 있다.The tracking of the dynamic obstacles may be performed by the learning-based
동적 장애물의 추적에서는 검출되는 장애물의 동일 대상 여부를 판별함으로써, 다른 장애물과 혼동하지 않고 지속적으로 계속 추적하는 것이 매우 중요하다.In the tracking of dynamic obstacles, it is very important to continuously track the obstacles without being confused with other obstacles by determining whether the detected obstacles are the same object.
본 발명의 일 실시예에 따르면, 각이 더 큰 카메라(322)에서만 획득된 영역에서 동적 장애물이 인식될 때부터, 동적 장애물을 추적함으로써, 추적을 빠르게 시작할 수 있을 뿐만 아니라, 장애물의 가려짐의 발생할 경우에도 장애물을 정확하게 추적할 수 있다. According to one embodiment of the invention, from the time when the dynamic obstacle is recognized in the area obtained only in the
본 발명의 일 실시예에 따르면, 가려짐에 강인한 검출 결과(bounding box)를 제공하여 검출하고자는 물체의 크기가 급격하게 변하는 것을 방지하여, 높은 추적 성능을 확보할 수 있다. According to an embodiment of the present invention, by providing a robust detection result (bounding box) to the occlusion to prevent the size of the object to be changed rapidly, it is possible to secure a high tracking performance.
도 5는 본 발명의 일 실시예에 따른 이동 로봇의 제어 방법을 도시한 순서도이고, 도 6은 본 발명의 실시예에 따른 이동 로봇의 제어 방법에 관한 설명에 참조되는 도면이다. 5 is a flowchart illustrating a control method of a mobile robot according to an exemplary embodiment of the present invention, and FIG. 6 is a view referred to for describing a method of controlling a mobile robot according to an exemplary embodiment of the present invention.
도 5와 도 6을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은, 영상 획득부(320)의 화각이 서로 다른 영상 카메라(321)와 깊이 카메라(322)를 통하여 이미지들(610, 620)을 획득할 수 있다(S510). 도 6과 같이, 깊이 카메라(322)의 화각이 영상 카메라(321)보다 클 수 있다.5 and 6, the mobile robot 1 according to an embodiment of the present invention may display images through an
영상 처리부(341)는, 영상 카메라(321)와 깊이 카메라(322)를 통하여 이미지들(610, 620)을 정합할 수 있다(S520).The
예를 들어, 영상 카메라(321)가 칼라 영상 카메라인 경우에, 3채널의 칼라 이미지(610)와 1채널의 깊이 이미지(620)를 정합하여 4채널(color+depth)의 정합된 이미지(630)를 생성할 수 있다.For example, when the
영상 처리부(341)는, 영상 카메라(321)의 내부 파라미터로 이루어질 수 있는 내부 행렬(intrinsic)과 영상 카메라(321)의 위치 정보, 자세 정보 등으로 이루어질 수 있는 외부 행렬(extrinsic)을 활용하여 영상 변환을 위한 투영 행렬을 생성할 수 있다. The
또한, 영상 처리부(341)는, 깊이 카메라(322)의 깊이(depth) 값을 활용하여, 깊이 카메라(322)에서 획득된 깊이 영상에 대응하는 영상 카메라(321)의 칼라 영상 픽셀(pixel)의 R,G,B의 값을 획득하여, 이미지들을 정합할 수 있다.In addition, the
학습기반 장애물 인식부(342)는, 상기 깊이 카메라(322)와 상기 영상 카메라(321)에서 획득되는 이미지들이 정합된 이미지로 장애물의 속성을 인식하도록 학습되어, 상기 영상 처리부(310)로부터 정합된 이미지에 포함된 장애물을 인식할 수 있다(S530).The learning-based
도 7은 본 발명의 일 실시예에 따른 이동 로봇의 제어 방법을 도시한 순서도이고, 도 8과 도 9는 본 발명의 실시예에 따른 이동 로봇의 제어 방법에 관한 설명에 참조되는 도면이다. 7 is a flowchart illustrating a control method of a mobile robot according to an embodiment of the present invention, and FIGS. 8 and 9 are views referred to for describing a control method of a mobile robot according to an embodiment of the present invention.
도 7을 참조하면, 학습기반 장애물 인식부(342)는, 상기 깊이 카메라(322)와 상기 영상 카메라(321)에서 획득되는 이미지들이 정합된 이미지로 장애물의 속성을 인식하도록 학습되어, 상기 영상 처리부(310)로부터 정합된 이미지에 포함된 장애물을 인식할 수 있다(S710).Referring to FIG. 7, the learning-based
또한, 학습기반 장애물 인식부(342)는, 복수의 정합된 이미지들에 기초하여 동적 장애물을 인식할 수 있다(S710).In addition, the learning-based
학습기반 장애물 인식부(342)는, 하나의 정합된 이미지로부터는 장애물 존재 여부 및 장애물의 클래스(class)를 식별할 수 있다. The learning-based
또한, 학습기반 장애물 인식부(342)는, 연속적인 여러 정합 이미지들에서 장애물의 이동 여부, 이동 방향, 이동 속도를 판별할 수 있다.In addition, the learning-based
이에 따라, 제어부(340)는 동적 장애물을 인식하고(S710), 동적 장애물을 추적(tracking)할 수 있다(S720). 이러한 동적 장애물의 추적은 학습기반 장애물 인식부(342) 또는 주행 제어부(343)에서 수행될 수 있다.Accordingly, the
도 8과 도 9는 화각이 다른 RGB 카메라(321)와 깊이 카메라(322)를 활용하여 획득된 연속된 이미지들에서 동적 장애물이 검출되는 예를 도시한 것이다.8 and 9 illustrate examples in which dynamic obstacles are detected in successive images obtained by using an
먼저, 도 8과 같이, RGB 카메라(321)에서 획득된 RGB 영상(810)에서는 우측에 있는 사람(830)의 정보가 좁은 화각에 의해 팔만 보여 보행자 검출이 힘들다,First, as shown in FIG. 8, in the
하지만, 본 발명에 따라, RGB 카메라(321)에서 획득된 RGB 영상(810)과 깊이 카메라(322)에서 획득된 깊이 영상(820)을 정합하여, 4채널의 정합된 영상 입력(800)을 만들 수 있다. However, according to the present invention, the
또한, 각각 RGB 영상(810)과 깊이 영상(820)과 연속적으로 획득된 RGB 카메라(321)에서 획득된 RGB 영상(910)과 깊이 카메라(322)에서 획득된 깊이 영상(920)을 정합하여, 4채널의 정합된 영상 입력(900)을 만들 수 있다. In addition, the
한편, 학습기반 장애물 인식부(342)는 채널의 정합된 영상 입력으로 사전에 학습될 수 있다.On the other hand, the learning-based
이에 따라, 상대적으로 넓은 화각을 가진 깊이 카메라(322)에서 획득된 깊이 영상(820)에 의해 이동 로봇(100) 측면으로 진입하는 동적 장애물(830, 930)을 빠르게 식별할 수 있다. Accordingly, the
한편, 학습기반 장애물 인식부(342)는, 장애물 인식 결과, 상기 장애물 인식 결과의 신뢰값(confidence), 및, 인식되는 장애물을 둘러싸는 사각 박스(bounding box)의 표시를 위한 좌표 정보를 출력할 수 있다. 예를 들어, 학습기반 장애물 인식부(342)는 box(x,y,w,h), class id, 신뢰값과 같은 결과 정보를 출력할 수 있다.Meanwhile, the learning-based
이에 따라, 검출된 장애물(830, 930)을 감싸는 시각적인 검출 결과 사각 박스(835, 935)도 제공할 수 있다. Accordingly, the visual detection result of the
또한, 학습기반 장애물 인식부(342)는, 연속적인 두 이미지(800, 900)를 비교하여, 동적 장애물(830, 930)의 이동 방향 및 이동 속도를 판별할 수 있다.In addition, the learning-based
한편, 주행 제어부(343)는, 상기 학습기반 장애물 인식부(342)에서 인식되는 이동 가능한 동적 장애물의 위치 및 속도를 고려하여, 상기 이동 로봇(100)의 주행을 제어할 수 있다(S730).Meanwhile, the driving
예를 들어, 주행 제어부(343)는 이동 로봇(100)의 이동 경로가 상기 학습기반 장애물 인식부(342)에서 인식되는 동적 장애물의 이동 경로와 겹치지 않도록 이동 경로를 변경할 수 있다. For example, the driving
또한, 주행 제어부(343)는 상기 학습기반 장애물 인식부(342)에서 인식되는 동적 장애물의 위치, 이동 방향, 이동 속도를 고려하여, 동적 장애물과 충돌하지 않는 이동 경로 및 이동 속도를 판별하고, 판별된 이동 경로 및 이동 속도로 이동 로봇(100)이 주행하도록 구동부(360)를 제어할 수 있다.In addition, the driving
본 발명의 실시예들 중 적어도 하나에 의하면, 이동 로봇이, 비전(vision) 기반의 동작 장애물 검출을 수행할 수 있다.According to at least one of the embodiments of the present invention, the mobile robot may perform vision based motion obstacle detection.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 장애물 인식의 범위 및 정확성을 향상할 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to improve the range and accuracy of obstacle recognition.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 장애물의 인식 결과에 따라 주행함으로써 이동 로봇 자체의 안정성을 높이고 안전사고 발생을 방지할 수 있다.In addition, according to at least one of the embodiments of the present invention, by driving in accordance with the result of the recognition of the obstacle it is possible to increase the stability of the mobile robot itself and prevent the occurrence of safety accidents.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 머신 러닝에 기반하여 장애물의 속성을 정확하게 인식할 수 있는 이동 로봇 및 그 제어방법을 제공할 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to provide a mobile robot and a control method thereof capable of accurately recognizing the property of an obstacle based on machine learning.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 딥러닝에 기반하여 장애물의 속성을 정확하게 인식할 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to accurately recognize the property of the obstacle based on deep learning.
본 발명에 따른 이동 로봇 및 그 제어 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The mobile robot and its control method according to the present invention are not limited to the configuration and method of the embodiments described as described above, but the embodiments are all or part of each of the embodiments so that various modifications can be made. It may alternatively be configured in combination.
한편, 본 발명의 실시예에 따른 이동 로봇의 제어 방법은, 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.On the other hand, the control method of the mobile robot according to an embodiment of the present invention, it is possible to implement as a processor readable code on a processor-readable recording medium. The processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. . The processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the specific embodiments described above, but the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.
이동 로봇: 100, 100a, 100b
영상 획득부: 320
영상 카메라: 321
깊이 카메라: 322
영상처리부: 341
학습 기반 장애물 인식부: 342
주행 제어부: 343Mobile robot: 100, 100a, 100b
Image Acquisition Unit: 320
Video camera: 321
Depth Camera: 322
Image processor: 341
Learning-based obstacle recognizer: 342
Running Control: 343
Claims (9)
상기 깊이 카메라와 상기 영상 카메라에서 획득되는 이미지들을 정합하는 영상 처리부, 및,
상기 영상 처리부로부터 입력되는 정합된 이미지에 포함된 장애물을 인식하고, 복수의 정합된 이미지들에 기초하여 동적 장애물을 인식하는 학습기반 장애물 인식부;를 포함하는 이동 로봇.An image acquisition unit including a depth camera and an image camera having a different angle of view from the depth camera;
An image processor for matching images acquired from the depth camera and the image camera;
And a learning-based obstacle recognizing unit recognizing an obstacle included in the matched image input from the image processor and recognizing a dynamic obstacle based on the plurality of matched images.
상기 학습기반 장애물 인식부에서 인식되는 이동 가능한 동적 장애물의 위치 및 속도를 고려하여, 상기 이동 로봇의 주행을 제어하는 주행 제어부;를 더 포함하는 이동 로봇.The method of claim 1,
And a driving controller configured to control the driving of the mobile robot in consideration of the position and the speed of the movable dynamic obstacle recognized by the learning-based obstacle recognition unit.
상기 주행 제어부는,
상기 학습기반 장애물 인식부가 상기 깊이 카메라와 상기 영상 카메라 중 화각이 더 큰 카메라에서만 획득된 영역에서 동적 장애물이 인식될 때부터, 상기 인식된 동적 장애물을 추적(tracking)하는 것을 특징으로 이동 로봇.The method of claim 2,
The driving control unit,
And wherein the learning-based obstacle recognition unit tracks the recognized dynamic obstacle from the time when the dynamic obstacle is recognized in the area obtained only from the camera having the larger angle of view among the depth camera and the image camera.
상기 학습기반 장애물 인식부는,
장애물 인식 결과, 상기 장애물 인식 결과의 신뢰값(confidence), 및, 인식되는 장애물을 둘러싸는 사각 박스(bounding box)의 표시를 위한 좌표 정보를 출력하는 것을 특징으로 하는 이동 로봇.The method of claim 1,
The learning-based obstacle recognition unit,
And a coordinate information for displaying an obstacle recognition result, a confidence value of the obstacle recognition result, and a bounding box surrounding the recognized obstacle.
상기 장애물 인식 결과는, 장애물들을 분류하여 기설정된 클래스(class)들 중 인식된 장애물에 대응하는 클래스 정보를 포함하는 것을 특징으로 하는 이동 로봇.The method of claim 4, wherein
The obstacle recognition result may include class information corresponding to recognized obstacles among preset classes by classifying obstacles.
소정 사각 박스(bounding box)에 복수의 장애물이 포함되는 경우에, 상기 학습기반 장애물 인식부는, 상기 복수의 장애물 모두에 대한 클래스 정보들을 포함하는 장애물 인식 결과를 출력하는 것을 특징으로 하는 이동 로봇.The method of claim 4, wherein
And when the plurality of obstacles are included in a predetermined box, the learning-based obstacle recognition unit outputs an obstacle recognition result including class information about all of the plurality of obstacles.
상기 학습기반 장애물 인식부는,
동일 사각 박스(bounding box)에 포함되는 복수의 장애물이 소정 거리 이상 분리된 경우에, 분리된 복수의 장애물 각각에 대한 장애물 인식 결과, 신뢰값(confidence), 및, 사각 박스(bounding box)의 표시를 위한 좌표 정보를 출력하는 것을 특징으로 이동 로봇.The method of claim 6,
The learning-based obstacle recognition unit,
In the case where a plurality of obstacles included in the same bounding box are separated by a predetermined distance or more, an obstacle recognition result, a confidence value, and a display of the bounding box for each of the separated plurality of obstacles Mobile robot, characterized in that for outputting coordinate information for.
상기 학습기반 장애물 인식부는,
상기 깊이 카메라와 상기 영상 카메라 중 화각이 큰 카메라에서만 획득된 영역에서 동적 장애물이 인식될 때부터, 상기 인식된 동적 장애물을 추적(tracking)하는 것을 특징으로 이동 로봇.The method of claim 1,
The learning-based obstacle recognition unit,
And from the depth camera and the image camera when the dynamic obstacle is recognized in an area obtained only from a camera having a large angle of view, tracking the recognized dynamic obstacle.
상기 깊이 카메라는 상기 영상 카메라보다 화각이 더 큰 것을 특징으로 하는 이동 로봇.
The method of claim 1,
The depth camera is a mobile robot, characterized in that a larger angle of view than the video camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180098294A KR102560462B1 (en) | 2018-08-23 | 2018-08-23 | Moving robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180098294A KR102560462B1 (en) | 2018-08-23 | 2018-08-23 | Moving robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200023707A true KR20200023707A (en) | 2020-03-06 |
KR102560462B1 KR102560462B1 (en) | 2023-07-26 |
Family
ID=69802310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180098294A KR102560462B1 (en) | 2018-08-23 | 2018-08-23 | Moving robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102560462B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102137096B1 (en) * | 2020-04-03 | 2020-07-24 | 하천용 | Centralized base-type automatic garbage transfer collection system using autonomous driving robot equipped with safety and crime prevention functions on the move |
CN112605999A (en) * | 2020-12-22 | 2021-04-06 | 杭州北冥星眸科技有限公司 | Robot obstacle detection method and system based on infrared deep camera technology |
KR20220078890A (en) * | 2020-12-04 | 2022-06-13 | 충북대학교 산학협력단 | Method and Apparatus for Path Planning of Unmanned Ground Vehicle |
WO2022203150A1 (en) * | 2021-03-23 | 2022-09-29 | 삼성전자주식회사 | Robot and control method therefor |
CN116476099A (en) * | 2023-06-21 | 2023-07-25 | 中数智科(杭州)科技有限公司 | Train inspection robot control system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100938195B1 (en) * | 2008-07-28 | 2010-01-21 | 재단법인대구경북과학기술원 | Method for distance estimation and apparatus for the same using a stereo matching |
KR20160135482A (en) * | 2015-05-18 | 2016-11-28 | 한국전자통신연구원 | Apparatus and method for predicting moving of on-road obstable |
KR101739394B1 (en) * | 2016-12-30 | 2017-05-26 | 재단법인대구경북과학기술원 | Apparatus for estimating distance to object using stereo camera with heterogeneous angle of view and method thereof |
KR20180027242A (en) * | 2016-09-06 | 2018-03-14 | 국방과학연구소 | Apparatus and method for environment mapping of an unmanned vehicle |
-
2018
- 2018-08-23 KR KR1020180098294A patent/KR102560462B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100938195B1 (en) * | 2008-07-28 | 2010-01-21 | 재단법인대구경북과학기술원 | Method for distance estimation and apparatus for the same using a stereo matching |
KR20160135482A (en) * | 2015-05-18 | 2016-11-28 | 한국전자통신연구원 | Apparatus and method for predicting moving of on-road obstable |
KR20180027242A (en) * | 2016-09-06 | 2018-03-14 | 국방과학연구소 | Apparatus and method for environment mapping of an unmanned vehicle |
KR101739394B1 (en) * | 2016-12-30 | 2017-05-26 | 재단법인대구경북과학기술원 | Apparatus for estimating distance to object using stereo camera with heterogeneous angle of view and method thereof |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102137096B1 (en) * | 2020-04-03 | 2020-07-24 | 하천용 | Centralized base-type automatic garbage transfer collection system using autonomous driving robot equipped with safety and crime prevention functions on the move |
KR20220078890A (en) * | 2020-12-04 | 2022-06-13 | 충북대학교 산학협력단 | Method and Apparatus for Path Planning of Unmanned Ground Vehicle |
CN112605999A (en) * | 2020-12-22 | 2021-04-06 | 杭州北冥星眸科技有限公司 | Robot obstacle detection method and system based on infrared deep camera technology |
CN112605999B (en) * | 2020-12-22 | 2022-01-18 | 杭州北冥星眸科技有限公司 | Robot obstacle detection method and system based on infrared deep camera technology |
WO2022203150A1 (en) * | 2021-03-23 | 2022-09-29 | 삼성전자주식회사 | Robot and control method therefor |
CN116476099A (en) * | 2023-06-21 | 2023-07-25 | 中数智科(杭州)科技有限公司 | Train inspection robot control system |
CN116476099B (en) * | 2023-06-21 | 2023-08-29 | 中数智科(杭州)科技有限公司 | Train inspection robot control system |
Also Published As
Publication number | Publication date |
---|---|
KR102560462B1 (en) | 2023-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102670610B1 (en) | Robot for airport and method thereof | |
KR102560462B1 (en) | Moving robot | |
KR102348041B1 (en) | Control method of robot system including a plurality of moving robots | |
US11737635B2 (en) | Moving robot and control method thereof | |
US9400503B2 (en) | Mobile human interface robot | |
EP2571660B1 (en) | Mobile human interface robot | |
KR102608046B1 (en) | Guidance robot for airport and method thereof | |
JP4871160B2 (en) | Robot and control method thereof | |
US20210146540A1 (en) | Method of identifying dynamic obstacle and robot implementing same | |
KR102681557B1 (en) | Moving robot and control method thereof | |
KR20180098891A (en) | Moving Robot and controlling method | |
WO2011146259A2 (en) | Mobile human interface robot | |
KR102578138B1 (en) | Airport robot and system including the same | |
KR101758736B1 (en) | Guard and surveillance robot system and method for travelling of mobile robot | |
US11347226B2 (en) | Method of redefining position of robot using artificial intelligence and robot of implementing thereof | |
KR102070210B1 (en) | Moving robot | |
KR102570164B1 (en) | Airport robot, and method for operating server connected thereto | |
KR20190105214A (en) | Robot cleaner for escaping constrained situation through artificial intelligence and operating method thereof | |
WO2022221242A1 (en) | Systems and methods for robotic detection of escalators and moving walkways | |
WO2022004333A1 (en) | Information processing device, information processing system, information processing method, and program | |
Zhang et al. | Autonomous indoor exploration of mobile robots based on door-guidance and improved dynamic window approach | |
WO2021181791A1 (en) | Danger degree calculation device, and device and method for controlling unmanned carrier vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |