KR20180098040A - Moving robot and control method thereof - Google Patents
Moving robot and control method thereof Download PDFInfo
- Publication number
- KR20180098040A KR20180098040A KR1020170025013A KR20170025013A KR20180098040A KR 20180098040 A KR20180098040 A KR 20180098040A KR 1020170025013 A KR1020170025013 A KR 1020170025013A KR 20170025013 A KR20170025013 A KR 20170025013A KR 20180098040 A KR20180098040 A KR 20180098040A
- Authority
- KR
- South Korea
- Prior art keywords
- mobile robot
- obstacle
- main body
- recognized
- direction indicator
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 54
- 230000033001 locomotion Effects 0.000 claims description 33
- 239000003086 colorant Substances 0.000 claims description 5
- 238000004140 cleaning Methods 0.000 description 31
- 238000001514 detection method Methods 0.000 description 17
- 230000008859 change Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 8
- 239000000428 dust Substances 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000009131 signaling function Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2836—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
- A47L9/2852—Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Abstract
Description
본 발명은 이동 로봇 및 그 제어방법에 관한 것으로서, 더욱 상세하게는 공공장소에서 안전하게 운용할 수 있는 이동 로봇 및 그 제어방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile robot and a control method thereof, and more particularly, to a mobile robot and a control method thereof that can be safely operated in a public place.
로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. 이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다. Robots have been developed for industrial use and have been part of factory automation. In recent years, medical robots, aerospace robots, and the like have been developed, and household robots that can be used in ordinary homes are being developed. Among these robots, mobile robots capable of traveling by magnetic force are called mobile robots.
이동 로봇의 대표적인 예는 로봇 청소기로, 로봇 청소기는 일정 영역을 스스로 주행하면서, 주변의 먼지 또는 이물질을 흡입함으로써, 해당 영역을 청소하는 기기이다. A representative example of the mobile robot is a robot cleaner. The robot cleaner is a device for cleaning a corresponding area by sucking dirt or foreign matter around the robot while running a certain area by itself.
이동 로봇은, 스스로 이동이 가능하여 이동이 자유롭고, 주행 중 장애물 등을 피하기 위한 다수의 센서가 구비되어 장애물을 피해 주행할 수 있다.The mobile robot is capable of moving by itself, is free to move, and is equipped with a plurality of sensors for avoiding obstacles during traveling, so that it can travel without obstacles.
일반적으로 이동 로봇의 장애물 감지를 위해 적외선 센서 또는 초음파 센서가 이용된다. 적외선 센서는 장애물에 반사되어 돌아오는 반사광의 광량 또는 수신되는 시간을 통해 장애물의 존재와 거리를 판단하고, 초음파 센서는 소정 주기를 가지는 초음파를 발산하여 장애물에 의해 반사되는 초음파가 있을 경우 초음파 발산 시간과 장애물에 반사되어 되돌아오는 순간의 시간차를 이용하여 장애물과의 거리를 판단한다.In general, an infrared sensor or an ultrasonic sensor is used to detect an obstacle of a mobile robot. The infrared sensor senses the presence and distance of the obstacle through the amount of reflected light or the time of reflected light reflected by the obstacle, and when the ultrasonic sensor emits an ultrasonic wave having a predetermined period and there is an ultrasonic wave reflected by the obstacle, And the distance between the obstacle and the obstacle is determined using the time difference between the moment when the obstacle is reflected and the time when the obstacle is reflected.
한편, 다수의 사람들이 체류하거나 이동하는 공항, 기차역, 백화점, 항만 등 공공장소에서 운용되는 이동 로봇은 안전 사고의 위험에 더 많이 노출되거나 안전 사고를 일으킬 수 있다.On the other hand, mobile robots operating in public places such as airports, train stations, department stores, and harbors where many people stay or move may be more exposed to safety accidents or cause safety accidents.
따라서, 이동 로봇이 장애물을 인식하여 안전을 확보하면서 자동으로 주행하는 방안뿐만 아니라, 공공장소에서 사람들의 안전을 보장하기 위하여, 사람들이 이동 로봇의 주행 상태를 쉽게 파악할 수 있는 방안이 요구된다. Accordingly, there is a need for a method that enables people to easily grasp the traveling state of a mobile robot in order to ensure the safety of people in a public place, as well as a method in which the mobile robot recognizes an obstacle and automatically runs while ensuring safety.
본 발명의 목적은, 공공장소에서 안전하게 운용할 수 있는 이동 로봇 및 그 제어방법을 제공함에 있다.An object of the present invention is to provide a mobile robot and a control method thereof that can be safely operated in a public place.
본 발명의 목적은, 사람들이 이동 로봇의 주행 상태를 쉽게 파악할 수 있어, 사람과 이동 로봇의 사고 발생 위험을 감소시킬 수 있는 이동 로봇 및 그 제어방법을 제공함에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a mobile robot and a control method thereof that can easily grasp the traveling state of a mobile robot and reduce the risk of an accident of a person and a mobile robot.
본 발명의 목적은, 장애물의 속성을 판단하고, 장애물 속성에 따라 주행 패턴을 조정할 수 있어, 신뢰성 높은 장애물 인식 및 회피 동작을 수행할 수 있는 이동 로봇 및 그 제어방법을 제공함에 있다.It is an object of the present invention to provide a mobile robot and its control method capable of performing obstacle recognition and avoidance operations by determining an attribute of an obstacle and adjusting a traveling pattern according to an obstacle property.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇은, 본체, 본체를 이동시키는 주행부, 및, 이동 로봇의 현재 상태를 나타내는 광을 출력하는 상태 알림등을 포함함으로써, 공공장소에서 안전하게 운용할 수 있다.In order to achieve the above or other objects, a mobile robot according to an aspect of the present invention includes a main body, a traveling part for moving the main body, and a status notification for outputting light representing the current state of the mobile robot, Can be safely operated.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇은, 본체, 본체를 이동시키는 주행부, 이동 로봇의 현재 상태를 나타내는 광을 출력하는 상태 알림등, 본체의 전면에 배치되고, 이동 로봇의 주행 방향에 따라 켜지는 전방 방향 지시등, 및, 본체의 후면에 배치되고, 이동 로봇의 주행 방향에 따라 켜지는 후방 방향 지시등을 포함함으로써, 공공장소에서 안전하게 운용할 수 있다.According to one aspect of the present invention, there is provided a mobile robot including: a main body; a traveling unit for moving the main body; a status notification for outputting light representing a current state of the mobile robot; A front direction indicator which is turned on in accordance with the traveling direction of the mobile robot and a rear direction indicator which is disposed on the rear surface of the main body and is turned on in accordance with the traveling direction of the mobile robot.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇의 제어방법은, 본체가 이동하는 단계, 상태 알림등이 이동 로봇의 현재 상태를 나타내는 광을 출력하는 단계, 및, 본체의 주행 방향에 기초하여, 전방 방향 지시등 및 후방 방향 지시등이 소정 시간 켜지는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of controlling a mobile robot including the steps of moving a main body, outputting light indicative of a current state of the mobile robot, And turning on the front direction indicator light and the backward direction indicator light for a predetermined time based on the direction.
본 발명의 실시 예들 중 적어도 하나에 의하면, 공공장소에서 안전하게 운용할 수 있는 이동 로봇 및 그 제어방법을 제공할 수 있다.According to at least one of the embodiments of the present invention, it is possible to provide a mobile robot and its control method that can be safely operated in a public place.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 사람들이 이동 로봇의 주행 상태를 쉽게 파악할 수 있어, 사람과 이동 로봇의 사고 발생 위험을 감소시킬 수 있다는 장점이 있다.In addition, according to at least one embodiment of the present invention, people can easily grasp the traveling state of the mobile robot, thereby reducing the risk of an accident of a person and a mobile robot.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 장애물의 속성을 판단하고, 장애물 속성에 따라 주행 패턴을 조정할 수 있어, 신뢰성 높은 장애물 인식 및 회피 동작을 수행할 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to determine the property of the obstacle and adjust the traveling pattern according to the obstacle property, thereby performing highly reliable obstacle recognition and avoidance operations.
한편, 그 외의 다양한 효과는 후술될 본 발명의 실시 예에 따른 상세한 설명에서 직접적 또는 암시적으로 개시될 것이다.Meanwhile, various other effects will be directly or implicitly disclosed in the detailed description according to the embodiment of the present invention to be described later.
도 1은 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 이동 로봇의 후면부를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 이동 로봇의 제어방법을 도시한 순서도이다.
도 6은 본 발명의 일 실시예에 따른 이동 로봇의 제어 방법에 관한 설명에 참조되는 도면이다.
도 7은 본 발명의 일 실시예에 따른 이동 로봇의 제어방법을 도시한 순서도이다.
도 8은 본 발명의 일 실시예에 따른 이동 로봇의 제어 방법에 관한 설명에 참조되는 도면이다. 1 is a front view of a mobile robot according to an embodiment of the present invention.
FIG. 2 is a rear view of a mobile robot according to an embodiment of the present invention. Referring to FIG.
3 is a block diagram illustrating a control relationship between the main components of the mobile robot according to an embodiment of the present invention.
4 is a front view of a mobile robot according to an embodiment of the present invention.
5 is a flowchart illustrating a method of controlling a mobile robot according to an embodiment of the present invention.
FIG. 6 is a diagram for explaining a method of controlling a mobile robot according to an embodiment of the present invention. Referring to FIG.
7 is a flowchart illustrating a method of controlling a mobile robot according to an embodiment of the present invention.
FIG. 8 is a diagram illustrating a method of controlling a mobile robot according to an embodiment of the present invention. Referring to FIG.
이하에서는 첨부한 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나 본 발명이 이러한 실시예에 한정되는 것은 아니며 다양한 형태로 변형될 수 있음은 물론이다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, it is needless to say that the present invention is not limited to these embodiments and can be modified into various forms.
도면에서는 본 발명을 명확하고 간략하게 설명하기 위하여 설명과 관계없는 부분의 도시를 생략하였으며, 명세서 전체를 통하여 동일 또는 극히 유사한 부분에 대해서는 동일한 도면 참조부호를 사용한다. In the drawings, the same reference numerals are used for the same or similar parts throughout the specification.
한편, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffix "module" and " part "for components used in the following description are given merely for convenience of description and do not give special significance or role in themselves. Accordingly, the terms "module" and "part" may be used interchangeably.
본 발명의 일 실시예에 따른 이동 로봇(100)은 바퀴 등을 이용하여 스스로 이동이 가능한 로봇을 의미하고, 로봇 청소기 등이 해당될 수 있다. 이하에서는, 도면들을 참조하여, 이동 로봇 중 청소 기능을 가지는 로봇 청소기를 예로 들어 설명하나, 본 발명은 이에 한정되지 않는다.The
도 1은 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도면이고, 도 2는 본 발명의 일 실시예에 따른 이동 로봇의 후면부를 도시한 도면이다.FIG. 1 is a front view of a mobile robot according to an embodiment of the present invention, and FIG. 2 is a rear view of a mobile robot according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 주요 구성들 간의 제어관계를 도시한 블록도이다.3 is a block diagram illustrating a control relationship between the main components of the mobile robot according to an embodiment of the present invention.
도 1 내지 도 3을 참조하면, 이동 로봇(100)은, 본체(101)와, 본체(101)를 이동시키는 주행부(160)를 포함할 수 있다. 1 to 3, the
이하, 본체(101)의 각 부분을 정의함에 있어서, 주행구역 내의 천장을 향하는 부분을 상면부로 정의하고, 주행구역 내의 바닥을 향하는 부분을 저면부로 정의하며, 상면부와 저면부 사이에서 본체(101)의 둘레를 이루는 부분 중 주행방향을 향하는 부분을 정면부라고 정의하고, 상기 정면부의 반대 방향을 향하는 부분을 후면부로 정의한다. The portion facing the ceiling in the running zone is defined as the upper surface portion, the portion facing the floor in the running zone is defined as the bottom portion, and the
이동 로봇(100)은 본체(101)를 이동시키는 주행부(160)를 포함한다. 주행부(160)는 본체(101)를 이동시키는 적어도 하나의 구동 바퀴(136)를 포함한다. 주행부(160)는 구동 바퀴(136)에 연결되어 구동 바퀴를 회전시키는 구동 모터(미도시)를 포함한다. 구동 바퀴(136)는 본체(101)의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜과 우륜이라고 한다.The mobile robot (100) includes a traveling unit (160) for moving the main body (101). The
좌륜과 우륜은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜을 구동시키는 좌륜 구동 모터와 우륜을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜과 우륜의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체(101)의 주행방향을 전환할 수 있다.The left wheel and the right wheel may be driven by a single drive motor, but may be provided with a left wheel drive motor for driving the left wheel and a right wheel drive motor for driving the right wheel, respectively, if necessary. The running direction of the
본체(101)의 저면부에는 공기의 흡입이 이루어지는 흡입구(미도시)가 형성될 수 있으며, 본체(101) 내에는 흡입구를 통해 공기가 흡입될 수 있도록 흡입력을 제공하는 흡입장치(미도시)와, 흡입구를 통해 공기와 함께 흡입된 먼지를 집진하는 먼지통(미도시)이 구비될 수 있다. 또한, 상기 먼지통에는 내부의 먼지를 버릴 수 있도록 먼지통 커버(미도시)가 구비될 수 있다.A suction port (not shown) for sucking air can be formed on the bottom surface of the
본체(101)는 이동 로봇(100)을 구성하는 각종 부품들이 수용되는 공간을 형성하는 바디부(102)와 상기 바디부(102)의 상측에 개폐 가능하도록 배치되는 헤드부(110)를 포함할 수 있다. The
상기 헤드부(110)는 개폐 가능한 헤드(head, 111)와 상기 헤드(111)가 개폐가능하도록 결합되는 체결부(112)를 포함할 수 있다.The
또한, 실시예에 따라서는, 상기 헤드(111) 및/또는 체결부(112)에는 상기 헤드(111)의 개폐 여부를 감지하는 스위치 또는 센서가 배치될 수 있다.In addition, according to the embodiment, a switch or a sensor for detecting whether the
또한, 이동 로봇(100)은 본체(101) 내부에 수납되는 디스플레이(182)를 포함할 수 있다. In addition, the
사용자는 상기 헤드(111)를 열어 상기 본체(101) 내부에 상기 먼지통의 삽입과 탈거가 가능하다.The user can open the
실시예에 따라서는, 상기 헤드부(110)는 복수의 방식으로 개폐 가능하거나 하나 이상의 개폐 기구 구조를 포함할 수 있다.In some embodiments, the
예를 들어, 상기 헤드(111)를 들어올려 상기 헤드(111)를 열거나, 상기 헤드부(110)에 버튼이 구비되고, 사용자가 버튼을 누르면 사용자 측을 향하여 소정 커버가 열리는 개폐 기구 구조로 구현될 수 있다. For example, when the
이 경우에, 상기 디스플레이(182)를 내부 수납 공간 중 구획된 소정 영역에 배치하고, 사용자의 버튼 조작으로 열리는 개폐 기구 구조는 상기 디스플레이(182)가 배치되는 영역의 전용 개폐 구조로 구성될 수 있다. 이에 따라, 사용자가 버튼을 누르면 상기 디스플레이(182)가 사용자 측을 향하여 돌출되도록 구성할 수 있다.In this case, the
한편, 이동 로봇(100)은 흡입구를 통해 노출되는 솔들을 갖는 롤형의 메인 브러시(미도시)와, 본체(101)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 보조 브러시(135)가 구비할 수 있다. 이들 브러시(135)들의 회전에 의해 주행구역 내 바닥으로부터 먼지들이 분리되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구를 통해 흡입되어 먼지통에 모인다.The
한편, 이동 로봇(100)은 충전 가능한 배터리(미도시)를 구비하여 이동 로봇(100) 내로 전원을 공급하는 전원 공급부(미도시)를 포함할 수 있다.Meanwhile, the
상기 전원 공급부는 이동 로봇(100)의 각 구성 요소들에 구동 전원과, 동작 전원을 공급하며, 전원 잔량이 부족하면 충전대(미도시)에서 충전 전류를 공급받아 충전될 수 있다. The power supply unit supplies driving power and operating power to the respective components of the
이동 로봇(100)은 배터리(미도시)의 충전 상태를 감지하고, 감지 결과를 제어부(140)에 전송하는 배터리 감지부(미도시)를 더 포함할 수 있다. 배터리는 배터리 감지부와 연결되어 배터리 잔량 및 충전 상태가 제어부(140)에 전달된다. 배터리 잔량은 출력부(180)의 디스플레이(182)에 표시될 수 있다.The
배터리(미도시)는 구동 모터뿐만 아니라, 이동 로봇(100)의 작동 전반에 필요한 전원을 공급한다. 상기 바디부(102)는 배터리 점검 및/또는 교체를 위한 개폐 가능한 커버(103)를 포함할 수 있다. 사용자는 상기 커버(103)를 열어 배터리 상태를 점검하거나 교체할 수 있다.The battery (not shown) supplies not only the drive motor but also the power required for the overall operation of the
배터리가 방전될 시, 이동 로봇(100)은 충전을 위해 충전대(미도시)로 복귀하는 주행을 실시할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(100)은 스스로 충전대의 위치를 탐지할 수 있다.When the battery is discharged, the
충전대는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되는 것은 아니다.The charging stand may include a signal transmitting unit (not shown) for transmitting a predetermined return signal. The return signal may be an ultrasonic signal or an infrared signal, but is not limited thereto.
이동 로봇(100)은 복귀 신호를 수신하는 신호 감지부(미도시)를 포함할 수 있다. 충전대는 신호 송출부를 통해 적외선 신호를 송출하고, 신호 감지부는 적외선 신호를 감지하는 적외선 센서를 포함할 수 있다. 이동 로봇(100)은 충전대로부터 송출된 적외선 신호에 따라 충전대의 위치로 이동하여 충전대와 도킹(docking)한다. 이러한 도킹에 의해 이동 로봇(100)의 충전 단자(미도시)와 충전대의 충전 단자(미도시) 간에 충전에 이루어진다.The
영상획득부(120)는 본체(101) 주변, 주행구역, 외부 환경 등을 촬영하는 것으로, 카메라 모듈을 포함할 수 있다. 상기 카메라 모듈은 디지털 카메라를 포함할 수 있다. 디지털 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를 들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.The
이러한 카메라는 촬영 효율을 위해 각 부위별로 여러 개가 설치될 수도 있다. 예를 들어, 영상획득부(120)는, 본체(101) 전방의 상측을 촬영하여 주행구역 내의 천장에 대한 영상을 획득하는 상부 카메라, 본체(101) 전방의 영상을 획득하도록 구비되는 전면 카메라, 뎁스(depth) 카메라를 포함할 수 있다. 하지만, 영상획득부(120)가 구비하는 카메라의 개수, 배치, 종류, 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다. Several cameras may be installed for each part of the camera for photographing efficiency. For example, the
카메라에 의해 촬상된 영상은 해당 공간에 존재하는 먼지, 머리카락, 바닥 등과 같은 물질의 종류 인식, 청소 여부, 또는 청소 시점을 확인하는데 사용할 수 있다.The image captured by the camera can be used to identify the kind of material such as dust, hair, floor, etc. present in the space, whether it is cleaned, or to confirm the cleaning time.
상기 영상획득부(120)는 본체(101) 주변을 촬영하여 영상을 획득할 수 있고, 획득된 영상은 저장부(130)에 저장될 수 있다.The
또한, 이동 로봇(100)은 이동 로봇의 동작, 상태와 관련된 각종 데이터를 센싱하는 센서들을 포함하는 센서부(170)를 포함할 수 있다.In addition, the
예를 들어, 상기 헤드(111)의 개폐 여부를 감지하는 센서(미도시)를 포함할 수 있다. 상기 헤드(111)의 개폐 여부를 감지하는 센서는 공지된 다양한 방식의 센서를 이용할 수 있다.For example, it may include a sensor (not shown) for detecting whether the
한편, 상기 센서부(170)는 전방의 장애물을 감지하는 장애물 감지 센서(131)를 포함할 수 있다. 또한, 상기 센서부(170)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서(미도시)와, 바닥의 영상을 획득하는 하부 카메라 센서(미도시)를 더 포함할 수 있다. Meanwhile, the
실시예에 따라서는, 상기 장애물 감지 센서(131)는 이동 로봇(100)의 외주면에 일정 간격으로 설치되는 복수의 센서를 포함할 수 있다. According to an embodiment, the
예를 들어, 상기 센서부(170)는, 상기 본체(101)의 전면에 좌, 우로 이격되도록 배치되는 제1 센서 및 제2 센서를 포함할 수 있다.For example, the
상기 장애물 감지 센서(131)는, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서, PSD(Position Sensitive Device) 센서 등을 포함할 수 있다.The
한편, 상기 장애물 감지 센서(131)에 포함되는 센서의 위치와 종류는 이동 로봇의 기종에 따라 달라질 수 있고, 상기 장애물 감지 센서(131)는 더 다양한 센서를 포함할 수 있다.Meanwhile, the position and type of the sensor included in the
또한, 상기 센서부(170)는 라이다(light detection and ranging: Lidar, 132a, 132b)를 포함할 수 있다.Also, the
라이다(132a, 132b)는, 레이저(Laser) 광을 매개로, 송신 신호와 수신 신호의 TOF(Time of Flight) 또는 송신 신호와 수신 신호의 위상차(phase difference)를 기초로, 장애물 등 오브젝트를 검출할 수 있다.The lidarities 132a and 132b transmit the object such as an obstacle based on the TOF (Time of Flight) of the transmission signal and the reception signal or the phase difference between the transmission signal and the reception signal through the laser light Can be detected.
상기 라이다(132a, 132b)는, 복수개로 구비될 수 있다. 예를 들면, 상기 라이다(132a, 132b)는, 이동 로봇(100)의 전방에 위치하는 오브젝트를 검출하는 제1 라이다(132a) 및 이동 로봇(100)의 후방에 위치하는 오브젝트를 검출하는 제2 라이다(132b)를 포함할 수 있다. The plurality of
또한, 상기 라이다(132a, 132b)는, 오브젝트와의 거리, 오브젝트와의 상대 속도 및 오브젝트의 위치를 검출할 수 있다.In addition, the RLAs 132a and 132b can detect the distance to the object, the relative speed with the object, and the position of the object.
상기 라이다(132a, 132b)는, 상기 장애물 감지 센서(131)의 구성 중 일부로써 구비될 수 있다.The
또한, 상기 라이다(132a, 132b)는, 맵(map) 작성을 위한 센서로써 구비될 수도 있다.Also, the RLAs 132a and 132b may be provided as a sensor for creating a map.
예를 들어, 지도생성모듈(143)은 주행구역의 맵을 생성할 수 있다. 지도생성모듈(143)은, 영상획득부(120)를 통해 획득한 영상을 처리하여 맵을 작성할 수 있고, 이에 보충적으로 또는 독립적으로 상기 라이다(132a, 132b)의 센싱 데이터에 기초하여 맵을 작성할 수 있다.For example, the
상기 장애물 감지 센서(131)는 이동 로봇의 주행(이동) 방향에 존재하는 물체, 특히 장애물을 감지하여 장애물 정보를 제어부(140)에 전달한다. 즉, 상기 장애물 감지 센서(131)는, 이동 로봇(100)의 이동 경로, 전방이나 측면에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어 유닛에 전달할 수 있다. The
이때, 제어부(140)는 초음파 센서를 통해 수신된 적어도 2 이상의 신호에 기초하여 장애물의 위치를 감지하고, 감지된 장애물의 위치에 따라 이동 로봇(100)의 움직임을 제어할 수 있다.At this time, the
실시예에 따라서는, 본체(101)의 외측면에 구비되는 장애물 감지 센서(131)는 발신부와 수신부를 포함하여 구성될 수 있다. According to an embodiment, the
예를 들어, 초음파 센서는 적어도 하나 이상의 발신부 및 적어도 2 이상의 수신부가 서로 엇갈리도록 구비될 수 있다. 또한, 다양한 각도로 신호를 방사하고, 장애물에 반사된 신호를 다양한 각도에서 수신할 수 있다.For example, the ultrasonic sensor may be provided such that at least one transmitting portion and at least two receiving portions are staggered from each other. Also, it is possible to radiate signals at various angles and to receive signals reflected from obstacles at various angles.
실시예에 따라서는, 장애물 감지 센서(131)에서 수신된 신호는, 증폭, 필터링 등의 신호 처리 과정을 거칠 수 있고, 이후 장애물까지의 거리 및 방향이 산출될 수 있다.According to an embodiment, the signal received by the
한편, 상기 센서부(170)는 본체(101)의 구동에 따른 이동 로봇(100)의 동작을 감지하고 동작 정보를 출력하는 동작 감지 센서를 더 포함할 수 있다. 예를 들어, 동작 감지 센서로는, 자이로 센서(Gyro Sensor), 휠 센서(Wheel Sensor), 가속도 센서(Acceleration Sensor) 등을 사용할 수 있다.The
자이로 센서는, 이동 로봇(100)이 운전 모드에 따라 움직일 때 회전 방향을 감지하고 회전각을 검출한다. 자이로 센서는, 이동 로봇(100)의 각속도를 검출하여 각속도에 비례하는 전압 값을 출력한다. 제어부(140)는 자이로 센서로부터 출력되는 전압 값을 이용하여 회전 방향 및 회전각을 산출한다.The gyro sensor senses the direction of rotation and detects the rotation angle when the
휠 센서는, 좌륜과 우륜에 연결되어 바퀴의 회전수를 감지한다. 여기서, 휠 센서는 로터리 엔코더(Rotary Encoder)일 수 있다. 로터리 엔코더는 좌륜과 우륜의 회전수를 감지하여 출력한다. The wheel sensor is connected to the left and right wheels to detect the number of revolutions of the wheel. Here, the wheel sensor may be a rotary encoder. The rotary encoder detects and outputs the number of rotations of the left and right wheels.
제어부(140)는 회전수를 이용하여 좌, 우측 바퀴의 회전 속도를 연산할 수 있다. 또한, 제어부(140)는 좌륜과 우륜의 회전수 차이를 이용하여 회전각을 연산할 수 있다.The
가속도 센서는, 이동 로봇(100)의 속도 변화, 예를 들어, 출발, 정지, 방향 전환, 물체와의 충돌 등에 따른 이동 로봇(100)의 변화를 감지한다. 가속도 센서는 주 바퀴나 보조바퀴의 인접 위치에 부착되어, 바퀴의 미끄러짐이나 공회전을 검출할 수 있다.The acceleration sensor senses a change in the speed of the
또한, 가속도 센서는 제어부(140)에 내장되어 이동 로봇(100)의 속도 변화를 감지할 수 있다. 즉, 가속도 센서는 속도 변화에 따른 충격량을 검출하여 이에 대응하는 전압 값을 출력한다. 따라서, 가속도 센서는 전자식 범퍼의 기능을 수행할 수 있다.In addition, the acceleration sensor is built in the
제어부(140)는 동작 감지 센서로부터 출력된 동작 정보에 기초하여 이동 로봇(100)의 위치 변화를 산출할 수 있다. 이러한 위치는 영상 정보를 이용한 절대 위치에 대응하여 상대 위치가 된다. 이동 로봇은 이러한 상대 위치 인식을 통해 영상 정보와 장애물 정보를 이용한 위치 인식의 성능을 향상시킬 수 있다. The
또한, 이동 로봇(100)은 출력부(180)를 포함하여, 예약 정보, 배터리 상태, 동작모드, 동작상태, 에러상태 등을 이미지로 표시하거나 음향으로 출력할 수 있다. In addition, the
출력부(180)는 예약 정보, 배터리 상태, 동작모드, 동작상태, 에러상태 등 사용자 인터페이스 화면을 이미지로 표시하는 디스플레이(182)를 포함할 수 있다.The
실시예에 따라서는, 헤드(111)가 열리면, 상기 디스플레이(182)는 전면으로 슬라이딩(sliding) 또는 푸쉬(push)됨으로써, 디스플레이(182)를 통해서 제공되는 사용자 인터페이스 화면을 사용자가 더 쉽게 인식하도록 할 수 있다.The
또한, 상기 디스플레이(182)는 터치패드와 상호 레이어 구조를 이루어 터치스크린으로 구성될 수 있다. 이 경우에, 상기 디스플레이(182)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다. Also, the
또한, 출력부(180)는 오디오 신호를 출력하는 음향 출력부(181)를 더 포함할 수 있다. 음향 출력부(181)는 제어부(140)의 제어에 따라 경고음, 동작모드, 동작상태, 에러상태 등의 알림 메시지 등을 음향으로 출력할 수 있다. 상기 음향 출력부(181)는, 제어부(140)로부터의 전기 신호를 오디오 신호로 변환하여 출력할 수 있다. 이를 위해, 음향 출력부(181)는, 스피커 등을 구비할 수 있다.The
도 3을 참조하면, 이동 로봇(100)은 현재 위치를 인식하는 등 각종 정보를 처리하고 판단하는 제어부(140), 및 각종 데이터를 저장하는 저장부(130)를 포함한다. 또한, 이동 로봇(100)은 휴대 단말기와 데이터를 송수신하는 통신부(190)를 더 포함할 수 있다. Referring to FIG. 3, the
휴대 단말기는 이동 로봇(100)을 제어하기 위한 애플리케이션을 구비하고, 애플리케이션의 실행을 통해 이동 로봇(100)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 휴대 단말기는 맵 설정을 위한 애플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 스마트 폰, 태블릿 등을 예로 들 수 있다. The mobile terminal has an application for controlling the
휴대 단말기는 이동 로봇(100)과 통신하여, 맵과 함께 이동 로봇의 현재 위치를 표시할 수 있으며, 복수의 영역에 대한 정보가 표시될 수 있다. 또한, 휴대 단말기는 이동 로봇의 주행에 따라 그 위치를 갱신하여 표시한다. The portable terminal communicates with the
제어부(140)는 이동 로봇(100)을 구성하는 영상획득부(120), 주행부(160), 디스플레이(182) 등을 제어하여, 이동 로봇(100)의 동작 전반을 제어한다. The
저장부(130)는 이동 로봇(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.The
또한, 저장부(130)에는 주행구역에 대한 맵(Map)이 저장될 수 있다. 맵은 이동 로봇(100)과 유선 또는 무선 통신을 통해 정보를 교환할 수 있는 휴대 단말기, 서버 등에 의해 입력된 것일 수도 있고, 이동 로봇(100)이 스스로 생성한 것일 수도 있다. In addition, the
맵에는 주행구역 내의 방들의 위치가 표시될 수 있다. 또한, 이동 로봇(100)의 현재 위치가 맵 상에 표시될 수 있으며, 맵 상에서의 이동 로봇(100)의 현재의 위치는 주행 과정에서 갱신될 수 있다. 휴대 단말기는 저장부(130)에 저장된 맵과 동일한 맵을 저장할 수 있다. The map can display the location of the rooms in the driving area. In addition, the current position of the
상기 저장부(130)는 청소 이력 정보를 저장할 수 있다. 이러한 청소 이력 정보는 청소를 수행할 때마다 생성될 수 있다.The
상기 저장부(130)에 저장되는 주행구역에 대한 맵은, 청소 중 주행에 사용되는 내비게이션 맵(Navigation map), 위치 인식에 사용되는 SLAM(Simultaneous localization and mapping) 맵, 장애물 등에 부딪히면 해당 정보를 저장하여 학습 청소시 사용하는 학습 맵, 전역 위치 인식에 사용되는 전역 위치 맵, 인식된 장애물에 관한 정보가 기록되는 장애물 인식 맵 등일 수 있다. The map of the traveling area stored in the
한편, 상술한 바와 같이 용도별로 상기 저장부(130)에 맵들을 구분하여 저장, 관리할 수 있지만, 맵이 용도별로 명확히 구분되지 않을 수도 있다. 예를 들어, 적어도 2 이상의 용도로 사용할 수 있도록 하나의 맵에 복수의 정보를 저장할 수도 있다.Meanwhile, as described above, the maps can be stored and managed in the
제어부(140)는 주행제어모듈(141), 위치인식모듈(142), 지도생성모듈(143) 및 장애물인식모듈(144)을 포함할 수 있다. The
도 1 내지 도 3을 참조하면, 주행제어모듈(141)은 이동 로봇(100)의 주행을 제어하는 것으로, 주행 설정에 따라 주행부(160)의 구동을 제어한다. 또한, 주행제어모듈(141)은 주행부(160)의 동작을 바탕으로 이동 로봇(100)의 주행경로를 파악할 수 있다. 예를 들어, 주행제어모듈(141)은 구동 바퀴(136)의 회전속도를 바탕으로 이동 로봇(100)의 현재 또는 과거의 이동속도, 주행한 거리 등을 파악할 수 있으며, 각 구동 바퀴의 회전 방향에 따라 현재 또는 과거의 방향 전환 과정 또한 파악할 수 있다. 이렇게 파악된 이동 로봇(100)의 주행 정보를 바탕으로, 맵 상에서 이동 로봇(100)의 위치가 갱신될 수 있다. 1 to 3, the
지도생성모듈(143)은 주행구역의 맵을 생성할 수 있다. 지도생성모듈(143)은 영상획득부(120)를 통해 획득한 영상을 처리하여 맵을 작성할 수 있다. 즉, 청소 영역과 대응되는 청소 맵을 작성할 수 있다.The
또한, 지도생성모듈(143)은 각 위치에서 영상획득부(120)를 통해 획득한 영상을 처리하여 맵과 연계시켜 전역위치를 인식할 수 있다.Also, the
위치인식모듈(142)은 현재 위치를 추정하여 인식한다. 위치인식모듈(142)은 영상획득부(120)의 영상 정보를 이용하여 지도생성모듈(143)과 연계하여 위치를 파악함으로써, 이동 로봇(100)의 위치가 갑자기 변경되는 경우에도 현재 위치를 추정하여 인식할 수 있다.The
이동 로봇(100)은 위치인식모듈(142)을 통해 연속적인 주행 중에 위치 인식이 가능하고 또한, 위치인식모듈(142) 없이 지도생성모듈(143) 및 장애물인식모듈(144)을 통해, 맵을 학습하고 현재 위치를 추정할 수 있다. The
이동 로봇(100)이 주행하는 중에, 영상획득부(120)는 이동 로봇(100) 주변의 영상들을 획득한다. 이하, 영상획득부(120)에 의해 획득된 영상을 '획득영상'이라고 정의한다. During traveling of the
획득영상에는 천장에 위치하는 조명들, 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등의 여러가지 특징(feature)들이 포함된다. The acquired image includes various features such as lights, edges, corners, blobs, ridges, etc., located on the ceiling.
지도생성모듈(143)은 획득영상들 각각으로부터 특징을 검출한다. 컴퓨터 비전(Computer Vision) 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법(Feature Detection)이 잘 알려져 있다. 이들 특징의 검출에 적합한 여러 특징검출기(feature detector)들이 알려져 있다. 예를 들어, Canny, Sobel, Harris&Stephens/Plessey, SUSAN, Shi&Tomasi, Level curve curvature, FAST, Laplacian of Gaussian, Difference of Gaussians, Determinant of Hessian, MSER, PCBR, Grey-level blobs 검출기 등이 있다.The
지도생성모듈(143)은 각 특징점을 근거로 디스크립터를 산출한다. 지도생성모듈(143)은 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 특징점을 디스크립터(descriptor)로 변환할 수 있다. 디스크립터는 n차원 벡터(vector)로 표기될 수 있다.The
SIFT는 촬영 대상의 스케일(scale), 회전, 밝기변화에 대해서 불변하는 특징을 검출할 수 있어, 같은 영역을 이동 로봇(100)의 자세를 달리하며 촬영하더라도 불변하는(즉, 회전 불변한(Rotation-invariant)) 특징을 검출할 수 있다. 물론, 이에 한정되지 않고 다른 다양한 기법(예를 들어, HOG: Histogram of Oriented Gradient, Haar feature, Fems, LBP:Local Binary Pattern, MCT:Modified Census Transform)들이 적용될 수도 있다.The SIFT can detect unchanging features with respect to the scale, rotation, and brightness change of the object to be photographed. Even if the same region is photographed with a different attitude of the mobile robot 100 (i.e., -invariant) can be detected. Of course, various other techniques (e.g., HOG: Histogram of Oriented Gradient, Haar feature, Fems, Local Binary Pattern (LBP), Modified Census Transform (MCT)) may be applied.
지도생성모듈(143)은 각 위치의 획득영상을 통해 얻은 디스크립터 정보를 바탕으로, 획득영상마다 적어도 하나의 디스크립터를 소정 하위 분류규칙에 따라 복수의 군으로 분류하고, 소정 하위 대표규칙에 따라 같은 군에 포함된 디스크립터들을 각각 하위 대표 디스크립터로 변환할 수 있다.The
다른 예로, 실(room)과 같이 소정 구역내의 획득영상 들로부터 모인 모든 디스크립터를 소정 하위 분류규칙에 따라 복수의 군으로 분류하여 상기 소정 하위 대표규칙에 따라 같은 군에 포함된 디스크립터들을 각각 하위 대표 디스크립터로 변환할 수도 있다. As another example, it is also possible to classify all descriptors gathered from acquired images in a predetermined area, such as a room, into a plurality of groups according to a predetermined sub-classification rule, and write descriptors included in the same group according to the predetermined lower representative rule, . ≪ / RTI >
지도생성모듈(143)은 이 같은 과정을 거쳐, 각 위치의 특징분포를 구할 수 있다. 각 위치 특징분포는 히스토그램 또는 n차원 벡터로 표현될 수 있다. 또 다른 예로, 지도생성모듈(143)은 소정 하위 분류규칙 및 소정 하위 대표규칙을 거치지 않고, 각 특징점으로부터 산출된 디스크립터를 바탕으로 미지의 현재위치를 추정할 수 있다. The
또한, 위치 도약 등의 이유로 이동 로봇(100)의 현재 위치가 미지의 상태가 된 경우에, 기 저장된 디스크립터 또는 하위 대표 디스크립터 등의 데이터를 근거로 현재 위치를 추정할 수 있다. In addition, when the current position of the
이동 로봇(100)은, 미지의 현재 위치에서 영상획득부(120)를 통해 획득영상을 획득한다. 영상을 통해 천장에 위치하는 조명들, 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등의 여러가지 특징(feature)들이 확인된다.The
위치인식모듈(142)은 획득영상으로부터 특징들을 검출한다. 컴퓨터 비전 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법 및 이들 특징의 검출에 적합한 여러 특징검출기들에 대한 설명은 상기한 바와 같다.The
위치인식모듈(142)은 각 인식 특징점을 근거로 인식 디스크립터 산출단계를 거쳐 인식 디스크립터를 산출한다. 이때 인식 특징점 및 인식 디스크립터는 위치인식모듈(142)에서 수행하는 과정을 설명하기 위한 것으로 지도생성모듈(143)에서 수행하는 과정을 설명하는 용어와 구분하기 위한 것이다. 다만, 이동 로봇(100)의 외부 세계의 특징이 각각 다른 용어로 정의되는 것에 불과하다. The
위치인식모듈(142)은 본 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 인식 특징점을 인식 디스크립터로 변환할 수 있다. 인식 디스크립터는 n차원 벡터(vector)로 표기될 수 있다. The
SIFT는 앞서 설명한 바와 같이, 획득영상에서 코너점 등 식별이 용이한 특징점을 선택한 후, 각 특징점 주변의 일정한 구역에 속한 픽셀들의 밝기 구배(gradient)의 분포 특성(밝기 변화의 방향 및 변화의 급격한 정도)에 대해, 각 방향에 대한 변화의 급격한 정도를 각 차원에 대한 수치로 하는 n차원 벡터(vector)를 구하는 영상인식기법이다. As described above, the SIFT selects characteristic points that are easily distinguishable, such as corner points, from the acquired image, and then determines the distribution characteristics of the brightness gradient of pixels belonging to a certain region around each characteristic point ) Is an image recognition technique that obtains an n-dimensional vector (vector) in which the degree of change in each direction is a numerical value for each dimension.
위치인식모듈(142)은 미지의 현재 위치의 획득영상을 통해 얻은 적어도 하나의 인식 디스크립터 정보를 근거로, 소정 하위 변환규칙에 따라 비교대상이 되는 위치 정보(예를 들면, 각 위치의 특징분포)와 비교 가능한 정보(하위 인식 특징분포)로 변환한다.Based on at least one recognition descriptor information obtained through an acquired image of an unknown current position, the
소정 하위 비교규칙에 따라, 각각의 위치 특징분포를 각각의 인식 특징분포와 비교하여 각각의 유사도를 산출할 수 있다. 각각의 위치에 해당하는 상기 위치 별로 유사도(확률)를 산출하고, 그 중 가장 큰 확률이 산출되는 위치를 현재위치로 결정할 수 있다.According to a predetermined lower comparison rule, each position feature distribution can be compared with each recognition feature distribution to calculate each similarity. The similarity degree (probability) is calculated for each position corresponding to each position, and the position where the greatest probability is calculated can be determined as the current position.
이와 같이, 제어부(140)는 주행구역을 구분하고 복수의 영역으로 구성된 맵을 생성하거나, 기저장된 맵을 바탕으로 본체(101)의 현재 위치를 인식할 수 있다. In this way, the
제어부(140)는 맵이 생성되면, 생성된 맵을 통신부(190)를 통해 휴대 단말기, 서버 등으로 전송할 수 있다. 또한, 제어부(140)는 앞서 설명한 바와 같이, 휴대 단말기, 서버 등으로부터 맵이 수신되면, 저장부에 저장할 수 있다. When the map is generated, the
또한 제어부(140)는 주행 중 맵이 갱신되는 경우 갱신된 정보를 휴대 단말기로 전송하여 휴대 단말기와 이동 로봇(100)에 저장되는 맵이 동일하도록 한다. 휴대 단말기와 이동 로봇(100)에 저장된 맵이 동일하게 유지됨에 따라 이동 단말기로부터의 청소명령에 대하여, 이동 로봇(100)이 지정된 영역을 청소할 수 있으며, 또한, 휴대 단말기에 이동 로봇의 현재 위치가 표시될 수 있도록 하기 위함이다. Also, when the map is updated while the vehicle is running, the
이때, 맵은 청소 영역을 복수의 영역으로 구분되고, 복수의 영역을 연결하는 연결통로가 포함하며, 영역 내의 장애물에 대한 정보를 포함할 수 있다. At this time, the map is divided into a plurality of areas for the cleaning area, and includes a connection path for connecting the plurality of areas, and may include information about the obstacles in the area.
제어부(140)는 청소명령이 입력되면, 맵 상의 위치와 이동 로봇의 현재위치가 일치하는지 여부를 판단한다. 청소명령은 리모컨, 디스플레이 또는 휴대 단말기로부터 입력될 수 있다. When the cleaning command is inputted, the
제어부(140)는 현재 위치가 맵 상의 위치와 일치하지 않는 경우, 또는 현재 위치를 확인할 수 없는 경우, 현재 위치를 인식하여 이동 로봇(100)의 현재 위치를 복구한 한 후, 현재 위치를 바탕으로 지정영역으로 이동하도록 주행부(160)를 제어할 수 있다. If the current position does not coincide with the current position on the map or the current position can not be confirmed, the
현재 위치가 맵 상의 위치와 일치하지 않는 경우 또는 현재 위치를 확인 할 수 없는 경우, 위치인식모듈(142)은 영상획득부(120)로부터 입력되는 획득영상을 분석하여 맵을 바탕으로 현재 위치를 추정할 수 있다. 또한, 장애물인식모듈(144) 또는 지도생성모듈(143) 또한, 같은 방식으로 현재 위치를 인식할 수 있다. If the current position does not coincide with the position on the map or the current position can not be confirmed, the
위치를 인식하여 이동 로봇(100)의 현재 위치를 복구한 후, 주행제어모듈(141)은 현재 위치로부터 지정영역으로 주행경로를 산출하고 주행부(160)를 제어하여 지정영역으로 이동한다. After recognizing the position and restoring the current position of the
서버로부터 청소 패턴 정보를 수신하는 경우, 주행제어모듈(141)은 수신한 청소 패턴 정보에 따라, 전체 주행구역을 복수의 영역으로 나누고, 하나 이상의 영역을 지정영역으로 설정할 수 있다.In the case of receiving the cleaning pattern information from the server, the
또한, 주행제어모듈(141)은 수신한 청소 패턴 정보에 따라 주행경로를 산출하고, 주행경로를 따라 주행하며, 청소를 수행할 수 있다. Also, the
제어부(140)는 설정된 지정영역에 대한 청소가 완료되면, 청소기록을 저장부(130)에 저장할 수 있다. The
또한, 제어부(140)는 통신부(190)를 통해 이동 로봇(100)의 동작상태 또는 청소상태를 소정 주기로 휴대 단말기, 서버로 전송할 수 있다. The
그에 따라 휴대 단말기는 수신되는 데이터를 바탕으로, 실행중인 애플리케이션의 화면상에 맵과 함께 이동 로봇의 위치를 표시하고, 또한 청소 상태에 대한 정보를 출력한다.Accordingly, based on the received data, the mobile terminal displays the position of the mobile robot together with the map on the screen of the application being executed, and also outputs information about the cleaning state.
본 발명의 실시예에 따른 이동 로봇(100)은 일방향으로 장애물이나 벽면이 감지될 때까지 이동하다가, 센서부(170) 및 장애물인식모듈(144)을 통하여 장애물이 인식되면, 인식된 장애물의 속성에 따라 직진, 회전 등 주행 패턴을 결정할 수 있다.The
예를 들어, 인식된 장애물의 속성이 넘어갈 수 있는 종류의 장애물이면, 이동 로봇(100)은 계속 직진할 수 있다. 또는, 인식된 장애물의 속성이 넘어갈 수 없는 종류의 장애물이면, 이동 로봇(100)은 회전하여 일정거리 이동하고, 다시 최초 이동 방향의 반대방향으로 장애물이 감지되는 거리까지 이동하여 지그재그(zigzag) 형태로 주행할 수 있다.For example, if the recognized obstacle is an obstacle of a kind that can be passed over, the
본 발명의 실시예에 따른 이동 로봇(100)은, 머신 러닝(machine learning) 기반의 장애물 인식 및 회피를 수행할 수 있다. The
상기 제어부(140)는, 입력 영상에서 머신 러닝(machine learning)으로 기학습된 장애물을 인식하는 장애물인식모듈(144)과 상기 인식된 장애물의 속성에 기초하여, 상기 주행부(160)의 구동을 제어하는 주행제어모듈(141)을 포함할 수 있다.The
본 발명의 실시예에 따른 이동 로봇(100)은, 머신 러닝으로 장애물의 속성이 학습된 장애물인식모듈(144)을 포함할 수 있다.The
머신 러닝은 컴퓨터에게 사람이 직접 로직(Logic)을 지시하지 않아도 데이터를 통해 컴퓨터가 학습을 하고 이를 통해 컴퓨터가 알아서 문제를 해결하게 하는 것을 의미한다.Machine learning means that the computer learns from the data through the computer, and the computer takes care of the problem, even though the computer does not instruct the person directly with the logic.
딥러닝(Deep Learning)은. 인공지능을 구성하기 위한 인공신경망(Artificial Neural Networks: ANN)에 기반으로 해 컴퓨터에게 사람의 사고방식을 가르치는 방법으로 사람이 가르치지 않아도 컴퓨터가 스스로 사람처럼 학습할 수 있는 인공지능 기술이다.Deep Learning (Deep Learning). It is based on Artificial Neural Networks (ANN) for constructing artificial intelligence. It is an artificial intelligence technology that allows a computer to learn like a human being without learning it as a way of teaching people how to think.
상기 인공신경망(ANN)은 소프트웨어 형태로 구현되거나 칩(chip) 등 하드웨어 형태로 구현될 수 있다.The ANN may be implemented in a software form or a hardware form such as a chip.
장애물인식모듈(144)은 장애물의 속성이 학습된 소프트웨어 또는 하드웨어 형태의 인공신경망(ANN)을 포함할 수 있다. The
예를 들어, 장애물인식모듈(144)은 딥러닝(Deep Learning)으로 학습된 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등 심층신경망(Deep Neural Network: DNN)을 포함할 수 있다.For example, the
장애물인식모듈(144)은 상기 심층신경망(DNN)에 포함된 노드들 사이의 가중치(weight)들에 기초하여 입력되는 영상 데이터에 포함되는 장애물의 속성을 판별할 수 있다.The
한편, 이동 로봇(100)이 이동 중 센서부(170)가 장애물을 감지하면, 제어부(140)는 상기 센서부(170)가 감지하는 장애물의 방향에 대응하여 상기 영상획득부(120)가 획득하는 영상의 일부 영역을 추출하도록 제어할 수 있다.If the
상기 영상획득부(120)는 상기 이동 로봇(100)의 이동 방향에서 소정 각도 범위 내의 영상을 획득할 수 있다.The
상기 장애물인식모듈(144)은 영상획득부(120)가 획득한 영상에서 머신 러닝(machine learning)으로 기학습된 데이터에 기초하여 장애물을 인식할 수 있다.The
도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(100)은, 내부에 수납 공간을 구비하는 본체(101), 상기 본체(101)를 이동시키는 주행부(160), 및, 사람들에게 이동 로봇(100)의 주행 상태를 알리기 위한 신호 기능을 가지는 다양한 램프들을 구비하는 램프부(150)를 포함할 수 있다.1 to 3, a
상기 램프부(150)는, 이동 로봇(100)의 현재 상태를 나타내는 광을 출력하는 상태 알림등(151), 상기 본체(101)의 전면에 배치되고, 상기 이동 로봇(100)의 주행 방향에 따라 켜지는 전방 방향 지시등(152), 및, 상기 본체(101)의 후면에 배치되고, 상기 이동 로봇(100)의 주행 방향에 따라 켜지는 후방 방향 지시등(153)을 포함할 수 있다.The
상기 램프부(150)의 램프들(151, 152, 153)은, 각각 하나 이상의 광원을 포함할 수 있다. 예를 들어, 상기 상태 알림등(151), 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)은, 각각 하나 이상의 발광다이오드(Light Emitting Diode, LED)를 포함할 수 있다.The
기존의 아날로그 방식의 조명은 조도를 정밀하게 제어하는데 한계가 있었으나, 발광다이오드(LED)는 인가되는 전류량과 구동펄스의 폭을 조절하여 조도를 정밀하게 조절할 수 있다. 또한, R, G, B 색상의 발광다이오드(LED)들이 조합되어 설치된 경우, 특정 색상의 광을 제공할 수 있고, 색 온도의 조절을 용이하게 할 수 있다.Conventional analog lighting has a limitation in precisely controlling the illuminance, but the light emitting diode (LED) can precisely control the illuminance by adjusting the amount of current applied and the width of the driving pulse. Also, when the light emitting diodes (LEDs) of R, G, and B colors are provided in combination, the light of a specific color can be provided and the adjustment of the color temperature can be facilitated.
발광다이오드(LED)는 적색(Red), 청색(Blue), 녹색(Green), 및 백색(White) 등의 단색 발광다이오드(LED)일 수도 있다. 실시예에 따라서는 발광다이오드(LED)는 복수의 색상 재현이 가능한 다색 발광다이오드(LED)일 수도 있다. The light emitting diode (LED) may be a single color light emitting diode (LED) such as Red, Blue, Green, and White. According to an embodiment, the light emitting diode (LED) may be a multicolor light emitting diode (LED) capable of reproducing a plurality of colors.
또한, 상기 상태 알림등(151)은 복수의 발광다이오드(LED)를 포함할 수 있고, 복수의 발광다이오드(LED)는 모두 백색광을 발광하여 백색의 조명을 제공할 수 있고, 적색(Red), 청색(Blue), 녹색(Green) 발광다이오드(LED)들을 조합하여 특정 색상의 조명 또는 백색의 조명을 제공할 수 있다.The
예를 들어, 상기 상태 알림등(151)은, 대기/정지 상태를 나타내는 제1 색상(Yellowish White), 청소 진행 중 상태를 나타내는 제2 색상(Blueish Green), 일시 정지, 에러 상태를 나타내는 제3 색상(Red)의 광을 출력할 수 있다.For example, the
한편, 상기 상태 알림등(151)은, 대기/정지 상태를 나타내는 제1 색상의 광을 출력한 후, 소정 시간 후 꺼질 수 있다.Meanwhile, the
상기 상태 알림등(151)이 복수의 발광다이오드를 포함하는 경우에, 복수의 발광다이오드가 일제히 켜진 후, 복수의 발광다이오드가 순차적으로 일정한 간격을 두고 꺼질 수 있다.In a case where the
또한, 최초 청소 시작 시 상기 상태 알림등(151)의 모든 발광다이오드가 동시에 한 번 깜박이고, 청소 진행 중 상태를 나타내는 제2 색상의 광을 출력할 수 있다.In addition, at the start of the initial cleaning, all the light emitting diodes of the
상기 상태 알림등(151)은, 출력하는 광을 색상을 통해 현 진행 상태를 표시하고, 인체 회피를 위한 정지, 회피, 상태 변경을 알리는 일종의 신호등 역할을 수행할 수 있다.The
예를 들어, 일시 정지/에러 시, 상기 상태 알림등(151)은 빨간색 광을 제공하할 수 있다.For example, upon a pause / error, the
또한, 인체를 감지하여 회피 시, 상기 상태 알림등(151)은 특정 색상의 광을 점멸시켜 회피 주행을 사람들에게 알릴 수 있다.In addition, when avoiding a human body, the state notifying light 151 may blink light of a specific color to notify people of the avoidance driving.
본 발명의 실시예에 따른 이동 로봇(100)은, 인체 감지 시 즉시 회피 주행하거나, 소정 시간 대기 후 사람의 이동 여부에 따라 회피 주행하도록 설정될 수 있다. 어떻게 설정되는 경우라도 상기 상태 알림등(151)은 회피 주행을 하기 전과 회피 주행 중에 소정 색상의 광을 소정 시간 일정하게 출력하거나 점멸할 수 있다.The
또한, 인체 감지시, 음향 출력부(181)는“잠시만 비켜주세요."등의 음성 알림을 사람들에게 출력, 제공할 수 있다.In addition, when a human body is detected, the
상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)은 방향지시, 비상정지를 표시할 수 있다. The
상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)은 상기 이동 로봇(100)의 주행 방향에 따라 켜지고 점멸할 수 있다. 또한, 상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)은 상호 동기화되어 함께 켜지거나 점멸할 수 있다.The
상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)은, 각각 좌측과 우측 방향에 대응하는 지시등을 포함할 수 있다.The front
도 2를 참조하면, 후방 방향 지시등(153)은 좌측 방향 지시등(153L), 우측 방향 지시등(153R)을 포함할 수 있고, 이동 로봇(100)이 주행 중 좌우로 방향 전환할 때, 방향 전환하려는 방향에 대응하는 방향 지시등(153L, 153R)이 켜지거나 점멸할 수 있다.2, the
도 1을 참조하면, 전방 방향 지시등(152)은 인접하여 배치된 좌측 방향에 대응하는 지시등과 우측 방향에 대응하는 지시등을 포함할 수 있다.Referring to FIG. 1, the
또는, 전방 방향 지시등(152)도 좌측 방향에 대응하는 지시등과 우측 방향에 대응하는 지시등이 소정 거리 이격되어 배치될 수도 있다.Alternatively, the forward direction indicator light 152 may also be arranged such that the indicator light corresponding to the left direction and the indicator light corresponding to the right direction are spaced apart from each other by a predetermined distance.
예를 들어, 상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)은 좌/우 회전시 회전 방향에 대응하여 소정 색상, 예를 들어, 오렌지(Orange) 색상의 광을 출력할 수 있다.For example, the
또한, 실시예에 따라서는, 상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)도 여러 색상의 광을 출력할 수 있도록 구성될 수 있다.Also, depending on the embodiment, the
이 경우에, 상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)도 일시 정지/에러 시, 빨간색 광을 출력할 수 있다.In this case, the forward
또한, 회피 주행시 상기 전방 방향 지시등(152)과 상기 후방 방향 지시등(153)에서도 영역 이탈을 비상깜박이로 알릴 수 있다.Further, at the avoidance traveling, the forward
또한, 제어부(140)는 램프부(150)를 제어할 수 있다.In addition, the
예를 들어, 상기 제어부(140)는, 이동 로봇(100)의 현재 상태에 따라 상기 상태 알림등(151)이 다른 색상의 광을 출력하도록 제어할 수 있다. 또한, 상기 제어부(140)는, 상기 상태 알림등(151)이 소정 시간 동안 소정 주기로 점멸하도록 제어할 수 있다.For example, the
또한, 상기 제어부(140)는, 상기 이동 로봇(100)의 주행 방향에 따라 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)이 켜지도록 제어할 수 있다. 또한, 상기 제어부(140)는, 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)이 소정 시간 동안 소정 주기로 점멸하도록 제어할 수 있다.The
한편, 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)은 동기화되어 구동될 수 있다. Meanwhile, the
즉, 제어부(140)는 좌/우 회전시 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)이 동일하게 켜지거나 점멸하도록 제어할 수 있다.That is, the
실시예에 따라서는, 상기 제어부(140)는 특정 상황에서 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)이 상기 상태 알림등(151)이 출력하는 광과 동일한 색상의 광을 출력하도록 제어할 수 있다.The
한편, 도 1을 참조하면, 상기 상태 알림등(151)은 원형 링(ring) 형상일 수 있다. 또한, 상기 상태 알림등(151)은 영상획득부(120)에 포함되는 카메라 중 하나의 전면 외곽부를 따라 배치되는 원형 링(ring) 형상일 수 있다.Meanwhile, referring to FIG. 1, the
한편, 상술한 것과 같이, 상기 제어부(140)는, 상기 영상획득부(120)가 획득하는 영상에 기초하여 장애물의 속성을 인식할 수 있다.Meanwhile, as described above, the
또한, 상기 제어부(140)는, 상기 인식된 장애물의 속성에 기초하여, 상기 주행부(160)의 구동을 제어할 수 있다.In addition, the
예를 들어, 상기 제어부(140)는, 상기 인식된 장애물의 속성이 사람의 신체 중 적어도 일부인 경우, 상기 본체(101)의 이동을 정지하도록 제어할 수 있다. For example, the
이 경우에, 상기 제어부(140)는, 소정 대기 시간 이내에 상기 인식된 신체의 이동이 감지되면, 기존의 이동을 재개하도록 제어할 수 있다. 또한, 상기 제어부(140)는, 소정 대기 시간 이내에 상기 인식된 신체의 이동이 감지되지 않으면, 상기 인식된 신체에 대한 회피 주행을 수행하도록 제어할 수 있다.In this case, the
또한, 상기 제어부(140)는, 상기 인식된 장애물의 속성이 사람의 신체 중 적어도 일부인 경우, 기설정된 음향을 출력하도록 음향 출력부(181)를 제어할 수 있다.Also, the
이동 로봇(100)이 이동(주행)하면서 청소할 때, 사용자가 정보 확인, 설정 입력, 기타 조작을 위해 이동 로봇(100)에 근접하거나, 어린이 등이 호기심에 이동 로봇(100)을 만질 때에도, 이동 로봇(100)이 계속 주행하면 충돌 등 안전 사고가 발생할 수 있다.Even when a user touches the
특히, 공항, 기차역, 터미널, 백화점, 마트 등의 공공장소는 유동 인구가 많고, 그에 따른 돌발 변수도 많아 안전 사고 발생 위험이 더 크다.Especially, public places such as airports, railway stations, terminals, department stores, and marts have a large number of floating population, and there are many unexpected variables that lead to a higher risk of safety accidents.
따라서, 본 발명에 따른 이동 로봇(100)은, 공공장소에서 청소 작업 시, 전면 상태 알림등(151)을 통하여, 이동 로봇(100)의 현재 상태를 나타내는 광을 출력함으로써, 공공장소에 존재하는 다수의 사람들이 이동 로봇(100)의 현재 상태를 쉽게 알 수 있게 하는 신호 정보를 제공할 수 있다.Therefore, the
또한, 이동 로봇(100)의 회전 주행, 회피 주행에 따라 상태 알림등(151), 상기 전방 방향 지시등(152) 및 상기 후방 방향 지시등(153)이 소정 색상의 광을 출력하여, 회전 여부, 회전 방향, 회피 주행 여부 등에 관한 알림 정보를 사람들에게 제공할 수 있다.The
이에 따라 공공장소에서 사람과 이동 로봇(100) 간의 사고 가능성을 저감시킬 수 있다.Accordingly, the probability of an accident between a person and the
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도면이다.4 is a front view of a mobile robot according to an embodiment of the present invention.
도 4에서 예시된 이동 로봇은 전체적으로 도 1에서 예시된 이동 로봇의 정면과 유사하므로 차이점을 위주로 설명한다.The mobile robot illustrated in FIG. 4 is generally similar to the front view of the mobile robot illustrated in FIG. 1, so that the differences will be mainly described.
도 4를 참조하면, 전방 방향 지시등(152)은 소정 거리 이격되어 배치되는 좌측 방향 지시등(152L), 우측 방향 지시등(152R)을 포함할 수 있고, 이동 로봇(100)이 주행 중 좌우로 방향 전환할 때, 방향 전환하려는 방향에 대응하는 방향 지시등(152L, 152R)이 켜지거나 점멸할 수 있다.4, the
도 1에서 예시된 이동 로봇(100)의 전방 방향 지시등(152)은, 소정 패널 내에 인접하여 배치된 좌측 방향에 대응하는 지시등과 우측 방향에 대응하는 지시등을 포함한다.The forward
도 1에서 예시된 이동 로봇(100)의 전방 방향 지시등(152)도 소정 패널 내에서, 전방 방향 지시등(152)도 좌측 방향에 대응하는 지시등과 우측 방향에 대응하는 지시등이 이격되어 배치될 수도 있다.The forward
또한, 도 4를 참조하면, 영상획득부(120)는, 본체(101) 전방의 상측을 촬영하여 주행구역 내의 천장에 대한 영상을 획득하는 상부 카메라(120a), 본체(101) 전방의 영상을 획득하도록 구비되는 전면 카메라(120b), 뎁스(depth) 카메라(120c)를 포함할 수 있다. 하지만, 영상획득부(120)가 구비하는 카메라의 개수, 배치, 종류, 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다. 4, the
상부 카메라(120a)는, 주행구역 내의 천장에 대한 영상을 획득할 수 있고, 이동 로봇(100)은 상기 상부 카메라(120a)가 획득하는 영상을 SLAM(Simultaneous localization and mapping)에 이용할 수 있다.The
전면 카메라(120b)는 이동 로봇(100)의 주행 방향 전면에 존재하는 장애물 또는 청소 영역의 상황, 사용자 인식용 영상을 촬영할 수 있다.The
이 경우에, 본 발명의 일 실시예에 따른 상태 알림등(151)은 상기 상부 카메라(120a)의 주위를 감싸는 원형 링 형상으로 구현될 수 있다.In this case, the
한편, 도 1에서는 전면 카메라(120b)와 뎁스(depth) 카메라(120c)를 도시하지 않았지만, 상태 알림등(152)이 배치되는 소정 패널 내에 전면 카메라(120b)와 뎁스(depth) 카메라(120c)가 구비되는 것도 가능하다.Although the
도 2와 도 4를 참조하면, 이동 로봇(100)의 전후방 좌우측에 전방 방향 지시등(152L, 152R)과 후방 방향 지시등(153L, 153R)이 배치되어, 이동 로봇(100)이 회전하는 경우, 점멸됨으로써, 공공장소 내 사람들에게 이동 로봇(100)의 주행 방향 변경을 알려줄 수 있다.2 and 4, the forward direction indicator lights 152L and 152R and the backward direction indicator lights 153L and 153R are disposed on the right and left front and rear sides of the
이에 따라, 공공장소 내 사람들이 이동 로봇(100)의 주행 방향 변경을 알고 대비하도록 함으로써 충돌 사고 발생을 방지할 수 있다.Accordingly, it is possible to prevent the occurrence of a collision by allowing the people in the public place to know the change of the traveling direction of the
도 5는 본 발명의 일 실시예에 따른 이동 로봇의 제어방법을 도시한 순서도이고, 도 6은 본 발명의 일 실시예에 따른 이동 로봇의 제어 방법에 관한 설명에 참조되는 도면이다. FIG. 5 is a flowchart illustrating a method of controlling a mobile robot according to an embodiment of the present invention, and FIG. 6 is a diagram illustrating a method of controlling a mobile robot according to an embodiment of the present invention.
도 1 내지 도 4, 및, 도 5를 참조하면, 먼저, 이동 로봇(100)은 명령 또는 설정에 따라서 이동하며 청소를 수행할 수 있다(S510).Referring to FIGS. 1 to 4 and 5, first, the
이동 로봇(100)은 본체(101)를 이동시키는 주행부(160)를 포함하고. 상기 주행부(160)는 본체(101)를 이동시키며 주행할 수 있다(S510).The mobile robot (100) includes a traveling unit (160) for moving the main body (101). The traveling
이동 로봇(100)의 전면에 배치되는 상태 알림등(151)은 이동 로봇의 현재 상태를 나타내는 광을 출력할 수 있다(S510).The
예를 들어, 상기 상태 알림등(151)은, 대기/정지 상태를 나타내는 제1 색상(Yellowish White), 청소 진행 중 상태를 나타내는 제2 색상(Blueish Green), 일시 정지, 에러 상태를 나타내는 제3 색상(Red)의 광을 출력할 수 있다.For example, the
공공장소의 사람들은 상기 상태 알림등(151)이 출력하는 광의 색상을 보고, 이동 로봇(100)의 현재 상태를 알 수 있고, 이에 대비하면서 움직일 수 있다. 이에 따라 사고 발생 가능성이 감소할 수 있다.People in a public place can see the color of light output by the
한편, 상기 본체(101)의 주행 방향에 기초하여(S530), 전방 방향 지시등(152) 및 후방 방향 지시등(153)이 소정 시간 켜지거나 점멸할 수 있다(S540).On the other hand, based on the running direction of the main body 101 (S530), the
예를 들어, 상기 본체(101)가 좌측 방향으로 회전한다면(S530), 회전 전 소정 시점부터 전방 방향 지시등(152)과 후방 방향 지시등(153)의 좌측 방향 지시등이 켜지거나 점멸할 수 있다.For example, if the
도 6을 참조하면, 이동 로봇(100)이 우측 방향으로 회전한다면, 회전 전 소정 시점부터 후방 우측 방향 지시등(153R)이 점멸할 수 있다.Referring to FIG. 6, if the
또한, 전방 방향 지시등(152)에 포함되는 우측 방향에 대응하는 램프 또는 전방 우측 방향 지시등(152R)이, 후방 우측 방향 지시등(153R)에 동기화되어 점멸할 수 있다.Further, the lamp or the front
한편, 회전이 완료된 이후에 전방 방향 지시등(152)과 후방 방향 지시등(153)의 우측 방향 지시등이 꺼질 수 있다.On the other hand, after the rotation is completed, the right turn indicator lights of the front
이에 따라, 공공장소의 사람들은 이동 로봇(100)의 회전 여부, 회전 방향을 미리 알고 대비할 수 있다.Accordingly, people in a public place can know the rotation direction and the rotation direction of the
도 7은 본 발명의 일 실시예에 따른 이동 로봇의 제어방법을 도시한 순서도로, 이동 중 장애물 감지 시 이동 로봇의 제어방법을 예시하고, 도 8은 본 발명의 일 실시예에 따른 이동 로봇의 제어 방법에 관한 설명에 참조되는 도면이다. FIG. 7 is a flowchart illustrating a method of controlling a mobile robot according to an embodiment of the present invention. FIG. 8 illustrates a method of controlling a mobile robot when an obstacle is detected during movement. FIG. 8 is a flowchart illustrating a method of controlling a mobile robot according to an exemplary embodiment of the present invention. Which is referenced in the description of the control method.
도 1 내지 도 4, 및, 도 7을 참조하면, 이동 로봇(100)은 명령 또는 설정에 따라서 주행부(160)가 본체(101)를 이동시키며 청소를 수행할 수 있다(S710).Referring to FIGS. 1 to 4 and 7, the
센서부(170)는 이동 중 장애물을 감지할 수 있고(S720), 센서부(170)를 통하여 장애물이 감지되면(S720), 제어부(140)는 영상획득부(120)가 획득하는 영상에 기초하여 상기 감지된 장애물의 속성을 인식할 수 있다(S740). The
이동 중에 센서부(170)를 통하여 장애물이 감지되면(S720), 영상획득부(120)는 본체(110) 전방의 영상을 획득할 수 있다(S730).If an obstacle is detected through the
또는, 영상획득부(120)가 주행 중 지속적으로 획득하고 있는 영상 중에서 센서부(170)가 장애물을 감지하는 시점에 대응하는 영상 또는 센서부(170)가 장애물을 감지하는 시점 이전의 영상을 선택하여 장애물 인식용 영상으로 사용할 수도 있다.Alternatively, the image corresponding to the time point when the
바람직하게는, 장애물인식모듈(144)은 상기 영상획득부(120)가 획득하는 영상에서 머신 러닝(machine learning)으로 기학습된 데이터에 기초하여 장애물을 인식할 수 있다(S740).Preferably, the
장애물인식모듈(144)은 머신 러닝으로 장애물의 종류 등 속성을 인식하도록 학습된 인공신경망을 포함할 수 있고, 기학습된 데이터에 기초하여 장애물의 속성을 인식할 수 있다. 예를 들어, 장애물인식모듈(144)에는 딥러닝 구조 중 하나인 CNN(Convolutional Neural Network)이 탑재되고, 기학습된 CNN(Convolutional Neural Network)은 입력 데이터에 포함된 장애물의 속성을 인식하여 그 결과를 출력할 수 있다.The
한편, 주행제어모듈(141)은, 상기 인식된 장애물의 속성에 기초하여, 주행부(160)의 구동을 제어할 수 있다(S790). On the other hand, the
예를 들어, 주행제어모듈(141)은 상기 인식된 장애물이 넘을 수 없는 높이의 장애물인 경우에, 장애물을 우회하여 주행하도록 제어할 수 있다.For example, the
또한, 주행제어모듈(141)은 낮은 높이의 둔턱과 같이 상기 인식된 장애물이 넘을 수 있는 높이의 장애물인 경우에, 계속해서 직진 주행하도록 제어할 수 있다.In addition, the
또한, 주행제어모듈(141)은 높이가 높거나 이동시 구속 가능성이 있는 위험 장애물이 인식되면, 장애물을 우회하여 주행하도록 제어할 수 있다.In addition, the
한편, 제어부(140)는, 상기 인식된 장애물의 속성이 사람의 신체 중 적어도 일부인 경우(S750), 기설정된 음향을 출력하도록 음향 출력부(181)를 제어할 수 있다(S770).If the recognized obstacle is at least a part of the human body (S750), the
상기 기설정된 음향은, 경고음 또는 상기 이동 가능한 장애물의 이동을 안내하는 메시지일 수 있다. 예를 들어, 제어부(140)는 사람의 발, 손 등 신체 중 적어도 일부가 인식되면, 비켜달라는 메시지를 출력하도록 음향 출력부(181)를 제어할 수 있다.The predetermined sound may be a warning sound or a message for guiding the movement of the movable obstacle. For example, the
도 8을 참조하면, 사람이 감지되면, 이동 로봇(100)의 음향 출력부(181)는“잠시만 비켜주세요."등의 음성 알림을 사람들에게 출력, 제공할 수 있다. 이에 따라, 이동 로봇(100)이 사람을 인식한다는 것을 직접적으로 인지할 수 있고, 이동 로봇(100)의 신뢰성이 높아질 수 있다.Referring to FIG. 8, when a person is detected, the
한편, 제어부(140)는 상기 인식된 장애물의 속성이 사람의 신체 중 적어도 일부인 경우(S750), 상기 본체(101)의 이동을 정지하여 대기하도록 주행부(160)를 제어할 수 있다(S760).The
한편, 도 7에서는 대기(S760) 이후에 음향을 출력(S770)하는 순서를 예시하였으나, 본 발명은 이에 한정되지 않는다. 예를 들어, 음향을 출력하고, 본체의 이동을 정지하거나, 이동을 정지하면서 음향을 출력할 수도 있다.In FIG. 7, the order of outputting sound after S760 (S760) is illustrated (S770), but the present invention is not limited thereto. For example, it is possible to output sound, stop the movement of the main body, or output sound while stopping the movement.
또는, 실시예에 따라서는, 제어부(140)는 음향을 출력(S770)하고, 바로 회피 주행하도록 제어할 수도 있다.Alternatively, depending on the embodiment, the
한편, 센서부(170)는 상기 소정 대기 시간 이내에 상기 인식된 신체가 이동하는 지 여부를 감지할 수 있다(S780). 제어부(140)는 인체가 감지되는 경우에는 소정 대기 시간 동안에 사람의 이동 여부를 판별하고, 이에 따라 다르게 주행하도록 제어할 수 있다.Meanwhile, the
제어부(140)는 소정 대기 시간 이내에 상기 인식된 신체의 이동이 감지되면(S780), 상기 본체의 정지(S760) 전 이동을 변경 사항 없이 재개하도록 제어할 수 있다.If the recognized movement of the body is sensed within a predetermined waiting time (S780), the
즉, 사람이 소정 대기 시간 이내에 이동하면, 이동 로봇(100)의 이동에 제약 사항이 없어진 것으로 기존의 주행 패턴에 따른 이동을 재개할 수 있다.That is, when the person moves within the predetermined waiting time, the movement of the
만약, 소정 대기 시간 이내에 상기 인식된 신체의 이동이 감지되지 않으면(S780), 제어부(140)는 상기 인식된 신체에 대한 회피 주행을 수행하도록 제어할 수 있다(S790).If the movement of the recognized body is not sensed within a predetermined waiting time (S780), the
즉, 사람이 소정 대기 시간 이내에 이동하지 않으면, 이동 로봇(100)은 사람에 대한 회피 주행을 수행할 수 있다.That is, if the person does not move within the predetermined waiting time, the
본 발명의 실시 예들 중 적어도 하나에 의하면, 공공장소에서 안전하게 운용할 수 있는 이동 로봇 및 그 제어방법을 제공할 수 있다.According to at least one of the embodiments of the present invention, it is possible to provide a mobile robot and its control method that can be safely operated in a public place.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 사람들이 이동 로봇의 주행 상태를 쉽게 파악할 수 있어, 사람과 이동 로봇의 사고 발생 위험을 감소시킬 수 있다는 장점이 있다.In addition, according to at least one embodiment of the present invention, people can easily grasp the traveling state of the mobile robot, thereby reducing the risk of an accident of a person and a mobile robot.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 장애물의 속성을 판단하고, 장애물 속성에 따라 주행 패턴을 조정할 수 있어, 신뢰성 높은 장애물 인식 및 회피 동작을 수행할 수 있다.In addition, according to at least one of the embodiments of the present invention, it is possible to determine the property of the obstacle and adjust the traveling pattern according to the obstacle property, thereby performing highly reliable obstacle recognition and avoidance operations.
본 발명에 따른 이동 로봇은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The mobile robot according to the present invention is not limited to the configuration and method of the embodiments described above, but the embodiments may be modified such that all or some of the embodiments are selectively combined .
한편, 본 발명의 실시예에 따른 이동 로봇의 제어방법은, 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the control method of the mobile robot according to the embodiment of the present invention can be implemented as a code that can be read by a processor on a recording medium readable by the processor. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.
이동 로봇: 100
본체: 101
제어부: 140
상태 알림등: 151
전방 방향 지시등: 152
후방 방향 지시등: 153
주행부: 160Mobile Robot: 100
Body: 101
Control section: 140
Status notifications: 151
Front turn indicator: 152
Rear turn indicator: 153
Driving section: 160
Claims (20)
상기 본체를 이동시키는 주행부; 및,
이동 로봇의 현재 상태를 나타내는 광을 출력하는 상태 알림등;을 포함하는 이동 로봇.main body;
A traveling part for moving the main body; And
And a state notification for outputting light representing the current state of the mobile robot.
상기 이동 로봇의 현재 상태에 따라 상기 상태 알림등이 다른 색상의 광을 출력하도록 제어하는 제어부;를 더 포함하는 이동 로봇.The method according to claim 1,
And a controller for controlling the state notifier to output lights of different colors according to a current state of the mobile robot.
상기 본체의 전면에 배치되고, 상기 이동 로봇의 주행 방향에 따라 켜지는 전방 방향 지시등; 및,
상기 본체의 후면에 배치되고, 상기 이동 로봇의 주행 방향에 따라 켜지는 후방 방향 지시등;을 더 포함하는 이동 로봇.The method according to claim 1,
A front direction indicator disposed on a front surface of the main body and turned on in accordance with a traveling direction of the mobile robot; And
And a backward direction indicator disposed on a rear surface of the main body, the backward direction indicator being lit according to the traveling direction of the mobile robot.
상기 이동 로봇의 주행 방향에 따라 상기 전방 방향 지시등 및 상기 후방 방향 지시등이 켜지도록 제어하는 제어부;를 더 포함하는 이동 로봇.The method of claim 3,
And a controller for controlling the forward direction indicator and the backward direction indicator to be turned on according to the traveling direction of the mobile robot.
상기 전방 방향 지시등 및 상기 후방 방향 지시등은 상기 상태 알림등이 출력하는 광과 동일한 색상의 광을 출력하는 것을 특징으로 하는 이동 로봇.The method of claim 3,
Wherein the forward direction indicator and the backward direction indicator output light of the same color as the light output by the status notification.
상기 전방 방향 지시등 및 상기 후방 방향 지시등은 동기화되어 구동되는 것을 특징으로 하는 이동 로봇.The method of claim 3,
Wherein the forward direction indicator and the backward direction indicator are synchronously driven.
상기 상태 알림등은 원형 링(ring) 형상인 것을 특징으로 하는 이동 로봇.The method according to claim 1,
Wherein the state notification is a circular ring shape.
상기 본체 주변의 영상을 획득하는 하나 이상의 카메라를 포함하는 영상획득부;를 더 포함하는 이동 로봇.The method according to claim 1,
And an image acquisition unit including at least one camera for acquiring an image around the main body.
상기 영상획득부가 획득하는 영상에 기초하여 장애물의 속성을 인식하는 제어부;를 더 포함하는 이동 로봇.9. The method of claim 8,
And a controller for recognizing an attribute of the obstacle based on the image acquired by the image acquiring unit.
상기 제어부는, 상기 인식된 장애물의 속성에 기초하여, 상기 주행부의 구동을 제어하는 것을 특징으로 하는 이동 로봇.10. The method of claim 9,
Wherein the control unit controls driving of the traveling unit based on the recognized attribute of the obstacle.
상기 제어부는, 상기 인식된 장애물의 속성이 사람의 신체 중 적어도 일부인 경우, 상기 본체의 이동을 정지하도록 제어하는 것을 특징으로 하는 이동 로봇.11. The method of claim 10,
Wherein the control unit controls to stop the movement of the main body when the recognized obstacle has at least a part of the body of the person.
상기 제어부는, 소정 대기 시간 이내에 상기 인식된 신체의 이동이 감지되면, 기존의 이동을 재개하도록 제어하는 것을 특징으로 이동 로봇.11. The method of claim 10,
Wherein the control unit resumes the movement of the body when the recognized movement of the body is detected within a predetermined waiting time.
상기 제어부는, 소정 대기 시간 이내에 상기 인식된 신체의 이동이 감지되지 않으면, 상기 인식된 신체에 대한 회피 주행을 수행하도록 제어하는 것을 특징으로 이동 로봇.11. The method of claim 10,
Wherein the control unit controls to avoid the recognized body if movement of the recognized body is not detected within a predetermined waiting time.
상기 인식된 장애물의 속성이 사람의 신체 중 적어도 일부인 경우, 기설정된 음향을 출력하는 음향 출력부;를 더 포함하는 이동 로봇.10. The method of claim 9,
And an acoustic output unit outputting a predetermined sound when the recognized obstacle property is at least a part of a human body.
상기 본체의 이동 중 장애물을 감지하는 하나 이상의 센서를 포함하는 센서부;를 더 포함하는 이동 로봇.The method according to claim 1,
And a sensor unit including at least one sensor for detecting an obstacle during movement of the main body.
상태 알림등이 이동 로봇의 현재 상태를 나타내는 광을 출력하는 단계; 및
상기 본체의 주행 방향에 기초하여, 전방 방향 지시등 및 후방 방향 지시등이 소정 시간 켜지는 단계;를 포함하는 이동 로봇의 제어방법.Moving the main body;
Outputting light indicating a current state of the mobile robot; And
And turning on the front direction indicator and the backward direction indicator for a predetermined time based on the traveling direction of the main body.
센서부를 통하여, 이동 중 장애물을 감지하는 단계;
상기 센서부가 장애물을 감지하면, 영상획득부가 획득하는 영상에 기초하여 상기 감지된 장애물의 속성을 인식하는 단계;
상기 인식된 장애물의 속성에 기초하여, 기설정된 음향을 출력하는 단계; 및,
상기 인식된 장애물의 속성에 기초하여, 주행부의 구동을 제어하는 단계;를 포함하는 이동 로봇의 제어방법.17. The method of claim 16,
Sensing an obstacle while moving through the sensor unit;
Recognizing an attribute of the detected obstacle based on an image acquired by the image acquisition unit when the sensor unit detects the obstacle;
Outputting a predetermined sound based on an attribute of the recognized obstacle; And
And controlling the driving of the traveling section based on the recognized attribute of the obstacle.
상기 인식된 장애물의 속성이 사람의 신체 중 적어도 일부인 경우, 상기 본체의 이동을 정지하는 단계;를 더 포함하는 이동 로봇의 제어방법.18. The method of claim 17,
And stopping movement of the main body when the recognized obstacle property is at least a part of a human body.
상기 소정 대기 시간 이내에 상기 인식된 신체가 이동하는 지 여부를 감지하는 단계;를 더 포함하고,
상기 소정 대기 시간 이내에 상기 인식된 신체의 이동이 감지되면, 상기 본체의 정지 전 이동을 재개하도록 제어하는 것을 특징으로 하는 이동 로봇의 제어방법.19. The method of claim 18,
Further comprising: detecting whether the recognized body moves within the predetermined waiting time,
Wherein when the detected movement of the body is detected within the predetermined waiting time, control is performed so as to resume the movement of the main body before stopping.
상기 소정 대기 시간 이내에 상기 인식된 신체가 이동하는 지 여부를 감지하는 단계;를 더 포함하고,
소정 대기 시간 이내에 상기 인식된 신체의 이동이 감지되지 않으면, 상기 인식된 장애물의 속성에 기초하여 상기 주행부의 구동을 제어하는 단계는, 상기인식된 신체에 대한 회피 주행을 수행하도록 제어하는 것을 특징으로 이동 로봇의 제어방법.
19. The method of claim 18,
Further comprising: detecting whether the recognized body moves within the predetermined waiting time,
And controlling the driving of the driving unit based on the recognized attribute of the obstacle when the recognized movement of the recognized body is not detected within a predetermined waiting time, Control method of mobile robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170025013A KR20180098040A (en) | 2017-02-24 | 2017-02-24 | Moving robot and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170025013A KR20180098040A (en) | 2017-02-24 | 2017-02-24 | Moving robot and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180098040A true KR20180098040A (en) | 2018-09-03 |
Family
ID=63601022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170025013A KR20180098040A (en) | 2017-02-24 | 2017-02-24 | Moving robot and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180098040A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110076824A (en) * | 2018-09-29 | 2019-08-02 | 炬星科技(深圳)有限公司 | A kind of walking robot lamplight pointing system, method and device and terminal and storage medium |
WO2019172733A3 (en) * | 2019-05-08 | 2020-03-26 | 엘지전자 주식회사 | Moving robot capable of interacting with subject being sensed, and method of interaction between moving robot and subject being sensed |
CN113146635A (en) * | 2021-04-27 | 2021-07-23 | 炬星科技(深圳)有限公司 | Work indicator control method and device, robot and storage medium |
KR102448214B1 (en) * | 2021-08-10 | 2022-09-30 | 주식회사 이엘일렉트릭 | Electric powered transport device and method for controlling same, and system and method for autonomous driving |
EP3949818A4 (en) * | 2019-03-26 | 2023-04-05 | LG Electronics Inc. | Robot cleaner |
-
2017
- 2017-02-24 KR KR1020170025013A patent/KR20180098040A/en not_active Application Discontinuation
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110076824A (en) * | 2018-09-29 | 2019-08-02 | 炬星科技(深圳)有限公司 | A kind of walking robot lamplight pointing system, method and device and terminal and storage medium |
EP3949818A4 (en) * | 2019-03-26 | 2023-04-05 | LG Electronics Inc. | Robot cleaner |
WO2019172733A3 (en) * | 2019-05-08 | 2020-03-26 | 엘지전자 주식회사 | Moving robot capable of interacting with subject being sensed, and method of interaction between moving robot and subject being sensed |
CN113146635A (en) * | 2021-04-27 | 2021-07-23 | 炬星科技(深圳)有限公司 | Work indicator control method and device, robot and storage medium |
KR102448214B1 (en) * | 2021-08-10 | 2022-09-30 | 주식회사 이엘일렉트릭 | Electric powered transport device and method for controlling same, and system and method for autonomous driving |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10750920B2 (en) | Control method of robot system including plurality of moving robots | |
AU2017363769B2 (en) | Mobile robot and control method thereof | |
CN109890575B (en) | Mobile robot and control method thereof | |
KR102024092B1 (en) | Moving Robot and controlling method | |
KR102000067B1 (en) | Moving Robot | |
KR20180098040A (en) | Moving robot and control method thereof | |
KR102286132B1 (en) | Artificial intelligence robot cleaner | |
KR20180087798A (en) | Moving robot and control method therof | |
KR20180134683A (en) | Moving robot and control method thereof | |
KR20180098891A (en) | Moving Robot and controlling method | |
KR20180023301A (en) | Moving robot and control method thereof | |
KR102306394B1 (en) | Artificial intelligence robot cleaner | |
KR102560462B1 (en) | Moving robot | |
KR20180023302A (en) | Moving robot and control method thereof | |
KR102070210B1 (en) | Moving robot | |
KR20190003118A (en) | Robot system including Mobile robot and Moving terminal | |
KR20180023303A (en) | Moving robot and control method thereof | |
KR102350934B1 (en) | Moving robot | |
KR20180090565A (en) | Moving Robot and controlling method for thereof | |
KR20180089660A (en) | Lighting control system | |
KR20190003120A (en) | Robot system including a plurality of moving robots and Mobile terminal | |
KR20180037516A (en) | Moving robot and control method thereof | |
KR20190003119A (en) | Mobile terminal and Moving robot including the same therein | |
KR20180048088A (en) | Robot cleaner and control method thereof | |
KR20200091110A (en) | Moving Robot and controlling method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |