KR20180101081A - 이동 로봇 및 그 제어방법 - Google Patents

이동 로봇 및 그 제어방법 Download PDF

Info

Publication number
KR20180101081A
KR20180101081A KR1020170027845A KR20170027845A KR20180101081A KR 20180101081 A KR20180101081 A KR 20180101081A KR 1020170027845 A KR1020170027845 A KR 1020170027845A KR 20170027845 A KR20170027845 A KR 20170027845A KR 20180101081 A KR20180101081 A KR 20180101081A
Authority
KR
South Korea
Prior art keywords
obstacle
image data
unit
server
data
Prior art date
Application number
KR1020170027845A
Other languages
English (en)
Other versions
KR102017148B1 (ko
Inventor
박상열
송재원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020170027845A priority Critical patent/KR102017148B1/ko
Priority to EP18761156.1A priority patent/EP3590665B1/en
Priority to US16/490,796 priority patent/US11269343B2/en
Priority to PCT/KR2018/002538 priority patent/WO2018160035A1/ko
Publication of KR20180101081A publication Critical patent/KR20180101081A/ko
Application granted granted Critical
Publication of KR102017148B1 publication Critical patent/KR102017148B1/ko
Priority to US17/585,858 priority patent/US11846950B2/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4061Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 이동 로봇 및 그 제어방법에 관한 것으로, 주행방향에 위치한 장애물을 감지하는 센서부, 상기 센서부에 의해 상기 장애물이 감지되면, 상기 장애물을 촬영하는 카메라, 상기 장애물에 대응하여 소정 동작이 수행되도록 제어하는 제어부를 포함하고, 상기 제어부는 상기 카메라로부터 입력되는 장애물에 대한 복수의 영상데이터를 분석하여 상기 장애물의 식별 가능 여부를 판단하여 필터링하고, 상기 복수의 영상데이터 중 필터링된 영상데이터를 상기 통신부를 통해 상기 서버로 전송하며, 상기 서버로부터 수신되는 장애물정보에 대응하여 상기 주행부를 제어함으로써, 장애물이 감지되는 즉시 복수 회 촬영하고, 촬영된 영상데이터를 필터링하여 서버로 전송함으로써, 인식 가능한 이미지만을 전송함으로써, 불필요한 데이터 전송이 감소함에 따라 전송 트래픽이 감소하고, 서버의 이미지처리에 따른 부하가 감소하는 효과가 있고, 불필요한 데이터의 전송을 방지하고 서버의 부하가 감소함에 따라, 장애물에 대한 빠른 판단이 가능하고, 그에 따라 이동 로봇이 단시간에 장애물을 인식하고 그 종류를 판단하여 대응할 수 있으며, 장애물의 특성, 청소영역 또는 주변 환경에 적합한 동작을 수행할 수 있다.

Description

이동 로봇 및 그 제어방법{ Moving Robot and controlling method }
본 발명은 이동 로봇 및 그 제어방법에 관한 것으로서, 특히 장애물을 감지하여 주행하는 이동 로봇 및 그 제어방법에 관한 것이다.
이동 로봇은 청소하고자 하는 영역을 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.
이동 로봇은 충전 가능한 배터리가 구비되어, 이동이 자유롭고 배터리의 동작전원을 이용한 스스로 이동이 가능하며, 이동 중 바닥면의 이물질을 흡입하여 청소를 실시한다.
이동 로봇은 주행구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 좌륜과 우륜의 구동을 제어하여 장애물 회피 동작을 수행한다. 이동 로봇은 필요 시 충전대로 복귀하여 배터리를 충전하도록 구성된다.
종래의 이동 로봇은 주행 경로 상에 장애물을 감지하는 경우, 장애물을 회피하기 위해 주행경로를 변경한다.
또한, 이동 로봇은 청소중인 경우, 장애물에 일정거리 이내로 근접한 후 경로를 변경하거나, 또는 장애물에 충돌한 후 경로를 변경하기도 한다. 장애물을 감지 시 즉시 경로를 변경하는 경우 해당 영역에 대한 청소를 수행할 수 없으므로, 최대한 장애물에 근접하거나 또는 충돌한 후에 경로를 변경하게 된다.
장애물의 종류에 따라 충돌하는 경우 장애물이 파손되는 경우가 발생할 수 있고, 또한 접근 전에 회피해야하는 장애물이 존재하지만, 영상데이터를 연산하는데 시간이 소요되므로 이동 로봇은 장애물을 빠르게 판단하기 어렵다. 또한, 조명 상태에 따라 촬영된 이미지가 어두워 정확하게 장애물을 판단할 수 없는 경우가 발생한다.
본 발명의 이동 로봇 및 그 제어방법은, 청소를 수행하면서, 감지되는 장애물의 종류에 따라 동작하는 이동 로봇 및 제어방법을 제공하는 데 있다.
본 발명의 일 실시예에 따른 이동 로봇은, 본체의 전방에 구비되어, 주행방향에 위치한 장애물을 감지하는 센서부; 상기 센서부에 의해 상기 장애물이 감지되면, 상기 장애물을 촬영하는 카메라; 상기 장애물에 대응하여 소정 동작이 수행되도록 제어하는 제어부; 상기 제어부의 제어명령에 따라 지정된 동작을 수행하는 주행부; 및 서버와 통신하는 통신부를 포함하고, 상기 제어부는 상기 카메라로부터 입력되는 장애물에 대한 복수의 영상데이터를 분석하여 상기 장애물의 식별 가능 여부를 판단하여 필터링하고, 상기 복수의 영상데이터 중 필터링된 영상데이터를 상기 통신부를 통해 상기 서버로 전송하며, 상기 서버로부터 수신되는 장애물정보에 대응하여 상기 주행부를 제어하는 것을 특징으로 한다.
본 발명에 따른 이동 로봇의 제어방법은, 본체가 지정된 주행영역을 주행하며 청소를 수행하는 중, 장애물을 감지하는 단계; 상기 장애물이 감지되면, 카메라를 통해 상기 장애물을 촬영하는 단계; 상기 장애물에 대한 영상데이터를 분석하여 상기 장애물의 식별 가능 여부를 판단하는 단계; 상기 영상데이터가 정상으로 상기 장애물에 대한 식별이 가능한 경우, 서버로 전송하는 단계; 및 상기 서버로부터 장애물정보가 수신되면, 상기 장애물정보에 대응하여 상기 장애물에 대하여, 지정된 동작을 수행하는 단계를 포함한다.
본 발명의 이동 로봇 및 그 제어방법은 장애물을 감지하는데 있어서, 장애물이 감지되면, 장애물을 촬영하여 전송하고, 누적되는 장애물에 대한 영상데이터를 분석하여 장애물의 종류를 판단함으로써 장애물의 종류에 따라 상이한 동작을 수행함으로써, 장애물에 효과적으로 대응할 수 있고, 청소효율이 향상되는 효과가 있다.
본 발명은 장애물을 촬영하는데 있어서, 장애물이 감지되는 즉시 복수 회 촬영하고, 촬영된 영상데이터를 필터링하여 서버로 전송함으로써, 인식 가능한 이미지만을 전송함으로써, 불필요한 데이터 전송이 감소함에 따라 전송 트래픽이 감소하고, 서버의 이미지처리에 따른 부하가 감소하는 효과가 있다.
또한, 본 발명은 불필요한 데이터의 전송을 방지하고 서버의 부하가 감소함에 따라, 장애물에 대한 빠른 판단이 가능하고, 그에 따라 이동 로봇이 단시간에 장애물을 인식하고 그 종류를 판단하여 대응할 수 있으며, 장애물의 특성, 청소영역 또는 주변 환경에 적합한 동작을 수행할 수 있다.
도 1 은 본 발명의 일 실시예에 따른 이동 로봇 및 이동 로봇을 충전시키는 충전대를 도시한 사시도이다.
도 2 는 도 1에 도시된 이동 로봇의 저면부를 도시한 도이다.
도 3 은 본 발명의 일 실시예에 따른 이동 로봇 및 시스템이 간략하게 도시된 도이다.
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 구성이 간략하게 도시된 블록도이다.
도 5 는 본 발명에 따른 이동 로봇의 장애물을 감지방법을 설명하는데 참조되는 도이다.
도 6 은 도 5의 장애물에 대한 데이터의 예가 도시된 도이다.
도 7 및 도 8 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물의 영상데이터 필터링방법을 설명하는데 참조되는 도이다.
도 9 는 본 발명의 일 실시예에 따른 이동 로봇의 장애물 인식을 위한 데이터의 예가 도시된 도이다.
도 10 은 본 발명의 일 실시예에 따른 이동 로봇의 제어방법이 도시된 순서도이다.
도 11 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물 판단을 위한 데이터 처리방법이 도시된 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하에서는 도면을 참조하여 본 발명의 실시 예에 대해서 구체적으로 설명하기로 한다.
이하에서는 도면을 참조하여 본 발명의 실시 예에 대해서 구체적으로 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 이동 로봇 및 이동 로봇을 충전시키는 충전대를 도시한 사시도이고, 도 2는 도 1에 도시된 이동 로봇의 저면부를 도시한 도이다.
도 1 및 도 2에 도시된 바와 같이, 도 1 내지 도 4를 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(100)은 청소구역의 바닥을 따라 이동하며, 바닥 상의 먼지 등의 이물질을 흡입하는 본체(10)와, 본체(10)의 전면에 배치되어 장애물을 감지하는 장애물 감지부를 포함한다.
본체(10)는 외관을 형성하며 내측으로 본체(10)를 구성하는 부품들이 수납되는 공간을 형성하는 케이싱(11)과, 케이싱(11)에 배치되어 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(34)과, 케이싱(11)에 회전 가능하게 구비되는 좌륜(36(L))과 우륜(36(R))을 포함할 수 있다. 좌륜(36(L))과 우륜(36(R))이 회전함에 따라 본체(10)가 청소구역의 바닥을 따라 이동되며, 이 과정에서 흡입유닛(34)을 통해 이물질이 흡입된다.
흡입유닛(34)은 흡입력을 발생시키는 흡입 팬(미도시)과, 흡입 팬의 회전에 의해 생성된 기류가 흡입되는 흡입구(10h)를 포함할 수 있다. 흡입유닛(34)은 흡입구(10h)를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 필터에 의해 채집된 이물질들이 축적되는 이물질 채집통(미도시)을 포함할 수 있다.
또한, 본체(10)는 좌륜(36(L))과 우륜(36(R))을 구동시키는 주행부를 포함할 수 있다. 주행부는 적어도 하나의 구동모터를 포함할 수 있다. 적어도 하나의 구동모터는 좌륜(36(L))을 회전시키는 좌륜 구동모터와 우륜(36(R))을 회전시키는 우륜 구동모터를 포함할 수 있다.
좌륜 구동모터와 우륜 구동모터는 주행제어부에 의해 작동이 독립적으로 제어됨으로써 본체(10)의 직진, 후진 또는 선회가 이루어질 수 있다. 예를 들어, 본체(10)가 직진 주행하는 경우에는 좌륜 구동모터와 우륜 구동모터가 같은 방향으로 회전되나, 좌륜 구동모터와 우륜 구동모터가 다른 속도로 회전되거나, 서로 반대 방향으로 회전되는 경우에는 본체(10)의 주행 방향이 전환될 수 있다. 본체(10)의 안정적인 지지를 위한 적어도 하나의 보조륜(37)이 더 구비될 수 있다.
케이싱(11)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 복수의 브러시(35)가 더 구비될 수 있다. 복수의 브러시(35)의 회전에 의해 청소구역의 바닥으로부터 먼지들이 제거되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구(10h)를 통해 흡입되어 채집통에 모인다.
케이싱(11)의 상면에는 사용자로부터 이동 로봇(100)의 온/오프(On/Off) 또는 제어를 위한 각종 명령을 입력받는 입력부(16)를 포함하는 컨트롤 패널이 구비될 수 있다. 또한, 이동 로봇(100)은 출력부(미도시)를 포함하여, 예약 정보, 배터리 상태, 동작모드, 동작상태, 에러상태 등을 표시할 수 있다.
장애물 감지부는, 복수의 센서를 이용하여 장애물을 감지하는 센서부(31), 영상을 촬영하는 영상획득부(17)를 포함한다. 영상획득부는 주행구역을 촬영하는 것으로, 디지털 카메라를 포함할 수 있다.
영상획득부(17)는 본체의 상면에 배치되어 천장을 향하도록 구비될 수 있고 또한, 본체의 전면에 배치되어 전방을 향하도록 구비될 수 있다. 영상획득부(17)의 위치와 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다. 경우에 따라 어느 하나의 영상획득부가 구비되거나, 또는 전방과 천장을 향하는 두개의 영상획득부가 모두 구비될 수도 있다.
또한, 장애물 감지부는 본체(10)의 전면에 배치되어, 광패턴을 조사하여 촬영되는 영상을 통해 장애물을 감지하는 장애물 감지유닛(미도시)을 더 포함할 수 있다.
본체(10)에는 재충전이 가능한 배터리(38)가 구비되며, 배터리(38)의 충전 단자(33)가 상용 전원(예를 들어, 가정 내의 전원 콘센트)과 연결되거나, 상용 전원과 연결된 별도의 충전대(60)에 본체(10)가 도킹되어, 충전 단자(33)가 충전대의 단자(61)와의 접촉을 통해 상용 전원과 전기적으로 연결되고, 배터리(38)의 충전이 이루어질 수 있다. 이동 로봇(100)을 구성하는 전장 부품들은 배터리(38)로부터 전원을 공급받을 수 있으며, 따라서, 배터리(38)가 충전된 상태에서 이동 로봇(100)은 상용 전원과 전기적으로 분리된 상태에서 자력 주행이 가능하다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇 및 시스템이 간략하게 도시된 도이다.
이동 로봇(100)은 장애물의 종류를 판단하기 위해 서버(90)와 연결된다. 또한, 이동 로봇(100)은 청소명령이 입력되는 단말(80)과 연결될 수 있다.
이동 로봇(100)은 실내영역(1)에 존재하는 복수의 장애물(11, 12)을 감지하여 장애물을 인식하고, 장애물의 종류에 따라 접근, 통과, 회피 중 어느 하나의 동작을 수행한다. 이때, 이동 로봇(100)은 장애물에 접근하지 않고 회피하거나, 소정거리 접근한 후 소정의 동작을 수행할 수 있고, 장애물에 근접한 이후에 회피할 수 있으며, 장애물의 형태에 따라 장애물을 통과할 수 있다.
이동 로봇(100)은 단말(80)과 통신하여, 실내영역(1)에 대한 설정데이터를 수신하고, 실내영역(1) 중 소정의 청소영역에 대한 청소명령을 수신하여 청소를 수행한다.
이동 로봇(100)은 장애물 감지 시, 장애물을 촬영하여 장애물데이터를 서버(90)로 전송하고, 서버(90)로부터 수신되는 데이터를 바탕으로 장애물의 종류를 판단하고, 장애물에 따라 소정 동작을 수행한다.
또한, 이동 로봇(100)은 감지되는 장애물에 대한 정보를 단말로 제공하고, 단말(80)로부터 수신되는 데이터에 대응하여 장애물에 대하여 특정 동작이 수행되도록 설정할 수 있다.
단말(80)은 이동 로봇(100)을 제어하기 위한 어플리케이션을 구비하고, 어플리케이션의 실행을 통해 이동 로봇(100)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 단말은 맵 설정을 위한 어플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 태블릿PC, 스마트 폰 등을 예로 들 수 있다.
단말(80)은, 어플리케이션의 실행을 통해 실내영역(1) 내에 존재하는 장애물에 대한 정보 및 그에 대한 동작을 설정한다. 이때 단말(80)은 어플리케이션 실행 시, 네트워크를 통해 서버(90)에 접속하여 서버로부터 장애물 정보 및 장애물에 대한 동작정보를 수신할 수 있다.
또한, 단말(80)은, 이동 로봇(100)으로부터 입력되는 장애물 정보를 바탕으로 이동 로봇(100)의 동작을 변경할 수 있다.
서버(90)는 장애물 정보를 누적하여 저장하고, 장애물 정보를 분석하여 장애물의 종류를 판단한다. 또한, 서버(90)는 장애물을 종류에 따라 분류하여 장애물에 대한 이동 로봇(100)의 동작을 설정한다.
서버(90)는 새로운 장애물 정보를 분석하여, 기 저장된 장애물 정보를 갱신한다. 또한, 서버(90)는 단말(80)에 의해 설정되거나 또는 변경되는 장애물에 대한 이동 로봇의 동작정보를 수신하여 저장하고, 기 저장된 장애물 정보에 매칭하여 장애물에 대한 이동 로봇의 동작에 대한 설정을 갱신한다.
서버(90)는 단말(80)이 접속되면, 기 저장된 데이터를 바탕으로 실내영역(1)의 장애물 설정 및 이동 로봇(100)의 동작에 대한 데이터를 단말(80)로 제공한다.
또한, 서버(90)는 이동 로봇(100)으로부터 수신되는 장애물 정보를 분석하여 기 저장된 데이터를 바탕으로 장애물의 종류를 판단하여 이동 로봇(100)으로 전송한다.
이동 로봇(100)은 네트워크(N)를 통해 서버(90)와의 통신하기 위해 통신장치(70)와 연결된다.
또한, 이동 로봇(100)은 단말(80)과, 와이파이(WiFi)로 연결될 수 있고, 블루투스(Bluetooth) 등의 근거리 무선통신을 통해 통신할 수 있다.
통신장치(70)는 네트워크(N) 접속을 위한 프로토콜을 탑재하여 이동 로봇의 데이터를 네트워크를 통해 송수신한다. 통신장치(70)는 라우터 또는 게이트웨이가 사용될 수 있다. 네트워크(N)는 인터넷망인 것을 기본으로 한다. 경우에 따라 네트워크(N)는 이동 로봇 또는 가전기기 기반의 소규모 네트워크 일 수 있고, 소정 지역에 대한 지역 네트워크 일 수 있다.
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 구성이 간략하게 도시된 블록도이다.
도 4에 도시된 바와 같이, 이동 로봇(100)은 통신부(140), 장애물 감지부(120), 청소부(150), 주행부(160), 데이터부(130) 그리고 동작 전반을 제어하는 제어부(110)를 포함한다.
또한, 이동 로봇(100)은 온/오프 또는 각종 명령을 입력할 수 있는 입력부(171)(16), 이동 로봇(100)의 동작상태 또는 동작모드를 표시하는 표시부(172), 소정의 경고음 또는 효과음을 출력하는 스피커(173)를 더 포함한다.
입력부(171)는 적어도 하나의 버튼, 스위치, 터치입력수단을 포함하여 이동 로봇(100)의 작동 전반에 필요한 각종 제어명령을 입력받아 제어부(110)로 입력한다.
표시부(172)는 LED, LCD와 같은 디스플레이를 구비하여 이동 로봇(100)의 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태 등을 표시한다.
스피커(173)는 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태에 대응하는 소정의 효과음, 경고음 또는 음성안내를 출력한다.
주행부(160)는 이동 로봇의 본체를 이동시키는 적어도 하나의 구동 바퀴(미도시), 구동 바퀴에 연결되어 구동 바퀴를 회전시키는 구동 모터(미도시)를 포함한다. 구동 바퀴는 본체의 좌, 우측에 각각 구비될 수 있으며, 이하, 각각 좌륜과 우륜이라고 한다. 좌륜과 우륜은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜을 구동시키는 좌륜 구동 모터와 우륜을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜과 우륜의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체의 주행방향을 전환할 수 있다.
청소부(150)는 이동 로봇의 본체 저면부에 형성되어 공기를 흡입하는 흡입구(미도시), 흡입구를 통해 공기가 흡입될 수 있도록 흡입력을 제공하는 흡입장치(미도시), 브러시, 흡입구를 통해 공기와 함께 흡입된 먼지를 집진하는 먼지통(미도시)이 구비될 수 있다.
청소부(150)는 흡입구를 통해 노출되는 솔들을 갖는 롤형의 메인 브러시(미도시)와, 본체의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 보조 브러시(미도시)가 구비될 수 있다. 브러시들의 회전에 의해 주행구역 내 바닥으로부터 먼지들이 분리되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구를 통해 흡입되어 먼지통에 모인다.
또한, 청소부(150)는 본체의 저면부 후방에 설치되어 바닥면과 접하여 바닥면을 물걸레질하는 물걸레청소부(미도시), 물걸레청소부로 물을 공급하는 물통(미도시)을 더 포함할 수 있다.
배터리(미도시)는 구동 모터뿐만 아니라, 이동 로봇(100)의 작동 전반에 필요한 전원을 공급한다. 배터리가 방전될 시, 이동 로봇(100)은 충전을 위해 충전대로 복귀하는 주행을 할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(100)은 스스로 충전대의 위치를 탐지할 수 있다. 충전대는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.
장애물 감지부(120)는 주행구역을 촬영하는 카메라(121), 장애물을 감지하는 센서부(122)를 포함한다.
장애물 감지부(120)는 센서부(122)를 통해 주행방향에 위치하는 장애물이 감지되면, 카메라(121)를 동작시켜 장애물을 촬영한다. 장애물 감지부(120)는 촬영되는 장애물에 대한 영상데이터와, 센서부(122)에 의해 감지되는 장애물의 위치 또는 그 움직임에 대한 정보를 제어부(110)로 입력한다.
카메라(121)는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.
카메라(121)는 이동 로봇(100)의 상면부 또는 전면부에 구비되어, 주행 방향에 대한 영상을 획득한다. 카메라(121)는 바람직하게, 이동 로봇(100)의 정면방향을 촬영하며, 바닥면으로부터 일정 높이까지 촬영한다. 카메라(121)는 구비되는 렌즈의 화각에 따라, 전방의 바닥면으로부터 천장을 포함하는 영역을 촬영할 수 있다. 또한, 장애물 감지부(120)는 바닥의 영상을 획득하는 하부 카메라를 더 포함할 수 있다.
카메라(121)의 종류, 위치, 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다.
센서부(122)는 전방의 장애물을 감지하는 복수의 센서로 구성된다. 센서부(122)는 전방 또는 좌우의 장애물을 감지하는 초음파센서, 적외선 센서, 레이저 센서, 광패턴을 출력하는 3D센서 중 적어도 하나가 사용될 수 있다. 또한, 센서부(122)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서를 더 포함할 수 있다.
데이터부(130)는 이동 로봇(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.
데이터부(130)에는 장애물 인식을 위한 특징정보가 포함된 장애물인식데이터(131), 장애물 감지부(120)의 카메라(121)를 통해 촬영된 영상데이터(132), 이동 로봇의 동작을 제어하기 위한 제어데이터(133)가 저장된다.
또한, 데이터부(130)에는 청구구역에 대한 지도가 저장되고, 서버로부터 수신되는 장애물에 정보가 저장되며, 장애물의 종류에 따라 본체가 소정 동작을 수행하도록 하는 모션데이터가 저장될 수 있다.
영상데이터(132)는 카메라(121)를 통해 촬영되는 모든 영상이 데이터로써 저장된다. 장애물인식데이터(131)는 카메라(121)를 통해 촬영된 장애물의 영상데이터 중 장애물 인식에 사용되는 영상데이터와, 서버로부터 수신된 장애물 인식을 위한 인식정보가 포함된다. 모션데이터에는 인식된 장애물에 대한 이동 로봇의 동작, 예를 들어 주행속도, 주행방향, 회피 여부, 정지 여부 등에 대한 모션정보와, 스피커(173)를 통해 출력되는 효과음, 경고음, 음성안내에 대한 데이터가 포함된다.
통신부(140)는 복수의 통신모듈을 포함하여, 통신장치(70)를 통해 서버(90)와 데이터를 송수신하고, 또한 단말(80)과 통신한다.
통신부(140)는 장애물 감지부(120)로부터 감지되는 장애물에 대한 정보를 통신부(140)를 통해 서버(90)로 전송하고, 서버로부터 장애물에 대한 데이터를 수신한다. 또한, 통신부(140)는 단말(80)로부터 주행구역 내에 존재하는 장애물에 대한 정보 및 그에 따른 동작정보를 수신하고, 이동 로봇의 동작데이터를 단말(80)로 전송한다.
제어부(110)는 실내영역(1) 중 청소하도록 지정된 주행구역 내에서, 이동 로봇이 주행하도록 주행부(160)를 제어한다.
제어부(110)는 주행 중, 주행부(160) 및 청소부(170)를 제어하여, 이동 로봇 주변의 먼지 또는 이물질을 흡수하도록 함으로써 주행구역에 대한 청소를 수행한다. 그에 따라 청소부(150)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다.
제어부(110)는 배터리의 충전용량을 체크하여 충전대로의 복귀 시기를 결정한다. 제어부(110)는 충전용량이 일정값에 도달하면, 수행중이던 동작을 중지하고, 충전대 복귀를 위해 충전대 탐색을 시작한다. 제어부(110)는 배터리의 충전용량에 대한 알림 및 충전대 복귀에 대한 알림을 출력할 수 있다.
제어부(110)는 입력부(171)의 조작에 의해 입력되는 데이터를 처리하여 이동 로봇의 동작모드를 설정하고, 동작상태를 표시부(172)를 통해 출력하며, 동작상태, 에러상태 또는 장애물 감지에 따른 경고음, 효과음, 음성안내가 스피커(173)를 통해 출력되도록 한다.
또한, 제어부(110)는 장애물 감지부(120)로부터 감지되는 장애물에 대하여, 장애물을 인식하고, 장애물에 대응하여 지정된 동작이 수행되도록 한다. 이때 제어부(110)는 장애물에 대한 인식이 불가능한 경우 통신부(140)를 통해 장애물 정보를 서버(90)로 전송하고, 장애물에 대한 데이터가 수신되면 그에 따라 소정의 동작을 수행한다.
제어부(110)는 단말(80)로부터 수신되는 주행구역에 대한 설정데이터를 바탕으로 장애물을 인식할 수 있다. 제어부(110)는 단말(80)로부터 수신되는 설정데이터에 대응하여, 인식된 장애물에 대하여, 단말에 의해 지정된 특정 동작을 수행한다.
제어부(110)는 장애물 감지부(120)에 의해 감지되는 장애물을 인식하는 장애물 인식부(112)와, 주행제어부(111)를 포함한다.
주행제어부(111)는 청소명령에 따라 주행부(160)와 청소부(150)를 제어하여 본체(10)가 청소영역을 주행하면서 이물질을 흡입하여 청소가 수행되도록 한다.
주행 중, 장애물 감지부(120)는 본체의 전방에 위치하는 장애물을 감지하고, 장애물 감지신호를 입력한다. 그에 따라 주행제어부(111)는 장애물 감지부(120)로 신호를 인가하여 카메라(121)를 동작시킨다.
카메라(121)는 센서부(122)의 장애물 감지신호에 대응하여 제어부(110)로부터 제어신호가 입력되면, 그에 따라 동작하여 전방의 장애물을 촬영한다. 또한, 카메라(121)는 설정에 따라, 제어부로부터 별도의 제어신호가 입력되지 않더라도, 센서부(122)로부터 입력되는 장애물 감지신호에 대응하여, 동작하고, 전방의 장애물을 촬영한다. 즉 카메라(121)는 센서부에 의해 장애물이 감지되면 즉시 구동하여 전방의 장애물을 촬영한다.
카메라(121)는 장애물 감지신호에 대응하여, 설정된 횟수로 본체의 전방을 촬영한다. 촬영 횟수는 설정에 따라 변경될 수 있다. 또한, 카메라(121)는 동영상을 촬영할 수도 있다.
주행제어부(111)는 장애물 감지신호가 입력되면, 본체의 주행속도를 감소시키거나, 또는 일시적으로 정지하도록 주행부(160)를 제어한다. 또한, 주행제어부(111)는 장애물 감지신호에 대응하여, 앞서 설명한 바와 같이 카메라(121)를 구동시킬 수 있다.
장애물 인식부(112)는 카메라(121)에 의해 장애물을 촬영한 영상데이터가 입력되면, 데이터부(130)에 저장한다. 카메라(121)는 전방의 장애물을 복수회 촬영하므로, 영상데이터 또한 복수개가 저장된다.
장애물 인식부(112)는 복수의 영상데이터를 분석하여, 촬영된 대상, 즉 장애물을 인식할 수 있는지 여부를 판단한다. 이때 장애물 인식부(112)는 영상데이터를 분석하여 즉시 장애물을 판단하는 것이 아니라. 영상데이터가 인식 가능한 것인지 아닌지 여부를 판단한다. 장애물 인식부(112)는 흔들린 영상, 초점이 맞지 않는 영상, 어두워서 장애물을 구분할 수 없는 영상을 분리하여 폐기한다.
장애물 인식부(112)는 인식 가능할 영상을 선별한 후, 통신부(140)를 통해 서버(90)로 전송되도록 한다. 통신부(140)는 선별된 적어도 하나의 영상데이터를 서버(90)로 전송한다.
제어부(110)는 영상데이터를 필터링하여 장애물 식별이 가능한 영상데이터를 분리하고, 그 중 장애물 인식에 사용되는 데이터를 필터링하여 장애물인식데이터로써 저장한다. 제어부(110)는 장애물 인식에 사용되지 않는 영상데이터는 폐기한다.
서버(90)는 이동 로봇(100)으로부터 영상데이터가 수신되면, 영상데이터를 분석하여 촬영된 대상에 대한 외곽선 또는 형상을 추출하고, 기 저장된 장애물에 대한 데이터와 비교하여, 장애물의 종류를 판단한다. 서버(90)는 유사한 형태 또는 유사한 색상의 장애물을 우선 검색하고, 해당 영상데이터로부터 특징을 추출하여 비교함으로써, 장애물의 종류를 판단한다.
서버(90)는 장애물의 종류를 판단한 후, 장애물에 대한 데이터를 이동 로봇(100)으로 전송한다.
장애물 인식부(112)는 통신부를 통해 서버로부터 수신되는 장애물에 대한 데이터를 장애물 인식데이터로써 데이터부(130)에 저장한다. 장애물 인식부(112)는 서버에 의해 장애물의 종류가 판단되면, 그에 대응하는 동작을 수행하도록 한다. 주행제어부(111)는 장애물의 종류에 대응하여 장애물을 회피하거나, 접근하거나 또는 통과하도록 주행부를 제어하고, 경우에 따라 소정의 효과음 또는 경고음, 음성안내가 스피커를 통해 출력되도록 한다.
장애물 인식부는 앞서 설명한 바와 같이, 영상데이터를 인식 가능한지 여부에 따라 구분하여, 서버로 전송함으로써, 서버의 응답에 따라 장애물의 종류를 인식한다. 또한, 장애물 인식부는 복수의 장애물 중 선택된 장애물에 대하여, 장애물 인식을 위한 데이터를 저장함으로써, 서버로 영상데이터를 전송하지 않더라도 장애물인식데이터를 바탕으로, 장애물을 인식할 수 있다.
제어부(110)는 데이터부(130)의 저장용량에 한계가 있으므로, 선택된 일부 장애물에 대한 정보를 장애물인식데이터로써 저장할 수 있다. 예를 들어 제어부(110)는 단말(80)을 통해 선택된 장애물, 또는 감지 횟수를 바탕으로 감지 횟수가 큰 장애물에 대하여 데이터부에 장애물인식데이터를 저장할 수 있다.
그에 따라 장애물 인식부(112)는 청소영역에 존재하는 장애물, 반복적으로 감지되는 장애물에 대하여 데이터부에 저장함으로써, 장애물이 감지되면 즉시 그에 대응하는 동작을 수행할 수 있다.
장애물 인식부(112)는 장애물 감지부(120)로부터 입력되는 장애물 정보를 분석하여 데이터부의 장애물인식데이터를 바탕으로 장애물을 인식하고, 장애물의 종류를 판단한다. 장애물 인식부(112)는 센서부(122)로부터 입력되는 데이터에 대응하여 장애물의 유무 및 장애물의 위치를 판단하고, 장애물의 움직임을 감지한다.
또한 장애물 인식부(112)는 카메라(121)를 통해 촬영된 장애물의 영상데이터를 분석하여 장애물의 종류를 판단한다. 장애물 인식부(112)는 영상데이터를 분석하여 장애물의 외곽선을 추출하여 그 형태를 바탕으로 장애물을 인식하여 장애물의 종류를 판단한다. 또한, 장애물 인식부(112)는 형태를 바탕으로, 장애물의 색상, 크기에 따라 장애물의 종류를 판단할 수 있다. 또한, 장애물 인식부(112)는 장애물의 형태와 움직임을 바탕으로 장애물의 종류를 판단할 수 있다.
장애물 인식부(112)는 장애물 정보를 바탕으로, 사람, 동물, 사물을 구분한다. 장애물 인식부(112)는 장애물의 종류를, 일반장애물, 위험장애물, 생체장애물, 바닥장애물로 분류하고, 각 분류에 대하여 세부적인 장애물의 종류를 판단한다.
주행제어부(111)는 장애물의 종류가 인식되면, 장애물의 종류에 대응하여 주행부(160)를 제어하여, 본체(10)가 소정의 동작을 수행하도록 한다.
예를 들어, 주행제어부(111)는 장애물의 종류에 대응하여, 본체(10)가 정지, 감속, 가속, 역주행, 유턴, 주행방향을 변경하도록 하며, 장애물에 대하여 일정거리 이상 접근하지 않도록 하고, 일정시간 대기하도록 할 수 있다. 또한, 주행제어부(111)는 장애물에 따라 지정된 소리가 스피커를 통해 출력되도록 하며, 지정된 동작과 함께 소리가 출력되도록 할 수 있다.
이동 로봇(100)은 청소 도중, 장애물 감지부를 통해 장애물을 감지하는 경우, 카메라를 이용하여 장애물을 촬영한 후 장애물에 대한 영상데이터를 서버로 전송한다.
이동 로봇(100)은 장애물에 대하여 복수의 영상데이터를 생성하고, 복수의 영상데이터 중, 식별 가능한 영상데이터를 선별하여 서버(90)로 전송한다. 이때, 식별이 불가능한 영상데이터를 폐기한다.
이동 로봇(100)은 촬영된 영상데이터의 초점, 선명도, 밝기를 바탕으로 식별 가능한 영상데이터 인지 여부를 판단한다. 또한, 이동 로봇(100)은 장애물이 촬영되었는지 여부를 통해 영상데이터를 선별할 수 있다. 즉, 영상데이터에 배경만 촬영된 경우, 식별 불가능한 것으로 판단하여 해당 영상데이터는 폐기한다.
서버(90)는 이동 로봇으로부터 수신된 복수의 영상데이터를 분석하여 장애물의 종류를 판단하고, 장애물을 인식하기 위한 특징정보가 포함된 장애물인식데이터를 생성한다. 또한, 서버(90)는 장애물에 대응하는 동작을 설정하는 모션정보를 생성하여 저장하고, 이동 로봇(100)으로 전송할 수 있다.
이동 로봇(100)은 수신되는 장애물에 대한 데이터를 장애물인식데이터와 모션데이터로써 저장하고, 동일한 장애물을 다시 감지하는 경우 저장된 데이터를 바탕으로 장애물을 인식한다.
이동 로봇(100)은 인식된 장애물에 대응하여, 모션데이터를 바탕으로 지정된 모션을 수행한다. 이동 로봇(100)은 장애물에 따라 주행에 대한 동작과, 소정의 소리를 출력하는 모션을 수행할 수 있다.
단말(80)은 어플리케이션을 실행하여, 서버(90)로부터 장애물데이터를 수신하여 저장하고, 장애물 데이터를 바탕으로 이동 로봇(100)이 실내영역 중 특정 주행영역을 청소하도록 명령을 입력한다.
단말(80)은 주행영역 내에 존재하는 장애물과, 장애물에 대한 모션을 지정하여 장애물 설정데이터를 이동 로봇(100)으로 전송한다(S4).
이때, 단말(80)은 기 저장되거나 또는 서버(90)로부터 수신되는 장애물 및 모션에 대한 장애물 데이터(S6)를 바탕으로 주행영역에 대한 설정을 입력한다. 단말(80)은 주기적으로 서버(90)에 접속하여(S5), 장애물 및 모션에 대한 데이터를 수신하여(S6), 저장된 데이터를 갱신한다.
이동 로봇(100)은 단말(80)로부터 수신된, 청소명령 및 장애물 설정데이터를 바탕으로 주행구역에 대한 청소를 수행한다. 이동 로봇(100)은 청소 중, 동작모드, 동작상태, 에러상태 등에 대한 데이터를 단말(80)로 전송한다(S3).
이동 로봇(100)은 청소가 완료되면, 청소기록을 저장하고, 청소중 감지된 장애물과 그에 따른 모션정보, 그리고 단말에 의해 변경된 정보를 저장한 후, 서버(90)로 전송한다.
서버(90)는 변경된 데이터를 분석하여, 기 저장된 데이터를 갱신한다.
도 5 는 본 발명에 따른 이동 로봇의 장애물을 감지방법을 설명하는데 참조되는 도이다.
도 5에 도시된 바와 같이, 이동 로봇(100)은 주행 중, 본체(10)의 전방에 위치하는 장애물을 감지한다.
이동 로봇(100)은 장애물 감지부(120)를 통해 진행 방향 또는 전방에 위치하는 장애물의 유무를 우선 감지한다. 센서부(122)는 복수의 센서로 구성되어, 적어도 하나의 센서가 장애물을 감지하는 경우
장애물감지신호를 제어부로 입력한다. 제어부(110)는 센서부(122)로부터 입력되는 장애물감지신호에 대응하여 카메라(121)를 구동하여 카메라가 장애물에 대한 영상을 촬영하도록 한다.
장애물감지신호가 입력되면, 카메라(121)는 장애물감지신호에 대응하여 동작하고, 전방을 촬영한다.
카메라(121)는 장애물 감지신호에 대응하여, 소정 횟수 연속으로 장애물을 촬영한다. 카메라(121)의 연속 촬영횟수 및 촬영 간격은 설정에 따라 변경될 수 있다.
카메라(121)로부터 촬영된 영상은 이미지처리부(미도시)를 통해 복수의 영상데이터로 데이터부에 저장된다.
장애물 인식부(112)는 하나의 장애물에 대한 복수의 영상데이터를 분석하여, 장애물 인식이 가능한지 여부에 따라 영상데이터를 필터링 한다.
장애물 인식부(112)는 장애물의 움직임 또는 촬영중 본체(10)의 움직임에 의해 장애물이 정상적으로 촬영되지 못한 경우, 예를 들어 촬영대상인 장애물에 대한 이미지가 흔들려 장애물을 인식할 수 없는 경우, 초점이 맞지 않아 인식이 불가능한 경우는 제외하고, 정상적으로 촬영된 영상데이터만을 선별한다.
장애물 인식부(112)는 영상데이터의 밝기, 선명도, 본체(10)의 이동속도를 바탕으로 영상데이터의 식별 여부를 판단할 수 있다. 장애물 인식부(112)는 영상데이터의 복수의 픽셀값의 밝기값을 바탕으로 영상데이터의 밝기를 판단하여 노출과다, 노출부족, 정상노출을 구분한다. 또한, 장애물 인식부(112)는 본체의 이동속도가 설정속도 이상인 경우, 촬영되는 영상에 흔들림이 있다고 판단할 수 있고, 영상데이터의 선명도를 판단하여 식별 가능 여부를 판단한다.
제어부(110)는 선별된 영상데이터는 통신부(140)를 통해 서버(90)로 전송한다.
서버(90)는 이동 로봇(100)으로부터 수신되는 영상데이터를 저장하고, 분석하여, 촬영된 대상물, 즉 장애물의 외곽선을 추출하고, 데이터베이스로부터 유사한 형태의 데이터를 검색하여 장애물의 종류를 판단한다.
서버(90)는 하나의 장애물에 대하여 복수의 영상데이터를 저장하고, 특정 장애물에 대한 특징을 추출하여 데이터베이스에 저장한다. 서버(90)는 이동 로봇(100)으로부터 수신된 영상데이터를 분석하여 기 저장된 데이터와 비교함으로써, 장애물의 종류를 판단한다.
서버(90)는 장애물의 종류 및 그에 관련된 장애물데이터를 이동 로봇(100)으로 전송한다.
제어부(110)는 서버(90)로부터 장애물 종류 및 장애물데이터가 통신부를 통해 수신되면, 수신된 데이터를 데이터부(130)에 저장한다.
제어부(110)는 수신되는 장애물에 대한 데이터를 바탕으로 장애물의 종류를 판단하고, 장애물의 종류에 대응하여 주행부(160)를 제어한다.
장애물 인식부(112)는 수신되는 장애물의 종류에 대응하여, 위험 장애물 인지 여부를 판단한다. 장애물 인식부(112)는 위험장애물인경우, 위험장애물에 대한 신호를 주행제어부로 인가한다.
주행제어부(111)는 장애물이 위험장애물인 경우, 장애물에 접근하지 않고 회피하도록 주행부(160)를 제어한다.
주행제어부(111)는 위험장애물인 경우라도, 장애물의 종류에 대응하여 주행 동작을 설정한다. 위험장애물이 아닌 경우 주행제어부(111)는 일정거리 장애물에 접근한 이후에 회피하도록 주행부를 제어한다.
주행제어부(111)는 위험장애물인 경우 장애물에 접근하지 않고 회피하도록 주행방향을 변경한다. 주행제어부(111)는 장애물의 종류에 대응하여 접근거리를 상이하게 설정할 수도 있다.
주행제어부(111)는 감지된 장애물이 위험장애물이 아닌 경우, 장애물의 종류 또는 이동 로봇의 동작모드에 따라 동작을 설정한다.
청소중 위험장애물이 아닌 경우 장애물에 접촉한 후 회피할 수 있고, 장애물이 소정거리까지 접근한 후에 회피할 수도 있다.
이동 로봇(100)은 동일한 장애물이라 하더라도, 장애물과 접하는 방향에 따라 상이한 형태의 영상데이터를 촬영하게 된다.
제 1 장애물에 대하여 제 1 지점(P1)에서 촬영된 영상데이터와, 제 2 지점(P2)에서 촬영된 영상데이터는 상이한 형상일 수 있다. 그에 따라 이동 로봇은 동일한 제 1 장애물이지만 각각 다른 장애물인 것으로 인식할 수 있다.
그에 따라 이동 로봇(100)은 복수의 영상데이터를 서버로 전송하고, 서버는 복수의 영상데이터를 분석하여 장애물의 형상 및 특징을 추출함으로써 장애물의 종류를 판단한다.
이동 로봇(100)은 서버로부터 수신되는 데이터에 대응하여, 장애물의 종류를 판단하여 제 1 지점에서 감지된 장애물과 제 2 지점에서 감지된 장애물이 동일한 제 1 장애물인 것을 인식할 수 있다.
도 6 은 도 5의 장애물에 대한 데이터의 예가 도시된 도이다.
앞서 설명한 바와 같이, 장애물과 접하는 위치와 방향에 따라, 촬영되는 여상데이터는 상이하다.
예를 들어, 이동 로봇(100)의 주행방향에 선풍기가 위치하는 경우, 이동 로봇(100)은 주행 중에 선풍기를 감지하여 장애물에 대한 영상데이터를 촬영한다.
이때, 이동 로봇(100)의 주행방향에 따라 선풍기와 접하는 위치와 방향이 상이하므로, 각각 촬영되는 영상데이터를 상이한 형상을 갖는다.
이동 로봇(100)이 선풍기의 정면으로 주행하여, 선풍기에 소정거리 이내로 근접한 경우, 카메라(121)는 감지된 장애물인, 선풍기를 촬영한다. 그에 따라 이동 로봇(100)은 도 6의(a)와 같은 영상데이터를 저장한다. 이동 로봇(100)이 장애물인 선풍기에 소정 거리 이내로 근접한 상태이므로, 선풍기의 정면이 촬영되기는 하나, 정면에서 선풍기의 일부가, 영상데이터로써 촬영된다.
또한, 이동 로봇(100)의 선풍기의 측면을 향해 주행하여 소정거리 이내로 근접한 경우, 경우에는 도 6의 (b)에 도시된 바와 같이, 선풍의 측면 중 일부가 촬영된 영상데이터가 저장된다.
한편, 이동 로봇(100)이 선풍기의 정면으로 주행하여, 일정거리 이상 떨어진 위치에서, 장애물인 선풍기를 감지한 경우, 도 6의 (c)에 도시된 바와 같이, 선풍기의 정면, 전체 형상이 포함된 영상데이터가 저장된다.
또한, 이동 로봇(100)의 선풍기의 측면을 향해 주행하여 일정거리 이상 떨어진 위치에서, 장애물인 선풍기를 감지한 경우, 도 6의 (d)에 도시된 바와 같이, 선풍기의 측면, 전체 형상이 촬영된 영상데이터가 저장된다.
이와 같이 이동 로봇(100)은 장애물과의 위치관계 또는 주행방향에 따라 상이한 동일한 장애물이라고 하더라도 상이한 형상의 영상데이터를 촬영하게 된다. 그에 따라 이동 로봇은 동일한 제 1 장애물이지만 각각 다른 장애물인 것으로 인식할 수 있다.
그에 따라 이동 로봇(100)은 복수의 영상데이터를 서버로 전송하고, 서버는 복수의 영상데이터를 분석하여 장애물의 형상 및 특징을 추출함으로써 장애물의 종류를 판단한다.
도 7 및 도 8 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물의 영상데이터 필터링방법을 설명하는데 참조되는 도이다.
이동 로봇(100)은 장애물의 종류를 판단하기 위해 카메라(121)를 통해 촬영되는 복수의 영상데이터 중 식별 가능한 영상데이터를 선별하여 서버(90)로 전송한다.
도 7의 (a)에 도시된 바와 같이, 본체(10)가 이동하는 중에 발생하는 진동 또는 바닥의 요철 등으로 인하여 본체가 흔들리는 경우, 본체 구비되는 카메라 또한 흔들리게 되므로, 장애물이 선명하게 촬영되지 않고 흔들린 현상으로 영상데이터가 촬영될 수 있다.
장애물 인식부(112)는 이와 같이 복수의 영상데이터 중, 흔들린 상태로 장애물이 선명하게 촬영되지 않은 영상데이터는 폐기하게 된다.
카메라(121)는 단시간에 복수의 영상을 촬영하므로, 장애물 인식부(112)는 동일한 장애물을 촬영한 복수의 영상데이터 중 일부는 폐기하고 일부의 영상데이터를 선별한다.
또한, 장애물을 감지하여 카메라가 장애물을 촬영하는 영역의 밝기, 본체(10)의 위치에 따라 도 7의 (b)에 도시된 바와 같이, 밝기가 어두운 영상데이터가 촬영될 수 있다.
장애물 인식부(112)는 영상데이터의 밝기가 일정값 이하로 어두운 경우 장애물을 식별하기 어려운 것으로 판단하여 해당 영상데이터는 폐기한다.
이와 같이 밝기로 인하여 장애물을 식별하기 어려운 경우에 대비하여, 제어부(110)는 주행하는 영역의 밝기를 감지하여 통신부를 통해, 영역에 설치된 조명장치로 조명동작신호를 전송할 수 있다. 이 경우 조명장치는 통신기능이 구비된 기기로 조명동작신호에 따라 조명을 온오프하고, 밝기 조절이 가능한 장치가 사용된다. 경우에 따라 단말로 조명동작신호를 전송하여 조명의 온오프 및 밝기를 조절할 수도 있다.
영역 내에 조명이 켜진 상태라 하더라도, 책상 밑의 경우 책상의 그림자로 인하여 어두워 지므로, 촬영되는 영상데이터 또한 밝기가 일정 값 이하인 노출부족 영상이 된다.
장애물 인식부(112)는 영상데이터의 픽셀들의 밝기값이 평균을 산출하여 영상데이터의 밝기를 판단할 수 있다.
또한, 장애물 인식부(112)는 밝기가 일정값 이상이면, 식별 불가능한 영상데이터로 판단한다. 장애물 인식부(112)는 노출 과다의 영상데이터 또한 밝기로 인하여 장애물이 선명하게 나타나지 않으므로, 영상데이터는 폐기한다.
장애물 인식부(112)는 본체(10)는 안정된 상태로 흔들림이 없더라도, 촬영되는 대상, 즉 장애물이 움직이는 장애물인 경우, 촬영된 영상데이터 중 식별 가능한 영상데이터를 선별하여 서버로 전송한다.
애완동물을 장애물로 감지하는 경우, 애완동물은 움직이는 장애물이므로, 도 8의 (a)와 같이, 애완동물의 움직임으로 인하여 선명한 영상을 촬영할 수 없는 경우가 발생한다.
그에 따라 장애물 인식부(112)는 복수의 영상데이터 중 이와 같이 잔상이 남은 영상데이터는 폐기한다.
한편, 도 8의 (b)에 도시된 바와 같이, 장애물 인식부(112)는 복수의 영상데이터 중 식별 가능한 영상데이터가 존재하는 경우, 식별 가능한 영상데이터를 서버로 전송한다.
이와 같이 움직이는 장애물에 대응하기 위하여 제어부(110)는 카메라가 하나의 장애물에 대하여 복수의 영상데이터를 촬영하도록 제어한다.
도 9 는 본 발명의 일 실시예에 따른 이동 로봇의 장애물 인식을 위한 데이터의 예가 도시된 도이다.
도 9에 도시된 바와 같이, 이동 로봇(100)은 촬영된 영상데이터를 필터링하여 영상데이터를 서버로 전송하고, 서버로부터 수신되는 장애물에 대한 데이터를 바탕으로 장애물은 인식한다. 이동 로봇(100)은 인식되는 장애물의 종류에 대응하여 장애물에 따라 소정 동작을 수행한다.
장애물 인식부(112)는 장애물의 종류에 따라 위험장애물인지 여부를 판단하고, 주행제어부(111)는 판단결과에 대응하여 본체가 소정 동작을 수행하도록 한다.
도 9의 (a)에 도시된 바와 같이, 이동 로봇(100)은 서버로부터 수신되는 데이터를 바탕으로 장애물이 가전기기인 경우, 가전기기에 소정 거리 내로 접근하지 않을 있다. 청소를 수행하는 중, 주행제어부(111)는 장애물이 감지되더라도 장애물에 접근하여 청소를 수행하나, 가전기기인 경우 충돌로 인하여 가전기기가 파손될 수 있으므로 소정거리까지 접근한 후 회피하여 충돌하지 않도록 한다.
도 9의 (a)에 도시된 바와 같이, 이동 로봇(100)은 장애물이 멀티탭 또는 전선으로 판단되는 경우, 위험장애물로 판단하여 일정거리 이상 접근하지 않고 회피하도록 한다. 이동 로봇(100)이 접근하여 전선과 전선 사이에 끼는 경우 탈출이 불가능한 상황이 발생할 수 있고, 또한, 이동 로봇(100)의 탈출시도로 인하여 플러그가 탈거되는 현상이 발생할 수 있으므로 일정거리 이상 접근하지 않고 회피하도록 한다.
도 9의 (c)에 도시된 바와 같이, 이동 로봇(100)은 복수의 장애물이 감지되면, 가장 가까운 장애물을 기준으로 회피한다. 이동 로봇(100)은 근접한 장애물이 전선이므로, 전선이 위치하지 않은 경로를 탐색하여 회피하여 주행한다. 또한, 움직이는 장애물과 선풍기 등의 가전기기를 인식하여, 원거리에서 주행경로를 설정하여 장애물에 접근하거나 회피할 수 있다.
도 9의 (d)에 도시된 바와 같이, 이동 로봇(100)은 장애물이 화분인 경우, 충돌로 인하여 화분이 파손되는 경우가 발생할 수 있으므로, 일정거리 이상 접근하지 않고 회피하도록 한다.
도 10 은 본 발명의 일 실시예에 따른 이동 로봇의 제어방법이 도시된 순서도이다.
도 10에 도시된 바와 같이, 이동 로봇(100)은 단말(80) 또는 입력부(16)(171)로부터 청소명령이 입력되는 경우, 지정된 청소영역을 주행하면서 청소를 수행한다(S310). 단말을 통해 청소명령이 입력되는 경우, 청소영역 내에 위치한 장애물에 대한 정보가 입력될 수 있다.
이동 로봇(100)은 장애물 감지부(120)의 센서부(122)를 통해 장애물이 감지되면(S310), 카메라(121)가 동작하여, 장애물을 촬영한다(S330). 주행제어부(111)는 장애물 감지신호가 입력되면, 본체의 주행속도를 감소시키거나, 또는 일시적으로 정지하도록 주행부(160)를 제어한다.
카메라(121)는 적어도 2회 이상 장애물을 촬영한다. 카메라(121)는 제어부(110)의 제어신호에 의해 동작할 수 있고, 또한, 센서부의 장애물 감지신호에 대응하여 동작할 수 있다.
제어부(110)는 카메라(121)로부터 영상데이터를 입력받아 데이터부(130)에 저장한다. 장애물 인식부(112)는 카메라로부터 입력된 영상데이터를 분석하여, 영상데이터의 이미지를 분석하여 식별 가능한 영상데이터와 그렇지 않은 영상데이터를 구분하고, 필터링한다(S350). 예를 들어 장애물 인식부(112)는 영상데이터의 밝기, 선명도, 흔들림 여부를 바탕으로 장애물에 대한 식별이 가능한지 여부를 판단한다.
제어부(110)는 필터링된 영상데이터를, 즉 식별 가능한 것으로 판단된 영상데이터를 통신부(140)를 통해 서버(90)로 전송한다. 제어부(110)는 식별 불가능한 영상데이터는 폐기한다.
서버(90)는 이동 로봇(100)으로부터 영상데이터가 수신되면, 영상데이터를 분석하여, 촬영된 대상, 즉 장애물의 외곽선을 추출하고 형태를 분석하여 기 저장된 데이터와 비교함으로써 장애물의 종류를 판단한다.
서버(90)는 수신되는 장애물 정보를 분석하여, 기 저장된 데이터들과 교하고, 새로운 장애물에 대해 탐색하여 장애물을 인식하고, 장애물의 종류를 판단한다. 새로운 장애물인 경우 서버(90)는 새로운 장애물에 대한 데이터를 등록한다. 서버(90)는 영상데이터의 촬영각도 또는 대상물인 장애물과의 위치에 따라 영상데이터가 상이하게 나타나게 되어, 동일한 장애물이 다르게 인식되거나 또는 인식이 불가능할 수 있으므로, 해당 장애물에 대한 복수의 영상데이터를 누적하여 저장한다.
서버(90)는 장애물의 종류가 판단되면, 장애물의 종류에 대한 데이터를 장애물 정보로써 이동 로봇(100)으로 전송한다. 서버(90)는 판단된 장애물에 대하여 특정 동작을 수행하도록 설정된 경우, 지정된 동작에 대한 정보도 함께 전송할 수 있다.
제어부(110)는 서버로부터 전송된 장애물 정보를 수신한다(S370). 제어부(110)는 수신된 장애물에 대한 정보를 통신부(140)를 통해, 단말(80)로 전송할 수 있다.
장애물 인식부(112)는 수신되는 장애물의 정보에 따라, 감지된 장애물이 위험 장애물 인지 여부를 판단한다(S380).
주행제어부(111)는 위험 장애물인 경우, 장애물의 종류에 따라 장애물을 회피하여 주행하도록 하고(S390), 위험장애물이 아닌 경우에는 장애물에 소정거리 접근한 후에 회피하도록 주행부(160)를 제어한다(S400).
예를 들어, 주행제어부(111)는 위험장애물에 따라 감지 즉시 회피하거나, 또는 장애물 주변으로 30cm 이상 접근하지 않고 회피하여 주행하도록 할 수 있다. 또한, 일반 장애물인 경우에는 주행제어부(111)는 장애물에 접근하여 청소를 수행하도록 주행부를 제어할 수 있다. 또한, 제어부(110)는 장애물의 종류에 대응하여 스피커(173)를 통해 소정의 효과음 또는 경고음을 출력할 수 있다.
주행부(160)는 장애물에 접근하거나 또는 회피하여 주행한다(S410). 그에 따라 이동 로봇(100)은 인식된 장애물에 대응하여, 소정 동작을 수행하거나 소정의 소리를 출력한다.
도 11 은 본 발명의 일 실시예에 따른 이동 로봇의 장애물 판단을 위한 데이터 처리방법이 도시된 순서도이다.
도 11에 도시된 바와 같이, 이동 로봇(100)은 주행부(160)를 제어하여 청소영역에 대한 지정된 청소를 수행하거나, 또는 목적지로 주행한다(S410).
이동 로봇(100)은 장애물 감지부(120)의 센서부(122)를 통해 장애물이 감지되면(S460), 카메라가 동작한다.
또한, 센서부를 통해 장애물이 감지되면, 주행제어부(111)는 본체의 이동속도가 기준속도 미만인지 여부를 판단한다(S470). 주행제어부(111)는 이동속도가 기준속도 이상이면 본체의 주행속도를 감소시키거나, 또는 일시적으로 정지하도록 주행부(160)를 제어한다(S480).
주행제어부(111)는 본체(10)가 설정속도 이상의 속도로 주행하는 중에 장애물이 촬영되는 경우, 초점이 맞지 않거나 또는 흔들린 영상이 촬영될 수 있으므로 속도를 감속하거나 정지하도록 하여 영상데이터가 촬영되도록 한다.
본체의 이동속도가 기준속도 미만인 경우, 카메라(121)는 장애물을 촬영한다(S490). 카메라(121)는 적어도 2회 이상 장애물을 촬영하여 복수의 영상데이터를 생성한다. 카메라(121)는 제어부(110)의 제어신호에 의해 동작할 수 있고, 또한, 센서부의 장애물 감지신호에 대응하여 동작할 수 있다.
촬영된 영상데이터에 대하여 제어부(110)는 장애물을 식별할 수 있는지 여부에 따라 필터링한다. 장애물 인식부(112)는 영상데이터의 밝기, 선명도를 판단하여 영상데이터를 필터링한다.
장애물 인식부(112)는 영상데이터의 밝기를 판단하여 설정밝기, 예를들어 기준값 a 보다 크고, 기준값 b보다 작은 경우, 정상 밝기로 판단하여 해당 영상데이터가 장애물에 대해 식별 가능한 것으로 판단한다(S550).
한편, 장애물 인식부(112)는 영상데이터의 밝기가 기준값 a 이하인 경우 노출부족으로 판단하고, 기준값 b 이상인 경우 노출과다로 판단하여 장애물에 대한 식별이 불가능한 것으로 판단한다.
장애물 인식부(112)는 영상데이터의 각 픽셀의 밝기값의 평균을 산출하여 밝기를 기준값과 비교할 수 있다.
또한, 장애물 인식부(112)는 영상데이터를 분석하여 선명도를 기준값 c, d와 비교하고, 기준값 c 보다 크고 기준값 d보다 작은 경우 정상데이터로 판단하여 장애물에 대한 식별이 가능한 영상데이터인 것으로 판단한다(S510).
카메라가 장애물을 촬영하는 도중, 주행제어부에 의해 본체의 속도가 제어되더라도, 바닥면의 상태에 따라 영상데이터에 흔들림이 있을 수 있고, 또한 장애물이 애완견과 같이 움직이는 장애물인 경우 흔들린 영상이 촬영될 수 있다. 그에 따라 장애물 인식부(112)는 영상데이터의 선명도를 판단하여 영상데이터를 필터링한다.
또한, 장애물 인식부는 이동속도가 기준속도 이상인 상태에서 영상데이터가 촬영된 경우, 식별 불가능한 영상데이터로 판단한다.
제어부(110)는 식별 가능한 것으로 판단된 영상데이터를 통신부(140)를 통해 서버(90)로 전송한다(S530). 제어부(110)는 식별 불가능한 영상데이터는 폐기한다.
제어부(110)는 서버로부터 장애물 정보가 수신되면(S540), 장애물 정보를 데이터에 저장하고, 장애물 인식부(112)는 장애물이 위험장애물인지 여부를 판단한다.
주행제어부(111)는 위험장애물과 일반장애물에 대한 판단결과에 대응하여, 장애물의 종류에 따라 회피하거나 접근하여 주행하도록 주행부(160)를 제어한다(S560)
한편, 장애물 인식부(112)에 의해 모든 영상데이터가 식별 불가능한 것으로 판단되는 경우, 제어부(110)는 카메라(121)를 제어하여 추가 촬영하도록 할 수 있다(S520).
제어부(110)는 카메라가 설정횟수(n) 미만으로 장애물을 촬영한 경우(S520), 카메라를 제어하여 장애물을 추가 촬영하도록 한다(S490).
한편, 카메라가 설정횟수 이상 촬영한 경우, 제어부(110)는 추가 촬영하더라도 해당 장애물에 대하여 식별이 불가능하다고 판단한다. 그에 따라 제어부(110)는 감지된 장애물을 일반장애물로 설정한다(S550).
이동 로봇은 영상데이터가 노출에 문제가 있거나. 선명하지 않으므로 서버로 전송하더라도 장애물의 종류를 인식할 수 없다고 판단하여, 일반 장애물로 설정하여 주행을 계속하도록 한다.
주행제어부(111)는 감지된 장애물이 일반장애물에 설정됨에 따라 일반장애물에 대한 동작으로 장애물에 접근하여 주행하도록 주행부(160)를 제어한다(S560).
따라서 이동 로봇(100)은 감지되는 장애물을 촬영하고, 촬영된 영상데이터를 분석하여 필터링 하여 서버로 전송함으로써, 불필요한 데이터의 전송을 방지하고, 서버의 부하를 감소시켜 서버를 통해 빠른 장애물 판단이 가능해 진다. 이동 로봇은 서버를 통해 판단된 장애물의 종류에 따라 지정된 동작을 수행할 수 있고, 장애물 또는 이동 로봇의 손상 없이 효과적으로 청소를 수행할 수 있게 된다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
80: 단말 90: 서버
100: 이동 로봇
110: 제어부 111: 모션제어부
112: 장애물 인식부 120: 장애물 감지부
121: 카메라 122: 센서부
130: 데이터부 140: 통신부
171: 입력부 172: 표시부
173: 스피커

Claims (27)

  1. 본체의 전방에 구비되어, 주행방향에 위치한 장애물을 감지하는 센서부;
    상기 센서부에 의해 상기 장애물이 감지되면, 상기 장애물을 촬영하는 카메라;
    상기 장애물에 대응하여 소정 동작이 수행되도록 제어하는 제어부;
    상기 제어부의 제어명령에 따라 지정된 동작을 수행하는 주행부; 및
    서버와 통신하는 통신부를 포함하고,
    상기 제어부는 상기 카메라로부터 입력되는 장애물에 대한 복수의 영상데이터를 분석하여 상기 장애물의 식별 가능 여부를 판단하여 필터링하고, 상기 복수의 영상데이터 중 필터링된 영상데이터를 상기 통신부를 통해 상기 서버로 전송하며, 상기 서버로부터 수신되는 장애물정보에 대응하여 상기 주행부를 제어하는 것을 특징으로 하는 이동 로봇.
  2. 제 1 항에 있어서,
    상기 제어부는 상기 장애물정보에 대응하여 상기 주행부를 제어하는 주행제어부; 및
    상기 영상데이터를 분석하여 상기 장애물의 식별 가능 여부를 판단하여 필터링하는 장애물 인식부를 포함하는 이동 로봇.
  3. 제 2 항에 있어서,
    상기 장애물 인식부는 상기 영상데이터의 밝기 및 선명도에 대응하여 상기 장애물에 대한 식별 가능 여부를 판단하여 상기 영상데이터를 필터링 하는 것을 특징으로 하는 이동 로봇.
  4. 제 3 항에 있어서,
    상기 장애물 인식부는 상기 영상데이터의 밝기가 제 1 기준값 보다 크고, 제 2 기준값 보다 작은 경우, 정상데이터로 판단하고,
    상기 영상데이터의 밝기가 상기 제 1 기준값 이하인 경우 노출부족으로 식별 불가능한 데이터로 판단하며,
    상기 영상데이터의 밝기가 상기 제 2 기준값 이상인 경우 노출과다로 식별 불가능한 데이터로 판단하는 것을 특징으로 하는 이동 로봇.
  5. 제 4 항에 있어서,
    상기 장애물 인식부는 상기 영상데이터에 포함되는 복수의 픽셀의 밝기값의 평균을 산출하여 상기 제 1 기준값 및 상기 제 2 기준값과 비교하는 것을 특징으로 하는 이동 로봇.
  6. 제 3 항에 있어서,
    상기 장애물 인식부는 상기 영상데이터의 선명도가 제 3 기준값 보다 크고, 제 4 기준값보다 작은 경우 정상데이터로 판단하고,
    상기 제 3 기준값 이하, 또는 상기 제 4 기준값 이상인 경우, 초점이 맞지 않거나 흔들린 영상으로 식별 불가능한 데이터로 판단하는 것을 특징으로 하는 이동 로봇.
  7. 제 2 항에 있어서,
    상기 장애물 인식부는 상기 장애물정보에 대응하여 상기 장애물이 위험장애물인지 여부를 판단하는 것을 특징으로 하는 이동 로봇.
  8. 제 2 항에 있어서,
    상기 주행제어부는 상기 장애물이 위험장애물인 경우, 상기 장애물에 소정거리 이상 접근하지 않도록 주행경로를 설정하여 상기 장애물을 회피하는 것을 특징으로 하는 이동 로봇.
  9. 제 2 항에 있어서,
    상기 주행제어부는 상기 센서부에 의해 상기 장애물이 감지되면,
    상기 본체의 주행속도를 감소시키거나 또는 일정시간 정지하도록 상기 주행부를 제어하는 것을 특징으로 하는 이동 로봇.
  10. 제 9 항에 있어서,
    상기 장애물 인식부는 상기 영상데이터가 상기 본체의 주행속도가 기준속도 이상인 상태에서 상기 카메라를 통해 촬영된 경우 식별 불가능한 데이터로 판단하는 것을 특징으로 하는 이동 로봇.
  11. 제 2 항에 있어서,
    상기 장애물 인식부는 상기 장애물정보에 대응하여, 상기 장애물을, 일반장애물, 위험장애물, 생체장애물, 바닥장애물로 분류하여 종류를 판단하는 것을 특징으로 하는 이동 로봇.
  12. 제 11 항에 있어서,
    상기 주행제어부는 상기 장애물정보에 대응하여, 정지, 감속, 가속, 역주행, 대기, 주행방향 변경, 근거리 접근 금지 중 적어도 하나가 조합된 동작이 수행되도록 상기 주행부를 제어하는 것을 특징으로 하는 이동 로봇.
  13. 제 1 항에 있어서,
    상기 제어부는 상기 복수의 영상데이터 중 식별 불가능한 데이터로 판단된 영상데이터는 폐기하고, 식별 가능한 정상 데이터를 상기 서버로 전송하는 것을 특징으로 하는 이동 로봇.
  14. 제 1 항에 있어서,
    상기 카메라는 상기 센서부에 의해 상기 장애물이 감지되면, 상기 장애물에 대하여 적어도 2회 상기 장애물을 촬영하여 상기 영상데이터를 입력하는 것을 특징으로 하는 이동 로봇.
  15. 제 1 항에 있어서,
    상기 제어부는 상기 장애물에 대한 상기 복수의 영상데이터가 모두 식별 불가능한 경우, 상기 카메라가 재촬영하도록 제어하는 것을 특징으로 하는 이동 로봇.
  16. 제 15 항에 있어서,
    상기 제어부는 상기 카메라가 소정횟수 이상 촬영하여 상기 장애물에 대한 상기 영상데이터의 식별이 불가능한 경우, 상기 장애물을 일반장애물로 판단하고 주행을 계속하도록 하는 것을 특징으로 하는 이동 로봇.
  17. 본체가 지정된 주행영역을 주행하며 청소를 수행하는 중, 장애물을 감지하는 단계;
    상기 장애물이 감지되면, 카메라를 통해 상기 장애물을 촬영하는 단계;
    상기 장애물에 대한 영상데이터를 분석하여 상기 장애물의 식별 가능 여부를 판단하는 단계;
    상기 영상데이터가 정상으로 상기 장애물에 대한 식별이 가능한 경우, 서버로 전송하는 단계; 및
    상기 서버로부터 장애물정보가 수신되면, 상기 장애물정보에 대응하여 상기 장애물에 대하여, 지정된 동작을 수행하는 단계를 포함하는 이동 로봇의 제어방법.
  18. 제 17 항에 있어서,
    상기 장애물이 감지되면, 상기 본체의 주행속도를 감속하거나 또는 일정시간 정지하는 단계를 더 포함하는 이동 로봇의 제어방법.
  19. 제 17 항에 있어서,
    상기 카메라는 상기 장애물을 적어도 2회 촬영하여 상기 영상데이터를 입력하는 것을 특징으로 하는 이동 로봇의 제어방법.
  20. 제 17 항에 있어서,
    상기 영상데이터를 분석하는 경우, 상기 영상데이터의 밝기 및 선명도에 대응하여 상기 장애물에 대한 식별 가능 여부를 판단하여 상기 영상데이터를 필터링 하는 단계를 더 포함하는 이동 로봇의 제어방법.
  21. 제 20 항에 있어서,
    상기 영상데이터의 밝기가 제 1 기준값 보다 크고, 제 2 기준값 보다 작은 경우, 정상데이터로 판단하고,
    상기 영상데이터의 밝기가 상기 제 1 기준값 이하인 경우 노출부족으로 식별 불가능한 데이터로 판단하며,
    상기 영상데이터의 밝기가 상기 제 2 기준값 이상인 경우 노출과다로 식별 불가능한 데이터로 판단하는 것을 특징으로 하는 이동 로봇의 제어방법.
  22. 제 20 항에 있어서,
    상기 영상데이터의 선명도가 제 3 기준값 보다 크고, 제 4 기준값보다 작은 경우 정상데이터로 판단하고,
    상기 제 3 기준값 이하, 또는 상기 제 4 기준값 이상인 경우, 초점이 맞지 않거나 흔들린 영상으로 식별 불가능한 데이터로 판단하는 것을 특징으로 하는 이동 로봇의 제어방법.
  23. 제 20 항에 있어서,
    상기 본체의 주행속도가 기준속도 이상인 상태에서 상기 카메라를 통해 상기 영상데이터가 촬영된 경우, 상기 영상데이터를 식별 불가능한 데이터로 판단하는 것을 특징으로 하는 이동 로봇의 제어방법.
  24. 제 17 항에 있어서,
    상기 서버로부터 수신되는 상기 장애물정보에 대응하여 상기 장애물이 위험장애물인지 여부를 판단하는 단계; 및
    상기 장애물이 위험장애물인 경우, 상기 장애물에 소정거리 이상 접근하지 않도록 주행경로를 설정하여 상기 장애물을 회피하는 단계를 더 포함하는 이동 로봇의 제어방법.
  25. 제 17 항에 있어서,
    상기 영상데이터를 분석한 후, 상기 영상데이터가 상기 장애물에 대한 식별이 불가능한 경우 폐기하는 단계;를 더 포함하는 이동 로봇의 제어방법.
  26. 제 17 항에 있어서,
    상기 장애물에 대한 상기 영상데이터가 모두 식별 불가능한 경우, 상기 카메라가 상기 장애물을 재촬영하는 단계를 더 포함하는 이동 로봇의 제어방법.
  27. 제 26 항에 있어서,
    상기 카메라가 소정횟수 이상 상기 장애물을 촬영하여, 상기 장애물에 대한 상기 영상데이터의 식별이 불가능한 경우, 상기 장애물을 일반장애물로 판단하는 단계; 및
    일반장애물에 대응하여 주행을 계속하는 단계를 더 포함하는 이동 로봇의 제어방법.
KR1020170027845A 2017-03-03 2017-03-03 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법 KR102017148B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020170027845A KR102017148B1 (ko) 2017-03-03 2017-03-03 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
EP18761156.1A EP3590665B1 (en) 2017-03-03 2018-03-02 Mobile robot and control method therefor
US16/490,796 US11269343B2 (en) 2017-03-03 2018-03-02 Mobile robot and control method thereof
PCT/KR2018/002538 WO2018160035A1 (ko) 2017-03-03 2018-03-02 이동 로봇 및 그 제어방법
US17/585,858 US11846950B2 (en) 2017-03-03 2022-01-27 Mobile robot and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170027845A KR102017148B1 (ko) 2017-03-03 2017-03-03 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20180101081A true KR20180101081A (ko) 2018-09-12
KR102017148B1 KR102017148B1 (ko) 2019-09-02

Family

ID=63370144

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170027845A KR102017148B1 (ko) 2017-03-03 2017-03-03 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법

Country Status (4)

Country Link
US (2) US11269343B2 (ko)
EP (1) EP3590665B1 (ko)
KR (1) KR102017148B1 (ko)
WO (1) WO2018160035A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200077694A (ko) 2018-12-20 2020-07-01 동의대학교 산학협력단 클라우드 서버 기반의 무인이동체 IoT 서비스를 위한 장치 및 방법
KR20200109105A (ko) * 2019-03-12 2020-09-22 주식회사 유진로봇 이물질 끼임 또는 가림 상태를 검출하는 거리 측정 센서 및 이동 로봇
WO2020213294A1 (ja) * 2019-04-18 2020-10-22 パナソニックIpマネジメント株式会社 自律走行型掃除機、システム、および、物体認識方法
KR102176297B1 (ko) 2019-06-17 2020-11-09 재단법인대구경북과학기술원 다관절 로봇
WO2021246732A1 (ko) * 2020-06-01 2021-12-09 삼성전자주식회사 청소 로봇 및 그 제어 방법

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106406312B (zh) * 2016-10-14 2017-12-26 平安科技(深圳)有限公司 导览机器人及其移动区域标定方法
DE102017105724A1 (de) * 2017-03-16 2018-09-20 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Bodenbearbeitungsgerätes
KR20180134230A (ko) * 2017-06-08 2018-12-18 삼성전자주식회사 청소 로봇 및 그 제어 방법
US10422648B2 (en) * 2017-10-17 2019-09-24 AI Incorporated Methods for finding the perimeter of a place using observed coordinates
CN107553497B (zh) * 2017-10-20 2023-12-22 苏州瑞得恩光能科技有限公司 太阳能面板清扫机器人的边缘定位装置及其定位方法
CN111427340A (zh) * 2018-12-24 2020-07-17 江苏美的清洁电器股份有限公司 一种扫地机、服务器、扫地机控制方法及控制系统
CN110353583A (zh) * 2019-08-21 2019-10-22 追创科技(苏州)有限公司 扫地机器人及扫地机器人的自动控制方法
KR20210057582A (ko) 2019-11-12 2021-05-21 삼성전자주식회사 잘못 흡입된 객체를 식별하는 로봇 청소기 및 그 제어 방법
CN110977973A (zh) * 2019-12-11 2020-04-10 国电南瑞科技股份有限公司 架空输电线路巡检机器人自主越障装置
KR20210084129A (ko) 2019-12-27 2021-07-07 삼성전자주식회사 로봇 청소기 및 그 제어 방법
KR20220003376A (ko) 2020-07-01 2022-01-10 삼성전자주식회사 이미지 처리 방법 및 장치
US11763570B2 (en) * 2020-07-02 2023-09-19 Alps Alpine Co., Ltd. Obstacle detection device, obstacle detection method, and storage medium storing obstacle detection program
KR102218120B1 (ko) * 2020-09-21 2021-02-22 주식회사 폴라리스쓰리디 자율 주행 모듈, 이를 포함하는 이동 로봇 및 이의 위치 추정 방법
CN113190005B (zh) * 2021-05-07 2022-07-08 江苏戎晟安防科技有限公司 一种模块化小型侦察机器人
CN117425546A (zh) 2021-08-20 2024-01-19 三星电子株式会社 机器人及其控制方法
KR20230028006A (ko) * 2021-08-20 2023-02-28 삼성전자주식회사 로봇 및 그 제어 방법
KR102442775B1 (ko) * 2021-12-10 2022-09-14 (주) 경성테크놀러지 교통약자전용 지도 생성 및 맞춤형 길안내 시스템
CN114587220B (zh) * 2022-01-26 2023-11-21 深圳市无限动力发展有限公司 动态避障方法、装置和计算机设备、计算机可读存储介质
CN114947621B (zh) * 2022-06-22 2022-12-13 宁波国琅机器人科技有限公司 一种扫地机器人清理控制方法、系统、存储介质及智能终端
CN116991152B (zh) * 2022-06-25 2024-06-07 九众九机器人有限公司 一种物料整理方法、系统、终端及存储介质
KR20240044998A (ko) * 2022-09-29 2024-04-05 삼성전자주식회사 이상 물체를 감지하는 로봇 청소기 및 이의 제어 방법
WO2024076169A1 (ko) * 2022-10-07 2024-04-11 삼성전자 주식회사 공간정보를 이용한 객체 인식 모델의 학습 방법 및 이를 수행하기 위한 컴퓨팅 장치
KR20240063416A (ko) 2022-11-03 2024-05-10 주식회사 트위니 주행 중 주변 영역에 광을 출력하는 로봇의 제어 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
JP2009136968A (ja) * 2007-12-06 2009-06-25 Honda Motor Co Ltd 移動型ロボット
KR101049155B1 (ko) * 2011-02-01 2011-07-14 국방과학연구소 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치
KR20170014361A (ko) * 2015-07-29 2017-02-08 엘지전자 주식회사 이동 로봇 및 그 제어방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100662638B1 (ko) 2001-04-18 2007-01-02 삼성광주전자 주식회사 로봇 청소기의 장애물 감지 오차 보정 장치 및 그 방법
KR100437372B1 (ko) * 2001-04-18 2004-06-25 삼성광주전자 주식회사 이동통신망을 이용한 로봇 청소 시스템
US7156519B2 (en) * 2003-11-24 2007-01-02 Xiaogang Mao System for visualizing images to viewers in motion
JP4555035B2 (ja) * 2004-03-30 2010-09-29 日本電気株式会社 掃除機制御装置、掃除機、ロボット、および掃除機制御方法
KR100776805B1 (ko) 2006-09-29 2007-11-19 한국전자통신연구원 스테레오 비전 처리를 통해 지능형 서비스 로봇 시스템에서효율적인 영상 정보의 전송을 위한 장치 및 그 방법
KR101618030B1 (ko) * 2009-07-28 2016-05-09 주식회사 유진로봇 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
EP2460629B1 (en) * 2009-07-28 2022-06-29 Yujin Robot Co., Ltd. Control method for localization and navigation of mobile robot and mobile robot using same
US8508652B2 (en) * 2011-02-03 2013-08-13 DigitalOptics Corporation Europe Limited Autofocus method
US10046716B2 (en) * 2011-02-10 2018-08-14 Denso Corporation In-vehicle camera and vehicle control system
KR102393550B1 (ko) * 2013-12-19 2022-05-04 에이비 엘렉트로룩스 청소 영역의 우선순위를 정하는 방법
EP3082537B1 (en) * 2013-12-19 2020-11-18 Aktiebolaget Electrolux Robotic cleaning device and method for landmark recognition
US9704043B2 (en) * 2014-12-16 2017-07-11 Irobot Corporation Systems and methods for capturing images and annotating the captured images with information
KR102314637B1 (ko) * 2015-03-23 2021-10-18 엘지전자 주식회사 로봇 청소기 및 이를 구비하는 로봇 청소 시스템
US9840003B2 (en) * 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
US20170090456A1 (en) * 2015-09-25 2017-03-30 Multimedia Image Solution Limited Autonomous cleaning robot
US10272828B2 (en) * 2016-08-16 2019-04-30 Irobot Corporation Light indicator system for an autonomous mobile robot
TWI626427B (zh) * 2016-12-28 2018-06-11 H P B Optoelectronic Co Ltd 適用於機器人之監測系統
US10078892B1 (en) * 2017-03-16 2018-09-18 GM Global Technology Operations LLC Methods and systems for vehicle tire analysis using vehicle mounted cameras

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
JP2009136968A (ja) * 2007-12-06 2009-06-25 Honda Motor Co Ltd 移動型ロボット
KR101049155B1 (ko) * 2011-02-01 2011-07-14 국방과학연구소 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치
KR20170014361A (ko) * 2015-07-29 2017-02-08 엘지전자 주식회사 이동 로봇 및 그 제어방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200077694A (ko) 2018-12-20 2020-07-01 동의대학교 산학협력단 클라우드 서버 기반의 무인이동체 IoT 서비스를 위한 장치 및 방법
KR20200109105A (ko) * 2019-03-12 2020-09-22 주식회사 유진로봇 이물질 끼임 또는 가림 상태를 검출하는 거리 측정 센서 및 이동 로봇
WO2020213294A1 (ja) * 2019-04-18 2020-10-22 パナソニックIpマネジメント株式会社 自律走行型掃除機、システム、および、物体認識方法
KR102176297B1 (ko) 2019-06-17 2020-11-09 재단법인대구경북과학기술원 다관절 로봇
WO2021246732A1 (ko) * 2020-06-01 2021-12-09 삼성전자주식회사 청소 로봇 및 그 제어 방법

Also Published As

Publication number Publication date
EP3590665B1 (en) 2022-06-15
US11269343B2 (en) 2022-03-08
WO2018160035A1 (ko) 2018-09-07
US20200012292A1 (en) 2020-01-09
EP3590665A1 (en) 2020-01-08
EP3590665A4 (en) 2020-12-09
US20220236740A1 (en) 2022-07-28
US11846950B2 (en) 2023-12-19
KR102017148B1 (ko) 2019-09-02

Similar Documents

Publication Publication Date Title
EP3590665B1 (en) Mobile robot and control method therefor
US11226633B2 (en) Mobile robot and method of controlling the same
CN111479662B (zh) 学习障碍物的人工智能移动机器人及其控制方法
EP3459688B1 (en) Mobile robot and control method therefor
KR101976424B1 (ko) 이동 로봇
KR102000067B1 (ko) 이동 로봇
KR102070067B1 (ko) 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
KR20190007285A (ko) 이동 로봇 시스템 및 그 제어방법
KR20180098891A (ko) 이동 로봇 및 그 제어방법
KR102330607B1 (ko) 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
KR102320678B1 (ko) 이동 로봇 및 그 제어방법
KR102500529B1 (ko) 이동 로봇 및 그 제어방법
KR20190119234A (ko) 이동 로봇 및 그 제어방법
US20220280007A1 (en) Mobile robot and method of controlling the same
KR20210004677A (ko) 이동 로봇 및 그 제어방법
KR102314537B1 (ko) 이동 로봇 및 그 제어방법
KR102300790B1 (ko) 이동 로봇 및 그 제어방법
KR20190115516A (ko) 이동 로봇 및 그 제어방법
KR20210015154A (ko) 이동 로봇 및 그 제어방법
KR102364623B1 (ko) 이동 로봇 및 그 제어방법
KR20200084430A (ko) 이동 로봇 및 이동 로봇의 제어방법
KR102318756B1 (ko) 로봇 청소기 및 그의 제어방법
KR20210004679A (ko) 이동 로봇 및 그 제어방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant