KR102000067B1 - 이동 로봇 - Google Patents

이동 로봇 Download PDF

Info

Publication number
KR102000067B1
KR102000067B1 KR1020170007216A KR20170007216A KR102000067B1 KR 102000067 B1 KR102000067 B1 KR 102000067B1 KR 1020170007216 A KR1020170007216 A KR 1020170007216A KR 20170007216 A KR20170007216 A KR 20170007216A KR 102000067 B1 KR102000067 B1 KR 102000067B1
Authority
KR
South Korea
Prior art keywords
lighting device
main body
illuminance
lighting
mobile robot
Prior art date
Application number
KR1020170007216A
Other languages
English (en)
Other versions
KR20180084305A (ko
Inventor
김현성
송재원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020170007216A priority Critical patent/KR102000067B1/ko
Priority to US15/872,629 priority patent/US10921806B2/en
Priority to EP18151772.3A priority patent/EP3349087B1/en
Publication of KR20180084305A publication Critical patent/KR20180084305A/ko
Application granted granted Critical
Publication of KR102000067B1 publication Critical patent/KR102000067B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D25/00Control of light, e.g. intensity, colour or phase
    • G05D25/02Control of light, e.g. intensity, colour or phase characterised by the use of electric means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/11Controlling the light source in response to determined parameters by determining the brightness or colour temperature of ambient light
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

본 발명은, 주행 구역 내에서 기 설정된 조명 장치의 위치를 판단하고, 위치에 따라 조명 장치를 제어하는 이동 로봇에 대한 것이다.
본 발명에 따른 이동 로봇은, 통신부를 통하여 조명 장치를 온오프(On-Off) 제어하고, 영상획득부를 통하여 획득되는 영상에 기초하여, 본체를 조도가 변화하는 위치로 이동시키면서, 조명 장치의 위치를 판단하는 제어부를 포함한다.

Description

이동 로봇 {Moving Robot}
본 발명은 이동 로봇에 관한 것으로서, 구체적으로 조명 장치와 통신을 수행하여, 조명 장치의 위치를 판단하는 이동 로봇에 관한 것이다.
이동 로봇은 청소하고자 하는 영역을 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.
이동 로봇은 충전 가능한 배터리가 구비되어, 이동이 자유롭고 배터리의 동작전원을 이용한 스스로 이동이 가능하며, 이동 중 바닥면의 이물질을 흡입하여 청소를 실시하며, 필요 시 충전대로 복귀하여 배터리를 충전하도록 구성된다.
통상 이러한 이동 로봇은 주행 구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 좌륜과 우륜의 구동을 제어하여 장애물 회피 동작을 수행한다.
사물 인터넷 환경에서 통신 가능한 디바이스들은 각각 통신을 수행할 수 있고, 상호 간의 유선 또는 무선 통신으로 연결될 수 있다. 이 경우, 특정 디바이스는 다른 디바이스를 원격제어할 수도 있다. 이러한 사물 인터넷 환경에서 이동 로봇은 다른 디바이스들과 통신을 수행하여 다른 디바이스들에 대한 정보를 획득하고, 제어할 수 있다. 예를 들어, 이동 로봇은, 통신 가능한 세탁기, 냉장고, 조명 장치, 공기조화기 및 기타 가전 제품 등에 대한 정보를 획득하고, 원격 제어할 수 있다.
이동 로봇은, 주변 영상을 획득하고 주변에 존재하는 오브젝트를 감지하여 주행 구역에 대한 맵(Map)을 생성할 수 있다. 주행 구역의 맵에 대한 정보는, 기 저장된 정보이거나 외부에서 제공되는 정보일 수도 있다. 이동 로봇은, 주행 구역에 대한 맵에 기초하여, 주행 구역 내 특정 위치로 이동할 수 있고, 현재 위치를 판단할 수도 있다.
이동 로봇은, 주변 환경을 촬영한 영상으로부터 특징점을 추출하는 방식으로, 현재 위치를 판단할 수 있다. 또한, 이동 로봇은, 촬영한 영상으로부터 각종 오브젝트를 감지할 수도 있다.
그러나, 조도가 부족한 환경에서는, 이동 로봇이 촬영된 영상을 통하여 현재 위치를 판단하거나 오브젝트를 검출하기 어려운 문제점이 있다. 이에 따라, 주행 구역에 이동 로봇에 의하여 원격 제어 될 수 있는 조명 장치가 적어도 하나 존재하는 경우, 이동 로봇은 제어 가능한 조명 장치의 위치를 판단할 필요가 있다.
또한, 조명 장치의 위치가 판단되는 경우, 주변이 어두워서 촬영된 영상을 통하여 현재 위치를 판단하거나 오브젝트를 감지할 수 없는 경우, 이동 로봇은 근처의 조명 장치를 제어하여 조도를 확보할 필요성이 있다.
또한, 사용자가 부재중인 경우, 이동 로봇이 필요한 조명만 온시키고 불필요한 조명은 오프시킴으로써, 에너지를 절약할 필요성이 있다.
본 발명의 실시예는 상기한 문제점을 해결하기 위하여, 주행 구역에 존재하는 조명 장치의 위치를 판단할 수 있는 이동 로봇을 제공하는데 목적이 있다.
또한, 본 발명의 실시예는, 조명 장치를 제어함으로써, 촬영된 영상을 통하여 현재 위치를 판단하거나, 오브젝트를 감지하기 위하여 필요한 조도를 확보할 수 있는 이동 로봇을 제공하는데 목적이 있다.
또한, 본 발명의 실시예는, 불필요한 조명 장치를 오프 제어함으로써, 불필요한 에너지 소비를 방지하는 이동 로봇을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 이동 로봇은, 통신부를 통하여 조명 장치를 온오프(On-Off) 제어하고, 영상획득부를 통하여 획득되는 영상에 기초하여, 본체를 조도가 변화하는 위치로 이동시키면서, 조명 장치의 위치를 판단하는 제어부를 포함할 수 있다. 제어부는 판단된 상기 조명 장치의 위치를 저장된 맵에 표시하여 조명 장치의 위치가 나타나는 조명 맵을 생성할 수 있다.
또한, 상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 이동 로봇는, 영상획득부를 통하여 감지되는 조도가 설정 조도 이하인 경우, 조명 맵에 기초하여, 복수 개의 조명 장치 중, 상기 본체의 위치에 대응하는 것을 온 시키는 제어부를 포함할 수 있다.
또한, 상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 이동 로봇는, 본체 위치에 대응하는 조명 장치만 온 시키고, 본체 위치에 대응하지 않는 조명 장치는 오프 시키는 제어부를 포함할 수 있다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 이동 로봇이 자체적으로 주행 구역 내 조명 장치의 배치를 판단할 수 있고, 조명 장치의 배치가 표시된 조명 맵을 생성할 수 있는 효과가 있다.
둘째, 이동 로봇이 획득되는 영상에 기초하여 현재 위치를 판단하거나 오브젝트를 감지함에 있어서, 위치가 판단된 조명 장치를 제어함으로써, 필요한 조도를 확보할 수 있는 효과가 있다.
셋째, 이동 로봇이 현재 위치 판단에 도움이 되는 조명 장치만 온 시키고, 불필요한 조명 장치는 오프시킴으로써, 불필요한 에너지 소비를 방지할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 이동 로봇 및 이동 로봇을 충전시키는 충전대를 도시한 사시도이다.
도 2는 본 발명의 일 실시예에 따른 이동 로봇의 상면부를 도시한 도이이다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도이다.
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 저면부를 도시한 도이다.
도 5는 본 발명의 일 실시예에 따른 이동 로봇의 구성 요소를 설명하기 위한 블록도이다.
도 6은 본 발명에 따른 이동 로봇이 조명 장치의 위치를 판단하는 과정을 설명하기 위한 순서도이다.
도 7은 이동 로봇이 조도 변화량이 증가하는 방향으로 이동하여 조명 장치의 위치를 판단하는 것을 설명하기 위한 도면이다.
도 8은 이동 로봇이 조명 장치를 온오프 제어하고 조도 변화가 감지되지 않는 경우, 감지 기대 영역으로 이동하여 조명 장치의 위치를 판단하는 것을 설명하기 위한 도면이다.
도 9는 이동 로봇이 복수 개의 조명 장치를 순차적으로 온오프 제어하여 각 조명 장치의 위치를 판단하는 것을 설명하기 위한 도면이다.
도 10은 이동 로봇이 복수 개의 조명 장치를 서로 다른 주기로 온오프가 반복되도록 제어함으로써, 각 조명 장치의 위치를 판단하는 것을 설명하기 위한 도면이다.
도 11 및 도 12는 이동 로봇이 복수의 방에 배치된 복수의 조명 장치의 위치를 판단하는 방법을 설명하기 위한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명에 따른 이동 로봇은, 사물 인터넷 환경에서 통신 연결된 조명 장치를 원격 제어할 수 있다.
이동 로봇은, 조명 장치가 켜지거나 꺼지거나 깜빡거리도록 제어하고, 영상획득부를 통하여 획득되는 영상에서 조도 변화를 발생시키는 조명 장치를 감지함으로써, 조명 장치의 위치를 판단할 수 있다. 이동 로봇은, 입력부를 통하여 수신되는 사용자의 입력에 기초하여, 조명 장치의 위치를 판단할 수도 있다.
이동 로봇은, 기 저장된 주행 구역에 대한 맵에 판단된 조명 장치의 위치를 표시함으로써, 조명 장치의 위치가 표시된 주행 구역에 대한 조명 맵을 생성할 수 있다.
이후, 이동 로봇은, 획득되는 영상에 기초하여 현재 위치를 판단하거나 오브젝트를 감지함에 있어서 조도가 부족한 경우, 생성된 조명 맵을 활용하여 이동 로봇의 위치에 대응하는 조명 장치를 점등시키고 필요한 조도를 확보할 수 있다.
이하에서는 도면을 참조하여 본 발명의 다양한 실시 예에 대해서 구체적으로 설명하기로 한다. 도 1 내지 도 5를 참조하여 본 발명에 따른 이동 로봇의 외관 및 구성을 설명하고, 도 6 내지 도 11을 참조하여 본 발명에 따른 이동 로봇이 조명 장치의 위치를 판단하고, 조명 장치를 제어하는 것을 설명한다.
도 1은 본 발명의 일 실시예에 따른 이동 로봇 및 이동 로봇을 충전시키는 충전대를 도시한 사시도이다.
도 2는 본 발명의 일 실시예에 따른 이동 로봇의 상면부를 도시한 도이이다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 정면부를 도시한 도이다.
도 4는 본 발명의 일 실시예에 따른 이동 로봇의 저면부를 도시한 도이다.
도 1 내지 도 4에 도시된 바와 같이, 이동 로봇(100)은 본체(110)와, 본체(110) 주변의 영상을 획득하는 영상획득부(120)를 포함한다. 이하, 본체(110)의 각부분을 정의함에 있어서, 주행 구역 내의 천장을 향하는 부분을 상면부(도 2 참조)로 정의하고, 주행 구역 내의 바닥을 향하는 부분을 저면부(도 4 참조)로 정의하며, 상면부와 저면부 사이에서 본체(110)의 둘레를 이루는 부분 중 주행방향을 향하는 부분을 정면부(도 3 참조)라고 정의한다.
이동 로봇(100)은 본체(110)를 이동시키는 주행부(160)를 포함한다. 주행부(160)는 본체(110)를 이동시키는 적어도 하나의 구동 바퀴(136)를 포함한다. 주행부(160)는 구동 바퀴(136)에 연결되어 구동 바퀴를 회전시키는 구동 모터(미도시)를 포함 한다. 구동 바퀴(136)는 본체(110)의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜(136(L))과 우륜(136(R))이라고 한다.
좌륜(136(L))과 우륜(136(R))은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜(136(L))을 구동시키는 좌륜 구동 모터와 우륜(136(R))을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜(136(L))과 우륜(136(R))의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체(110)의 주행방향을 전환할 수 있다.
본체(110)의 저면부에는 공기의 흡입이 이루어지는 흡입구(110h)가 형성될 수 있으며, 본체(110) 내에는 흡입구(110h)를 통해 공기가 흡입될 수 있도록 흡입력을 제공하는 흡입장치(미도시)와, 흡입구(110h)를 통해 공기와 함께 흡입된 먼지를 집진하는 먼지통(미도시)이 구비될 수 있다.
본체(110)는 이동 로봇(100)을 구성하는 각종 부품들이 수용되는 공간을 형성하는 케이스(111)를 포함할 수 있다. 케이스(111)에는 상기 먼지통의 삽입과 탈거를 위한 개구부가 형성될 수 있고, 개구부를 여닫는 먼지통 커버(112)가 케이스(111)에 대해 회전 가능하게 구비될 수 있다.
흡입구(110h)를 통해 노출되는 솔들을 갖는 롤형의 메인 브러시(134)와, 본체(110)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 보조 브러시(135)가 구비될 수 있다. 이들 브러시(134, 135)들의 회전에 의해 주행 구역 내 바닥으로부터 먼지들이 분리되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구(110h)를 통해 흡입되어 먼지통에 모인다.
배터리(138)는 구동 모터뿐만 아니라, 이동 로봇(100)의 작동 전반에 필요한 전원을 공급한다. 배터리(138)가 방전될 시, 이동 로봇(100)은 충전을 위해 충전대(200)로 복귀하는 주행을 실시할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(100)은 스스로 충전대(200)의 위치를 탐지할 수 있다.
충전대(200)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.
이동 로봇(100)은 복귀 신호를 수신하는 신호 감지부(미도시)를 포함할 수 있다. 충전대(200)는 신호 송출부를 통해 적외선 신호를 송출하고, 신호 감지부는 적외선 신호를 감지하는 적외선 센서를 포함할 수 있다. 이동 로봇(100)은 충전대(200)로부터 송출된 적외선 신호에 따라 충전대(200)의 위치로 이동하여 충전대(200)와 도킹(docking)한다. 이러한 도킹에 의해 이동 로봇(100)의 충전 단자(133)와 충전대(200)의 충전 단자(210) 간에 충전에 이루어진다.
영상획득부(120)는 주행 구역을 촬영하는 것으로, 디지털 카메라를 포함할 수 있다. 디지털 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.
바람직하게, 영상획득부(120)는 본체(110)의 상면부에 구비되어, 주행 구역 내의 천장에 대한 영상을 획득하나, 영상획득부(120)의 위치와 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다. 예를들어, 영상획득부(120)는 본체(110) 전방의 영상을 획득하도록 구비될 수도 있다.
또한, 이동 로봇(100)은 전방의 장애물을 감지하는 장애물 감지센서(131)를 더 포함할 수 있다. 이동 로봇(100)은 주행 구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서(132)와, 바닥의 영상을 획득하는 하부 카메라 센서(139)를 더 포함할 수 있다.
또한, 이동 로봇(100)은 On/Off 또는 각종 명령을 입력할 수 있는 입력부(137)를 포함한다. 입력부(137)를 통해 이동 로봇(100)의 작동 전반에 필요한 각종 제어명령을 입력받을 수 있다. 또한, 이동 로봇(100)은 출력부(미도시)를 포함하여, 예약 정보, 배터리 상태, 동작모드, 동작상태, 에러상태 등을 표시할 수 있다.
도 5는 본 발명의 일 실시예에 따른 이동 로봇의 구성 요소를 설명하기 위한 블록도이다.
도 5를 참조하면, 이동 로봇(100)은, 영상획득부(120), 입력부(137), 제어부(140), 저장부(150), 주행부(160), 청소부(170), 출력부(180), 및 통신부(190)를 포함할 수 있다.
이동 로봇(100)은, 통신부(190)를 통하여, 리모컨(미도시) 또는 이동 단말기(미도시)가 전송하는 동작에 대한 명령을 수신할 수 있다.
이동 단말기는 이동 로봇(100)을 제어하기 위한 어플리케이션을 구비하고, 어플리케이션의 실행을 통해 이동 로봇(100)이 청소할 주행 구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 이동 단말기는 맵 설정을 위한 어플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 스마트 폰, 태블릿 등을 예로 들 수 있다.
이동 단말기는 이동 로봇(100)과 통신하여, 맵과 함께 이동 로봇의 현재 위치를 표시할 수 있으며, 복수의 영역에 대한 정보가 표시될 수 있다. 또한, 이동 단말기는 이동 로봇의 주행에 따라 그 위치를 갱신하여 표시한다.
제어부(140)는 이동 로봇(100)을 구성하는 영상획득부(120), 입력부(137), 주행부(160)를 제어하여, 이동 로봇(100)의 동작 전반을 제어한다.
저장부(150)는 이동 로봇(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.
저장부(150)에는 주행 구역에 대한 맵(Map)이 저장될 수 있다. 맵은 이동 로봇(100)과 유선 또는 무선 통신을 통해 정보를 교환할 수 있는 이동 단말기에 의해 입력된 것일 수도 있고, 이동 로봇(100)이 스스로 학습을 하여 생성한 것일 수도 있다.
맵에는 주행 구역 내의 방들의 위치가 표시될 수 있다. 또한, 이동 로봇(100)의 현재 위치가 맵 상에 표시될 수 있으며, 맵 상에서의 이동 로봇(100)의 현재의 위치는 주행 과정에서 갱신될 수 있다. 이동 단말기는 저장부(150)에 저장된 맵과 동일한 맵을 저장한다.
제어부(140)는, 이동 로봇(100)의 주행 제어 중, 청소부(170)를 가동시킴으로써, 이동 로봇(100) 주변의 먼지 또는 이물질이 흡수되도록 할 수 있다. 이 경우, 청소부(170)에 구비된 브러쉬(미도시)가 구동되어 이동 로봇(100) 주변의 먼지 또는 이물질을 흡입되기 용이한 상태로 만들수 있다. 청소부(170)에 구비된 흡입장치(미도시)는 먼지 또는 이물질을 흡입할 수 있다.
제어부(140)는, 이동 로봇(100)이 주행부(160)에 의하여 특정 영역으로 이동하면서 청소를 수행하도록 제어할 수 있다.
제어부(140)는 주행제어모듈(141), 구역구분모듈(142), 학습모듈(143) 및 인식모듈(144)을 포함할 수 있다.
주행제어모듈(141)은 이동 로봇(100)의 주행을 제어하는 것으로, 주행 설정에 따라 주행부(160)의 구동을 제어한다. 또한, 주행제어모듈(141)은 주행부(160)의 동작을 바탕으로 이동 로봇(100)의 이동 경로를 파악할 수 있다. 예를 들어, 주행제어모듈(141)은 구동 바퀴(136)의 회전속도를 바탕으로 이동 로봇(100)의 현재 또는 과거의 이동속도, 주행한 거리 등을 파악할 수 있으며, 각 구동 바퀴(136(L), 136(R))의 회전 방향에 따라 현재 또는 과거의 방향 전환 과정 또한 파악할 수 있다. 이렇게 파악된 이동 로봇(100)의 주행 정보를 바탕으로, 맵 상에서 이동 로봇(100)의 위치가 갱신될 수 있다.
구역구분모듈(142)은 소정 기준에 따라 주행 구역을 복수의 구역으로 구분할 수 있다. 주행 구역은 이동 로봇(100)이 주행 경험이 있는 모든 평면상의 구역 및 현재 주행하고 있는 평면상의 구역을 모두 합한 범위로 정의될 수 있다.
구역구분모듈(142)은 주행 구역을 복수의 소구역으로 구분하며, 소구역은 주행 구역 내의 각 실(방)을 근거로 구분될 수 있다. 또한, 구역구분모듈(142)은 주행 구역을 주행능력상 서로 분리된 복수의 대구역으로 구분할 수 있다. 예를 들면, 서로 동선상 완전히 분리된 두개의 실내공간은 각각 두개의 대구역으로 구분될 수 있다. 다른 예로, 같은 실내 공간이라 하더라도, 상기 대구역은 주행 구역 내의 각 층을 근거로 구분될 수 있다.
학습모듈(143)은 주행 구역의 맵을 생성할 수 있다. 또한, 학습모듈(143)은 각 위치에서 영상획득부(120)를 통해 획득한 영상을 처리하여 맵과 연계시켜 전역위치를 인식한다.
인식모듈(144)은 현재 위치를 추정하여 인식한다. 인식모듈(144)은 영상획득부(120)의 영상 정보를 이용하여 학습모듈(143)과 연계하여 위치를 파악함으로써, 이동 로봇(100)의 위치가 갑자기 변경되는 경우에도 현재 위치를 추정하여 인식할 수 있다.
이동 로봇(100)은 구역구분모듈(142)을 통해 연속적인 주행 중에 위치 인식이 가능하고 또한, 구역구분모듈(142) 없이 학습모듈(143) 및 인식모듈(144)을 통해, 맵을 학습하고 현재 위치를 추정할 수 있다.
이동 로봇(100)이 주행하는 중에, 영상획득부(120)는 이동 로봇(100) 주변의 영상들을 획득한다. 이하, 영상획득부(120)에 의해 획득된 영상을 '획득영상'이라고 정의한다. 획득영상에는 천장에 위치하는 조명들, 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등의 여러가지 특징(feature)들이 포함된다. 이하, 특징은 특징점으로 표현될 수도 있다.
학습모듈(143)은 획득영상들 각각으로부터 특징을 검출한다. 컴퓨터 비전(Computer Vision) 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법(Feature Detection)이 잘 알려져 있다. 이들 특징의 검출에 적합한 여러 특징검출기(feature detector)들이 알려져 있다. 예를들어, Canny, Sobel, Harris&Stephens/Plessey, SUSAN, Shi&Tomasi, Level curve curvature, FAST, Laplacian of Gaussian, Difference of Gaussians, Determinant of Hessian, MSER, PCBR, Grey-level blobs 검출기 등이 있다.
학습모듈(143)은 각 특징점을 근거로 디스크립터를 산출한다. 학습모듈(143)은 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 특징점을 디스크립터(descriptor)로 변환할 수 있다. 디스크립터는 n차원 벡터(vector)로 표기될 수 있다.
SIFT는 촬영 대상의 스케일(scale), 회전, 밝기변화에 대해서 불변하는 특징을 검출할 수 있어, 같은 영역을 이동 로봇(100)의 자세를 달리하며 촬영하더라도 불변하는(즉, 회전 불변한(Rotation-invariant)) 특징을 검출할 수 있다. 물론, 이에 한정되지 않고 다른 다양한 기법(예를들어, HOG: Histogram of Oriented Gradient, Haar feature, Fems, LBP:Local Binary Pattern, MCT:Modified Census Transform)들이 적용될 수도 있다.
학습모듈(143)은 각 위치의 획득영상을 통해 얻은 디스크립터 정보를 바탕으로, 획득영상마다 적어도 하나의 디스크립터를 소정 하위 분류규칙에 따라 복수의 군으로 분류하고, 소정 하위 대표규칙에 따라 같은 군에 포함된 디스크립터들을 각각 하위 대표 디스크립터로 변환할 수 있다.
다른 예로, 실(room)과 같이 소정 구역내의 획득영상 들로부터 모인 모든 디스크립터를 소정 하위 분류규칙에 따라 복수의 군으로 분류하여 상기 소정 하위 대표규칙에 따라 같은 군에 포함된 디스크립터들을 각각 하위 대표 디스크립터로 변환할 수도 있다.
학습모듈(143)은 이 같은 과정을 거쳐, 각 위치의 특징분포를 구할 수 있다. 각 위치 특징분포는 히스토그램 또는 n차원 벡터로 표현될 수 있다. 또 다른 예로, 학습모듈(143)은 소정 하위 분류규칙 및 소정 하위 대표규칙을 거치지 않고, 각 특징점으로부터 산출된 디스크립터를 바탕으로 미지의 현재위치를 추정할 수 있다.
학습모듈(143)은 위치 도약 등의 이유로 이동 로봇(100)의 현재 위치가 미지의 상태가 된 경우에, 기 저장된 디스크립터 또는 하위 대표 디스크립터 등의 데이터를 근거로 현재 위치를 추정할 수 있다.
이동 로봇(100)은, 미지의 현재 위치에서 영상획득부(120)를 통해 획득영상을 획득한다. 영상을 통해 천장에 위치하는 조명들, 경계(edge), 코너(corner), 얼룩(blob), 굴곡(ridge) 등의 여러가지 특징(feature)들이 확인된다.
인식모듈(144)은 획득영상으로부터 특징들을 검출한다. 컴퓨터 비전 기술 분야에서 영상으로부터 특징을 검출하는 다양한 방법 및 이들 특징의 검출에 적합한 여러 특징검출기들에 대한 설명은 상기한 바와 같다.
인식모듈(144)은 각 인식 특징점을 근거로 인식 디스크립터 산출단계를 거쳐 인식 디스크립터를 산출한다. 이때 인식 특징점 및 인식 디스크립터는 인식모듈(144)에서 수행하는 과정을 설명하기 위한 것으로 학습모듈(143)에서 수행하는 과정을 설명하는 용어와 구분하기 위한 것이다. 다만, 이동 로봇(100)의 외부 세계의 특징이 각각 다른 용어로 정의되는 것에 불과하다.
인식모듈(144)은 본 특징 검출을 위해 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 인식 특징점을 인식 디스크립터로 변환할 수 있다. 인식 디스크립터는 n차원 벡터(vector)로 표기될 수 있다.
SIFT는 앞서 설명한 바와 같이, 획득영상에서 코너점 등 식별이 용이한 특징점을 선택한 후, 각 특징점 주변의 일정한 구역에 속한 픽셀들의 밝기 구배(gradient)의 분포 특성(밝기 변화의 방향 및 변화의 급격한 정도)에 대해, 각 방향에 대한 변화의 급격한 정도를 각 차원에 대한 수치로 하는 n차원 벡터(vector)를 구하는 영상인식기법이다.
인식모듈(144)은 미지의 현재 위치의 획득영상을 통해 얻은 적어도 하나의 인식 디스크립터 정보를 근거로, 소정 하위 변환규칙에 따라 비교대상이 되는 위치 정보(예를 들면, 각 위치의 특징분포)와 비교 가능한 정보(하위 인식 특징분포)로 변환한다.
소정 하위 비교규칙에 따라, 각각의 위치 특징분포를 각각의 인식 특징분포와 비교하여 각각의 유사도를 산출할 수 있다. 각각의 위치에 해당하는 상기 위치 별로 유사도(확률)를 산출하고, 그 중 가장 큰 확률이 산출되는 위치를 현재위치로 결정할 수 있다.
이와 같이, 제어부(140)는 주행 구역을 구분하고 복수의 영역으로 구성된 맵을 생성하거나, 기 저장된 맵을 바탕으로 본체(110)의 현재 위치를 인식할 수 있다.
제어부(140)는 맵이 생성되면, 생성된 맵을 통신부(190)를 통해 이동 단말기로 전송한다. 또한, 제어부(140)는 앞서 설명한 바와 같이, 이동 단말기로부터 맵이 수신되면, 저장부(150)에 저장할 수 있다.
또한 제어부(140)는 주행 중 맵이 갱신되는 경우 갱신된 정보를 이동 단말기로 전송하여 이동 단말기와 이동 로봇(100)에 저장되는 맵이 동일하도록 한다. 이동 단말기와 이동 로봇(100)에 저장된 맵이 동일하게 유지됨에 따라 이동 단말기로부터의 청소명령에 대하여, 이동 로봇(100)이 지정된 영역을 청소할 수 있으며, 또한, 이동 단말기에 이동 로봇의 현재 위치가 표시될 수 있도록 하기 위함이다.
이때, 맵은 청소 영역을 복수의 영역으로 구분되고, 복수의 영역을 연결하는 연결통로가 포함하며, 영역 내의 장애물에 대한 정보를 포함한다. 청소 영역에 대한 구분은, 앞서 설명한 바와 같이 구역구분모듈(142)에 의해 소영역 및 대영역으로 구분된다.
제어부(140)는 청소명령이 입력되면, 맵 상의 위치와 이동 로봇의 현재위치가 일치하는지 여부를 판단한다. 청소명령은 리모컨, 입력부 또는 이동 단말기로부터 입력될 수 있다.
제어부(140)는 현재 위치가 맵 상의 위치와 일치하지 않는 경우, 또는 현재 위치를 확인할 수 없는 경우, 현재 위치를 인식하여 이동 로봇(100)의 현재 위치를 복구한 한 후, 현재 위치를 바탕으로 지정영역으로 이동하도록 주행부다.
현재 위치가 맵 상의 위치와 일치하지 않는 경우 또는 현재 위치를 확인 할 수 없는 경우, 인식모듈(144)은 영상획득부(120)로부터 입력되는 획득영상을 분석하여 맵을 바탕으로 현재 위치를 추정할 수 있다. 또한, 구역구분모듈(142) 또는 학습모듈(143) 또한, 앞서 설명한 바와 같이 현재 위치를 인식할 수 있다.
위치를 인식하여 이동 로봇(100)의 현재 위치를 복구한 후, 주행제어모듈(141)은 현재 위치로부터 지정영역으로 이동 경로를 산출하고 주행부(160)를 제어하여 지정영역으로 이동한다.
이동 단말기로부터 복수의 영역 중, 적어도 하나의 영역이 선택되는 경우, 주행제어모듈(141)은 선택된 영역을 지정영역으로 설정하고, 이동 경로를 산출한다. 주행제어모듈(141)은 지정영역 이동 후, 청소를 수행한다.
한편, 복수의 영역이 지정영역으로 선택된 경우, 주행제어모듈(141)은 복수의 영역 중 우선영역이 설정되었는지 여부 또는 선택된 복수의 지정영역에 대한 청소순서가 설정되었는지 여부를 판단한 후, 지정영역으로 이동하여 청소를 수행한다.
주행제어모듈(141)은 복수의 지정영역 중 어느 하나가 우선영역으로 설정된 경우, 복수의 지정영역 중 우선영역으로 이동하여, 우선영역을 제일 먼저 청소한 후 나머지 지정영역으로 이동하여 청소하도록 한다. 또한, 지정영역에 대한 청소순서가 설정된 경우 주행제어모듈(141)은 지정된 청소순서에 따라 지정영역을 순차적으로 이동하면서 청소를 수행한다.
또한, 주행제어모듈(141)은 맵 상의 복수의 영역에 대한 구분에 관계없이 새롭게 임의의 영역이 설정되는 경우, 설정된 지정영억으로 이동하여 청소를 수행하도록 한다.
제어부(140)는 설정된 지정영역에 대한 청소가 완료되면, 청소기록을 저장부(150)에 저장한다.
제어부(140)는 통신부(190)를 통해 이동 로봇(100)의 동작상태 또는 청소상태를 소정 주기로 이동 단말기로 전송한다. 그에 따라 이동 단말기는 수신되는 데이터를 바탕으로, 실행중인 어플리케이션의 화면상에 맵과 함게 이동 로봇의 위치를 표시하고, 또한 청소상태에 대한 정보를 출력한다.
출력부(180)는, 영상을 출력하는 디스플레이부(미도시) 및 음향을 출력하는 음향 출력부(180)를 포함할 수 있다. 예를 들어, 음향 출력부(180)는 스피커일 수 있다.
본 발명에 따른 이동 로봇(100)은, 카메라로 획득한 영상에서 검출된 특징점들을 이용하여 현재 위치를 판단할 수 있다. 이동 로봇(100)은, SLAM(Simultaneous Localization And Map-Building)을 통하여 판단된 위치 정보에 기초하여 주행 구역에 대한 맵을 생성할 수 있다.
이동 로봇(100)은, 기 설정된 조명 장치와 통신을 수행하여, 조명 장치(500)를 원격 제어할 수 있다. 기 설정된 조명 장치(500)는, 주행 구역에 배치된 적어도 하나의 조명 장치일 수 있다. 이에 따라, 이동 로봇(100)은, 주행 구역에 배치된 조명 장치(500)를 점등시키거나 소등시킬 수 있다. 이동 로봇(100)은, 조명 장치(500)를 점등시키거나 소등시킴으로써, 조명 장치(500)의 위치를 판단할 수 있다.
제어부(140)는, 통신부(190)를 통하여 조명 장치(500)를 제어할 수 있다. 제어부(140)는, 통신부(190)를 통하여 조명 장치(500)를 제어하기 위한 제어 신호를 송신할 수 있다.
본 발명의 실시예에서, 조명 장치(500)는, 주행 구역(600)에 배치된 것이다. 조명 장치(500)는, 제어부(140)와 통신 연결될 수 있는 통신 모듈을 포함할 수 있다. 조명 장치(500)는, 통신 모듈을 통하여 제어부(140)가 송신하는 제어 신호를 수신할 수 있다. 조명 장치(500)는, 제어 신호에 기초하여, 동작될 수 있다. 예를 들어, 조명 장치(500)는, 제어 신호에 기초하여, 점등되거나, 소등되거나, 일정 주기로 점등과 소등을 반복할 수 있다. 이하, 조명 장치(500)가 점등되는 것으로 온(On), 소등되는 것으로 오프(Off)라고 표현한다.
도 6은 본 발명에 따른 이동 로봇(100)이 조명 장치(500)의 위치를 판단하는 과정을 설명하기 위한 순서도이다.
제어부(140)는, 조명 장치(500)를 온오프(On-Off) 제어할 수 있다(S100).
제어부(140)가 수행하는 온오프 제어는, 조명 장치(500)가 오프(Off) 되도록 제어하는 것, 조명 장치(500)가 온(On) 되도록 제어하는 것, 및 조명 장치(500)가 일정 시간동안 온과 오프를 반복하도록 제어하는 것 중 하나일 수 있다. 예를 들어, 제어부(140)는, 오프 상태의 조명 장치(500)가 온 되도록 제어할 수 있다. 또한, 제어부(140)는, 조명 장치(500)가 조명 장치가 10초 동안 1초의 주기로 온과 오프를 반복하도록 제어할 수도 있다. 조명 장치(500)에 대한 제어 방법에 따라 제어부(140)가 조명 장치(500)의 위치를 판단하는 구체적인 방법이 상이해질 수 있다.
조명 장치(500)는, 복수 개일 수 있다. 조명 장치(500)가 복수 개인 경우, 제어부(140)는, 위치가 판단되지 않은 조명 장치(500) 중 적어도 하나의 위치를 판단하기 위하여 다양한 온오프 제어를 수행할 수 있다.
예를 들어, 제어부(140)는, 복수 개의 조명 장치(500) 중 하나에 대하여 온오프 제어를 수행하거나, 복수 개의 조명 장치(500) 전부에 대하여 순차적으로 온오프 제어를 수행하거나, 복수 개의 조명 장치(500) 전부에 대하여 동시에 서로 다른 주기로 온오프를 반복하도록 제어할 수 있다. 제어부(140)의 조명 장치(500)에 대한 온오프 제어 방법에 따라 조명 장치(500)의 위치를 판단하는 구체적인 방법이 달라질 수 있다.
주행 구역(600)에는 복수 개의 조명 장치(500)가 존재할 수 있다. 주행 구역(600)에 존재하는 조명 장치(500)는, 이동 로봇(100)과 통신 가능하도록 설정된 것일 수 있다. 저장부에는 주행 구역(600) 내에 존재하는 조명 장치(500)와 통신을 수행하기 위한 통신 설정 및 각종 정보가 저장될 수 있다. 제어부(140)는, 저장부에 저장된 조명 장치(500)와의 통신을 위한 정보에 기초하여, 주행 구역(600) 내에 존재하는 복수 개의 조명 장치(500)와 통신을 수행할 수 있다. 제어부(140)는, 조명 장치(500)와 통신을 수행함으로써, 조명 장치(500)를 원격 제어하거나, 조명 장치(500)의 동작 상태를 판단할 수 있다. 주행 구역(600)에 배치된 조명 장치(500) 중 기 설정되지 않은 것이라도 제어부(140)는, 통신 가능한 조명 장치(500)가 검색되는 경우, 통신 연결을 수행하고, 통신 연결된 조명 장치(500)를 제어할 수 있다.
주행 구역(600)은, 복수 개의 방을 포함할 수 있다. 주행 구역(600)에 존재하는 복수 개의 방에는 각각 적어도 하나의 조명 장치(500)가 배치될 수 있다.
제어부(140)는, 조명 장치(500)를 온오프 제어하고, 영상획득부(120)를 통하여 획득되는 영상에 기초하여, 조도 변화가 감지되는지 판단할 수 있다(S200).
예를 들어, 제어부(140)는, 획득되는 영상에서 조도가 증가하거나 감소하는 영역이 감지되는 경우, 조도가 변화하는 것으로 판단할 수 있다.
제어부(140)는, 영상에서 감지되는 조도 변화에 기초하여, 조명 장치(500)의 위치를 판단할 수 있다. 이하, 이에 대한 구체적인 과정을 설명한다.
제어부(140)는, 영상에서 조도 변화가 감지되는 경우, 본체(110)를, 감지되는 조도가 증가하는 방향이나, 감지되는 조도 변화량이 증가하는 방향으로 이동시킬 수 있다(S400).
제어부(140)는, 조명 장치(500)를 온 되도록 제어한 경우, 조도 변화가 감지되면, 본체(110)를 조도가 증가하는 방향으로 이동시킨다. 제어부(140)는, 오프 상태인 조명 장치(500)가 온 상태로 제어되고, 획득되는 영상을 통하여 조도가 증가하는 것이 감지되는 경우, 온 되도록 제어된 조명 장치(500)가 방출하는 광으로 인하여 조도가 증가한 것으로 판단할 수 있다. 이 경우, 제어부(140)는, 본체(110)를 조도가 증가하는 방향으로 이동시킴으로써, 이동 로봇(100)이 조명 장치(500)의 위치에 가까워지도록 할 수 있다. 제어부(140)는, 본체(110)의 이동 중 획득되는 영상에 기초하여, 조도가 최대인 지점을 판단할 수 있다. 제어부(140)는, 조도가 최대인 지점에 조명 장치가 위치하는 것으로 판단할 수 있다.
제어부(140)는, 본체(110)를 조도가 증가하는 방향으로 이동시키기 위하여, 획득되는 영상 내 존재하는 복수의 지점에서의 조도를 측정할 수 있다. 제어부(140)는, 각 지점의 조도를 비교하여, 영상에서 감지되는 조도가 최대인 지점으로 본체(110)를 이동시킬 수 있다. 조도에 영향을 미치는 광은 조명 장치(500)로부터 발산되는 것이므로, 조도가 최대인 지점은, 조명 장치(500)가 위치하는 지점일 수 있다. 조명 장치(500)가 온인 경우 영상에서 각 지점의 밝기는 조명 장치(500)에 가까울수록 크므로, 조명 장치(500)에 가까운 지점일수록 조도가 큰 지점일 수 있다. 조명 장치(500)에 가까울수록 조도가 크므로, 이동 로봇(100)의 본체(110)가 조도가 증가하는 방향으로 이동하는 경우, 본체(110)와 조명 장치(500)가 가까워 질 수 있다. 결론적으로, 감지되는 조도가 증가하는 방향은, 감지되는 조도가 최대인 지점이 존재하는 방향일 수 있고, 조명 장치(500)에 가까워지는 방향이다. 제어부(140)는, 본체(110)를 조명 장치(500)에 가까워지도록 제어함으로써, 획득되는 영상에서 조명 장치가 감지될 수 있도록 한다.
제어부(140)는, 조명 장치(500)를 온과 오프가 반복되도록 제어한 경우, 조도 변화가 감지되면, 본체(110)를 조도 변화량이 증가하는 방향으로 이동시킬 수 있다. 제어부(140)는, 조명 장치(500)가 온과 오프를 반복하도록 제어하고, 획득되는 영상을 통하여 조도의 증가와 감소가 반복되는 것이 감지되는 경우, 온과 오프를 반복하도록 제어된 조명 장치(500)가 방출하는 광으로 인하여 조도가 변화한 것으로 판단할 수 있다. 이 경우, 제어부(140)는, 본체(110)를 조도 변화량이 증가하는 방향으로 이동시킴으로써, 이동 로봇(100)이 조명 장치(500)의 위치에 가까워지도록 할 수 있다. 제어부(140)는, 본체(110)의 이동 중 획득되는 영상에 기초하여, 조도 변화량이 최대인 지점을 판단할 수 있다. 제어부(140)는, 조도 변화량이 최대인 지점에 조명 장치가 위치하는 것으로 판단할 수 있다.
제어부(140)는, 조명 장치(500)를 오프 되도록 제어한 경우, 조도 변화가 감지되면, 조명 장치(500)를 온과 오프가 반복되도록 제어하고 본체(110)를 조도 변화량이 증가하는 방향으로 이동시킬 수 있다. 제어부(140)는, 조명 장치(500)를 오프 되도록 제어한 경우, 조도 변화가 감지되면, 조명 장치(500)에서 발산되는 광이 본체(110)의 위치까지 도달하는 것으로 판단할 수 있다. 이 경우, 제어부(140)는, 조명 장치(500)가 주변에 존재하는 것으로 판단하고, 조명 장치(500)의 정확한 위치를 판단하기 위하여 오프 시켰던 조명 장치(500)를 온과 오프를 반복하도록 제어할 수 있다. 제어부(140)는, 본체(110)를 조도 변화량이 증가하는 방향으로 이동시킴으로써, 이동 로봇(100)이 조명 장치(500)의 위치에 가까워지도록 할 수 있다. 제어부(140)는, 본체(110)의 이동 중 획득되는 영상에 기초하여, 조도 변화량이 최대인 지점을 판단할 수 있다. 제어부(140)는, 조도 변화량이 최대인 지점에 조명 장치가 위치하는 것으로 판단할 수 있다.
제어부(140)는, 본체(110)를 조도 변화량이 증가하는 방향으로 이동시키기 위하여, 획득되는 영상 내 존재하는 복수의 지점에서의 조도 변화량을 판단할 수도 있다. 제어부(140)는, 각 지점의 조도 변화량을 비교하여, 조도 변화량이 최대인 지점으로 본체(110)를 이동시킬 수 있다. 조도 변화량이 최대인 지점은, 조명 장치(500)가 온인 경우의 밝기와 오프인 경우의 밝기의 차이가 최대인 지점이다. 조명 장치(500)가 오프인 경우 영상에서 각 지점의 밝기는 일정하고, 조명 장치(500)가 온인 경우 영상에서 각 지점의 밝기는 조명 장치(500)에 가까울수록 크므로, 조명 장치(500)에 가까운 지점일수록 조도 변화량이 큰 지점일 수 있다. 조명 장치(500)에 가까울수록 조도 변화량이 크므로, 이동 로봇(100)의 본체(110)가 조도 변화량이 증가하는 방향으로 이동하는 경우, 본체(110)와 조명 장치(500)가 가까워 질 수 있다. 결론적으로, 감지되는 조도 변화량이 증가하는 방향은, 감지되는 조도 변화량이 최대인 지점이 존재하는 방향일 수 있고, 조명 장치(500)에 가까워지는 방향이다. 제어부(140)는, 본체(110)를 조명 장치(500)에 가까워지도록 제어함으로써, 획득되는 영상에서 조명 장치가 감지될 수 있도록 한다.
제어부(140)는, 영상에서 조도 변화가 감지되지 않는 경우, 본체(110)를 감지 기대 영역으로 이동시킬 수 있다(S300). 제어부(140)는, 감지 기대 영역 내에서 조명 장치(500)를 온오프 제어하고(S100), 조도 변화가 감지되는지 판단할 수 있다(S200).
감지 기대 영역은, 조도의 변화가 감지될 것으로 예상되는 주행 구역(600) 내의 일 영역일 수 있다. 제어부(140)는, 주행 구역(600)에 대한 맵 정보와 이동 로봇(100)의 현재 위치 정보에 기초하여, 감지 기대 영역을 판단할 수 있다.
제어부(140)는, 조명 장치(500)가 온오프 제어되는 상황에서 주변 영상에서 조도 변화가 감지되지 않는 경우, 본체(110)의 현재 위치를 조명 장치(500)에 의한 광이 전달되지 않는 위치라고 판단할 수 있다.
제어부(140)는, 주행 구역(600)의 맵에 기초하여, 현재 본체(110)의 위치에서 감지할 수 없는 광을 방출하는 조명 장치(500)가 존재할 수 있는 예상 영역을 판단할 수 있다. 제어부(140)는, 주행 구역(600)의 맵에 조명 장치(500)의 광을 차단할 수 있는 격벽이나, 오브젝트가 존재하는지 판단할 수 있다. 제어부(140)는, 조명 장치(500)의 광을 차단할 수 있는 요소의 위치 및 본체(110)의 현재 위치에 기초하여, 감지 기대 영역을 판단할 수 있다.
본체(110)의 위치 및 주행 구역(600)의 형태에 따라 감지 기대 영역은 복수 개일 수 있다. 이 경우, 제어부(140)는, 복수 개의 감지 기대 영역 중 가장 가까운 지점으로 본체(110)를 이동시킬 수 있다.
제어부(140)는, 본체(110)의 이동 중 영상획득부(120)에 의하여 획득되는 영상에서 조도 변화가 감지되는지 판단할 수 있다. 제어부(140)는, 본체(110)가 감지 기대 영역에 도달하기 전이라도, 획득되는 영상에서 조도 변화가 감지되는 경우, 감지되는 조도 변화량이 증가하는 방향 또는 감지되는 조도가 증가하는 방향으로 본체(110)를 이동시킬 수 있다.
제어부(140)는, 본체(110)를 이동시키면서, 온오프 제어되는 조명 장치(500)가 감지되는지 판단할 수 있다(S500).
제어부(140)는, 영상획득부(120)가 획득하는 영상에 기초하여, 온오프 제어되는 조명 장치(500)를 검출할 수 있다. 제어부(140)는, 온오프 제어되는 조명 장치(500)의 검출 위치를 판단할 수 있다.
제어부(140)는, 본체(110)를 조도가 증가하는 방향으로 이동시킨 경우, 획득되는 영상에서 조도가 최대인 지점을 검출할 수 있다. 이 경우, 제어부(140)는, 검출된 조도가 최대인 지점을 조명 장치의 위치로 판단할 수 있다.
제어부(140)는, 본체(110)를 조도 변화량이 증가하는 방향으로 이동시킨 경우, 획득되는 영상에서 조도 변화량이 최대인 지점을 검출할 수 있다. 이 경우, 제어부(140)는, 검출된 조도 변화량이최대인 지점을 조명 장치의 위치로 판단할 수 있다.
제어부(140)는, 본체(110)의 현재 위치와 영상에서 검출되는 조명 장치(500)의 위치 및 방향 등에 기초하여, 주행 구역에서의 조명 장치(500)의 위치를 판단할 수 있다.
제어부(140)는, 조명 장치(500)가 복수 개인 경우, 각 조명 장치(500)의 위치를 판단할 수 있다.
예를 들어, 제어부(140)는, 복수 개의 조명 장치(500) 중 하나를 온오프 제어하고, 조도 변화를 발생시키는 조명 장치(500)가 감지되는 경우, 감지된 조명 장치(500)가 온오프 제어되고 있는 조명 장치(500)라고 판단할 수 있다.
예를 들어, 제어부(140)는, 복수 개의 조명 장치(500) 순차적으로 켜지고 꺼지도록 제어하고, 획득되는 영상에서 감지되는 발광 타이밍에 기초하여, 복수 개의 조명 장치(500) 각각의 위치를 판단할 수 있다.
예를 들어, 제어부(140)는, 복수 개의 조명 장치(500) 중 하나를 특정 주기로 온오프가 반복되도록 제어하고, 획득된 영상에서 상기 특정 주기로 깜빡거리는 조명 장치(500)가 검출되는 경우, 검출된 조명 장치(500)가 온오프 제어되고 있는 조명 장치(500)라고 판단할 수 있다.
제어부(140)는, 저장부에 저장된 맵에 판단된 조명 장치(500)의 위치를 표시하여, 조명 장치(500)의 위치가 나타나는 조명 맵을 생성할 수 있다(S600).
조명 맵은, 주행 구역(600), 및 주행 구역(600) 내 조명 장치(500)의 배치가 표시된 맵 정보일 수 있다.
제어부(140)는, 복수 개의 조명 장치(500) 중 적어도 하나의 위치가 판단된 경우, 조명 맵을 생성할 수 있다. 생성된 조명 맵을 저장부에 저장할 수 있다. 제어부(140)는, 새롭게 위치가 판단된 조명 장치(500)가 존재하는 경우, 저장부에 저장된 조명 맵에 새롭게 판단된 조명 장치(500)의 위치를 추가할 수 있다.
이하, 본 발명에 따른 이동 로봇(100)이 조명 장치(500)의 위치를 판단하는 다양한 실시예를 설명한다.
본 발명의 다른 실시예에 따르면, 제어부(140)는, 복수 개의 조명 장치(500) 중 하나를 온오프 제어하고, 본체(110)를 조도 변화량이 증가하는 위치로 이동시키면서, 온오프 제어되는 조명 장치(500)의 위치를 판단할 수 있다. 이 경우, 온오프 제어는, 일정 주기로 조명 장치(500)가 켜졌다가 꺼지도록 제어하는 것일 수 있다. 제어부(140)는, 온오프 제어되는 조명 장치(500)의 위치가 판단될 때까지, 온오프 제어를 반복할 수 있다. 제어부(140)는, 위치가 판단된 조명 장치(500)의 온오프 제어를 중단할 수 있다.
본 발명의 다른 실시예에 따르면, 제어부(140)는, 복수 개의 방에 각각 적어도 하나의 조명 장치(500)가 존재하는 경우, 주행 구역(600)에 존재하는 복수 개의 조명 장치(500)를 순차적으로 온오프 제어할 수 있다.
제어부(140)는, 주행 구역(600)에 존재하는 복수 개의 조명 장치(500)를 순차적으로 온오프 제어하고, 본체(110)가 복수의 방에 순차적으로 진입하도록 제어함으로써, 복수 개의 조명 장치(500)의 배치를 판단할 수 있다.
제어부(140)는, 본체(110)가 복수 개의 방 중 하나에 위치하는 경우, 복수 개의 조명 장치(500)를 순차적으로 온오프 제어하고, 본체(110)가 위치한 방의 조도 변화를 발생시키는 조명 장치(500)를, 이동 로봇(100)이 위치한 방에 배치된 것으로 판단할 수 있다.
제어부(140)는, 본체(110)가 위치한 방에서 조도 변화를 발생시키지 않는 조명 장치(500)를, 나머지 방 중 어느 하나에 배치된 것으로 판단할 수 있다. 이후, 제어부(140)는, 다른 방에 진입하여 위치가 판단된 조명 장치(500)를 제외한 나머지 조명 장치(500)를 순차적으로 온오프 제어함으로써, 진입한 방에 배치된 조명을 판단할 수 있다.
제어부(140)는, 본체(110)가 위치한 방에 배치된 조명 장치(500)가 복수 개라고 판단되는 경우, 본체(110)가 위치한 방에 배치된 복수 개의 조명 장치(500)가 서로 다른 주기로 온오프를 반복하도록 제어하고, 감지되는 조명 장치(500)의 온오프 주기에 기초하여, 본체(110)가 위치한 방에 배치된 복수 개의 조명 장치(500) 각각의 위치를 판단할 수 있다.
도 7은 이동 로봇(100)이 조도 변화량이 증가하는 방향으로 이동하여 조명 장치(500)의 위치를 판단하는 것을 설명하기 위한 도면이다.
도 7의 실시예에 따르면, 제어부(140)는, 오프 상태의 조명 장치(500)를 온 되도록 제어할 수 있다.
조명 장치(500)가 온 되는 경우, 제어부(140)는, 영상획득부(120)를 통하여 획득되는 영상에 나타나는 조도 변화를 감지할 수 있지만, 온 된 조명 장치(500)를 감지할 수는 없다.
제어부(140)는, 감지되는 조도가 큰 영역으로 본체(110)를 이동시킬 수 있다. 조도가 큰 영역으로 본체(110)가 이동되는 경우, 제어부(140)는, 획득되는 영상에서 조명 장치(500)를 감지할 수 있다.
제어부(140)는, 조명 장치(500)의 정확한 위치를 판단하기 위하여 영상에서 나타나는 조명 장치(500)가 존재하는 방향으로 이동할 수 있다. 제어부(140)는, 본체(110)의 현재 위치 및 영상에서 나타나는 조명 장치(500)의 위치 및 방향에 기초하여, 조명 장치(500)의 위치를 확정할 수 있다.
제어부(140)는, 조명 장치(500)의 위치가 확정되는 경우, 확정된 조명 장치(500)의 위치를 맵에 표시함으로써, 조명 맵을 생성할 수 있다. 제어부(140)는, 생성된 조명 맵을 저장부에 저장하거나 기 설정된 서버에 전송함으로써 맵 정보를 관리할 수 있다.
도 8은 이동 로봇(100)이 조명 장치(500)를 온오프 제어하고 조도 변화가 감지되지 않는 경우, 감지 기대 영역으로 이동하여 조명 장치(500)의 위치를 판단하는 것을 설명하기 위한 도면이다.
도 8의 실시예에 따르면, 제어부(140)는, 오프 상태인 조명 장치(500)를 온 시킨 후, 영상획득부(120)를 통하여 획득된 영상에서 조도 변화가 감지되는지 판단할 수 있다.
제어부(140)는, 조도 변화가 감지되지 않는 경우, 주행 구역(600)에 대한 맵 정보와 본체(110)의 현재 위치 정보에 기초하여, 주행 구역(600) 내 조도 변화를 감지할 수 있을 것으로 예상되는 영역인 감지 기대 영역(601)을 판단할 수 있다. 예를 들어, 제어부(140)는, 조도 변화가 감지되지 않는 경우, 주행 구역(600)의 구조 상 현재 이동 로봇(100)이 조도 변화를 감지할 수 없는 영역에 위치한 것으로 판단하고, 주행 구역(600)의 다른 영역을 감지할 수 있는 위치가 어디인지 판단함으로써, 감지 기대 영역(601)을 판단할 수 있다.
제어부(140)는, 조명 장치(500)를 온 시키고 조도 변화가 감지되지 않는 경우, 본체(110)를 감지 기대 영역(601)으로 이동시킬 수 있다. 본체(110)의 이동 중, 제어부(140)는, 조도 변화가 감지되는지 판단할 수 있다.
제어부(140)는, 본체(110)가 감지 기대 영역(601)에 위치한 경우에도 조도 변화가 감지되지 않는 경우, 새로운 감지 기대 영역을 판단하여 이동할 수 있다.
제어부(140)는, 본체(110)가 감지 기대 영역(601)에 위치하고, 조도 변화가 감지되는 경우, 조도가 증가하는 방향이나 조도 변화량이 증가하는 방향으로 본체(110)를 이동 시킴으로써, 조명 장치(500)의 위치를 판단할 수 있다. 온 상태인 조명 장치(500)에 가까울수록 조도가 증가하고, 온오프가 반복되는 조명 장치(500)에 가까울수록 조도 변화량이 증가하므로, 조도나 조도 변화량이 증가하는 방향은, 온오프 제어되는 조명 장치(500)가 위치하는 방향에 대응되는 것일 수 있다.
도 9는 이동 로봇(100)이 복수 개의 조명 장치(500)를 순차적으로 온오프 제어하여 각 조명 장치(500)의 위치를 판단하는 것을 설명하기 위한 도면이다.
도 9의 실시예에 따르면, 제어부(140)는, 복수 개의 조명 장치(500)가 순차적으로 온오프되도록 제어할 수 있다.
제어부(140)는, 획득되는 영상에 광이 발생하는 타이밍과 광을 방출하는 오브젝트의 위치를 판단하여, 복수 개의 조명 장치(500) 각각의 위치를 판단할 수 있다.
예를 들어, 주행 구역(600)에 제1 조명 장치(501) 및 제2 조명 장치(502)가 존재하는 경우, 제어부(140)는, 먼저 제1 조명 장치(501)가 켜졌다가 꺼지고, 제1 조명 장치(501)가 꺼진 후 제2 조명 장치(502)가 켜지도록 제어할 수 있다. 제어부(140)는, 획득되는 영상에 나타나는 광의 발생 타이밍 및 검출 위치에 기초하여, 제1 조명 장치(501)의 위치와 제2 조명 장치(502)의 위치를 판단할 수 있다.
도 10은 이동 로봇(100)이 복수 개의 조명 장치(500)를 서로 다른 주기로 온오프가 반복되도록 제어함으로써, 각 조명 장치(500)의 위치를 판단하는 것을 설명하기 위한 도면이다.
도 10의 실시예에 따르면, 제어부(140)는, 복수 개의 조명 장치(500)가 서로 다른 주기로 온오프를 반복하도록 제어할 수 있다.
제어부(140)는, 획득되는 영상에 나타나는 광의 온오프 주기에 기초하여, 복수 개의 조명 장치(500) 각각의 위치를 판단할 수 있다.
제어부(140)는, 복수 개의 조명 장치(500)를 서로 다른 주기로 온오프를 반복하도록 제어하고, 획득된 영상에서 검출된 조명 장치(500)의 온오프 주기와 제어 중인 온오프 주기를 비교하여, 검출된 조명 장치(500)가 어떤 조명 장치(500)인지 판단할 수 있다.
이 경우, 제어부(140)는, 점출된 조명 장치(500)의 종류와 위치를 매칭시킴으로써, 어떤 조명 장치(500)가 어떤 위치에 존재하는지 판단할 수 있다.
예를 들어, 제어부(140)는, 제1 조명 장치(501)와 제2 조명 장치(502)가 서로 다른 주기로 깜빡거리도록 제어할 수 있다.
제어부(140)는, 제1 조명 장치(501)의 주기에 대응하는 조도 변화가 감지되는 경우, 감지된 조도 변화를 발생시키는 조명 장치(500)를 제1 조명 장치(501)로 판단할 수 있다. 제어부(140)는, 제2 조명 장치(502)의 주기에 대응하는 조도 변화가 감지되는 방향에 존재하는 조명 장치(500)가 제2 조명 장치(502)라고 판단할 수 있다.
도 11 및 도 12는 이동 로봇(100)이 복수의 방에 배치된 복수의 조명 장치(500)의 위치를 판단하는 방법을 설명하기 위한 도면이다.
도 11의 실시예에 따르면, 복수 개의 방에 각각 적어도 하나의 조명 장치(500)가 존재하는 경우, 제어부(140)는, 복수 개의 조명 장치(500)를 모두 온 시킨 후, 복수 개의 방 중 하나에 진입하여, 복수 개의 조명을 순차적으로 일정 시간 꺼졌다 켜지도록 제어할 수 있다.
이 경우, 제어부(140)는, 본체(110)가 존재하는 방에 배치된 조명이 꺼졌다 켜지는 시간에 기초하여, 복수 개의 조명 장치(500) 중 본체(110)가 존재하는 방에 배치된 조명 장치(500)가 무엇인지 판단할 수 있다.
이에 따라, 이동 로봇(100)은, 본체(110)의 현재 위치를 판단하기 위한 조도를 확보할 수 있고, 조명 장치(500)의 위치를 찾기 위한 온오프 제어 횟수를 줄일 수 있다.
도 12의 실시예에 따르면, 제어부(140)는, 복수 개의 방에 각각 적어도 하나의 조명 장치(500)가 존재하고, 본체(110)의 현재 위치를 판단하기 위한 조도가 충분한 경우, 복수 개의 조명 장치(500)를 모두 오프 시킨 후, 복수 개의 방 중 하나에 진입하여, 복수 개의 조명을 순차적으로 일정 시간 켜졌다 꺼지도록 제어할 수 있다.
이 경우, 제어부(140)는, 본체(110)가 존재하는 방에 배치된 조명이 켜졌다 꺼지는 시간에 기초하여, 복수 개의 조명 장치(500) 중 본체(110)가 존재하는 방에 배치된 조명 장치(500)가 무엇인지 판단할 수 있다.
본체(110)의 현재 위치를 판단하기 위한 조도가 충분하다는 것은, 감지되는 조도가 위치 판단 기준 조도 이상이라는 것일 수 있다.
위치 판단 기준 조도는, 실험에 의하여 결정된 값일 수 있고, 저장부에 저장된 데이터일 수 있다. 이에 따라, 이동 로봇(100)은, 조명 장치(500)의 위치를 찾기 위한 온오프 제어 횟수를 줄일 수 있다.
이하, 조명 장치의 위치를 수동 입력하는 실시예에 대하여 설명한다.
제어부(140)는, 조명 장치(300)에 대한 수동 입력 메뉴를 출력부(180)로 출력할 수 있다. 수동 입력 메뉴는, 조명 장치(500)에 대한 정보를 사용자가 직접 입력하기 위하여 출력되는 영상 및 소리 중 적어도 하나일 수 있다. 조명 장치(500)에 대한 정보는, 조명 장치(500)의 위치에 대한 정보를 포함할 수 있다. 조명 장치(500)에 대한 정보는, 조명 장치(500)의 제품 정보, 종류, 및 통신 연결 방식 중 적어도 하나에 대한 정보를 포함할 수 있다.
제어부(140)는, 수동 입력 메뉴에 대응하여 입력부(137)로 수신되는 사용자의 입력에 기초하여, 조명 장치(500)의 위치를 판단할 수 있다. 예를 들어, 제어부(140)는, 출력부(180)를 통하여 수동 입력 메뉴로서 주행 구역에 대한 맵을 표시할 수 있고, 표시된 맵 내에서 사용자의 입력에 의하여 선택된 위치를 조명 장치(500)의 위치라고 판단할 수 있다. 제어부(140)는, 사용자의 입력에 의하여 판단된 조명 장치(500)의 위치에 기초하여 조명 맵을 생성할 수 있다.
또한, 제어부(140)는, 본체(110)가 위치한 방에 배치된 조명 장치(500)가 없다고 판단되는 경우, 조명 장치(500)에 대한 수동 입력 메뉴를 출력부(180)로 출력할 수 있다. 이에 따라, 제어부(140)는, 조명 장치의 위치가 판단되지 않는 경우, 사용자로 하여금 직접 조명 장치의 위치를 입력하도록 유도할 수 있다. 제어부(140)는, 수동 입력 메뉴에 대응하여 입력부(137)로 수신되는 사용자의 입력에 기초하여, 조명 장치의 위치를 판단할 수 있다. 조명 장치의 위치가 판단되지 않는 경우 조명 장치(500)와의 연결이나 원격 제어가 수행되지 않은 것이므로, 제어부(140)는, 수동 입력 메뉴를 통하여 조명 장치(500)와의 연결이나 원격 제어를 위하여 필요한 정보를 획득할 수 있다. 예를 들어, 제어부(140)는, 사용자의 입력이나 기 설정된 서버가 제공하는 정보에 기초하여, 조명 장치(500)와의 연결이나 원격 제어를 위하여 필요한 정보를 획득할 수 있다.
이하, 이동 로봇(100)이 생성된 조명 맵에 기초하여, 주행 구역(600)에 배치된 복수 개의 조명 장치(500)를 제어하는 실시예를 구체적으로 설명한다.
제어부(140)는, 조명 맵에 기초하여, 복수 개의 조명 장치(500) 중 본체(110)의 위치에 대응하는 것을 온 시킬 수 있다.
본체(110)의 위치에 대응하는 조명 장치(500)는, 본체(110)가 위치한 공간의 조도를 변화시킬 수 있는 조명 장치(500)일 수 있다. 예를 들어, 주행 구역(600)이 복수 개의 방으로 나누어져 있고, 본체(110)가 그 중 하나의 방에 위치하는 경우, 본체(110)가 위치한 방에 존재하는 조명 장치(500)는, 본체(110)의 위치에 대응하는 조명 장치(500)이다.
이동 로봇(100)은, 본체(110)의 위치에 대응하는 조명 장치(500)를 온 시킴으로써, 주변에 존재하는 장애물이나 주변 환경을 감지하는데 필요한 조도를 확보할 수 있다.
제어부(140)는, 조명 맵에 기초하여, 복수 개의 조명 장치(500) 중, 본체(110)의 위치에 대응하지 않는 조명 장치(500)를 오프 시킬 수 있다.
본체(110)의 위치에 대응하지 않는 조명 장치(500)는, 본체(110)가 위치한 공간의 조도를 변화시킬 수 없는 조명 장치(500)일 수 있다. 예를 들어, 주행 구역(600)이 복수 개의 방으로 나누어져 있고, 본체(110)가 그 중 하나의 방에 위치하는 경우, 본체(110)가 위치한 방을 제외한 나머지 방에 존재하는 조명 장치(500)는, 본체(110)의 위치에 대응하지 않는 조명 장치(500)이다.
이동 로봇(100)은, 본체(110)의 위치에 대응하지 않는 조명 장치(500)를 오프 시킴으로써, 조도 확보에 불필요한 조명 장치(500)를 오프 시키고, 불필요한 에너지 소비를 절약할 수 있다.
이동 로봇(100)이 본체(110)의 위치에 대응하지 않는 조명 장치(500)를 오프 시키는 동작은, 절전 모드에서 구현되는 것일 수 있다. 사용자는 절전 모드를 활성화시키거나 비활성화시킬 수 있다. 이동 로봇(100)은, 절전 모드가 활성화 된 경우, 본체(110)의 위치에 대응하지 않는 조명 장치(500)를 오프 시킬 수 있다.
제어부(140)는, 영상획득부(120)를 통하여 감지되는 조도가 설정 조도 이하인 경우, 조명 맵에 기초하여, 복수 개의 조명 장치(500) 중, 본체(110)의 위치에 대응하는 것을 온 시킬 수 있다. 제어부(140)는, 영상획득부(120)를 통하여 획득되는 영상에 기초하여, 오브젝트를 감지할 수 있다. 설정 조도는, 제어부(140)가 오브젝트를 감지하기 위하여 요구되는 최소한의 조도일 수 있다. 설정 조도는, 제어부(140)가 영상획득부(120)가 획득한 영상을 통하여 주변 장애물이나 주변 환경을 감지하고 판단하기 위하여 요구되는 조도일 수 있다. 설정 조도는 실험에 의하여 결정된 값일 수 있고 저장부에 저장된 값일 수 있다.
이동 로봇(100) 주변 환경의 조도가 이미 충분한 경우, 조명 장치(500)를 온 시켜서 조도를 확보할 필요가 없으므로, 제어부(140)는, 주변 조도가 설정 조도를 초과하는 경우, 주변 조명 장치(500)를 온 시키지 않음으로써, 에너지를 절약할 수 있다.
본 발명의 다른 실시예에서, 주행 구역(600)은, 복수 개의 방을 포함할 수 있고, 복수 개의 방에는, 각각 적어도 하나의 조명 장치(500)가 배치될 수 있다. 이 경우, 조명 맵은, 복수 개의 방 및 복수 개의 조명 장치(500)가 나타날 수 있다.
제어부(140)는, 조명 맵에 기초하여, 본체(110)가 진입하는 방에 배치된 조명 장치(500)를 온 시킬 수 있다. 제어부(140)는, 본체(110)가 진입하는 방에 배치된 조명 장치(500)를 온 시킴으로써, 주변 감지에 필요한 조도를 확보할 수 있다.
제어부(140)는, 조명 맵에 기초하여, 본체(110)가 퇴장하는 방에 배치된 조명 장치(500)를 오프 시킬 수 있다. 제어부(140)는, 본체(110)가 퇴장하는 방의 조명 장치(500)를 오프시킴으로써, 에너지를 절약할 수 있다.
제어부(140)는, 이동 로봇(100)이 진입하는 방의 조명 장치(500)를 온 시키고, 진입했던 방에서 퇴장하는 경우 퇴장하는 방의 조명의 오프시킴으로써, 에너지 효율을 극대화할 수 있다.
본 발명의 다른 일 실시예에 따르면, 제어부(140)는, 영상획득부(120)를 통하여 획득되는 영상에 기초하여, 본체(110)의 위치를 판단하고, 영상의 조도가 낮아서 상기 본체(110)의 위치를 판단할 수 없다고 판단되는 경우, 복수 개의 조명 장치(500)를 모두 온 시킬 수 있다. 주행 구역(600)에 배치된 조명 장치(500)의 위치가 판단되지 않은 경우, 각 조명 장치(500)의 위치를 알 수 없으므로, 제어부(140)는, 이동 로봇(100)의 현재 위치를 판단하기 위해서 추가적인 조도 확보가 필요하다고 판단되는 경우, 주행 구역(600) 내 모든 조명 장치(500)를 온 시킬 수 있다.
본체(110)의 위치를 판단하기 위하여 필요한 최소한의 조도는 실험에 의하여 결정되어 저장부에 기 저장된 값일 수 있다. 제어부(140)는, 조명 장치(500)의 위치를 알 수 없고, 현재 조도가 상기 최소한의 조도 이하인 경우, 주행 구역(600) 내 모든 조명 장치(500)를 온 시킴으로써, 조도를 확보한 후, 이동 로봇(100)의 현재 위치를 판단할 수 있다.
제어부(140)는, 주행 구역(600)에 복수 개의 방이 존재하고, 복수 개의 방 중 조명 장치가 위치하지 않은 것으로 판단되는 방을 보류 영역으로 판단하고, 보류 영역에 대하여 사용자가 수동으로 조명 장치의 위치를 설정하도록 설정 화면을 표시할 수 있다. 이 경우, 제어부(140)는, 이동 로봇(100)을 원격 제어하는 이동 단말기 또는 입력부(137)를 통하여 수신되는 사용자 입력에 기초하여, 보류 영역에 대응하는 조명 장치의 위치를 설정할 수 있다. 제어부(140)는, 사용자가 지정한 위치에 조명 장치가 위치하는 것으로 판단할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
100 : 이동 로봇

Claims (20)

  1. 본체;
    상기 본체를 이동시키는 주행부;
    상기 본체의 주변 영상을 획득하는 영상획득부;
    주행 구역에 배치된 조명 장치와 통신을 수행하는 통신부;
    상기 주행 구역에 대한 맵(Map)이 저장되는 저장부; 및
    상기 영상획득부를 통해 획득되는 상기 영상으로부터 특징점을 추출하여 오브젝트를 감지하고 상기 본체의 위치를 판단하며, 상기 본체가 상기 주행 구역 내에서 이동하도록 상기 주행부를 제어하고, 상기 통신부를 통하여 상기 조명 장치를 제어하는 제어부; 를 포함하고,
    상기 제어부는, 상기 조명 장치를 온오프(On-Off) 제어하고, 상기 영상획득부를 통하여 획득되는 영상에서 감지되는 조도 변화에 기초하여, 상기 본체를, 감지되는 조도 변화량이 증가하는 방향, 또는 감지되는 조도가 증가하는 방향으로 이동시키면서, 조도 변화를 발생시키는 상기 조명 장치를 감지하여 상기 조명 장치의 위치를 판단하며, 판단된 상기 조명 장치의 위치를 상기 저장된 맵에 표시하여 조명 장치의 위치가 나타나는 조명 맵을 생성하는 이동 로봇.
  2. 제1항에 있어서,
    상기 온오프 제어는,
    온(On) 상태인 상기 조명 장치를 오프(Off) 되도록 제어하는 것,
    오프(Off) 상태인 상기 조명 장치를 온(On) 되도록 제어하는 것, 및
    상기 조명 장치가 일정 시간동안 온과 오프를 반복하도록 제어하는 것 중 하나인 이동 로봇.
  3. 제2항에 있어서,
    상기 제어부는,
    상기 영상에서 조도 변화가 감지되지 않는 경우, 상기 본체를 감지 기대 영역으로 이동시키고,
    상기 감지 기대 영역 내에서 상기 조명 장치를 온오프 제어하고, 조도 변화가 감지되는지 판단하는 이동 로봇.
  4. 삭제
  5. 제1항에 있어서,
    상기 제어부는,
    상기 조명 장치를 온 되도록 제어한 경우, 조도 변화가 감지되면, 상기 본체를 조도가 증가하는 방향으로 이동시키고,
    상기 조명 장치를 온과 오프가 반복되도록 제어한 경우, 조도 변화가 감지되면, 상기 본체를 조도 변화량이 증가하는 방향으로 이동시키고,
    상기 조명 장치를 오프 되도록 제어한 경우, 조도 변화가 감지되면, 상기 조명 장치를 온과 오프가 반복되도록 제어하고 상기 본체를 조도 변화량이 증가하는 방향으로 이동시키는 이동 로봇.
  6. 제1항에 있어서,
    상기 주행 구역에는 복수 개의 조명 장치가 존재하고,
    상기 제어부는,
    상기 복수 개의 조명 장치 중 하나를 온오프 제어하고,
    상기 영상에서 감지되는 조도 변화에 기초하여, 상기 온오프 제어되는 조명 장치의 위치를 판단하는 이동 로봇.
  7. 제1항에 있어서,
    상기 주행 구역에는 복수 개의 조명 장치가 존재하고,
    상기 제어부는,
    상기 복수 개의 조명 장치가 서로 다른 주기로 온과 오프를 반복하도록 제어하고,
    상기 영상에 감지되는 광의 온오프 주기에 기초하여, 상기 복수 개의 조명 장치 각각의 위치를 판단하는 이동 로봇.
  8. 제1항에 있어서,
    상기 주행 구역에는 복수 개의 조명 장치가 존재하고,
    상기 제어부는,
    상기 복수 개의 조명 장치가 순차적으로 켜지고 꺼지도록 제어하고,
    상기 영상에 감지되는 발광 타이밍에 기초하여, 상기 복수 개의 조명 장치 각각의 위치를 판단하는 이동 로봇.
  9. 제6항에 있어서,
    상기 주행 구역은, 복수 개의 방을 포함하고,
    상기 복수 개의 방에는, 각각 적어도 하나의 조명 장치가 배치되고,
    상기 제어부는,
    상기 본체가 상기 복수 개의 방 중 하나에 진입하도록 제어하고,
    상기 본체가 상기 복수 개의 방 중 하나에 위치하는 경우, 상기 복수 개의 조명 장치를 순차적으로 온오프 제어하고,
    상기 본체가 위치한 방의 조도 변화를 발생시키는 조명 장치를, 상기 이동 로봇이 위치한 방에 배치된 것으로 판단하는 이동 로봇.
  10. 제9항에 있어서,
    상기 제어부는,
    상기 본체가 위치한 방에서 조도 변화를 발생시키지 않는 조명 장치를, 나머지 방 중 어느 하나에 배치된 것으로 판단하는 이동 로봇.
  11. 제9항에 있어서,
    상기 제어부는,
    상기 본체가 위치한 방에 배치된 조명 장치가 복수 개라고 판단되는 경우,
    상기 본체가 위치한 방에 배치된 복수 개의 조명 장치가 서로 다른 주기로 온과 오프를 반복하도록 제어하거나, 순차적으로 켜지고 꺼지도록 제어하고,
    상기 영상에서 감지되는 조명 장치의 온오프 주기 또는 발광 타이밍에 기초하여, 상기 본체가 위치한 방에 배치된 복수 개의 조명 장치 각각의 위치를 판단하는 이동 로봇.
  12. 제9항에 있어서,
    입력부; 및 출력부; 를 더 포함하고,
    상기 제어부는,
    상기 본체가 위치한 방에 배치된 조명 장치가 없다고 판단되는 경우, 조명 장치에 대한 수동 입력 메뉴를 상기 출력부로 출력하고,
    상기 수동 입력 메뉴에 대응하여 상기 입력부로 수신되는 사용자의 입력에 기초하여, 조명 장치의 위치를 판단하는 이동 로봇.
  13. 본체;
    상기 본체를 이동시키는 주행부;
    상기 본체의 주변 영상을 획득하는 영상획득부;
    주행 구역에 대한 맵(Map)이 저장되는 저장부;
    입력부;
    출력부;
    주행 구역에 배치된 조명 장치와 통신을 수행하는 통신부; 및
    상기 영상획득부를 통해 획득되는 상기 영상으로부터 특징점을 추출하여 오브젝트를 감지하고 상기 본체의 위치를 판단하며, 상기 본체가 상기 주행 구역 내에서 이동하도록 상기 주행부를 제어하고, 상기 통신부를 통하여 상기 조명 장치를 제어하는 제어부; 를 포함하고,
    상기 제어부는, 조명 장치에 대한 수동 입력 메뉴를 상기 출력부로 출력하고, 상기 수동 입력 메뉴에 대응하여 상기 입력부로 수신되는 사용자의 입력에 기초하여, 조명 장치의 위치를 판단하고, 상기 조명 장치의 위치를 상기 저장된 맵에 표시하여 조명 장치의 위치가 나타나는 조명 맵을 생성하고, 상기 영상획득부를 통하여 감지되는 조도가 설정 조도 이하인 경우, 상기 조명 맵에 기초하여, 상기 복수 개의 조명 장치 중 상기 본체의 위치에 대응하는 것을 온 시키는 이동 로봇.
  14. 제1항 또는 제13항에 있어서,
    상기 조명 장치는, 복수 개이고,
    상기 제어부는, 상기 복수 개의 조명 장치의 위치를 판단하여 상기 저장된 맵에 상기 복수 개의 조명 장치의 위치를 표시하여, 상기 조명 맵을 생성하는 이동 로봇.
  15. 삭제
  16. 제1항에 있어서,
    상기 제어부는,
    상기 영상획득부를 통하여 감지되는 조도가 설정 조도 이하인 경우,
    상기 조명 맵에 기초하여, 복수 개의 조명 장치 중 상기 본체의 위치에 대응하는 것을 온 시키는 이동 로봇.
  17. 제13항 또는 제16항에 있어서,
    상기 제어부는,
    상기 영상획득부를 통하여 획득되는 영상에 기초하여, 상기 본체의 위치를 판단하거나 오브젝트를 감지하고,
    상기 설정 조도는,
    상기 본체의 위치를 판단하거나 상기 오브젝트를 감지하기 위하여 요구되는 최소한의 조도인 이동 로봇.
  18. 제1항 또는 제13항에 있어서,
    상기 제어부는,
    상기 조명 맵에 기초하여, 복수 개의 조명 장치 중, 상기 본체의 위치에 대응하지 않는 조명 장치를 오프(Off) 시키는 이동 로봇.
  19. 제1항 또는 제13항에 있어서,
    상기 주행 구역은, 복수 개의 방을 포함하고,
    상기 복수 개의 방에는, 각각 적어도 하나의 조명 장치가 배치되고,
    상기 조명 맵에는, 상기 복수 개의 방 및 상기 복수 개의 조명 장치가 나타나고,
    상기 제어부는,
    상기 조명 맵에 기초하여, 상기 본체가 진입하는 방에 배치된 조명 장치를 온 시키는 이동 로봇.
  20. 제19항에 있어서,
    상기 제어부는,
    상기 조명 맵에 기초하여, 상기 본체가 퇴장하는 방에 배치된 조명 장치를 오프 시키는 이동 로봇.
KR1020170007216A 2017-01-16 2017-01-16 이동 로봇 KR102000067B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170007216A KR102000067B1 (ko) 2017-01-16 2017-01-16 이동 로봇
US15/872,629 US10921806B2 (en) 2017-01-16 2018-01-16 Moving robot
EP18151772.3A EP3349087B1 (en) 2017-01-16 2018-01-16 Moving robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170007216A KR102000067B1 (ko) 2017-01-16 2017-01-16 이동 로봇

Publications (2)

Publication Number Publication Date
KR20180084305A KR20180084305A (ko) 2018-07-25
KR102000067B1 true KR102000067B1 (ko) 2019-09-17

Family

ID=61007472

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170007216A KR102000067B1 (ko) 2017-01-16 2017-01-16 이동 로봇

Country Status (3)

Country Link
US (1) US10921806B2 (ko)
EP (1) EP3349087B1 (ko)
KR (1) KR102000067B1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10895971B2 (en) * 2017-05-12 2021-01-19 Irobot Corporation Methods, systems, and devices for mapping, controlling, and displaying device status
CN110044334B (zh) * 2018-01-16 2020-04-21 京东方科技集团股份有限公司 基于维诺图的室内空间定位
US11278172B2 (en) * 2018-10-08 2022-03-22 Pixart Imaging Inc. Cleaning robot capable of identifying surface type
KR102368856B1 (ko) * 2018-12-31 2022-03-02 주식회사 도구공간 오브젝트 탐지 방법 및 장치
US11353884B2 (en) * 2019-01-28 2022-06-07 Pixart Imaging Inc. Robot without detection dead zone
CN109760055A (zh) * 2019-01-30 2019-05-17 盈科视控(北京)科技有限公司 一种用于机器人的图形通讯的方法和系统
KR102183098B1 (ko) * 2019-02-25 2020-11-25 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
US11480431B1 (en) * 2019-08-27 2022-10-25 Alarm.Com Incorporated Lighting adaptive navigation
CN112641382B (zh) * 2019-10-12 2022-05-06 尚科宁家(中国)科技有限公司 一种扫地机器人补光控制方法及扫地机器人
CN112925351B (zh) * 2019-12-06 2022-08-02 杭州萤石软件有限公司 一种视觉机器光源控制方法、装置
CN115316046A (zh) * 2020-03-27 2022-11-08 三菱电机株式会社 照明管理装置、照明管理系统、学习装置以及推理装置
CN112792820B (zh) * 2021-03-16 2021-09-14 千里眼(广州)人工智能科技有限公司 机器人自动回充方法、装置及机器人系统
CN113848886A (zh) * 2021-09-08 2021-12-28 安克创新科技股份有限公司 移动机器人
DE102021127083A1 (de) 2021-10-19 2023-04-20 Bayerische Motoren Werke Aktiengesellschaft Leuchtmittelsteuereinrichtung zur Steuerung eines Betriebszustandes eines Leuchtmittels sowie Leuchtmittelsteuerungsverfahren
KR20240028574A (ko) * 2022-08-24 2024-03-05 삼성전자주식회사 전자 장치를 관리하는 로봇 및 그 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200305679Y1 (ko) * 2002-11-09 2003-03-03 삼성광주전자 주식회사 조명장치를 갖는 로봇청소기

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4933864A (en) * 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
US6807478B2 (en) * 2001-12-27 2004-10-19 Koninklijke Philips Electronics N.V. In-building navigation system
KR100506533B1 (ko) * 2003-01-11 2005-08-05 삼성전자주식회사 이동로봇 및 그에 따른 자율주행 시스템 및 방법
DE112005000738T5 (de) * 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
US7634336B2 (en) * 2005-12-08 2009-12-15 Electronics And Telecommunications Research Institute Localization system and method of mobile robot based on camera and landmarks
KR101278458B1 (ko) * 2006-10-31 2013-07-01 에스케이텔레콤 주식회사 로봇을 이용한 조명 제어 시스템 및 방법
US8285475B2 (en) * 2007-03-02 2012-10-09 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Combined beacon and scene navigation system
KR101337534B1 (ko) 2007-07-24 2013-12-06 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 방법
US8676273B1 (en) * 2007-08-24 2014-03-18 Iwao Fujisaki Communication device
KR101365348B1 (ko) * 2007-12-18 2014-02-21 삼성전자주식회사 가시광 통신을 이용한 네비게이션 시스템에서 메시지 교환방법
US8312660B1 (en) * 2008-05-09 2012-11-20 Iwao Fujisaki Firearm
JP5141452B2 (ja) * 2008-09-05 2013-02-13 富士通株式会社 姿勢計測装置及び姿勢計測方法
KR20110073040A (ko) * 2009-12-23 2011-06-29 삼성전자주식회사 조명등을 이용한 실내 네비게이션 방법 및 시스템
US9083461B2 (en) * 2011-01-07 2015-07-14 Kabushiki Kaisha Toshiba Localisation of electronic equipment
US10429869B2 (en) * 2011-02-16 2019-10-01 Kortek Industries Pty Ltd Wireless power, light and automation control
US8416290B2 (en) * 2011-07-26 2013-04-09 ByteLight, Inc. Method and system for digital pulse recognition demodulation
US9461752B2 (en) * 2012-06-30 2016-10-04 Intel Corporation Methods and arrangements for generating a waveform for frequency shift keying communications
JP5590431B1 (ja) * 2012-12-27 2014-09-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報通信方法
US9233472B2 (en) * 2013-01-18 2016-01-12 Irobot Corporation Mobile robot providing environmental mapping for household environmental control
US9955559B2 (en) * 2013-09-10 2018-04-24 Philips Lighting Holding B.V. Methods and apparatus for automated commissioning of coded light sources
US9170581B2 (en) * 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
US9780873B2 (en) * 2014-03-25 2017-10-03 Osram Sylvania Inc. Light-based communication transmission protocol
US10178506B2 (en) * 2014-03-25 2019-01-08 Osram Sylvania Inc. Augmenting light-based communication receiver positioning
EP3123194A2 (en) * 2014-03-25 2017-02-01 Osram Sylvania Inc. Techniques for augmenting gps-based navigation via light-based communication
FR3024267B1 (fr) * 2014-07-25 2017-06-02 Redlime Procedes de determination et de commande d'un equipement a commander, dispositif, utilisation et systeme mettant en œuvre ces procedes
US9749782B2 (en) * 2014-07-31 2017-08-29 Qualcomm Incorporated Light fixture commissioning using encoded light signals
US10066959B2 (en) * 2014-09-02 2018-09-04 Apple Inc. User interactions for a mapping application
KR20160028239A (ko) * 2014-09-03 2016-03-11 재단법인한국조선해양기자재연구원 조명 제어 시스템 및 제어 방법
KR20180049024A (ko) * 2015-09-04 2018-05-10 크라운 이큅먼트 코포레이션 특징부-기반 위치파악 및 네비게이션을 이용하는 산업용 차량
EP3229037B1 (en) * 2016-04-08 2020-07-01 Centre National d'Etudes Spatiales Visible light communication based positioning
US10054951B2 (en) * 2016-05-25 2018-08-21 Fuji Xerox Co., Ltd. Mobile robot indoor localization and navigation system and method
US10637575B2 (en) * 2016-05-25 2020-04-28 Wisconsin Alumni Research Foundation Spatial location indoors using standard fluorescent fixtures
JP6995770B2 (ja) * 2016-06-15 2022-01-17 アイロボット・コーポレーション 自律移動ロボットを制御するためのシステムおよび方法
WO2018023227A1 (zh) * 2016-07-31 2018-02-08 杨洁 机器人移动技术的数据采集方法和机器人

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200305679Y1 (ko) * 2002-11-09 2003-03-03 삼성광주전자 주식회사 조명장치를 갖는 로봇청소기

Also Published As

Publication number Publication date
US20180203448A1 (en) 2018-07-19
KR20180084305A (ko) 2018-07-25
EP3349087A1 (en) 2018-07-18
US10921806B2 (en) 2021-02-16
EP3349087B1 (en) 2023-05-31

Similar Documents

Publication Publication Date Title
KR102000067B1 (ko) 이동 로봇
US11737635B2 (en) Moving robot and control method thereof
KR101976424B1 (ko) 이동 로봇
US11846950B2 (en) Mobile robot and control method thereof
CN109890576B (zh) 移动机器人及其控制方法
KR102314539B1 (ko) 인공지능 이동 로봇의 제어 방법
US10967512B2 (en) Moving robot and controlling method
TWI706763B (zh) 移動式機器人及其控制方法
KR101629649B1 (ko) 로봇 청소기 및 로봇 청소기의 제어방법
KR102319489B1 (ko) 이동 로봇 및 그 제어방법
KR102548936B1 (ko) 인공지능 이동 로봇 및 그 제어방법
KR102621350B1 (ko) 로봇 청소기 시스템 및 그 동작 방법
KR20180023303A (ko) 이동 로봇 및 그 제어방법
KR20180090565A (ko) 이동 로봇 및 그 제어방법
KR101922953B1 (ko) 이동 로봇 및 그 제어방법
KR20180089660A (ko) 조명 제어 시스템
KR102478283B1 (ko) 이동 로봇 및 그 제어방법
KR20180037516A (ko) 이동 로봇 및 그 제어방법
KR102048363B1 (ko) 이동 로봇
KR20200091110A (ko) 이동 로봇 및 그 제어 방법
KR20230011698A (ko) 이동 로봇

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant