KR102396048B1 - 로봇청소기 및 그 제어방법 - Google Patents

로봇청소기 및 그 제어방법 Download PDF

Info

Publication number
KR102396048B1
KR102396048B1 KR1020200055984A KR20200055984A KR102396048B1 KR 102396048 B1 KR102396048 B1 KR 102396048B1 KR 1020200055984 A KR1020200055984 A KR 1020200055984A KR 20200055984 A KR20200055984 A KR 20200055984A KR 102396048 B1 KR102396048 B1 KR 102396048B1
Authority
KR
South Korea
Prior art keywords
information
brightness
light source
main body
control
Prior art date
Application number
KR1020200055984A
Other languages
English (en)
Other versions
KR20210137744A (ko
Inventor
전우찬
조성범
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020200055984A priority Critical patent/KR102396048B1/ko
Publication of KR20210137744A publication Critical patent/KR20210137744A/ko
Application granted granted Critical
Publication of KR102396048B1 publication Critical patent/KR102396048B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2805Parameters or conditions being sensed
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/30Arrangement of illuminating devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/11Controlling the light source in response to determined parameters by determining the brightness or colour temperature of ambient light
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Electric Vacuum Cleaner (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명에 따른 로봇 청소기는 본체, 상기 본체에 구비되어 상기 본체를 이동시키는 주행부, 상기 본체에 구비되어 먼지를 흡입하는 청소부, 상기 본체에 구비되어 주변 영상 정보를 획득하는 카메라, 상기 본체에 구비되어 외부로 빛을 발생하는 광원 및 상기 주변 영상 정보를 분석하여 낮과 밤에 관한 제1 정보 및 인근 환경의 조도에 관한 제2 정보를 획득하고, 상기 제1 정보 및 상기 제2 정보를 이용하여 상기 광원의 밝기를 조절하는 제어부를 포함하는 것을 특징으로 한다.
위와 같은 본 발명에 따른 청소기에 따르면, 로봇청소기에 장착된 카메라로 감지된 주변 환경을DNN(Deep Neural Network)으로 분석하여, 밤에 주변 환경의 조명이 모두 소등 되어 있을 때, 디스플레이LED의 밝기를 순차적으로 어둡게 할 수 있다.

Description

로봇청소기 및 그 제어방법 {A robot cleaner a control method thereof}
본 발명은 로봇청소기에 관한 것으로서, 상기 로봇 청소기에 장착된 광원 (예를 들어, LED 디스플레이 등)의 밝기를 조절하는 방법에 대한 것이다.
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어 지고 있다.
상기 가정용 로봇의 대표적인 예는 로봇 청소기로서 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하면서 청소하는 기능을 수행한다.
이러한 로봇 청소기는 일반적으로 충전가능한 배터리를 구비하고, 주행 중 장애물을 회피할 수 있는 장애물 감지센서를 구비하여 스스로 주행하며 청소할 수 있다.
이러한 로봇청소기에는 한국특허공개번호 10-2010-0098997에서 개시된 바와 같이, 외관을 형성하며 먼지 또는 이물질이 흡입되는 흡입구를 구비하는 케이싱과, 상기 케이싱에 마련되는 바퀴와, 상기 바퀴를 구동시키는 구동모터, 먼지 및 이물질을 집진하는 집진통, 집진통과 연결되는 흡입모터 등이 마련된다.
또한 이러한 로봇청소기에는 조명이나 LED 디스플레이 등 다양한 종류의 광원이 마련될 수 있다. 종래의 로봇청소기에서는 로봇 청소기 주변의 밝기에 상관없이 이러한 광원의 밝기를 일정하게 유지하였다. 따라서 깜깜한 방안에서 로봇 청소기가 작동하는 경우에도 상기 광원이 밝고 일정한 빛을 내게 되어, 사용자로 하여금 눈부심 등의 불편함을 느끼게 하였다.
위와 같은 문제점을 해결하기 위한 본 발명의 기술적 과제는, 로봇청소기에 장착된 카메라로 감지된 주변환경을DNN(Deep Neural Network, 심층신경망)으로 분석하여, 밤에 주변환경의 전등이 모두 소등되어 있을 때, 디스플레이LED의 밝기를 순차적으로 어둡게 할 수 있는 방법을 제공한다.
또한, 본 발명의 목적은 디스플레이 LED의 밝기를 주변 환경에 따라 변화시켜, 사용자가 디스플레이 LED의 밝은 불빛 때문에 불편함을 느끼지 않도록 함에 있다.
위와 같은 본 발명의 기술적 과제를 해결하기 위하여, 본 발명에 따른 로봇 청소기는 본체, 상기 본체에 구비되어 상기 본체를 이동시키는 주행부, 상기 본체에 구비되어 먼지를 흡입하는 청소부, 상기 본체에 구비되어 주변 영상 정보를 획득하는 카메라, 상기 본체에 구비되어 외부로 빛을 발생하는 광원 및 상기 주변 영상 정보를 분석하여 낮과 밤에 관한 제1 정보 및 인근 환경의 조도에 관한 제2 정보를 획득하고, 상기 제1 정보 및 상기 제2 정보를 이용하여 상기 광원의 밝기를 조절하는 제어부를 포함하는 로봇 청소기를 제공한다.
또한, 본 발명의 다른 측면에 따르면, 본체에 구비된 카메라를 통해 상기 본체 주변 영상 정보를 획득하는 수집 단계, 상기 주변 영상 정보를 분석하여, 낮과 밤에 관한 제1 정보 및 인근 환경의 조도에 관한 제2 정보를 획득하는 분석 단계 및 상기 제1 정보 및 상기 제2 정보를 이용하여 상기 본체에 구비된 광원의 밝기를 조절하는 제어 단계를 포함하는 로봇 청소기의 제어 방법이 제공된다.
일 실시예에서, 로봇 청소기의 제어부는 카메라를 통해 주변 영상 정보를 감지하고, 상기 영상 정보를 분석하여, 낮과 밤에 관한 제1 정보 및 인근 환경의 조도에 관한 제2 정보를 획득할 수 있다. 또한 제어부는 상기 제1 정보 및 제2 정보를 이용하여, 본체에 구비된 광원의 밝기를 조절할 수 있다.
일 실시예에서, 로봇 청소기의 제어부는 상기 제1 정보가 낮에 대응되는 경우, 상기 제2 정보의 변화에 대응하여 상기 광원의 밝기를 일정하게 유지할 수 있다.
일 실시예에서, 로봇 청소기의 제어부는 상기 제1 정보가 밤에 대응되는 경우, 상기 제2 정보의 변화에 대응하여 상기 광원의 밝기를 변화시킬 수 있다.
일 실시예에서, 제어부는 로봇 청소기의 주변 영상 정보를 심층 신경망(Deep Neural Network, DNN) 기법을 통해 분석하여 상기 제1 정보 및 상기 제2 정보를 획득할 수 있다.
일 실시예에서, 제어부는 상기 주변 영상 정보를 통해 창문을 분별하고, 상기 분별된 창문을 통해 인가되는 광량 정보를 이용하여 상기 제1 정보를 분별할 수 있다.
일 실시예에서, 제어부는 상기 주변 영상 정보를 통해 인근 조명을 분별하고, 상기 분별된 인근 조명을 통해 인가되는 광량 정보를 이용하여 상기 제2 정보를 분별할 수 있다.
일 실시예에서, 로봇 청소기는 외부 서버와 통신하여, 상기 심층 신경망(Deep Neural Network, DNN) 기법을 업데이트 하는 데이터를 수신하는 통신부를 더 포함할 수 있다.
일 실시예에서, 상기 광원은 로봇 청소기의 상태를 사용자에게 인지시키는 인디케이터일 수 있다. 따라서 사용자는 인디케이터를 통해 현재 로봇 청소기의 청소 모드, 주행 시간 또는 배터리 상황 등을 점검할 수 있다.
일 실시예에서, 상기 제어부는 상기 사용자 인터페이스를 통해 또는 외부기기와 통신하는 통신부를 통해 사용자에게 상기 광원의 밝기를 조절하는 밝기 조절 기능을 제공할 수 있다.
일 실시예에서, 상기 제어부는 상기 사용자의 상기 밝기 조절 기능 사용 패턴에 대응하는 데이터를 획득하고, 상기 획득한 데이터를 이용하여 상기 광원의 밝기를 조절할 수 있다.
일 실시예에서, 제어부는 사용자가 설정한 밝기 데이터를 상기 제1 정보 및 제2 정보에 매칭하여 저장부에 저장할 수 있다. 상기 밝기 데이터는 사용자 선호 밝기로 저장될 수 있다. 제어부는 분별되는 제1 정보 및 제2 정보가 기 저장된 기 저장된 제1 정보 및 제2 정보와 대응되는 경우, 상기 사용자 선호 밝기로 광원을 제어할 수 있다.
위와 같은 본 발명에 따른 청소기에 따르면, 로봇청소기에 장착된 카메라로 감지된 주변 환경을DNN으로분석하여, 밤에 주변 환경의 조명이 모두 소등 되어 있을 때, 디스플레이LED의 밝기를 순차적으로 어둡게 할 수 있다. 이에 따라 어두운 방에서 사용자가 휴식을 취하는 경우에 디스플레이LED의 밝은 불빛 때문에 방해 받지 않을 수 있다.
또한, 본 발명에 따른 청소기에 따르면, 어두운 환경에서 로봇 청소기가 충전 중일 경우에 배터리 소모량을 줄여서 충전 시간을 단축시킬 수 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
도 1은 본 발명에 따른 로봇 청소기의 일 예를 보인 사시도이다.
도 2는 본 발명의 일 실시예에 따른 로봇 청소기의 구성요소를 나타내는 블록도이다.
도3은 심층 신경망(Deep Neural Network, DNN)의 구조를 나타내는 개념도이다.
도4는 청소구역 내 주행 중인 로봇 청소기가 본체(100)에 수용되는 카메라(141)를 이용하여 주변 환경을 감지하는 것을 나타내는 개념도이다.
도5는 로봇 청소기에 구비되는 광원의 밝기 변화에 관한 개념도이다.
도6은 로봇 청소기에 구비되는 카메라(141)의 위치에 관한 개념도이다.
도7 내지 도10은 본 발명에 따른 청소기의 제어 방법을 나타내는 흐름도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명에 따른 로봇 청소기(1)의 일 예를 보인 사시도이다.
참고로, 본 명세서에서는 이동 로봇, 로봇 청소기 및 자율 주행을 수행하는 청소기가 동일한 의미로 사용될 수 있다.
도 1을 참조하면, 로봇 청소기(1)는 일정 영역을 스스로 주행하면서 바닥을 청소하는 기능을 수행한다. 여기서 말하는 바닥의 청소에는, 바닥의 먼지(이물질을 포함한다)를 흡입하거나 바닥을 걸레질하는 것이 포함된다.
한편, 청소기 본체(100)에는 로봇 청소기(1)에 전원을 공급하는 배터리(미도시)가 장착된다. 배터리는 충전 가능하게 구성되며, 청소기 본체(100)의 저면부에 착탈 가능하게 구성될 수 있다.
도 2은 본 발명의 실시 예에 따른 로봇 청소기(1)의 구성을 설명하기 위한 블록도이다.
먼저 도 2을 참조하여 살펴보면, 본 발명의 실시 예에 따른 로봇 청소기(1)는 제어부(110)와, 상기 제어부(110)에 연결되는 청소부(120), 주행부(130), 센서부(140), 카메라부(141), 저장부(150), 사용자 인터페이스부(160), 통신부(170), 그리고 광원부(180) 등을 포함할 수 있다.
도 2에 도시된 구성요소들은 로봇 청소기(1)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 로봇 청소기(1)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 이하, 각 구성요소들에 대해 살펴보기로 한다.
먼저 청소부(120)는 청소기 본체(100)의 일측으로부터 돌출된 형태로 배치되어, 먼지가 포함된 공기를 흡입하도록 이루어진다. 상기 일측은 상기 청소기 본체(100)가 정방향으로 주행하는 측, 즉 청소기 본체(100)의 앞쪽이 될 수 있다.
청소부(120)는 흡입구를 포함할 수 있으며, 먼지 흡입을 위한 공기 압력차를 생성하기 위한 모터, 회전날개를 포함할 수 있다. 또한 필터 등을 포함하여 흡입된 먼지 등이 청소기 외부로 다시 배출되지 않도록 할 수 있다.
주행부(130)는 적어도 하나의 구동륜을 포함하여 구성될 수 있다. 상기 구동륜은 연결된 구동 모터에 의해 상기 제어부(110)의 제어에 따라 로봇 청소기(1)가 회전 및 직진 운동을 할 수 있도록 형성될 수 있다.
한편, 센서부(140)는, 외부 신호 감지 센서, 전방 감지 센서, 낭떠러지 감지 센서, 2차원 카메라 센서 및 3차원 카메라 센서 중 적어도 하나를 포함할 수 있다.
외부 신호 감지 센서는 이동 로봇의 외부 신호를 감지할 수 있다. 외부 신호 감지 센서는, 일 예로, 적외선 센서(Infrared Ray Sensor), 초음파 센서(Ultra-Sonic Sensor), RF 센서(Radio Frequency Sensor) 등일 수 있다.
한편, 전방 감지 센서는, 이동 로봇의 전방, 구체적으로 이동 로봇의 측면 외주면을 따라 일정 간격으로 설치될 수 있다. 전방 감지 센서는 이동 로봇의 적어도 일 측면에 위치하여, 전방의 장애물을 감지하기 위한 것으로서, 전방 감지 센서는 이동 로봇의 이동 방향에 존재하는 물체, 특히 장애물을 감지하여 검출 정보를 제어부(110)에 전달할 수 있다. 즉, 전방 감지 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(110)에 전달할 수 있다.
전방 감지 센서는, 일 예로, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서 등일 수 있고, 이동 로봇은 전방 감지 센서로 한 가지 종류의 센서를 사용하거나 필요에 따라 두 가지 종류 이상의 센서를 함께 사용할 수 있다.
일 예로, 초음파 센서는 일반적으로 원거리의 장애물을 감지하는 데에 주로 사용될 수 있다. 초음파 센서는 발신부와 수신부를 구비하여, 제어부(110)는 발신부를 통해 방사된 초음파가 장애물 등에 의해 반사되어 수신부에 수신되는 지의 여부로 장애물의 존부를 판단하고, 초음파 방사 시간과 초음파 수신 시간을 이용하여 장애물과의 거리를 산출할 수 있다.
또한, 제어부(110)는 발신부에서 방사된 초음파와, 수신부에 수신되는 초음파를 비교하여, 장애물의 크기와 관련된 정보를 검출할 수 있다. 예를 들어, 제어부(110)는 수신부에 더 많은 초음파가 수신될수록, 장애물의 크기가 큰 것으로 판단할 수 있다.
일 실시 예에서, 복수(일 예로, 5개)의 초음파 센서가 이동 로봇의 전방 측면에 외주면을 따라 설치될 수 있다. 이때, 바람직하게 초음파 센서는 발신부와 수신부가 교대로 이동 로봇의 전면에 설치될 수 있다.
한편, 전방 감지 센서는, 전술한 바와 같이, 두 가지 종류 이상의 센서를 함께 사용할 수 있고, 이에 따라, 전방 감지 센서는 적외선 센서, 초음파 센서, RF 센서 등 중 어느 한 가지 종류의 센서를 사용할 수 있다.
일 예로, 전방 감지 센서는 초음파 센서 이외에 다른 종류의 센서로 적외선 센서를 포함할 수 있다.
적외선 센서는 초음파 센서와 함께 이동 로봇의 외주면에 설치될 수 있다. 적외선 센서 역시, 전방이나 측면에 존재하는 장애물을 감지하여 장애물 정보를 제어부(110)에 전달할 수 있다. 즉, 적외선 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(110)에 전달한다. 따라서, 이동 로봇은 본체가 장애물과의 충돌없이 특정 영역 내에서 이동할 수 있다.
한편, 낭떠러지 감지 센서(또는 클리프 센서(Cliff Sensor))는, 다양한 형태의 광 센서를 주로 이용하여, 이동 로봇의 본체를 지지하는 바닥의 장애물을 감지할 수 있다.
한편, 2차원 카메라 센서는, 이동 로봇의 일면에 구비되어, 이동 중 본체 주변과 관련된 이미지 정보를 획득한다.
옵티컬 플로우 센서(Optical Flow Sensor)는, 센서 내에 구비된 이미지 센서로부터 입력되는 하방 영상을 변환하여 소정 형식의 영상 데이터를 생성한다. 생성된 영상 데이터는 저장부(150)에 저장될 수 있다.
또한, 하나 이상의 광원이 옵티컬 플로우 센서에 인접하여 설치될 수 있다. 하나 이상의 광원은, 이미지 센서에 의해 촬영되는 바닥면의 소정 영역에 빛을 조사한다. 즉, 이동 로봇이 바닥면을 따라 특정 영역을 이동하는 경우에, 바닥면이 평탄하면 이미지 센서와 바닥면 사이에는 일정한 거리가 유지된다. 반면, 이동 로봇이 불균일한 표면의 바닥면을 이동하는 경우에는 바닥면의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 하나 이상의 광원은 조사되는 빛의 양을 조절하도록 제어부(110)에 의해 제어될 수 있다. 상기 광원은 광량 조절이 가능한 발광 소자, 예를 들어 LED(Light Emitting Diode) 등일 수 있다.
옵티컬 플로우 센서를 이용하여, 제어부(110)는 이동 로봇의 미끄러짐과 무관하게 이동 로봇의 위치를 검출할 수 있다. 제어부(110)은 옵티컬 플로우 센서에 의해 촬영된 영상 데이터를 시간에 따라 비교 분석하여 이동 거리 및 이동 방향을 산출하고, 이를 근거로 이동 로봇의 위치를 산출할 수 있다. 옵티컬 플로우 센서를 이용하여 이동 로봇의 하방에 대한 이미지 정보를 이용함으로써, 제어부(110)는 다른 수단에 의해 산출한 이동 로봇의 위치에 대하여 미끄러짐에 강인한 보정을 할 수 있다.
3차원 카메라 센서는 이동 로봇의 본체 일면 또는 일부분에 부착되어, 상기 본체의 주위와 관련된 3차원 좌표 정보를 생성할 수 있다.
즉, 3차원 카메라 센서는 이동 로봇과 피촬영 대상체의 원근거리를 산출하는 3차원 뎁스 카메라(3D Depth Camera)일 수 있다.
구체적으로, 3차원 카메라 센서는 본체의 주위와 관련된 2차원 영상을 촬영할 수 있으며, 촬영된 2차원 영상에 대응되는 복수의 3차원 좌표 정보를 생성할 수 있다.
일 실시예에서 3차원 카메라 센서는 기존의 2차원 영상을 획득하는 카메라를 2개 이상 구비하여, 상기 2개 이상의 카메라에서 획득되는 2개 이상의 영상을 조합하여, 3차원 좌표 정보를 생성하는 스테레오 비전 방식으로 형성될 수 있다.
구체적으로, 상기 실시예에 따른 3차원 카메라 센서는 본체의 전방을 향해 하측으로 제1 패턴의 광을 조사하는 제1 패턴 조사부와, 상기 본체의 전방을 향해 상측으로 제2 패턴의 광을 조사하는 제2 패턴 조사부 및 본체의 전방의 영상을 획득하는 영상 획득부를 포함할 수 있다. 이로써, 상기 영상 획득부는 상기 제1 패턴의 광과 상기 제2 패턴의 광이 입사된 영역의 영상을 획득할 수 있다.
또 다른 실시예에서 3차원 카메라 센서는 단일 카메라와 함께 적외선 패턴을 조사하는 적외선 패턴 방출부를 구비하고, 적외선 패턴 방출부에서 조사된 적외선 패턴이 피촬영 대상체에 투영된 모양을 캡쳐함으로써, 3차원 카메라 센서와 피촬영 대상체 사이의 거리를 측정할 수 있다. 이러한 3차원 카메라 센서는 IR(Infra Red) 방식의 3차원 카메라 센서일 수 있다.
또 다른 실시예에서 3차원 카메라 센서는 단일 카메라와 함께 빛을 방출하는 발광부를 구비하고, 발광부에서 방출되는 레이저 중 피촬영 대상체로부터 반사되는 일부를 수신하며, 수신된 레이저를 분석함으로써, 3차원 카메라 센서와 피촬영 대상체 사이의 거리를 측정할 수 있다. 이러한 3차원 카메라 센서는 TOF(Time of Flight) 방식의 3차원 카메라 센서일 수 있다.
구체적으로, 위와 같은 3차원 카메라 센서의 레이저는 적어도 일방향으로 연장된 형태의 레이저를 조사하도록 구성된다. 일 예에서, 상기 3차원 카메라 센서는 제1 및 제2 레이저를 구비할 수 있으며, 상기 제1 레이저는 서로 교차하는 직선 형태의 레이저를 조사하고, 제2 레이저는 단일의 직선 형태의 레이저를 조사할 수 있다. 이에 따르면, 최하단 레이저는 바닥 부분의 장애물을 감지하는 데에 이용되고, 최상단 레이저는 상부의 장애물을 감지하는 데에 이용되며, 최하단 레이저와 최상단 레이저 사이의 중간 레이저는 중간 부분의 장애물을 감지하는데에 이용된다.
저장부(150)는 상기 로봇 청소기(1)의 구동 및 동작을 위한 다양한 데이터들을 포함할 수 있다. 상기 저장부(150)는 상기 로봇 청소기(1)가 자율 주행하기 위한 소프트웨어 및 관련된 다양한 데이터를 포함할 수 있다. 또한 상기 센서부(140)에서 센싱되는 각각의 데이터들이 저장될 수 있으며, 사용자가 선택한 다양한 설정들, 예를 들어 청소 예약 시각, 청소 모드 등에 대한 설정 정보 등을 포함할 수 있다.
상기 저장부(150)는 비휘발성 메모리를 주로 사용한다. 여기서, 상기 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)는 전원이 공급되지 않아도 저장된 정보를 계속 유지할 수 있는 저장 장치로서, 일 예로, 롬(ROM), 플래시 메모리(Flash Memory), 마그네틱 컴퓨터 기억 장치(예를 들어, 하드 디스크, 디스켓 드라이브, 마그네틱 테이프), 광디스크 드라이브, 마그네틱 RAM, PRAM 등일 수 있다.
제어부(110)는 배터리의 전원 잔량을 감지하고, 전원 잔량이 부족하면 외부 상용 전원과 연결된 충전대로 이동하도록 제어하여, 충전대로부터 충전 전류를 공급받아 배터리를 충전할 수 있다. 사용자 인터페이스부(160)은 제어부(110)에 의해 상기 배터리 잔량을 화면에 표시할 수 있다.
제어부(110)는, 인공 지능 기술에 기반하여 정보들을 처리하는 역할을 수행하는 것으로, 정보의 학습, 정보의 추론, 정보의 지각, 자연 언어의 처리 중 적어도 하나를 수행하는 하나 이상의 모듈을 포함할 수 있다.
제어부(110)는 머신 러닝(machine running) 기술을 이용하여, 청소기 내에 저장된 정보, 이동 단말기 주변의 환경 정보, 통신 가능한 외부 저장소에 저장된 정보 등 방대한 양의 정보(빅데이터, big data)를 학습, 추론, 처리 중 적어도 하나를 수행할 수 있다. 그리고, 제어부(110)는 상기 머신 러닝 기술을 이용하여 학습된 정보들을 이용하여, 실행 가능한 적어도 하나의 청소기의 동작을 예측(또는 추론)하고, 상기 적어도 하나의 예측된 동작들 중 실현성이 가장 높은 동작이 실행되도록 청소기를 제어할 수 있다.
제어부(110)는 외부의 서버 또는 메모리에 저장된 트레이닝 데이터를 이용하며, 소정의 물체를 인식하기 위한 특징을 검출하는 학습 엔진을 탑재할 수 있다. 이때, 물체를 인식하기 위한 특징에는 물체의 크기, 형태 및 음영 등을 포함할 수 있다.
구체적으로, 제어부(110)는 청소기에 구비된 카메라를 통해 획득된 영상 중 일부를 학습 엔진에 입력하면, 상기 학습 엔진은 입력된 영상에 포함된 적어도 하나의 사물 또는 생명체를 인식할 수 있다.
이와 같이, 학습 엔진을 청소기의 주행에 적용하는 경우, 제어부(110)는 청소기의 주행에 방해되는 의자 다리, 선풍기, 특정 형태의 발코니 틈과 같은 장애물이 청소기 주변에 존재하는지 여부를 인식할 수 있으므로, 청소기 주행의 효율 및 신뢰도를 높일 수 있다.
한편, 위와 같은 학습 엔진은 제어부(110)에 탑재될 수도 있고, 외부 서버에 탑재될 수도 있다. 학습 엔진이 외부 서버에 탑재된 경우, 제어부(110)는 분석의 대상인 적어도 하나의 영상을 상기 외부 서버로 전송하도록 통신부(170)를 제어할 수 있다.
외부 서버는 청소기로부터 전송받은 영상을 학습 엔진에 입력함으로서, 해당 영상에 포함된 적어도 하나의 사물 또는 생명체를 인식할 수 있다. 아울러, 외부 서버는 인식결과와 관련된 정보를 다시 청소기로 전송할 수 있다. 이때, 인식결과와 관련된 정보는 분석의 대상인 영상에 포함된 객체의 개수, 각 개체의 이름과 관련된 정보를 포함할 수 있다.
한편, 사용자 인터페이스부(160)는 입력부를 더 포함할 수 있다. 입력부는 사용자로부터 로봇 청소기에 대한 각종 제어 명령을 입력받는다. 입력부는 하나 이상의 버튼을 포함할 수 있고, 예를 들어, 입력부는 확인버튼, 설정버튼 등을 포함할 수 있다. 확인버튼은 감지 정보, 장애물 정보, 위치 정보, 맵 정보를 확인하는 명령을 사용자로부터 입력받기 위한 버튼이고, 설정버튼은 상기 정보들을 설정하는 명령을 사용자로부터 입력받기 위한 버튼이다.
또한, 입력부는 이전 사용자 입력을 취소하고 다시 사용자 입력을 받기 위한 입력재설정버튼, 기 설정된 사용자 입력을 삭제하기 위한 삭제버튼, 작동 모드를 설정하거나 변경하는 버튼, 충전대로 복귀하도록 하는 명령을 입력받는 버튼 등을 포함할 수 있다.
또한, 입력부는 하드 키나 소프트 키, 터치패드 등으로 이동 로봇의 상부에 설치될 수 있다. 또, 입력부는 터치 스크린의 형태를 가질 수 있다.
한편, 출력부는, 이동 로봇의 상부에 설치될 수 있다. 물론 설치 위치나 설치 형태는 달라질 수 있다. 예를 들어, 출력부는 배터리 상태 또는 주행 방식 등을 화면에 표시할 수 있다.
또한, 출력부는, 센서부(140)가 검출한 이동 로봇 내부의 상태 정보, 예를 들어 이동 로봇에 포함된 각 구성들의 현재 상태를 출력할 수 있다. 또, 출력부는 센서부(140)가 검출한 외부의 상태 정보, 장애물 정보, 위치 정보, 지도 정보 등을 화면에 디스플레이할 수 있다. 출력부는 광원부(180)를 포함할 수 있다. 광원부(180)는 예를 들어, 발광 다이오드(Light Emitting Diode; LED), 액정 표시 장치(Liquid Crystal Display; LCD), 플라즈마 표시 패널(Plasma Display Panel), 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 중 어느 하나의 소자로 형성될 수 있다.
출력부는, 제어부(110)에 의해 수행되는 이동 로봇의 동작 과정 또는 동작 결과를 청각적으로 출력하는 음향 출력 수단을 더 포함할 수 있다. 예를 들어, 출력부는 제어부(110)에 의해 생성된 경고 신호에 따라 외부에 경고음을 출력할 수 있다.
한편, 통신부(170)는 단말 장치 및/또는 특정 영역 내 위치한 타 기기(본 명세서에서는 "가전 기기"라는 용어와 혼용하기로 한다)와 유선, 무선, 위성 통신 방식들 중 하나의 통신 방식으로 연결되어 신호와 데이터를 송수신한다.
통신부(170)는 특정 영역 내에 위치한 타 기기와 데이터를 송수신할 수 있다. 이때, 타 기기는 네트워크에 연결하여 데이터를 송수신할 수 있는 장치이면 어느 것이어도 무방하며, 일 예로, 공기 조화 장치, 난방 장치, 공기 정화 장치, 전등, TV, 자동차 등과 같은 장치일 수 있다. 또한, 상기 타 기기는, 문, 창문, 수도 밸브, 가스 밸브 등을 제어하는 장치 등일 수 있다. 또한, 상기 타 기기는, 온도, 습도, 기압, 가스 등을 감지하는 센서 등 일 수 있다.
도3에서는, 일반적인 심층 신경망(Deep Neural Network, DNN)의 구조가 설명된다.
인공신경망은 생물학적 뉴런의 동작원리와 뉴런간의 연결 관계를 모델링한 것으로 노드(node) 또는 처리 요소(processing element)라고 하는 다수의 뉴런들이 레이어(layer) 구조의 형태로 연결된 정보처리 시스템이다.
인공 신경망은 기계 학습에서 사용되는 모델로써, 기계학습과 인지과학에서 생물학의 신경망(동물의 중추신경계 중 특히 뇌)에서 영감을 얻은 통계학적 학습 알고리즘이다.
구체적으로 인공신경망은 시냅스(synapse)의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다.
용어 인공신경망은 용어 뉴럴 네트워크(Neural Network)와 혼용되어 사용될 수 있다.
인공신경망은 복수의 레이어(layer)를 포함할 수 있고, 레이어들 각각은 복수의 뉴런(neuron)을 포함할 수 있다. 또한 인공신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다.
인공 신경망은 일반적으로 다음의 세가지 인자, 즉 (1) 다른 레이어의 뉴런들 사이의 연결 패턴 (2) 연결의 가중치를 갱신하는 학습 과정 (3) 이전 레이어로부터 수신되는 입력에 대한 가중 합으로부터 출력값을 생성하는 활성화 함수에 의해 정의될 수 있다.
인공 신경망은, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network), MLP(Multilayer Perceptron), CNN(Convolutional Neural Network)와 같은 방식의 네트워크 모델들을 포함할 수 있으나, 이에 한정되지 않는다.
본 명세서에서 용어 '레이어'는 용어 '계층'과 혼용되어 사용될 수 있다.
인공신경망은 계층 수에 따라 단층 신경망(Single-Layer Neural Networks)과 심층 신경망(Multi-Layer Neural Networks/Deep Neural Network)으로 구분된다.
일반적인 단층 신경망은, 입력층과 출력층으로 구성된다.
또한 일반적인 심층 신경망은 입력층(Input Layer, 301)과 하나 이상의 은닉층(Hidden Layer, 302), 출력층(Output Layer, 303)으로 구성된다.
입력층(301)은 외부의 자료들을 받아들이는 층으로서, 입력층(301)의 뉴런 수는 입력되는 변수의 수와 동일하며, 은닉층(302)은 입력층(301)과 출력층(303) 사이에 위치하며 입력층(301)으로부터 신호를 받아 특성을 추출하여 출력층으로 전달한다. 출력층(303)은 은닉층(302)으로부터 신호를 받고, 수신한 신호에 기반한 출력 값을 출력한다. 뉴런간의 입력신호는 각각의 연결강도(가중치)와 곱해진 후 합산되며 이 합이 뉴런의 임계치보다 크면 뉴런이 활성화되어 활성화 함수를 통하여 획득한 출력값을 출력한다.
한편 입력층(301)과 출력층(303) 사이에 복수의 은닉층(302)을 포함하는 심층 신경망은, 기계 학습 기술의 한 종류인 딥 러닝을 구현하는 대표적인 인공 신경망일 수 있다.
또한, 심층 신경망은 다중의 은닉층(302)을 포함하여 다양한 비선형적 관계를 학습할 수 있다.
한편 용어 '딥 러닝'은 용어 '심층 학습'과 혼용되어 사용될 수 있다.
도4에서는, 청소구역 내에서 청소를 수행하는 로봇 청소기가 본체(100)에 수용되는 카메라(141)를 이용하여 주변 환경을 감지하는 방법에 관한 일 실시예가 설명된다.
도4를 참조하면, 로봇 청소기의 제어부(110)는 카메라(141)를 통해 주변 영상 정보를 획득할 수 있다. 상기 영상 정보에는 본체(100) 주행 경로 상의 장애물 위치 정보, 주변 환경의 조도 정보, 벽면의 위치 정보, 벽면이나 천정에 구비되는 물체에 대한 정보 등이 포함될 수 있다.
일 실시예에서, 로봇 청소기의 제어부(110)는 카메라(141)를 통해 주변 영상 정보를 감지하고, 상기 영상 정보를 분석하여, 낮과 밤에 관한 제1 정보 및 인근 환경의 조도에 관한 제2 정보를 획득할 수 있다. 또한 제어부(110)는 상기 제1 정보 및 제2 정보를 이용하여, 본체에 구비된 광원의 밝기를 조절할 수 있다.
상기 제1 정보는 낮 또는 밤에 대응될 수 있다.
상기 제2 정보는 로봇 청소기 인근 환경의 조도의 변화에 대응될 수 있다. 즉, 제어부(110)는 상기 인근 환경의 조도가 변화함에 따라 그에 대응하여 변화하는 제2 정보를 획득할 수 있다.
일 실시예에서, 로봇 청소기의 제어부(110)는 상기 제1 정보가 낮에 대응되는 경우, 상기 제2 정보의 변화에 대응하여 상기 광원의 밝기를 일정하게 유지할 수 있다. 예를 들어, 제어부(110)는 상기 제1 정보가 낮에 대응되는 경우, 상기 제2 정보의 변화에 대응하여, 상기 광원의 밝기를 최대 밝기로 일정하게 유지할 수 있다. 이에 따라 사용자는 낮에 주변 환경의 조도와 상관없이 최대 밝기의 광원을 접하게 되어, 선명한 광원(예를 들어, LED 디스플레이)를 확인할 수 있다.
상기 일정한 밝기 값은 사용자에 의해 기 설정된 밝기 값일 수 있다. 상기 밝기 값은 사용자 인터페이스부를 통해 입력할 수 있다. 따라서 사용자는 낮에 주변 환경의 조도와 상관없이 원하는 밝기의 광원을 접할 수 있다.
일 실시예에서, 로봇 청소기의 제어부(110)는 상기 제1 정보가 밤에 대응되는 경우, 상기 제2 정보의 변화에 대응하여 상기 광원의 밝기를 변화시킬 수 있다. 이 경우, 상기 제어부(110)는 상기 제2 정보를 통해 상기 인근 환경의 조도를 인지하여, 상기 인근 환경의 조도가 점차 감소하는 것을 인식한 경우, 상기 광원의 밝기를 상기 조도의 감소에 대응하여 점차 감소시킬 수 있다.
상기 제2 정보는 로봇 청소기 인근 환경의 조도의 변화에 대응하여 변화할 수 있다. 따라서 제어부(110)은 상기 제2 정보를 주기적으로 획득하여 인근 환경의 조도의 변화를 계속하여 모니터링할 수 있다.
일 실시예에서, 로봇 청소기 주변 환경이 밤이고, 주변 환경의 조도가 점차 낮아지는 상황을 가정할 수 있다. 이 경우, 제어부(110)는 상기 제1 정보를 획득하고 이 제1 정보가 밤에 대응되는 정보임을 확인한다. 상기 제1 정보가 밤에 대응되는 경우, 상기 제어부(110)는 상기 제2 정보를 통해 상기 인근 환경의 조도를 인지한다. 인근 환경의 조도가 점차 낮아지는 경우, 상기 제2 정보도 이에 대응하여 변화한다. 제어부(110)는 제2 정보의 변화에 대응하여 그에 맞게 광원의 밝기를 점차 낮춘다. 따라서 사용자는 어두운 환경에서 로봇 청소기의 밝은 광원 때문에 방해 받지 않고 휴식을 취할 수 있다.
일 실시예에서, 제어부(110)는 로봇 청소기의 주변 영상 정보를 심층 신경망(Deep Neural Network, DNN) 기법을 통해 분석하여 상기 제1 정보 및 상기 제2 정보를 획득할 수 있다.
일 실시예에서, 제어부(110)는 상기 주변 영상 정보를 통해 창문(402)을 인식하고, 상기 창문(402)을 통해 인가되는 광량 정보를 이용하여 상기 제1 정보를 취득할 수 있다.
제어부는 주변 영상 정보를 DNN 기법으로 분석하여 영상 정보 중 창문(402)에 해당하는 정보를 인식할 수 있다. 이 경우 기 학습된 다양한 창문의 이미지 데이터가 활용될 수 있다.
제어부는 상기 인식된 창문(402)을 통해 인가되는 광량에 관한 정보를 획득할 수 있다. 상기 광량 정보는 주변 영상 정보를 분석하여 획득될 수 있다. 또한 상기 광량 정보는 로봇 청소기의 센서부에 구비된 조도 센서를 통하여 측정될 수 있다.
제어부는 상기 인식된 창문(402)을 통해 인가되는 광량 정보를 통해 제1 정보를 획득한다. 보다 구체적으로, 획득된 광량 정보가 기 설정된 기준 광량에 미치지 않는 경우, 상기 제어부는 상기 제1 정보가 밤에 대응되는 것으로 인식한다. 반면, 획득된 광량 정보가 기 설정된 기준 광량을 초과하는 경우, 상기 제어부는 상기 제1 정보가 낮에 대응되는 것으로 인식한다. 이러한 제1 정보의 인식에는, 상기 제어부에 내장된 시간 정보를 통해서 보조적으로 판단될 수 있다.
일 실시예에서, 제어부(110)는 상기 주변 영상 정보를 통해 인근 조명(401)을 식별하고, 상기 식별된 인근 조명(401)을 통해 인가되는 광량 정보를 이용하여 상기 제2 정보를 취득할 수 있다.
제어부는 주변 영상 정보를 DNN 기법으로 분석하여 영상 정보 중 조명(401)에 해당하는 정보를 식별할 수 있다. 이 경우 기 학습된 다양한 조명의 이미지 데이터 및 조명의 조도 데이터가 활용될 수 있다.
제어부는 상기 식별된 조명(401)을 통해 인가되는 광량에 관한 정보를 획득할 수 있다. 상기 광량 정보는 주변 영상 정보를 분석하여 획득될 수 있다. 또한 상기 광량 정보는 로봇 청소기의 센서부에 구비된 조도 센서를 통하여 측정될 수 있다. 제어부는 상기 광량 정보를 이용하여 제2 정보를 식별한다.
일 실시예에서, 로봇 청소기는 외부 서버와 통신하여, 상기 심층 신경망(Deep Neural Network, DNN) 기법을 업데이트 하는 데이터를 수신하는 통신부를 더 포함할 수 있다.
제어부는 카메라를 통해 촬영된 영상 정보를 데이터화하여 통신부를 통해 외부 서버로 전송하도록 제어할 수 있다. 또한 제어부는 외부 서버로부터 통신부를 통해 영상 정보 분석에 사용되는 추가적인 데이터를 수신하여 저장부에 저장하도록 제어할 수 있다.
일 실시예에서, 상기 광원은 로봇 청소기의 상태를 사용자에게 인지시키는 인디케이터일 수 있다. 따라서 사용자는 인디케이터를 통해 현재 로봇 청소기의 청소 모드, 주행 시간 또는 배터리 상황 등을 점검할 수 있다.
일 실시예에서, 상기 광원은 사용자로부터 입력을 받을 수 있는 사용자 인터페이스부에 포함되어 형성될 수 있다. 또한, 상기 사용자 인터페이스부는 터치 디스플레이를 포함하여 형성될 수 있다. 따라서 사용자는 광원부에 구비된 터치 디스플레이를 터치하여 로봇 청소기에 명령을 입력할 수 있다.
일 실시예에서, 상기 제어부(110)는 상기 사용자 인터페이스를 통해 또는 외부기기와 통신하는 통신부를 통해 사용자에게 상기 광원의 밝기를 조절하는 밝기 조절 기능을 제공할 수 있다.
일 실시예에서, 상기 제어부(110)는 상기 사용자의 상기 밝기 조절 기능 사용 패턴에 대응하는 데이터를 획득하고, 상기 획득한 데이터를 이용하여 상기 광원의 밝기를 조절할 수 있다.
일 실시예에서, 제어부(110)는 사용자가 설정한 밝기 데이터를 상기 제1 정보 및 제2 정보에 매칭하여 저장부(150)에 저장할 수 있다. 상기 밝기 데이터는 사용자 선호 밝기로 저장될 수 있다. 제어부는 취득되는 제1 정보 및 제2 정보가 기 저장된 기 저장된 제1 정보 및 제2 정보와 대응되는 경우, 상기 사용자 선호 밝기로 광원을 제어할 수 있다.
도5에서는, 로봇 청소기에 구비되는 광원의 밝기 변화에 관한 일 실시예가 설명된다.
도5를 참조하면, 일 실시예에서 로봇 청소기에 구비된 광원은 야간에 주변 환경의 조도에 대응하여 순차적으로 어두워질 수 있다.
일 실시예에서, 로봇 청소기의 제어부(110)는 제1 정보가 밤에 대응되는 경우, 제2 정보를 지속적으로 획득하여 주변 환경의 조도가 점차 낮아짐을 인지할 수 있다. 이에 대응하여 상기 제어부(110)는 상기 광원의 밝기를 순차적으로 어둡게 낮출 수 있다.
일 실시예에서, 로봇 청소기의 제어부(110)는 제2 정보에서 취득되는 주변 환경 조도 값에 대응하여 미리 설정된 네 단계의 밝기에 따라 순차적으로 광원의 밝기를 조절할 수 있다. (S501, S502, S503, S504) 최종적으로, 주변 영상 정보에서 식별되는 조명이 모두 꺼진 상황에서는 상기 제어부(110)는 광원을 소등할 수 있다.
도6에서는, 로봇 청소기에 구비되는 카메라(141)의 위치에 관한 일 실시예가 설명된다.
도6(A)를 참조하면, 일 실시예에서 상기 카메라(141(a) 또는 141(b))는 로봇 청소기 본체(100)의 전방 또는 상단에 구비될 수 있다. 이에 따라 로봇 청소기가 주행하면서 주행 방향의 전상방 영역에 관한 영상 정보를 촬영할 수 있다.
도6(B)를 참조하면, 일 실시예에서 상기 카메라(141(c))는 로봇 청소기 본체(100)의 전상방에 구비될 수 있다. 이에 따라 하나의 카메라만으로도 로봇 청소기 주행 방향의 전상방 영역에 관한 영상 정보를 촬영할 수 있다. \
일 실시예에서, 로봇 청소기 전상방의 카메라(141(c))는 보다 넓은 시야각 확보를 위해 광각 렌즈를 포함할 수 있다.
도7에서는, 본 발명에 따른 청소기의 제어 방법이 설명된다.
제어부(110)는 수집 단계에서, 로봇 청소기가 주행하는 동안 상기 로봇 청소기에 구비된 카메라(141)를 통해 본체 주변 영상 정보를 수집한다(S701).
제어부(110)는 분석 단계에서, 수집된 주변 영상 정보를 심층 신경망 기법을 통해 분석한다(S702).
제어부(110)는 주변 영상을 분석하여 밤과 낮에 관한 제1 정보 및 주변 환경의 조도에 관한 제2 정보를 취득한다(S703).
일 실시예에서, 제1 정보는 밤 또는 낮에 대응될 수 있다.
일 실시예에서, 제2 정보는 로봇 청소기 인근 환경의 조도의 변화에 대응될 수 있다. 즉, 제어부(110)는 상기 인근 환경의 조도가 변화함에 따라 그에 대응하여 변화하는 제2 정보를 획득할 수 있다.
제어부(110)는 제어 단계에서, 상기 제1 정보 및 제2 정보를 이용하여 본체에 구비된 광원의 밝기를 조절할 수 있다.
제어부(110)는 획득된 제1 정보가 밤에 대응되는 것인지 확인한다(S704).
제1 정보가 낮에 대응되는 경우, 제어부는 제2 정보의 변화에 대응하여 로봇 청소기에 구비된 광원의 밝기를 일정하게 유지한다(S705).
일 실시예에서, 사용자는 제1 정보가 낮에 대응되는 경우 일정하게 유지되는 광원의 밝기를 사용자 인터페이스부를 통해 미리 설정할 수 있다.
제1 정보가 밤에 대응되는 경우, 제어부는 제2 정보를 통해 주변 환경의 조도를 인지한다(S706).
일 실시예에서, 제어부(110)는 주변 환경의 조도가 변화함에 따라 그에 대응하여 변화하는 제2 정보를 획득할 수 있으므로, 주변 환경의 조도의 변화를 실시간으로 감지할 수 있다.
제어부(110)는 주변 환경의 조도에 대응하여 광원의 밝기를 제어한다(S707).
일 실시예에서, 제어부(110)는 주변 환경의 조도가 점차 낮아지는 경우, 그에 대응하여 변화하는 제2 정보를 획득하고, 이에 따라 본체에 구비되는 광원의 밝기를 순차적으로 어둡게 제어할 수 있다.
일 실시예에서, 제어부(110)는 주변 환경의 조도가 점차 높아지는 경우, 그에 대응하여 변화하는 제2 정보를 획득하고, 이에 따라 본체에 구비되는 광원의 밝기를 순차적으로 밝게 제어할 수 있다.
일 실시예에서, 제어부(110)는 주변 환경에서 식별되는 조명이 모두 소등되어 있는 경우, 이에 대응하여 본체에 구비되는 광원을 소등할 수 있다.
일 실시예에서, 제어부는 본체에 구비된 사용자 인터페이스를 통해 또는 외부기기와 통신하는 통신부를 통해 사용자에게 상기 광원의 밝기를 조절하는 밝기 조절 기능을 제공할 수 있다. 이에 따라 사용자는 주변 환경의 조도와 상관없이 광원의 밝기를 원하는 값으로 조절할 수 있다.
한편, 일 실시예에서, 사용자는 주변 환경의 특정 조도 값에 대응하는 광원의 밝기 값을 설정할 수도 있다. 이에 따라 로봇 청소기의 제어부(110)는 상기 제2 정보를 통해 취득되는 주변 환경의 조도가 변화함에 따라 그에 맞춰 사용자가 기 설정한 밝기로 광원을 제어할 수 있다.
일 실시예에서, 제어부는 상기 사용자의 상기 밝기 조절 기능 사용 패턴에 대응하는 데이터를 획득하고, 상기 획득한 데이터를 이용하여 상기 광원의 밝기를 조절할 수 있다.
이하의 도 8 및 도 9에서는 로봇 청소기의 제어부(110)가 분석 단계에서, 제1 정보 및 제2 정보를 취득하는 방법이 설명된다.
제어부(110)는 수집 단계에서, 로봇 청소기가 주행하는 동안 상기 로봇 청소기에 구비된 카메라(141)를 통해 본체 주변 영상 정보를 수집한다(S801, S901).
제어부(110)는 로봇 청소기의 주변 영상 정보를 심층 신경망(Deep Neural Network, DNN) 기법을 통해 분석하여 상기 제1 정보 및 상기 제2 정보를 획득할 수 있다.
일 실시예에서, 제어부(110)는 상기 주변 영상 정보를 DNN 기법으로 분석하여 창문이나 인근 조명을 식별할 수 있다(S802, S902). 이러한 DNN 분석기법에는 기 학습되어 저장부에 저장된 다양한 창문의 이미지 데이터 및 조명의 이미지 데이터가 활용될 수 있다.
일 실시예에서, 제어부는 상기 식별된 창문을 통해 인가되는 광량 정보를 통해 제1 정보를 획득한다(S803). 보다 구체적으로, 획득된 광량 정보가 기 설정된 기준 광량에 미치지 않는 경우, 상기 제어부는 상기 제1 정보가 밤에 대응되는 것으로 식별한다. 반면, 획득된 광량 정보가 기 설정된 기준 광량을 초과하는 경우, 상기 제어부는 상기 제1 정보가 낮에 대응되는 것으로 식별한다. 이러한 제1 정보의 취득에는, 상기 제어부에 내장된 시간 정보를 통해서 보조적으로 판단될 수 있다.
일 실시예에서, 제어부는 상기 식별된 조명을 통해 인가되는 광량에 관한 정보를 획득할 수 있다. 상기 광량 정보는 주변 영상 정보를 분석하여 획득될 수 있다. 또한 상기 광량 정보는 로봇 청소기의 센서부에 구비된 조도 센서를 통하여 측정될 수 있다. 제어부는 상기 광량 정보를 이용하여 제2 정보를 취득한다(S903).
도10에서는, 본 발명에 따른 청소기의 제어부(110)가 심층 신경망 기법의 적용을 위한 데이터를 업데이트 하는 방법이 설명된다.
보다 정확한 제1 정보 및 제2 정보 취득을 위해서는 학습 데이터가 많을 것이 요구된다. 따라서 제어부가 광원 밝기 제어를 보다 효율적으로 하기 위해서는 주기적인 학습 데이터 업데이트가 요구된다.
제어부(110)는 카메라를 통해 촬영된 주변 영상 정보를 데이터화하여 통신부를 통해 외부 디바이스로 전송하도록 제어할 수 있다(S1001).
또한, 제어부(110)는 외부 디바이스로부터 통신부를 통해 영상 정보 분석에 사용되는 추가적인 데이터를 수신하도록 제어할 수 있다(S1002).
제어부(110)는 수신된 추가 데이터에 기초하여 기존에 학습된 데이터를 업데이트하여 저장부에 저장하도록 제어할 수 있다(S1003).
제어부(110)는 저장된 학습 데이터가 불시에 손실될 것에 대비하여 외부 디바이스를 통해 주기적인 백업을 시행하도록 제어할 수 있다. 즉, 제어부는 기 설정된 기간이 경과하면 통신부를 통해 백업용 외부 디바이스로 저장부에 저장된 학습 데이터를 송신하고, 송신 기록을 저장한다.
한편 상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
100: 본체
110: 제어부
120: 청소부
130: 주행부
140: 센서부
141: 카메라
150: 저장부
160: 사용자 인터페이스부
170: 통신부
180: 광원부

Claims (22)

  1. 본체;
    상기 본체에 구비되어, 상기 본체를 이동시키는 주행부;
    상기 본체에 구비되어, 먼지를 흡입하는 청소부;
    상기 본체에 구비되어, 주변 영상 정보를 획득하는 카메라;
    상기 본체에 구비되어, 외부로 빛을 발생하는 광원; 및
    상기 주변 영상 정보를 분석하여 낮과 밤에 관한 제1 정보 및 인근 환경의 조도에 관한 제2 정보를 취득하고, 상기 제1 정보 및 상기 제2 정보를 이용하여 상기 광원의 밝기를 조절하는 제어부;를 포함하고,
    상기 제어부는 상기 주변 영상 정보를 통해 창문을 인식하고, 상기 창문을 통해 인가되는 광량 정보를 이용하여 상기 제1 정보를 취득하는 것을 특징으로 하는 로봇 청소기.
  2. 제1항에 있어서,
    상기 제어부는
    상기 제1 정보가 낮에 대응되는 경우, 상기 제2 정보의 변화에 대응하여 상기 광원의 밝기를 일정하게 유지하는 것을 특징으로 하는 로봇 청소기.
  3. 제1항에 있어서,
    상기 제어부는
    상기 제1 정보가 밤에 대응되는 경우, 상기 제2 정보의 변화에 대응하여 상기 광원의 밝기를 변화시키는 것을 특징으로 하는 로봇 청소기.
  4. 제3항에 있어서,
    상기 제어부는
    상기 제2 정보를 통해 상기 인근 환경의 조도가 감소하는 것을 인지하여, 상기 광원의 밝기를 상기 인근 환경의 조도의 감소에 대응하여 점차 감소시키는 것을 특징으로 하는 로봇 청소기.
  5. 제1항에 있어서,
    상기 제어부는
    상기 주변 영상 정보를 심층 신경망(Deep Neural Network, DNN) 기법을 통해 분석하여 상기 제1 정보 및 상기 제2 정보를 취득하는 것을 특징으로 하는 로봇 청소기.
  6. 삭제
  7. 제1항에 있어서,
    상기 제어부는
    상기 주변 영상 정보를 통해 인근 조명을 식별하고, 상기 인근 조명을 통해 인가되는 광량 정보를 이용하여 상기 제2 정보를 취득하는 것을 특징으로 하는 로봇 청소기.
  8. 제5항에 있어서,
    상기 로봇 청소기는
    외부 서버와 통신하여, 상기 심층 신경망(Deep Neural Network, DNN) 기법을 업데이트 하는 데이터를 수신하는 통신부를 더 포함하는 것을 특징으로 하는 로봇 청소기.
  9. 제1항에 있어서,
    상기 카메라는
    상기 본체의 전상방에 구비되어, 상기 본체의 주행 방향의 전상방 영역을 촬영하여 상기 주변 영상 정보를 획득하는 것을 특징으로 하는 로봇 청소기.
  10. 제1항에 있어서,
    상기 광원은
    상기 로봇 청소기의 상태를 사용자에게 인지시키는 인디케이터인 것을 특징으로 하는 로봇 청소기.
  11. 제1 항에 있어서,
    상기 제어부는
    상기 본체에 구비된 사용자 인터페이스를 통해 또는 외부기기와 통신하는 통신부를 통해 사용자에게 상기 광원의 밝기를 조절하는 밝기 조절 기능을 제공하는 것을 특징으로 하는 로봇 청소기.
  12. 제11항에 있어서,
    상기 제어부는
    상기 사용자의 상기 밝기 조절 기능 사용 패턴에 대응하는 데이터를 획득하고, 상기 획득한 데이터를 이용하여 상기 광원의 밝기를 조절하는 것을 특징으로 하는 로봇 청소기.
  13. 본체에 구비된 카메라를 통해 상기 본체 주변 영상 정보를 획득하는 수집 단계;
    상기 주변 영상 정보를 분석하여, 낮과 밤에 관한 제1 정보 및 인근 환경의 조도에 관한 제2 정보를 취득하는 분석 단계; 및
    상기 제1 정보 및 상기 제2 정보를 이용하여 상기 본체에 구비된 광원의 밝기를 조절하는 제어 단계를 포함하고,
    상기 분석 단계는 상기 주변 영상 정보를 통해 창문을 인식하고, 상기 창문을 통해 인가되는 광량 정보를 이용하여 상기 제1 정보를 취득하는 단계를 포함하는 것을 특징으로 하는 로봇 청소기의 제어 방법.
  14. 제13항에 있어서,
    상기 제어 단계는,
    상기 제1 정보가 낮에 대응되는 경우, 상기 제2 정보의 변화에 대응하여 상기 광원의 밝기를 일정하게 유지하는 단계를 더 포함하는,
    로봇 청소기의 제어 방법.
  15. 제13항에 있어서,
    상기 제어 단계는,
    상기 제1 정보가 밤에 대응되는 경우, 상기 제2 정보의 변화에 대응하여 상기 광원의 밝기를 변화시키는 단계를 더 포함하는,
    로봇 청소기의 제어 방법.
  16. 제15항에 있어서,
    상기 제어 단계는,
    상기 제2 정보를 통해 상기 인근 환경의 조도가 감소하는 것을 인지하여, 상기 광원의 밝기를 상기 상기 인근 환경의 조도의 감소에 대응하여 점차 감소시키는 단계를 더 포함하는,
    로봇 청소기의 제어 방법.
  17. 제13항에 있어서,
    상기 분석 단계는,
    상기 주변 영상 정보를 심층 신경망(Deep Neural Network, DNN) 기법을 통해 분석하여 상기 제1 정보 및 상기 제2 정보를 획득하는 단계를 더 포함하는,
    로봇 청소기의 제어 방법.
  18. 삭제
  19. 제13항에 있어서,
    상기 분석 단계는,
    상기 주변 영상 정보를 통해 인근 조명을 식별하고, 상기 인근 조명을 통해 인가되는 광량 정보를 이용하여 상기 제2 정보를 취득하는 단계를 더 포함하는,
    로봇 청소기의 제어 방법.
  20. 제17항에 있어서,
    외부 서버와 통신하여, 상기 심층 신경망(Deep Neural Network, DNN) 기법을 업데이트 하는 단계를 더 포함하는,
    로봇 청소기의 제어 방법.
  21. 제13항에 있어서,
    상기 본체에 구비된 사용자 인터페이스를 통해 또는 외부기기와 통신하는 통신부를 통해 사용자에게 상기 광원의 밝기를 조절하는 밝기 조절 기능을 제공하는 단계를 더 포함하는,
    로봇 청소기의 제어 방법.
  22. 제21항에 있어서,
    상기 사용자의 상기 밝기 조절 기능 사용 패턴에 대응하는 데이터를 획득하고, 상기 획득한 데이터를 이용하여 상기 광원의 밝기를 조절하는 단계를 더 포함하는,
    로봇 청소기의 제어 방법.
KR1020200055984A 2020-05-11 2020-05-11 로봇청소기 및 그 제어방법 KR102396048B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200055984A KR102396048B1 (ko) 2020-05-11 2020-05-11 로봇청소기 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200055984A KR102396048B1 (ko) 2020-05-11 2020-05-11 로봇청소기 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20210137744A KR20210137744A (ko) 2021-11-18
KR102396048B1 true KR102396048B1 (ko) 2022-05-10

Family

ID=78717347

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200055984A KR102396048B1 (ko) 2020-05-11 2020-05-11 로봇청소기 및 그 제어방법

Country Status (1)

Country Link
KR (1) KR102396048B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11859795B2 (en) * 2022-02-04 2024-01-02 Tennant Company Surface maintenance machine light projection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015181778A (ja) * 2014-03-25 2015-10-22 シャープ株式会社 自走式掃除機
JP2019109854A (ja) * 2017-12-20 2019-07-04 東芝ライフスタイル株式会社 自律走行体
KR102048992B1 (ko) * 2017-07-21 2019-11-27 엘지전자 주식회사 인공지능 청소기 및 그 제어방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015181778A (ja) * 2014-03-25 2015-10-22 シャープ株式会社 自走式掃除機
KR102048992B1 (ko) * 2017-07-21 2019-11-27 엘지전자 주식회사 인공지능 청소기 및 그 제어방법
JP2019109854A (ja) * 2017-12-20 2019-07-04 東芝ライフスタイル株式会社 自律走行体

Also Published As

Publication number Publication date
KR20210137744A (ko) 2021-11-18

Similar Documents

Publication Publication Date Title
JP6905635B2 (ja) 掃除機及びその制御方法
US20190021568A1 (en) Articial intellgence cleaner and controlling ang metod therof
KR102234641B1 (ko) 이동 로봇 및 복수의 이동 로봇의 제어방법
TW202023463A (zh) 複數個自控式移動機器人及其控制方法
KR20200103203A (ko) 복수의 자율주행 이동 로봇
KR102309303B1 (ko) 로봇 청소기 및 그 제어 방법
EP3934860B1 (en) Moving robot and controlling method for the moving robot
US20210259498A1 (en) Plurality of autonomous cleaner and controlling method for the same
KR102198187B1 (ko) 이동 로봇
KR102179057B1 (ko) 복수의 자율주행 청소기
KR102217540B1 (ko) 이동 로봇 및 복수의 이동 로봇의 제어방법
KR102396048B1 (ko) 로봇청소기 및 그 제어방법
US20220240743A1 (en) Docking device and mobile robot system
KR102348963B1 (ko) 로봇 청소기 및 그 제어 방법
KR102234642B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
KR20210146141A (ko) 이동 로봇 및 이의 코너 구역 주행 방법
KR20200133544A (ko) 이동 로봇 및 그 제어방법
TWI760881B (zh) 清掃機器人及其控制方法
KR102115193B1 (ko) 로봇 청소기 및 그 동작방법
KR102398332B1 (ko) 청소기 및 그 제어방법
KR102277650B1 (ko) 청소기 및 그 제어방법
KR102390039B1 (ko) 로봇 청소기 및 그 제어 방법
KR102361982B1 (ko) 이동 로봇 및 이의 제어 방법
KR20230109424A (ko) 이동 로봇, 이동 로봇의 제어방법, 및 이동 로봇의 제어 시스템
KR20210123932A (ko) 로봇청소기 및 그 제어방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant